0% ont trouvé ce document utile (0 vote)
81 vues7 pages

ANOVA et Comparaisons de Moyennes

Transféré par

R495 1
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
81 vues7 pages

ANOVA et Comparaisons de Moyennes

Transféré par

R495 1
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Sam Meyer - 4BB-BIOSTAT2 2020-2021

TP4 : ANOVA I : correction

1 Questions de compréhension des concepts


1. Elle permet de tester l’hypothèse nulle de l’égalité (globale) des moyennes des différentes modalités du
facteur pris en compte : µ1 = µ2 = ... = µr
2. Test de Student. On peut être amené à utiliser d’autres tests si on suspecte que les résidus ne suivent pas
une distribution normale, ou si on n’a pas d’information à ce sujet.
3. Normalité, homéoscédasticité des résidus. Tests de Shapiro-Wilks et Bartlett.
4. Pour contrôler le risque global (de première espèce) de la comparaison multiple, plutôt que les risques
individuels des tests.
5. A priori : on a défini avec précision avant la collecte de données les comparaisons de moyennes qu’on
souhaite effectuer, et on s’en tient à cela. A posteriori : On ne définit pas les comparaisons avant la
collecte, et on tient donc compte des résultats pour les choisir. Attention, c’est très dangereux. Un cas
limite est le test de Tukey, où, faute d’avoir choisi à l’avance, on fait l’ensemble des comparaisons
possibles.
6. Un contraste linéaire estP une combinaison
P linéaire des moyennes de groupe, tel que la somme des
coefficients vaut 0 : ψ = i=1 rai µi , i=1 rai = 0. Sous l’hypothèse nulle µ1 = µ2 = ... = µr , on a
donc ψ = 0. Le calcul de la valeur estimée du contraste permet de tester une relation spécifique entre
les différentes modalités. Par exemple, le contraste ψ = µ0 − (µ1 + µ2 )/2 permet de tester l’égalité
entre la population 0 (p. ex. témoin) et la moyenne des populations 1 et 2.
7. Tuckey : permet de tester simultanément l’égalité pour tous les couples de groupes : {µi = µj }1≤i<j≤r .
Dunnett : permet de tester simultanément l’égalité entre chacun des groupes et un témoin :{µi =
µ1 }1<i≤r

2 Anova 1 : Mémorisation des mots


1. Variable dépendante : nombre de mots retenus. Facteur : méthode d’apprentissage.
2. yi,j = µ0 + φi + i,j où µ0 désigne une valeur de référenbce (par défaut dans R le niveau de la
première modalité), i désigne la modalité du facteur, et les i,j sont des tirages indépendants d’une
même distribution normale centrée. L’hypothèse nulle est que le facteur n’a pas d’effet sur la variable
dépendante, soit φ1 = φ2 = ... = 0.
3. Voir code. Pas d’effet évident, mais des différences à tester.
4. Cf code : on teste H0 exprimée plus haut, avec un risque α = 0.05. Le test de Fisher donne une p-value
d’environ 2.10−5 , donc on rejette H0 avec une bonne confiance et on conclut à un effet significatif de
la méthode d’apprentissage.
5. Cf test de Bartlett et de Shapiro : l’homéoscédasticité est un peu limite, donc il faudra garder à l’esprit
ce problème potentiel ; avec un seuil α = 0.01, on ne l’aurait pas détecté donc on peut néanmoins
poursuivre l’analyse. Pas d’écart à la normalité détecté sur ces données - mais avec la réserve issue de
l’observation précédente.
6. Le summary nous indique une valeur estimée de σ qui vaut 3.11, sur 45 ddl, ce qui est normal sachant
qu’on a 50 points de mesure et 5 modalités.
7. Par défaut la valeur de référence est le niveau de la première modalité, et les r − 1 contrastes sont les
écarts entre toutes les autres modalités et la première (dans l’ordre alphabétique...). On a donc µ0 = 11,
φ2 = −4, φ3 = 2.4 etc (φ1 = 0 n’est pas utile avec ce choix de contrastes). Si on a écrit le modèle avec
µ1 , µ2 , ..., on peut calculer leur valeur en faisant la somme des estimations fournies et de la valeur de
référence : µ1 = 11, µ2 = 11 − 4 = 7, µ3 = 11 + 2.4 = 13.4, etc.
8. Entre la première et la deuxième, on a une différence (négative) indiquée comme significative. Un IC
est calculé à l’aide de l’estimation et de l’erreur-type, en utilisant la loi de Student à 45 ddl : (−4 −
2.01 ∗ 1.39; −4 + 2.01 ∗ 1.39) = (−6.79; −1.21) où 2.01 est obtenu par la commande qt(.975,45).

1
9. Non, ici sauf information supplémentaire il n’y avait pas de groupe privilégié, donc le choix arbitraire
d’un premier groupe privilégié est peu adapté.
10. Nous aurions besoin d’utiliser le test de Tukey. Il compare systématiquement les groupes les uns aux
autres (ici 10 comparaisons : {µi = µj }1≤i<j≤r ) et de ce fait conduit à une perte de puissance.
11. cf code : on voit clairement apparaître deux groupes de méthodes d’efficacité différentes entre eux, et
non distinguables à l’intérieur des groupes.

> a=read.table("mots.txt"); cond=a$V2; res=a$V3


> plot(res~cond)
> ano=aov(res~cond); summary(ano)

Df Sum Sq Mean Sq F value Pr(>F)


cond 4 351.5 87.88 9.085 1.82e-05 ***
Residuals 45 435.3 9.67
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

> bartlett.test(res,g=cond)

Bartlett test of homogeneity of variances

data: res and cond


Bartlett’s K-squared = 9.9339, df = 4, p-value = 0.04156

> shapiro.test(ano$residuals)

Shapiro-Wilk normality test

data: ano$residuals
W = 0.95964, p-value = 0.08586

> summary(lm(ano))

Call:
lm(formula = ano)

Residuals:
Min 1Q Median 3Q Max
-7.00 -1.85 -0.45 2.00 9.60

Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 11.0000 0.9835 11.184 1.39e-14 ***
condCounting -4.0000 1.3909 -2.876 0.00614 **
condImagery 2.4000 1.3909 1.725 0.09130 .
condIntentional 1.0000 1.3909 0.719 0.47589
condRhyming -4.1000 1.3909 -2.948 0.00506 **
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 3.11 on 45 degrees of freedom


Multiple R-squared: 0.4468, Adjusted R-squared: 0.3976
F-statistic: 9.085 on 4 and 45 DF, p-value: 1.815e-05

> TukeyHSD(ano)

2
Tukey multiple comparisons of means
95% family-wise confidence level

Fit: aov(formula = res ~ cond)

$cond
diff lwr upr p adj
Counting-Adjective -4.0 -7.952238 -0.04776201 0.0460196
Imagery-Adjective 2.4 -1.552238 6.35223799 0.4291513
Intentional-Adjective 1.0 -2.952238 4.95223799 0.9510451
Rhyming-Adjective -4.1 -8.052238 -0.14776201 0.0385792
Imagery-Counting 6.4 2.447762 10.35223799 0.0003180
Intentional-Counting 5.0 1.047762 8.95223799 0.0068354
Rhyming-Counting -0.1 -4.052238 3.85223799 0.9999937
Intentional-Imagery -1.4 -5.352238 2.55223799 0.8510119
Rhyming-Imagery -6.5 -10.452238 -2.54776201 0.0002524
Rhyming-Intentional -5.1 -9.052238 -1.14776201 0.0055623
20
15
res

10
5

Adjective Counting Imagery Intentional Rhyming

cond

3 Anova 1 et comparaisons multiples de moyennes : Activité motrice du rat


1. > a=read.table("rats.txt")
> summary(a); x=a$V1; y=a$V2; plot(y~x)
V1 V2
0 :10 Min. : 8.00
0.1g:10 1st Qu.:35.00
0.5g: 9 Median :48.00
1g : 8 Mean :48.08
3rd Qu.:60.00
Max. :93.00
> # Le traitement semble avoir un effet, mais il nécessite d’^
etre quantifié
> # puisque, par exemple, l’effet pour 1g est plus faible que pour 0.5g
> # La variance est similaire pour les différents groupes
> ano=aov(y~x); summary(ano)
Df Sum Sq Mean Sq F value Pr(>F)
x 3 3409 1136.4 4.566 0.00879 **
Residuals 33 8214 248.9
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
> bartlett.test(y,g=x)
Bartlett test of homogeneity of variances

data: y and x
Bartlett’s K-squared = 2.4629, df = 3, p-value = 0.482

3
> shapiro.test(ano$residuals)
Shapiro-Wilk normality test

data: ano$residuals
W = 0.97595, p-value = 0.5915
> summary(lm(ano))
Call:
lm(formula = ano)

Residuals:
Min 1Q Median 3Q Max
-26.000 -10.333 -2.333 9.500 42.200

Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 34.000 4.989 6.815 8.95e-08 ***
x0.1g 16.800 7.055 2.381 0.023185 *
x0.5g 26.333 7.249 3.633 0.000941 ***
x1g 14.500 7.483 1.938 0.061268 .
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 15.78 on 33 degrees of freedom


Multiple R-squared: 0.2933, Adjusted R-squared: 0.2291
F-statistic: 4.566 on 3 and 33 DF, p-value: 0.008792


80
60
y

40


20

0 0.1g 0.5g 1g

2. On voit une différence surtout pour l’une des modalités, mais difficile de conclure. En revanche, comme
l’effet ne semble pas croissant, il est en tout cas préférable de traiter les différentes doses comme des
modalités, plutôt que comme des valeurs d’une variable quantitative afin de faire une régression.
3. Modèle : yi,j = µ0 + φi + i,j où φi désigne l’effet différentiel du produit, et i,j est tiré d’une normale
centrée unique qui décrit l’influence des facteurs non contrôlés.
4. Hypothèse nulle : H0 : φ1 = φ2 = φ3 = φ4 = 0 rejetée par le test. Le tableau indique que l’hypothèse
nulle de l’ANOVA est rejetée avec un risque α = 0.05 : on conclut donc à un effet significatif globale-
ment. Les deux tests de validation (Bartlett et Shapiro) conduisent à ne pas rejeter leur hypothèse nulle
respective : on peut donc considérer que les conditions d’application sont remplies.
5. Question répétée
6. Il s’agit des contrastes par déaut défaut dans R : ψi = µi+1 − µ1 pour 1 ≤ i ≤ 3.
7. Le test de Tukey n’est pas adapté car nous ferions plus de comparaisons que nécessaire.

4
8. Le summary du modèle nous indique les valeurs estimées des trois contrastes et leurs erreurs-types.
Estimations : 16.8, 26.3 et 14.5. Les IC sont calculées comme à l’exercice précédent : 16.8 ± 2.01 ∗
7.055 = (2.62; 30.98) etc. Le 2.01 est calculé par qt(.975,33). Remarquez que ce premier IC passe
très près de 0, donc notre estimation de l’écart est vraiment peu précise.
9. Il y a trois (= r − 1) contrastes, donc trois tests simultanés à effectuer, on peut donc utiliser des tests de
Student en appliquant la correction de Bonferroni : α0 = α/3 = 0.017 pour α = 0.05. On peut aussi
multiplier les p-values par 3 pour obtenir des p-values ajustées à comparer au risque α choisi (c’est
pareil). Il n’y a donc qu’un traitement efficace avec ce contrôle du risque global et un risque α = 0.05.
10. Une fluctuation importante du groupe témoin affecterait l’ensemble des tests : il est donc abusif de les
considérer comme indépendants (hypothèse de Bonferroni). Le test le plus adapté est donc celui de
Dunnett, qui tient compte de ce problème et est optimisé pour le plan d’analyse choisi.

4 Un exemple d’ANOVA à plusieurs facteurs


1. Variables explicatives (facteurs) : type de sonde (A) et nature du sol (B). Variable dépendante : quantité
de phosphate dans le sol (Y). Le plan d’expérience est croisé. Modèle : yijk = µ0 + φi + γj + ηij +
ijk , avec i et j désignant respectivement les modalités des deux facteurs, et k l’indice de la mesure
à conditions fixées : l’inspection du fichier de données nous donne 1 ≤ k ≤ 4. µ0 est la valeur de
référence, φi et γj désignent les effets principaux des deux facteurs, et ηij le terme d’interaction : ce
sont des nombres. ijk sont les résidus, qui dérivent d’une variable aléatoire  normale centrée.
2. L’effet du sol est clair. Celui de la sonde l’est beaucoup moins, ce qui est à priori satisfaisant puisqu’on
veut tester qu’elles donnent des résultats cohérents ! Cependant, (i) on voit que la seconde a des valeurs
plus élevées (voir moyennes) et (ii) le graphe montre les valeurs moyennées sur les deux types de sols,
ce qui pourrait cacher des différences ! On va donc faire comme si les deux agissaient et regarder le
graphe d’interaction.
> a=read.table("sonde.txt",header=T)
> sol=as.factor(a$Sol); sonde=a$Sonde; y=a$phosphate
> par(mfrow=c(1,2)); plot(y~sonde); plot(y~sol)


50

50
45

45
y

y
40

40
35

35

ASX56 LIND321 1 2

sonde sol

3. Voir code
4. H0 : “Pas d’interaction entre les deux facteurs”, ou “ηi,j = 0 pour tous i,j”. Cela voudrait dire que les
différences entre les sondes sont indépendantes du type de sol, et sont donc des propriétés “intrinsèques”
des sondes. Cela se traduirait sur le graphe d’interaction par le fait que les écarts entre les droites sont
indépendantes du type de sol (abscisse), cad qu’elles sont parallèles. Cela semble effectivement le cas
ici, ce qui semble indiquer une absence d’interaction, mais attention car on ignore le niveau de “bruit”
sur ce graphe : le petit écart au parallélisme est-il significatif, si on a des mesures très précises ? Ou, au
contraire, si le bruit est très élevé, les différences observées entre les sondes ne le sont-elles pas du tout ?
On ne peut pas le savoir juste avec ce graphe, mais par un test de Fisher. Au passage, on voit bien ici des
différences entre les sondes ! Cela n’est pas contradictoire avec l’observation de la question précédente,
mais indique seulement que celles-ci étaient “gommées” par le mélange des deux types de sols.
> a=read.table("sonde.txt",header=T)
> sol=as.factor(a$Sol); sonde=a$Sonde; y=a$phosphate #$
> interaction.plot(sonde,sol,y)
> ano1=aov(y~sol*sonde)
> summary(ano1)

5
Df Sum Sq Mean Sq F value Pr(>F)
sol 1 181.5 181.50 29.04 4.03e-05 ***
sonde 2 49.0 24.50 3.92 0.0386 *
sol:sonde 2 3.0 1.50 0.24 0.7891
Residuals 18 112.5 6.25
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
> # On construit donc un second modèle sans interaction
> ano2=aov(y~sol+sonde)
> summary(ano2)
Df Sum Sq Mean Sq F value Pr(>F)
sol 1 181.5 181.50 31.429 1.74e-05 ***
sonde 2 49.0 24.50 4.242 0.0291 *
Residuals 20 115.5 5.77
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
> summary(lm(ano2))
Call:
lm(formula = ano2)

Residuals:
Min 1Q Median 3Q Max
-3.500 -1.125 -0.500 1.062 6.500

Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 44.7500 0.9811 45.613 < 2e-16 ***
sol2 -5.5000 0.9811 -5.606 1.74e-05 ***
sondeLIND113 1.7500 1.2016 1.456 0.161
sondeLIND321 -1.7500 1.2016 -1.456 0.161
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 2.403 on 20 degrees of freedom


Multiple R-squared: 0.6662, Adjusted R-squared: 0.6161
F-statistic: 13.3 on 3 and 20 DF, p-value: 5.305e-05
> bartlett.test(y,g=paste(sol,sonde))
Bartlett test of homogeneity of variances

data: y and paste(sol, sonde)


Bartlett’s K-squared = 6.2454, df = 5, p-value = 0.2831
> shapiro.test(ano2$residuals)
Shapiro-Wilk normality test

data: ano2$residuals
W = 0.93852, p-value = 0.1512

6
sol

46
1

44
mean of y 2

42
40
38

ASX56 LIND113 LIND321

sonde

5. Le test de Fisher de l’hypothèse nulle global sur l’interaction conduit à une p-value de 0.79, donc on ne
rejette pas (et de loin) H0 : l’interaction n’est pas significative.
6. Cf code pour le modèle 2. L’effet principal est bien significatif, même si c’est limite pour la sonde.
7. On utilise le modèle sans interaction. La valeur de référence est la première modalité de chaque facteur,
et donne une valeur de 44.75. Le passage du sol 1 à 2 (φ2 ) a un contrast de −5.5. Les contrastes pour le
passage aux sondes 2 et 3 sont de 1.75 et -1.75 respectivement (γ2 et γ3 ). Remarquez que ces valeurs ne
sont pas significatives, ce qui n’est pas contradictoire avec l’effet global significatif de la sonde, puisque
c’est plutôt la différence entre les sondes 2 et 3 qui donne la contribution principale. Pour les IC, même
calcul qu’à l’exercice précédent, avec 20 ddl pour l’estimation de σ.
8. On réalise les deux tests sur les résidus. Notez que pour Bartlett, il faut séparer les 6 modalités ! Cela
peut se faire “facilement” en collant les chaînes de caractères pour les séparer (vérifier qu’il y a bien 5
degrés de liberté).

Vous aimerez peut-être aussi