0% ont trouvé ce document utile (0 vote)
27 vues18 pages

Chap2 Annexe

Le document présente les méthodes statistiques pour comparer deux moyennes de populations indépendantes, en se concentrant sur le test de Student pour des échantillons de petite taille. Il décrit les hypothèses de test, les statistiques de test, et fournit des exemples concrets d'application dans le domaine de la psychologie. Enfin, il aborde la décision statistique basée sur le niveau de signification et le risque d'erreur de première espèce.

Transféré par

mebanda ndongo
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
27 vues18 pages

Chap2 Annexe

Le document présente les méthodes statistiques pour comparer deux moyennes de populations indépendantes, en se concentrant sur le test de Student pour des échantillons de petite taille. Il décrit les hypothèses de test, les statistiques de test, et fournit des exemples concrets d'application dans le domaine de la psychologie. Enfin, il aborde la décision statistique basée sur le niveau de signification et le risque d'erreur de première espèce.

Transféré par

mebanda ndongo
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

U.F.R.

SPSE – Master 1
PMP STA 21 Méthodes statistiques pour l’analyse des données en psychologie 2009-10

Annexe Chapitre 2 : RAPPELS

A. Tests paramétriques de comparaisons de deux variables


quantitatives

1 Test de comparaison de deux moyennes pour deux échantillons


indépendants
Premier cas : petits échantillons, lois normales, même variance
Test de Student
1.1 Contexte
Il s’agit d’un test portant sur deux échantillons indépendants issus de deux populations P1 et P2 , et sur deux
variables X et Y représentant le même caractère quantitatif continu, distribuées suivant une loi normale.
– P1 et P2 sont deux populations,
– X et Y sont deux variables quantitatives indépendantes, issues respectivement de P1 et P2 , telles que

X ∼ N (µX , σ) et Y ∼ N (µY , σ) ,

avec µX , µY et σ inconnus.
– il n’existe pas de conditions sur la taille des échantillons, mais en pratique on applique ce test pour des
échantillons de petites tailles (n1 ou n2 < 30). Pour les grands échantillons (n1 et n2 ≥ 30) on utilise plutôt
son approximation normale (cf section A.2).

Exemple 1
Dans une étude s’intéressant au rôle de la valeur affective d’un texte dans la récupération du souvenir
chez les personnes âgées, on a recueilli l’âge (en années) et le score au test de ”Wescher Mémoire” d’un
groupe de 10 personnes présentant un déficit mnésique et d’un groupe de 11 personnes ne présentant
pas ce déficit.
sujet déficitaire 1 2 3 4 5 6 7 8 9 10
âge 80 91 82 87 82 85 84 85 88 87
score de Wescher 66 59 84 68 80 75 72 82 78 76

sujet non déficitaire 1 2 3 4 5 6 7 8 9 10 11


âge 80 81 82 84 85 85 86 89 91 92 86
score de Wescher 113 94 87 98 103 110 97 119 88 91 100
1. On cherche dans un premier temps à vérifier si les deux populations sont homogènes vis à vis de
l’âge.
2. Dans un second temps on souhaite mettre en évidence, au risque α = 1% le fait que les personnes
présentant un déficit mnésique ont un score diminué.
Exemple 1.1
Contexte
P1 : personnes âgées présentant un déficit mnésique
P2 : personnes âgées ne présentant pas de déficit mnésique
X=^ age, quantitative de moyenne µX et d’écart-type σ dans P1
Y =^ age, quantitative de moyenne µY et d’écart-type σ dans P2
Les deux variables X et Y représentent le même caractère quantitatif continu, et sont supposées suivre
des lois normales dans P1 et P2 de même variance (σ 2 ).

1
1.2 Hypothèses de test et risque
L’hypothèse nulle H0 correspond au fait que les moyennes des variables X et Y sont identiques H0 : µX =
µY
alors que sous l’alternative H1 on suppose, selon l’hypothèse de recherche envisagée
soit que les variables X et Y ont deux moyennes différentes H1 : µX 6= µY test bilatéral,
soit que la moyenne de X est plus élevée que celle de Y H1 : µX > µY
soit que la moyenne de X est plus faible que celle de Y H1 : µX < µY tests unilatéraux.
Le risque d’erreur de 1ère espèce α, probabilité de rejeter H0 à tort, est fixé à l’avance, et en général on choisit
α = 5%.

Exemple 1.1
Hypothèses de test et risque
On veut tester l’hypothèse selon laquelle les âges des personnes déficitaires sont semblables à ceux
des personnes non déficitaires, que l’on traduit puisque les variables sont normales, par le fait que les
moyennes d’âge des deux populations sont égales, qui correspond à l’hypothèse nulle. Sous l’alternative
les moyennes d’âge des deux populations sont différentes (pas d’orientation).
Il s’agit de tester H0 : µX = µY contre H1 : µX 6= µY alternative bilatérale, le risque n’étant pas
précisé on prendra α = 5%.

1.3 Observations
On dispose de 2 échantillons tirés au hasard de manière indépendante dans les 2 populations.
On note :
E1 l’échantillon de taille n1 issu de P1 et (x1 , . . . , xn1 ) les mesures de E1 ,
E2 l’échantillon de taille n2 issu de P2 et (y1 , . . . , yn2 ) les mesures de E2
Les résultats sont résumés pour chaque échantillon par

les valeurs observées des moyenne X, écart-type SX et écart-type sans biais SX empiriques sur l’échantillon
E1 notées :
moyenne x, écart-type sX et écart-type sans biais (corrigé) s∗X
les valeurs observées des moyenne Y , écart-type SY et écart-type sans biais SY∗ empiriques sur l’échantillon
E2 notées :
moyenne y, écart-type sY et écart-type sans biais (corrigé) s∗Y .

Exemple 1.1
Observations
échantillon E1 issu de P1 de taille n1 = 10
1
xi = 851 = 85, 10
P
on observe : x = 10
q P 10 q q
sX = 10 1
x2i − x2 = 7210
517
− 85, 102 = 3, 11 s∗X = 10
9 × 3, 11 = 3, 28

échantillon E2 issu de P2 de taille n2 = 11


1
yi = 941 = 85, 55
P
on observe : y = 11
q P 11 q q
sY = 11 1
yi2 − y 2 = 8011
649
− 85, 552 = 3, 70 s∗Y = 11
10 × 3, 70 = 3, 88

On estime à 85,10 ans l’âge moyen des personnes présentant un déficit mnésique et à 85,55 ans l’âge
moyen des personnes ne présentant pas ce déficit.
On estime à 3,28 ans l’écart-type de l’âge des personnes présentant un déficit mnésique et à 3,88 ans
l’écart-type de l’âge des personnes ne présentant pas ce déficit.

2
1.4 Statistique de test et loi sous H0
• Statistique de test de Student
L’écart entre les deux moyennes est quantifié par la différence des moyennes empiriques X − Y , qui sous
l’hypothèse nulle H0 d’égalité des deux moyennes µX et µY doit être proche de 0. La statistique de test
prend également en compte la variabilité de cette différence qui dépend de l’estimation de la variance σ 2
supposée commune à X et Y .
Sous les conditions que X et Y suivent des lois normales de même variance σ 2 ,
la statistique de test de Student
s
2 2
X −Y ∗ n1 (SX ) + n2 (SY )
T = q avec S =
S∗ 1 + 1 n1 + n2 − 2
n1 n2

suit sous H0 une loi de Student à (n1 + n2 − 2) dl, notée Tn1 +n2 −2
où S ∗2 estime la variance commune σ 2 .
La valeur observée de T
s
x−y ∗ n1 s2X + n2 s2Y
tobs = q avec s =
s∗ 1 1 n1 + n2 − 2
n1 + n2

• Région critique et niveau de signification du test


Test unilatéral
H1 : µX > µY RC à droite pour T αobs = PH0 [T ≥ tobs ] = 1 − PH0 [T ≤ tobs ]
H1 : µX < µY RC à gauche pour T αobs = PH0 [T ≤ tobs ]
Test bilatéral
H1 : µX 6= µY RC aux 2 extrémités de T αobs = 2 × PH0 [T ≥ |tobs |]
Chaque probabilité est calculée à partir de la loi Tn1 +n2 −2

Exemple 1.1
Statistique de test de Student et loi sous H0
Puisque X et Y sont supposées normales de même variance, la statistique de test de Student T suit
sous H0 une loi de Student à n1 + n2 − 2 = 10 + 11 − 2 = 19 dl.
q
2 +11×3,702
L’estimation de l’écart-type commun s∗ = 10×3,1110+11−2 = 3, 61
85,10−85,55
√1 1
et la valeur observée de T : tobs = = −0, 282402
3,61 10 + 11

Niveau de signification
Sous H1 : µX 6= µY alternative bilatérale, RC se situe aux 2 extrémités du domaine de variation de T ,
donc
αobs = 2 × PH0 [T ≥ |tobs |] = 2 × PH0 [T ≥ | − 0, 282401|] = 2 × PH0 [T ≥ 0, 282401]
= 2 × 0, 390344 = 0, 780689 (calculée à partir de la loi T19 )
Décision et conclusion
Pour un niveau α = 5%, αobs = 78, 1% > α donc on conserve H0 (on rejette H1 ) au seuil α = 5% et
au risque de 2de espèce β (inconnu).
On ne peut donc pas conclure à l’existence d’une différence entre les âges des personnes présentant un
déficit mnésique et ceux des personnes n’en présentant pas, au seuil α = 5% et au risque de 2de espèce
β.

3
Exemple 1.2
Contexte
P1 : personnes âgées présentant un déficit mnésique
P2 : personnes âgées ne présentant pas de déficit mnésique
X = score de Wescher, quantitative de moyenne µX et d’écart-type σ dans P1
Y = score de Wescher, quantitative de moyenne µY et d’écart-type σ dans P2
Les deux variables X et Y représentent le même caractère quantitatif continu, et sont supposées suivre
des lois normales dans P1 et P2 de même variance (σ 2 ).
Hypothèses de test et risque
On veut tester l’hypothèse selon laquelle les scores de Wescher des personnes déficitaires sont plus faibles
que ceux des personnes non déficitaires, que l’on traduit par le fait que le score moyen des personnes
déficitaires est inférieur à celui des personnes non déficitaires, hypothèse alternative unilatérale.
Il s’agit de tester H0 : µX = µY contre H1 : µX < µY alternative unilatérale, au risque α = 1%.
Observations
échantillon E1 issu de P1 de taille n1 = 10
1
xi = 740 = 74
P
on observe : x = 10
q P 10 q q
sX = 10 1
x2i − x2 = 5510
310
− 742 = 7, 42 s∗X = 10
9 × 7, 42 = 7, 82

échantillon E2 issu de P2 de taille n2 = 11


1
yi = 1100 = 100
P
on observe : y = 11
q P 11 q q
sY = 11 1
yi2 − y 2 = 11111082 − 1002 = 9, 92 s∗Y = 11
10 × 9, 92 = 10, 40

On estime à 74 le score de Wescher moyen des personnes présentant un déficit mnésique et à 100 le
score moyen des personnes ne présentant pas ce déficit.
On estime à 7,82 l’écart-type du score des personnes présentant un déficit mnésique et à 10,4 l’écart-type
du score des personnes ne présentant pas ce déficit.
Statistique de test de Student et loi sous H0
Puisque X et Y sont supposées normales de même variance, la statistique de test de Student T suit
sous H0 une loi de Student à n1 + n2 − 2 = 10 + 11 − 2 = 19 dl.
q
2 +11×9,922
L’estimation de l’écart-type commun s∗ = 10×7,4210+11−2 = 9, 27
74−100
√1 1
et la valeur observée de T : tobs = = −6, 420617
9,27 10 + 11

Niveau de signification
Sous H1 : µX < µY alternative unilatérale, la différence des scores moyens X − Y est négative ainsi
que la valeur de T : RC se situe à gauche du domaine de variation de T , donc
αobs = PH0 [T ≤ tobs ] = PH0 [T ≤ −6, 420617] = 1 − PH0 [T ≤ 6, 420617]
= 0, 00000186 (calculée à partir de la loi T19 )
Décision et conclusion
αobs < α = 1%, donc on rejette H0 et on valide H1 au risque α = 1%.
On peut donc conclure que les personnes présentant un déficit mnésique ont un score de Wescher moyen
inférieur à celui des personnes n’en présentant pas, au risque α = 1% et au niveau de signification
αobs < 10−5 .

4
2 Test de comparaison de deux moyennes pour deux échantillons
indépendants
Second cas : grands échantillons et lois quelconques
2.1 Contexte
Le contexte est identique à celui du test précédent, mais pour échantillons de grandes tailles (n1 et n2 ≥ 30)
ce qui se substitue aux conditions de normalité des variables et d’égalité des variances.
Il s’agit d’un test portant sur deux échantillons indépendants issus de deux populations P1 et P2 , et sur deux
variables X et Y représentant le même caractère quantitatif continu, de lois quelconques, de moyennes µX
et µY , d’écarts-types σX et σY inconnus.

Exemple 2 (Tiré de L. Chanquoy, “Statistiques Appliquées à la Psychologie”, pp. 100-101)


Dans une expérience sur les images mentales, 135 étudiants sont répartis en deux groupes (l’un de 60
et l’autre de 75) : ils doivent apprendre une liste de 40 mots concrets et les rappeler une heure après
l’apprentissage. Le premier groupe utilise la méthode dite de “l’image construite”, le second groupe la
méthode de “l’image donnée”. Les résultats (nombre de mots rappelés) sont donnés dans le tableau
ci-dessous :
effectif moyenne variance sans biais
méthode de l’image construite n1 = 60 x = 22 s∗2
X = 15, 4
méthode de l’image donnée n2 = 75 y = 16 s∗2
Y = 11, 7

On veut tester l’hypothèse selon laquelle la méthode de “l’image construite” est plus performante que
celle de “l’image donnée”, au risque α = 1%.
Contexte
P1 : étudiant utilisant la méthode de “l’image construite”
P2 : étudiant utilisant la méthode de “l’image donnée”
X = nombre de mots rappelés, quantitative de moyenne µX et d’écart-type σX dans P1
Y = nombre de mots rappelés, quantitative de moyenne µY et d’écart-type σY dans P2
Les deux variables X et Y représentent le même caractère quantitatif continu.
Hypothèses de test et risque
Il s’agit de tester l’hypothèse selon laquelle le nombre de mots moyen rappelés avec la méthode de
“l’image construite” est supérieur au nombre de mots moyen rappelés avec la méthode de “l’image
donnée”, c’est à dire : µX > µY , alternative unilatérale. Cela revient à mettre en place le test de
comparaison de deux moyennes sur deux échantillons indépendants

H0 : µ1 = µ2
H1 : µ1 > µ2 unilatéral droit au risque α = 1%
Observations
échantillon E1 issu de P1 de taille n1 = 60

on observe : x = 22 s∗2 X = 15, 4 s∗X = 15, 4 = 3, 9
échantillon E2 issu de P2 de taille n2 = 75

on observe : y = 16 s∗2 Y = 11, 7 s∗Y = 11, 7 = 3, 4
On estime à 22 le nombre moyen de mots rappelés par les étudiants utilisant la méthode de “l’image
construite” et à 16 le nombre de mots moyen rappelés avec la méthode de “l’image donnée”.
On estime à 3,9 l’écart-type du nombre de mots rappelés par les étudiants utilisant la méthode de
“l’image construite” et à 3,4 l’écart-type du nombre de mots rappelés avec la méthode de “l’image
donnée”.

5
2.2 Statistique de test et loi sous H0
Sous la condition n1 et n2 ≥ 30 et sous l’hypothèse nulle d’égalité des deux moyennes H0 : µX = µY la
statistique de test
X −Y approx.
Z=r ∼ N (0, 1)
2 2
(SX

) (SY∗ )
n1 + n2

• Valeur observée de la statistique de test


La valeur observée de la statistique de test Z : zobs = r x−y
s∗2 s∗2
X + Y
n1 n2

• Région critique et niveau de signification du test


Test unilatéral
H1 : µX > µY RC à droite pour Z αobs = PH0 [Z ≥ zobs ] = 1 − PH0 [Z ≤ zobs ]
H1 : µX < µY RC à gauche pour Z αobs = PH0 [Z ≤ zobs ]
Test bilatéral
H1 : µX 6= µY RC aux 2 extrémités de Z αobs = 2 × PH0 [Z ≥ |zobs |]
Chaque probabilité est calculée à partir de la loi N (0, 1).

Exemple 2
Statistique de test et loi sous H0
Puisque n1 = 60 ≥ 30 et n2 = 75 ≥ 30 la statistique de test Z suit approximativement sous H0 une loi
normale centrée réduite N (0, 1).
22−16
La valeur observée de Z : zobs = √ 15,4 11,7
= 9, 34.
60 + 75
Niveau de signification
Sous l’alternative unilatérale H1 : µX > µY on s’attend à observer une valeur de X plus grande que
celle de Y donc une valeur de X − Y largement positive, de même pour Z ; RC est à l’extrémité droite
du domaine de variation de Z.
Il suffit alors de calculer la p-valeur αobs = PH0 [Z ≥ 9, 34] = 1 − PH0 [Z ≤ 9, 34] ' 0, 00000....
Décision et conclusion
Comme αobs < α = 1%, on rejette H0 avec un risque de 1% et on accepte l’hypothèse H1 .
On peut conclure que le nombre moyen de mots rappelés par les étudiants utilisant la méthode de
“l’image construite” est supérieur au nombre de mots moyen rappelés avec la méthode de “l’image
donnée” donc que la méthode de “l’image construite” est plus performante que celle de “l’image
donnée”, avec un risque de 1%.

Remarque
STATISTICA utilise systématiquement la statistique T (avec une loi Student), même si n1 , n2 ≥ 30.
On peut demander le calcul de la statistique Z en option (variances séparées) mais la loi utilisée par STA-
TISTICA pour calculer la p-valeur n’est pas la loi normale mais une loi de Student dont des dl sont calculés
à partir des variances observées.

6
3 Tests de comparaison de deux moyennes pour deux échantillons
appariés
3.1 Contexte
Il s’agit d’un test portant sur deux échantillons appariés (ou pairés, ou appareillés) de deux variables X et
Y représentant le même caractère quantitatif continu,
soit issus d’une même population P, et dans ce cas les mesures de X et de Y sont faites sur les mêmes
individus,
soit issus d’une population P composée de paires d’individus (2 individus) aussi semblables que possible :
- personnes de la même famille (paires de jumeaux, (père, fils), ...)
- ou bien, on définit des ”variables d’appariement” (sexe, âge, durée ou gravité de la maladie, ...).
Pour comparer les moyennes de X et Y , on cherche à contrôler les facteurs ”connus” et ”inconnus” qui jouent
un rôle dans la différence entre les variables X et Y , autres que le facteur étudié, qui pourraient être des
”facteurs de confusion”.

Exemples types d’utilisation de ce test :


∗ comparaison de type avant-après (un traitement, une thérapie, un régime, ...)
Pour chaque sujet, X représente le résultat avant traitement et Y le résultat après traitement.
Pour détecter un changement dû à ce traitement :
en hypothèse nulle, on suppose qu’il n’y a pas de changement H0 : µX = µY
en alternative, selon l’hypothèse de recherche envisagée
il y a une amélioration alternative unilatérale H1 : µX > µY ou H1 : µX < µY
ou une modification (sans préciser l’orientation) alternative bilatérale H1 : µX 6= µY
La ”paire” est constituée par un seul individu et l’appariement est idéal : le sujet est pris comme son
”propre témoin” (ou ”contrôle”). Ceci permet d’augmenter la puissance en diminuant la variabilité des
résultats : en effet, la variabilité des résultats d’un même individu (”intra-sujet”) est plus faible que
celle d’individus différents (”inter-sujets”).
∗ comparaison de l’efficacité de deux traitements
X désigne le résultat avec le traitement A et Y le résultat avec le traitement B.
Pour comparer l’efficacité des traitements :
en hypothèse nulle, on suppose que les deux traitements ont la même efficacité H0 : µX = µY
en alternative, selon l’hypothèse de recherche envisagée
un traitement est plus performant que l’autre, alternative unilatérale
H1 : µX < µY ou H1 : µX > µY
ou ils ont simplement des efficacités différentes (sans orientation) alternative bilatérale
H1 : µX 6= µY
Si le sujet est son propre témoin, chaque sujet reçoit le traitement A et le traitement B dans un ordre
qui peut-être aléatoire, ou prédéterminé si l’on veut étudier un ”effet ordre” du traitement.
L’appariement permet de contrôler les facteurs connus (ou inconnus) pour influencer l’évolution de la
maladie, autres que le traitement (âge, intensité, durée, ...).
Il permet de limiter le ”biais de confusion” qui consisterait à conclure à l’existence d’une différence
d’efficacité entre les traitements alors qu’elle n’est due qu’à un (ou des) facteur(s) de confusion.
On dispose donc de deux échantillons appariés (en paires d’individus ”jumeaux”) de taille n.

Principe pour des échantillons appariés :


on travaille sur la variable ”différence” notée D = X − Y (ou Y − X).

7
3.2 Hypothèses de test et risque
Les hypothèses se traduisent sur la moyenne de la variable D notée µ en remarquant que µ = µX − µY (ou
µY − µX ).
L’hypothèse nulle H0 : µX = µY s’écrit H0 : µ = 0
l’alternative bilatérale H1 : µX 6= µY s’écrit H1 : µ 6= 0
ou les alternatives unilatérales H1 : µX > µY devient H1 : µ > 0 unilatérale droite,
et H1 : µX < µY H1 : µ < 0 unilatérale gauche.
On est donc ramené à un test de comparaison d’une moyenne (de la différence) à la valeur théorique (de
référence) 0.

3.3 Observations
On dispose de 2 échantillons appariés de même taille n. On note :
E1 l’échantillon de taille n et (x1 , . . . , xn ) les mesures de X,
E2 l’échantillon de taille n et (y1 , . . . , yn ) les mesures de Y .
On calcule la variable différence pour chaque paire di = xi − yi (ou yi − xi ) :
on dispose d’un échantillon de taille n de D dont les mesures sont notées (d1 , . . . , dn ).
Les différences sont résumés par

les valeurs observées des moyenne D, écart-type SD et écart-type sans biais SD empiriques de D notées :

moyenne d, écart-type sD et écart-type sans biais (corrigé) sD

3.4 Statistiques de test et lois sous H0


Les statistiques utilisées sont celles du test de comparaison d’une moyenne à une valeur théorique µ0 , pour
µ0 = 0.
1. petites tailles d’échantillon (n < 30)
Sous la condition que la variable ”différence” D suit une loi normale, la statistique de test de Student
D
T = S∗ suit sous H0 une loi de Student à (n − 1) dl, notée Tn−1 .
√D
n
2. grandes tailles d’échantillon (n ≥ 30)
D
Sous la condition n ≥ 30, la statistique de test Z = S∗
suit approximativement sous H0 une loi
√D
n
normale N (0, 1).

Exemple 3
On étudie le comportement agressif d’enfants ayant des difficultés de comportement, avant et après la
projection d’un film d’aventures. Pour cela, on a noté le nombre de comportements agressifs pendant la
demi-journée précédant la projection du film et pendant la demi-journée suivant la projection du film
de 26 enfants considérés comme ayant des difficultés de comportement.
enfant 1 2 3 4 5 6 7 8 9 10 11 12 13
avant projection 46 31 65 61 47 32 58 14 7 48 43 33 14
après projection 71 79 27 39 75 28 32 36 61 83 80 28 72

Peut-on dire, au risque α = 5%, que le film a une influence négative sur le comportement agressif des
enfants ?
Contexte
P : enfants ayant des difficultés de comportement
X = nombre de comportements agressifs avant la projection du film, quantitative de moyenne
µX dans P
Y = nombre de comportements agressifs après la projection du film, quantitative de moyenne
µY dans P
Les deux variables X et Y représentent le même caractère quantitatif continu.

8
Hypothèses de test et risque
On veut tester l’hypothèse selon laquelle les nombres de comportements agressifs sont plus faibles avant
la projection du film qu’après, que l’on traduit par le fait que le nombre moyen de comportements
agressifs avant la projection est inférieur à celui après la projection, hypothèse alternative unilatérale.
Il s’agit de tester H0 : µX = µY contre H1 : µX < µY alternative unilatérale, au risque α = 5%, test
de comparaison de deux moyennes sur deux échantillons appariés.
On traduit les hypothèses sur la moyenne µ de la variable différence D
H0 : µ = 0 contre H1 : µ < 0 alternative unilatérale gauche, au risque α = 5%.
Observations
1
x = 499
P
échantillon E1 issu de P de taille n = 13 : x = 13 = 38, 38
13
1
P i 711
échantillon E2 issu de P de taille n = 13 : y = 13 yi = 13 = 54, 69
les deux échantillons étant appariés, on définit la variable différence D = X − Y
enfant i 1 2 3 4 5 6 7 8 9 10 11 12 13
avant projection xi 46 31 65 61 47 32 58 14 7 48 43 33 14
après projection yi 71 79 27 39 75 28 32 36 61 83 80 28 72
différence di = xi − yi -25 -48 38 22 -28 4 26 -22 -54 -35 -37 5 -58
1
di = −212
P
on observe : d = 13 = −16, 31 (= x − y)
P 13 2

s∗2 1 1
2

D = 12 di − 13d = 12 15 716 − 13 × (−16, 31)2 = 1 021, 56

s∗D = 1 021, 56 = 31, 96
On estime à 38, 38 le nombre moyen de comportements agressifs des enfants avant la projection du film
et à 54, 69 le nombre moyen de comportements agressifs des enfants après la projection.
On estime à −16, 31 la moyenne des différences du nombre de comportements agressifs des enfants
avant et après la projection du film et à 31, 96 l’écart-type de cette différence.
Statistique de test de Student et loi sous H0
Sous la condition que la variable D suit une distribution normale, la statistique de test de Student T
suit sous H0 une loi de Student à n − 1 = 13 − 1 = 12 dl.
La valeur observée de T : tobs = −16,31
31,96

= −1, 840
13

Niveau de signification
Sous H1 : µ < 0 alternative unilatérale gauche, la différence D est négative ainsi que la valeur de T :
RC se situe à gauche du domaine de variation de T , donc
αobs = PH0 [T ≤ tobs ] = PH0 [T ≤ −1, 84] = 1 − PH0 [T ≤ 1, 84]
= 0, 04534 (calculée à partir de la loi T12 )
Décision et conclusion
αobs < α = 5%, donc on rejette H0 et on valide H1 au risque α = 5%.
On peut donc conclure que la projection du film a une influence négative sur les comportements agressifs
des enfants ayant des difficultés de comportement, au risque α = 5% et au niveau de signification
αobs ' 4, 6%.

9
4 Vérification des conditions d’application des tests
4.1 Graphiques et indices
Les conclusions tirées de l’examen d’un graphique ont nécessairement un caractère subjectif. Seuls des tests
peuvent infirmer l’hypothèse de normalité d’une distribution qui n’est connue que sur un échantillon, ou
confirmer l’égalité des variances de deux distributions observées sur deux échantillons. En revanche, ces tests
sont incapables de mettre en évidence certaines caractéristiques essentielles des échantillons, que l’on pourra
déceler avec un graphique.
Histogramme
Boı̂te à moustache (”Box plot”)
Ce graphique synthétise la distribution de la variable. Classiquement la boı̂te est délimitée par les 1er
et 3ème quartiles de la distribution (indice de dispersion ou de variabilité), la médiane (indicateur de
valeur centrale ou de position) est représentée à l’intérieur de la boı̂te, et les moustaches figurent les
minimum et maximum (extrêmes, représentent l’étendue).
La position de la médiane par rapport aux limites de la boı̂te, ainsi que la position de la boı̂te par
rapport aux extrêmes donne des indications sur la forme de la distributions, notamment sur la symétrie.
D’autres graphiques proposent de choisir comme limites de la boı̂te : √
’moyenne ± écart-type’ ou ’moyenne ± erreur-type’ (erreur-type = écart-type/ n)
et comme extrémités (moustaches) :
’moyenne ± 1, 96×écart-type’ ou ’moyenne ± 1, 96× erreur-type’
ce qui ne renseigne pas sur la symétrie de la distribution mais peut aider à dépister visuellement,
en comparant les boı̂tes à moustaches de deux (ou plusieurs) groupes, des variances inégales ou des
différences entre moyennes.
Droite de Henry (”Q-Q plot”)
On compare les quantiles empiriques (en abscisse) aux quantiles théoriques du même ordre (en or-
donnée) de la loi normale centré réduite.
Si la variable est gaussienne, les points sont alignés le long d’une droite appelée ”droite de Henry” (on
peut en déduire approximativement la moyenne et l’écart-type de la loi normale).
Ce diagramme (appelé aussi ”diagramme Quantile-Quantile”, ou ”Q-Q Plot”) est un graphique per-
mettant de comparer visuellement un échantillon et une distribution théorique de référence (le plus
souvent normale), dans le but de décider s’il est vraisemblable que cette distribution théorique ait
généré l’échantillon, et d’analyser les raisons qui peuvent éventuellement faire rejeter cette hypothèse.
Ce diagramme peut donc être considéré comme un ”test de normalité visuel”.
Cœfficient d’asymétrie (”skewness”)
µ3
Le cœfficient d’asymétrie est défini par :
σ3
où µ3 est le moment centré d’ordre 3 de X et σ l’écart-type de X.
Il vaut 0 pour une loi symétrique (en particulier normale),
il est > 0 pour une distribution concentrée à gauche et étalée à droite (dans ce cas moy > med > mode)
et < 0 dans le cas contraire (pour une distribution concentrée à droite et étalée à gauche ; moy < med
< mode).
Cœfficient d’aplatissement (”kurtosis”)
µ4
Le cœfficient d’aplatissement est défini par : −3
σ4
où µ4 est le moment centré d’ordre 4 de X et σ l’écart-type de X.
Il vaut 0 pour une loi normale, il est > 0 pour une distribution moins aplatie (plus pointue) que la loi
normale et < 0 dans le cas contraire (pour une distribution plus aplatie).

10
4.2 Tests de normalité
Il s’agit de tests d’ ”adéquation”, c’est à dire dont l’objectif est d’établir la plausibilité de l’hypothèse
selon laquelle l’échantillon a été prélevé dans une population ayant une distribution donnée. Un autre test
d’adéquation est le ”test du khi-deux d’adéquation”.
Test de Kolmogorov-Smirnov
Le test de Kolmogorov est non-paramétrique : il ne place aucune contrainte sur la distribution de
référence, et ne demande pas qu’elle soit connue sous forme analytique (bien que ce soit pourtant le
cas le plus courant).
Etant donnés un échantillon d’une variable quantitative X de fonction de répartition F , et une fonction
de répartition théorique (de référence) F0 , le test de Kolmogorov teste l’hypothèse H0 selon laquelle
les fonctions de répartition F et F0 sont égales.
Pour cela, il calcule sur l’échantillon de taille n une quantité Dn , appelée ”statistique de Kolmogorov”,
dont la distribution est connue lorsque H0 est vraie.
Dn est l’écart maximum entre les fonctions de répartition théorique F0 et empirique (observée) Fn :
Dn = supx |Fn (x) − F0 (x)|.
Si
√ F0 est continue, sous H0 : ”la distribution de X est la même que la distribution théorique”
nDn suit approximativement quand n est grand, la distribution de Kolmogorov (table des valeurs
critiques).
Une valeur élevée de Dn indique que la distribution de l’échantillon s’éloigne sensiblement de la distri-
bution de référence F0 , et qu’il est donc peu probable que H0 soit correcte : donc si l’écart entre Fn et
F0 est trop grand on rejette H0 .
Pour tester la normalité de X : F0 est la fonction de répartition théorique d’une loi normale de moyenne
et d’écart-type donnés.
Remarque
Dans STATISTICA on ne peut pas spécifier la moyenne et l’écart-type de la distribution théorique.
Test de Lilliefors
C’est l’adaptation du test de Kolmogorov-Smirnov au cas où la moyenne et l’écart-type de la distribution
normale sous H0 ne sont pas spécifiés.
La procédure du test commence donc par estimer la moyenne et la variance sur les observations, puis
calcule l’écart maximum entre la fonction de répartition empirique et la fonction de répartition théorique
dont la moyenne et l’écart-type ont été estimés sur les observations.
Si l’écart est trop grand (tables des valeurs critiques de Lilliefors) on rejette H0 .
Ce test est assez peu puissant : un grand nombre d’observations est nécessaire pour rejeter l’hypothèse
de normalité.
Test de Shapiro-Wilk
Contrairement aux deux tests précédents, il ne teste que la normalité c’est à dire H0 : la distribution
de X est une loi normale.
La statistique de test W cœfficient de détermination (carré du cœfficient de corrélation) entre les
observations ordonnées et des cœfficients centrés réduits basés sur les valeurs d’ordre attendues sous la
loi normale centré réduite, W est donc compris entre 0 et 1.
Si W est suffisamment proche de 1 on conserve l’hypothèse de normalité H0 , en revanche
si W est trop faible on rejette H0 (table des valeurs critiques).
Ce test est plus puissant que les tests précédents Kolmogorov-Smirnov et Lilliefors.

Exemple 1.1
Contexte
P1 : personnes âgées présentant un déficit mnésique
P2 : personnes âgées ne présentant pas de déficit mnésique
X=^ age, quantitative de moyenne µX et d’écart-type σ dans P1
Y =^ age, quantitative de moyenne µY et d’écart-type σ dans P2
Pour comparer les moyennes des deux variables X et Y on a supposé qu’elles suivaient des lois normales
dans P1 et P2 . On vérifie ici la plausibilité de ces suppositions.

11
Graphiques et indices
On représente l’histogramme de l’ge pour chaque échantillon (variables X et Y , avec des échelles
identiques), ainsi que la boı̂te à moustaches : les étendues sont similaires pour les deux variables et on
ne repère pas d’asymétrie évidente.
groupe taille asymétrie aplatissement
déficitaire 10 0, 196255 −0, 251361
non déficitaire 11 0, 333284 −0, 696849
Les coefficients d’asymétrie sont légèrement positifs dans les deux groupes, indiquant une légère concen-
tration à gauche et ceux d’aplatissement sont négatifs, signe de distributions un peu plus aplaties que
celle d’une loi normale.
Tests de normalité
Hypothèses de test et risque
Pour vérifier la normalité de X on teste :
H0 : X suit une loi normale, de moyenne et d’écart-type inconnus dans P1 contre
H1 : X ne suit pas une loi normale dans P1 , alternative bilatérale, au risque α = 5% (risque classique
à utiliser quand il n’est pas spécifié).
Statistiques de test et niveaux de signification
statistique de test valeur observée p − valeur
Kolmogorov-Smirnov (D max) D Dobs = 0, 1276 p Lilliefors αobs < 1
Shapiro-Wilk (SW-W) W Wobs = 0, 976 αobs = 0, 94
Décision et conclusion
Pour chacun des deux tests, αobs < 5% on conserve donc H0 au seuil α = 5% (et au risque β inconnu).
On conserve l’hypothèse que l’âge suit une loi normale dans la population des personnes âgées présentant
un déficit mnésique, au seuil α = 5%.
On conserve également l’hypothèse que l’âge suit une loi normale dans la population des personnes âgées
ne présentant pas de déficit mnésique, au seuil α = 5%. En effet, pour la variable Y : Dobs = 0, 1807 p
Lilliefors < 1 et Wobs = 0, 9512 αobs = 0, 6592.

4.3 Tests d’égalité (homogénéité) des variances


L’une des conditions pour les tests de comparaison de deux moyennes (T de Student) (ou plus, ANOVA)
est l’égalité des variances (homogénéité) dans chaque groupe (variances intra-groupe). Les tests suivants
permettent de tester cette homogénéité, à condition que les variables soient régies par des lois normales.
Cependant la plupart de ces tests sont peu robustes aux écarts à la normalité. Dans la plupart des cas, si
l’on suspecte une hétérogénéité des variances, il est plus avisé d’utiliser le test de Student pour variances
séparées, ou une transformation de variable, ou de pratiquer un test non paramétrique.
Test de Fisher : test du rapport des variances (”ratio F variances”)
Ce test teste l’égalité de deux variances en calculant le rapport des estimations des deux variances,
pour deux échantillons indépendants de tailles respectives n1 et n2 .
S 2∗
Sous l’hypothèse nulle d’égalité des deux variances H0 : σ12 = σ22 la statistique de test F = n2∗1 suit
Sn2
approximativement une loi de Fisher F (n1 − 1, n2 − 1).
Ce test n’est pas robuste : un écart même minime à la normalité fausse les résultats. Il faut absolument
s’assurer du caractère gaussien des variables.
Remarque
STATISTICA calcule systématiquement le rapport de la plus grande variance à la plus petite et donne
une p − valeur bilatérale ( 2 × PH0 [F > fobs ] double de la p − valeur de la loi F (n1 − 1, n2 − 1)).
Test de Levene
Il teste l’hypothèse nulle d’homogénéité des variances de k variables X1 , X2 , . . . , Xk
H0 : égalité des k variances σ12 = σ22 = . . . = σk2
contre l’hypothèse alternative d’hétérogénéité des variances des k variables
H1 : il existe (au moins) deux variances différentes σi2 6= σj2

12
Ce test est basé sur le principe que plus la variance d’une variable est grande, plus les écarts absolus à
la moyenne de la variable sont grands.
Il consiste à comparer les moyennes (ANOVA) des écarts (absolus) U des valeurs à la moyenne de leur
groupe, avec pour l’observation i du groupe j : uij = |xij − xj |.
Pk
(n − k) j=1 nj (Uj − U )2
La statistique de test : W = Pk Pnj
(k − 1) j=1 i=1 (Uij − Uj )2
suit approximativement une loi de Fisher F (k −1, n−k) sous l’hypothèse nulle d’égalité des k variances.
Ce test est plus robuste et moins sensible aux écarts à la normalité que les tests de Bartlett, de Hartley
ou de Cochran.
Test de Brown-Forsythe
Sur le même principe que le test de Levene, ce test consiste à comparer les moyennes (ANOVA) des
écarts (absolus) U des valeurs à la médiane de leur groupe, avec pour l’observation i du groupe j :
uij = |xij − xej | où x
ej est la médiane de X pour le groupe j.
Ce test est une généralisation du test de Levene, plus robuste que celui-ci, particulièrement dans les
cas de distributions non symétriques.
Cependant, la robustesse de ce test et de celui de Levene ne sont pas établies en présence de tailles
d’échantillons différentes.

Exemple 1.1
Contexte
P1 : personnes âgées présentant un déficit mnésique
P2 : personnes âgées ne présentant pas de déficit mnésique
X=^ age, quantitative de moyenne µX et d’écart-type σX dans P1
Y =^ age, quantitative de moyenne µY et d’écart-type σY dans P2
Pour comparer les moyennes des deux variables X et Y on a supposé qu’elles avaient la même variance.
On vérifie ici la plausibilité de cette supposition.
Graphiques
On représente l’histogramme de l’ge pour chaque échantillon (variables X et Y , avec des échelles
identiques), ainsi que la boı̂te à moustaches : les étendues sont similaires pour les deux variables mais
la boı̂te est légèrement plus grande pour le groupe ”non déficitaire” suggérant une variabilité un peu
plus grande. Il faut faire le test affirmer ou infirmer pour la significativité de cette différence observée.
Tests de normalité
Hypothèses de test et risque
Pour vérifier l’égalité des variances de X et de Y on teste :
2
H0 : les variances de X et de Y sont égales σX = σY2 contre
H1 : les variances de X et de Y sont différentes σX 6= σY2
2
alternative bilatérale, au risque α = 5%
(risque classique à utiliser quand il n’est pas spécifié).
Statistiques de test et niveaux de signification
statistique de test valeur observée dl p − valeur
Fisher (Ratio F) F Fobs = 1, 399944 (1, 19) αobs = 0, 624016
Levene W Wobs = 0, 218055 (1, 19) αobs = 0, 645836
Brown-Forsythe (Brn-Fors) BF BFobs = 0, 174573 (1, 19) αobs = 0, 680763
Décision et conclusion
Pour chacun des trois tests, αobs > 5% on conserve donc H0 au seuil α = 5% (et au risque β inconnu).
On conserve l’hypothèse que la variance de l’âge est la même dans la population des personnes âgées
présentant un déficit mnésique et dans celle des personnes âgées ne présentant pas de déficit mnésique,
au seuil α = 5%.

13
B. Tests de comparaisons de deux variables qualitatives

1 Test du khi-deux d’homogéneité


1.1 Contexte
Test de comparaison de deux variables qualitatives sur deux échantillons indépendants
Il s’agit d’un test portant sur deux échantillons indépendants issus de deux populations P1 et P2 , et sur deux
variables X1 et X2 représentant le même caractère qualitatif avec un nombre fini l ≥ 2 de modalités.
On note pi1 pour i = 1, . . . , l les l proportions des modalités de X1 dans P1
et pi2 pour i = 1, . . . , l celles de X2 dans P2
NB : le test d’homogéneité s’applique aussi au cas où le nombre de populations c est ≥ 3.

Exemple 1
On souhaite comparer les comportements à risque d’adolescents victimes de mauvais traitements pen-
dant l’enfance à ceux d’adolescents n’en ayant pas subi. On a relevé comme comportement à risque le
fait d’avoir des idées suicidaires, en trois modalités : jamais, parfois ou souvent, pour 85 adolescents
considérés comme victimes de mauvais traitements et pour 104 adolescents non maltraités.
Peut-on, au risque α = 5%, accepter l’hypothèse d’une répartition différente des idées suicidaires chez
les adolescents maltraités pendant l’enfance de celle des adolescents non maltraités ?
Contexte
P1 : Adolescents maltraités pendant l’enfance
P2 : Adolescents non maltraités
X1 : idées suicidaires des adolescents maltraités, dans P1
qualitative à trois modalités (l = 3) : jamais, parfois, souvent.
X2 : idées suicidaires des adolescents non maltraités, dans P2
qualitative à 3 modalités (l = 3)
Les 2 variables représentent le même caractère qualitatif à 3 modalités : jamais , parfois, souvent.

1.2 Hypothèses de test et risque


L’hypothèse nulle H0 correspond au fait que les variables X1 et X2 ont la même distribution, alors que
l’alternative H1 suppose que les variables X1 et X2 ont deux distributions différentes :

H0 : X1 et X2 ont la même distribution
test bilatéral, au risque α (dans l’exemple α = 5%)
H1 : X1 et X2 ont des distributions différentes

Ces hypothèses se traduisent sur les proportions par :



H0 : pour chaque modalité i pi1 = pi2
H1 : il existe une modalité i pour laquelle pi1 6= pi2

Exemple 1
On veut tester l’hypothèse selon laquelle la répartition des idées suicidaires dans la population des
adolescents maltraités est différente de celle des adolescents non maltraités.
H0 : la répartition des idées suicidaires est la même dans les deux populations d’adolescents
H1 : les répartitions des idées suicidaires sont différentes dans les deux populations d’adolescents
test bilatéral au risque α = 5%

14
1.3 Observations
On dispose de 2 échantillons tirés au hasard de manière indépendante dans les 2 populations.
On note :
E1 l’échantillon de taille n1 issu de P1
E2 l’échantillon de taille n2 issu de P2
n représente la taille totale des 2 échantillons : n = n1 + n2
Les résultats sont résumés dans un tableau de contingence où les effectifs observés sur l’échantillon E1 sont
notés ni1 , i = 1, . . . , l et ceux observés sur l’échantillon E2 sont notés ni2 , i = 1, . . . , l.
Les proportions de chaque modalité des variables X1 et X2 sont estimées par les fréquences observées sur
l’échantillon correspondant :
pour i = 1, . . . , l pi1 est estimée par fi1 = nni11 et pi2 est estimée par fi2 = nni22

Exemple 1
On dispose de 2 échantillons indépendants :
E1 de taille n1 = 85 issu de P1 et E2 de taille n2 = 104 issu de P2 .
Tableau de contingence des effectifs observés
idées suicidaires adolescents maltraités adolescents non maltraités Total Ligne Li
jamais n11 = 50 n12 = 92 L1
parfois n21 = 25 n22 = 10 L2
souvent n31 = 10 n32 = 2 L3
Total Colonne Cj n1 = 85 = C1 n2 = 104 = C2 n = 189
Tableau de contingence des fréquences observées (Pourcentage des effectifs en Colonne)
idées suicidaires adolescents maltraités adolescents non maltraités Total
jamais f11 = 5085 = 0, 5882
92
f12 = 104 = 0, 8846 f1 = 50+92
189 = 0, 7513
25 10
parfois f21 = 85 = 0, 2941 f22 = 104 = 0, 0962 f2 = 25+10
189 = 0, 1852
souvent f31 = 1085 = 0, 1177 f32 = 2
104 = 0, 0192 f3 = 10+2
189 = 0, 0635
Total 1 1 n = 189
Ainsi, on estime à 11, 77% la proportion d’adolescents maltraités ayant souvent des idées suicidaires,
alors qu’elle est estimée à 1, 92% pour les adolescents non maltraités.
En revanche la proportion d’adolescents n’ayant jamais d’idées suicidaires est estimée à 58, 82% pour
les adolescents maltraités, et à 88, 46% pour les adolescents non maltraités.

1.4 Statistique de test et loi sous H0


Sous l’hypothèse nulle H0 les variables X1 et X2 ont la même distribution, les proportions de la modalité i
sont donc égales dans les deux populations.
La proportion de la modalité i est estimée par : fi = ni1 +n
n
i2
= Lni et l’effectif de la modalité i attendu
sous H0 est égal à :
fi × n1 = ni1 +n
n
i2
× n1 = LinC1 dans l’échantillon E1 et
ni1 +ni2 Li C2
fi × n 2 = n × n 2 = n dans l’échantillon E2 .
De manière générale l’effectif attendu sous H0 (effectif théorique) pour la modalité i de la variable Xj (ligne
i colonne j) est égal à :
Li C j
eij = (= fi Cj )
n
Exemple 1
Sous H0 , on estime à 6, 3% la proportion d’adolescents ayant souvent des idées suicidaires, et à 75, 13%
la proportion d’adolescents n’ayant jamais d’idées suicidaires.
Tableau des effectifs théoriques
idées suicidaires adolescents maltraités adolescents non maltraités Total Ligne Li
jamais e11 = 142×85
189 = 63, 86 e12 = 142×104
189 = 78, 14 L1 = 142
35×85
parfois e21 = 189 = 15, 74 e22 = 35×104
189 = 19, 26 L2 = 35
souvent e31 = 12×85
189 = 5, 40 e32 = 12×104
189 = 6, 60 L3 = 12
Total Colonne Cj C1 = n1 = 85 C2 = n2 = 104 n = 189

15
• Statistique de test du khi-deux de Pearson
La statistique du khi-deux de Pearson
X (Nij − eij )2
Q2 =
i,j
eij

permet de quantifier l’écart (la distance) entre effectifs empiriques Nij et théoriques eij donc l’écart à
l’hypothèse nulle.
2
P (n −e )2
Sa valeur observée sur les deux échantillons qobs = i,j ijeij ij
• Loi de la statistique sous H0
Sous les conditions n ≥ 30 et tous les effectifs théoriques eij ≥ 5
la statistique de test Q2 suit approximativement sous H0 , une loi du khi-deux à (l − 1) × (c − 1) = (l − 1)
degrés de liberté (dl) notée χ2l−1 .
• Niveau de signification du test
Le niveau de signification αobs ou p-valeur est la probabilité d’observer sous H0 une valeur de Q2 supérieure
2
à qobs :  
αobs = PH0 Q2 ≥ qobs2
probabilité calculée à partir de la loi χ2l−1 .

Exemple 1
Puisque n = 189 ≥ 30 et tous les eij ≥ 5 car min(eij ) = 5, 40 ≥ 5 la statistique Q2 suit approximati-
vement sous H0 une loi du khi-deux à l − 1 = 2 dl.
La valeur observée de Q2 : qobs = 22, 502
 
Le niveau de signification : αobs = PH0 Q2 ≥ 22, 502 = 0, 000051 d’après la loi χ22

1.5 Décision et conclusion


Règle de décision basée sur le niveau de signification αobs :
- si αobs > α on conserve H0 (on ne valide pas H1 ) au seuil α et au risque de 2de espèce β inconnu
- si αobs ≤ α on rejette H0 en faveur de H1 (on valide H1 ) au risque α et au niveau de signification
(p-valeur ) αobs

Exemple 1
Décision et conclusion
Pour α = 5%, on voit que αobs = 0, 0051% < α ce qui nous amène à rejeter H0 en faveur de H1 au
risque α = 5%.
On peut donc conclure que la répartition des idées suicidaires chez les adolescents maltraités pendant
l’enfance est significativement différente de celle des adolescents non maltraités, au risque α = 5% et
au niveau de signification αobs = 0, 0051%.

Remarque
STATISTICA fournit également la valeur
 observée de la statistique de test du khi-deux du maximum de
P N
vraisemblance : M V = ij Nij ln eijij qui, sous les conditions n ≥ 30 et tous les eij ≥ 5, suit approxima-
tivement une loi du khi-deux à (l − 1)(c − 1) dl.
Cette statistique est équivalente à celle du khi-deux de Pearson.
Exemple 1
M Vobs = 23, 161 et αobs = 0, 000037 : décision et conclusion restent identiques.

16
2 Cas particulier : test de comparaison de deux proportions sur
deux échantillons indépendants
2.1 Contexte
Il s’agit d’un cas particulier du test d’homogénéité lorsque le caractère qualitatif étudié n’a que deux modalités
l = 2, représentées par ”oui” ou ”non” (souvent codées 1 ou 0). On peut donc se contenter de comparer les
proportions de ”oui” p1 et p2 dans les deux populations P1 et P2 (ou de manière équivalente, les proportions
de ”non”).

2.2 Hypothèses de test


L’hypothèse nulle correspond à l’égalité des deux proportions H0 : p1 = p2
et l’alternative peut prendre, selon l’hypothèse de recherche envisagée, l’une des trois formes
bilatérale : les deux proportions sont différentes H1 : p1 6= p2
ou unilatérales :
la proportion de ”oui” dans P1 est plus élevée que celle de P2 H1 : p1 > p2
ou bien la proportion de ”oui” dans P1 est plus faible que celle de P2 H1 : p1 < p2

2.3 Statistiques de test du khi-deux et lois sous H0

• Statistique de test du khi-deux de Pearson


Le test du khi-deux d’homogénéité s’applique, et sous les mêmes conditions, la statistique de test du
khi-deux de Pearson Q2 suit approximativement sous H0 , une loi du khi-deux à 1 dl.
• Statistique de test du khi-deux de Yates
Lorsque les effectifs théoriques sont proches de 5 (compris entre 5 et 10), on utilise la statistique du khi-deux
de Yates (correction de continuité appliquée à la statistique de Pearson) :

X (|Nij − eij | − 0, 5)2


Q2Y =
i,j
eij

Sous H0 , la statistique du khi-deux de Pearson suit approximativement une loi du khi-deux à 1 dl.

2.4 Niveau de signification du test


Quelle que soit la statistique de test utilisée (statistique de Pearson, de Yates ou du maximum de vraisem-
blance), le niveau de signification du test obtenu avec une loi du khi-deux correspond à celui d’une alternative
bilatérale.
En présence d’un test unilatéral, le niveau de signification obtenu doit être divisé par 2.
1
PH0 Q2 ≥ qobs 2

αobs =
2

2.5 Décision et conclusion


La décision se fait en comparant le niveau de signification αobs au risque d’erreur de 1ère espèce α fixé à
l’avance (en général α = 5%).
Pour conclure en présence d’un test unilatéral, il faut vérifier au préalable que les fréquences observées
sont compatibles avec l’hypothèse alternative, c’est à dire que
f1 > f2 si H1 : p1 > p2
et inversement f1 < f2 si H1 : p1 < p2

17
Exemple 2
On souhaite savoir si les adolescents victimes de mauvais traitements pendant l’enfance ont tendance
à fuguer plus que les autres. On a relevé 28 fugueurs parmi les 85 adolescents maltraités et 9 parmi les
104 adolescents non maltraités.
Peut-on, au risque α = 5%, accepter l’hypothèse émise ?
Contexte
P1 : Adolescents maltraités pendant l’enfance P2 : Adolescents non maltraités
X1 = fugues dans P1 qualitative à deux modalités (l = 2) : oui, non
p1 = proportion de fugueurs parmi les adolescents maltraités, dans P1
X2 = fugues dans P2 qualitative à deux modalités (l = 2)
p2 = proportion de fugueurs parmi les adolescents non maltraités, dans P2
Les 2 variables représentent le même caractère qualitatif à 2 modalités.
Hypothèses de test et risque
On veut tester l’hypothèse selon laquelle la proportion d’adolescents fugueurs est plus grande chez
les
 adolescents maltraités que chez les adolescents non maltraités, c’est à dire réaliser le test de
H0 : p1 = p2
unilatéral, au risque α = 5%
H1 : p1 > p2
Observations
On dispose de deux échantillons indépendants :
E1 issu de P1 de taille n1 = 85 sur lequel on observe un effectif de fugueurs n11 = 28 et une fréquence
de fugueurs f1 = nn11
1
= 28
85 = 0, 3294
E2 issu de P2 de taille n2 = 104 sur lequel on observe un effectif de fugueurs n12 = 9 et une fréquence
de fugueurs f2 = nn12
2
9
= 104 = 0, 0865
La proportion d’adolescents fugueurs est estimée à 32, 94% parmi les adolescents maltraités et à 8, 65%
parmi les adolescents non maltraités, ce qui permet de vérifier que les fréquences observées sont com-
patibles avec l’hypothèse alternative, ici f1 = 32, 94% > f2 = 8, 65% compatible avec H1 : p1 > p2 .
Statistique de test du khi-deux de Pearson
La valeur observée de la statistique du khi-deux de Pearson Q2 : qobs
2
= 17, 524
Loi de la statistique sous H0 et niveau de signification
Puisque n = 85 + 104 = 189 ≥ 30 et que le plus petit effectif théorique (28+9)×85
189 = 16, 64 ≥ 5 la
statistique de test du khi-deux de Pearson suit approximativement une loi du khi-deux à 1 dl sous H0 .
 
Pour le test unilatéral : 2 αobs = PH0 Q2 ≥ 17, 524 = 0, 000028 donc αobs = 0, 000014.
Décision et conclusion
Puisque αobs = 0, 0014% < α = 5% on rejette H0 en faveur de H1 au risque α = 5%.
On peut conclure que la proportion de fugueurs parmi les adolescents victimes de mauvais traitements
pendant l’enfance est significativement supérieure (puisque f1 = 32, 94% > f2 = 8, 65%) à celle des
adolescents non maltraités, au risque α = 5% et au niveau de signification αobs = 0, 0014%.

18

Vous aimerez peut-être aussi