Comparaison de distributions statistiques
Comparaison de distributions statistiques
SPSE – Master 1
PMP STA 21 Méthodes statistiques pour l’analyse des données en psychologie 2009-10
Chapitre 2
Comparaisons de deux distributions
Il s’agit de comparer les distributions d’un même caractère dans deux populations, observées sur deux
échantillons. Les techniques statistiques utilisées dépendent du type de caractère étudié, qualitatif ou quan-
titatif, des tailles des échantillons et de s’ils sont indépendants ou non (appariés).
Pour un caractère qualitatif (à deux modalités ou plus) et des tailles d’échantillons suffisamment grandes
(> 30) on utilise des tests du khi-deux (ou khi-carré χ2 ) qui consistent à comparer les proportions des
différentes modalités.
Pour un caractère quantitatif, lorsque les distributions sont supposées normales, il suffit pour les comparer,
de comparer leurs moyennes (indice de position ou de valeur centrale) et donc de procéder à un test de com-
paraison de deux moyennes basé sur la loi de Student, ou lorsque les tailles des échantillons sont suffisamment
grandes (> 30) d’utiliser des tests basés sur les approximations normales des moyennes empiriques.
En revanche lorsque les distributions ne peuvent pas être considérées comme normales, et en général pour de
petites tailles d’échantillons (< 30), il est préférable d’utiliser des tests dits non-paramétriques (distribution
free) qui ne font pas d’hypothèse sur la forme des distributions et consistent à comparer l’ensemble des
distributions (les fonctions de répartition) ou les médianes (indice de position ou de valeur centrale) de ces
distributions.
La plupart de ces techniques se généralisent à la comparaison de plus de deux distributions.
1. Variables qualitatives
Tests de comparaison de proportions
– Deux échantillons indépendants : Test du khi-deux d’homogénéité (cf Annexe, section B)
généralisation à plus de 2 distributions : même test
– Deux échantillons appariés : Test du khi-deux de Mac-Nemar
généralisation à plus de 2 distributions : Test Q de Cochran
2. Variables quantitatives
* Lois normales : tests paramétriques, test de comparaison de deux moyennes (cf Annexe, section A)
– Deux échantillons indépendants : Test de Student (cf Annexe, section A.1)
généralisation à plus de 2 distributions (moyennes) : Test d’ANOVA à un facteur
– Deux échantillons appariés : Test de Student (cf Annexe, section A.3)
généralisation à plus de 2 distributions (moyennes) : Test d’ANOVA à un facteur avec mesures
répétées
* Grands échantillons : tests paramétriques, test de comparaison de deux moyennes (cf Annexe, section
A)
– Deux échantillons indépendants : Test normal (cf Annexe, section A.2)
généralisation à plus de 2 distributions (moyennes) : Test d’ANOVA à un facteur
– Deux échantillons appariés : Test normal (cf Annexe, section A.3)
généralisation à plus de 2 distributions (moyennes) : Test d’ANOVA à un facteur avec mesures
répétées
Conditions d’application des tests paramétriques (cf Annexe, section A.4) :
– adéquation à la loi normale : Test de Kolmogorov-Smirnov, Test de Lilliefors, Test de Shapiro-
Wilk, droite de Henry
– égalité de deux variances : Test de Fisher (rapport des variances)
– homogénéité des variances : Test de Bartlett (généralisation du test de Fisher), Test de Levene,
Test de Brown-Forsythe, Test de Hartley, Test de Cochran
* Petits échantillons : tests non-paramétriques
– Deux échantillons indépendants : Test de Wilcoxon Mann-Whitney (cf chapitre 2, section 2)
généralisation à plus de 2 distributions : Test d’ANOVA à un facteur de Kruskal et Wallis
– Deux échantillons appariés : Test des signes (cf chapitre 2, section 3.3), Test de Wilcoxon ou
test des signes et rangs (cf chapitre 2, section 3.4)
généralisation à plus de 2 distributions : Test d’ANOVA de Friedman, coefficient de concordance
de Kendall
1
Tests non paramétriques
1 Tests non paramétriques basés sur les rangs
Les tests non paramétriques de (Wilcoxon) Mann-Whitney et de Wilcoxon (ou ”signes et rangs”) sont
basés sur les rangs des observations, par ordre croissant (de la plus petite à la plus grande valeur).
Ces tests nécessitent seulement de savoir ordonner les individus les uns par rapport aux autres (on n’a pas
besoin des valeurs précises de la variable étudiée).
Rang : place occupée par une valeur dans la suite ordonnée en ordre croissant (de la plus petite à la plus
grande valeur).
- exemple pour n = 6 observations de la variable X :
xi 30 12 41 27 20 32
les rangs vont de 1 à 6.
rang(xi ) 4 1 6 3 2 5
Propriétés des rangs
Dans un échantillon de n valeurs, les rangs vont de 1 à n.
n × (n + 1)
La somme S de tous les rangs ne dépend que de n : S=
2
- calcul de S pour n = 6 :
S = 1 +2 +3 +4 +5 +6
6×7
S = 6 +5 +4 +3 +2 +1 donc S = 2 = 21.
2 S = 7 +7 +7 +7 +7 +7 =6×7
- même raisonnement pour n :
S = 1 +2 ... +n
S = n +(n − 1) . . . +1 n × (n + 1)
donc S =
2S = n+1 +(n + 1) . . . +(n + 1) 2
= n(n + 1)
Traitement des ex aequo
En cas d’ex aequo, on attribue le rang moyen c’est à dire la moyenne des rangs qu’ils auraient eu s’ils avaient
été consécutifs.
- exemple : ex aequo sur les rangs 1 et 2 :
xi 14 22 14 37
rang moyen 1+2 2 = 1, 5 S = 4×52 = 10
rang(xi ) 1,5 3 1,5 4
- exemple : ex aequo
sur les rangs 2 et 3 : rang moyen 2+32 = 2, 5
et sur les rangs 4, 5 et 6 : rang moyen 4+5+6
3 =5
xi 12 21 37 21 37 37 6×7
S= 2 = 21
rang(xi ) 1 2,5 5 2,5 5 5
2
2 Comparaison de deux distributions sur deux échantillons indépendants
Test de Wilcoxon-Mann-Whitney
2.1 Contexte
On étudie deux populations P1 et P2 et deux variables qui représentent le même caractère, quantitatif de loi
continue. Elles sont notées : X dans P1 et Y dans P2 .
On veut comparer les distributions de X et de Y .
On dispose de deux échantillons indépendants ; cas le plus habituel : ils ont été obtenus par tirage au
sort dans deux populations différentes.
Exemple type d’utilisation de ce test : comparaison de l’efficacité de deux traitements
P1 ={personnes sous traitement A} X désigne le résultat avec le traitement A, et
P2 ={personnes sous traitement B} Y représente le résultat avec le traitement B.
Exemple 1
Pour étudier l’efficacité d’un traitement contre la claustrophobie, 13 personnes atteintes de claustro-
phobie ont été réparties au hasard dans 2 groupes de 6 et 7 personnes.
Les personnes du premier groupe ont reçu un placebo et celles du second groupe le traitement. Après
15 jours de traitement, on a évalué le degré de claustrophobie des 13 personnes
placebo 5,2 5,3 5,6 6,3 7,7 8,1
traitement 4,6 4,9 5,1 5,5 6,1 6,5 7,2
Peut-on au risque α = 5%, accepter l’hypothèse que le traitement est efficace ?
Contexte :
P1 = {personnes claustrophobes sous placebo}
P2 = {personnes claustrophobes sous traitement}
X = degré de claustrophobie sous placebo, dans P1
Y = degré de claustrophobie sous traitement, dans P2
Les 2 variables mesurent le même caractère et sont quantitatives continues.
Exemple 1
Hypothèses et risque α = 5%
Sous H0 on suppose que traitement et placebo ont la même efficacité, les degrés de claustrophobie sous
placebo X et sous traitement Y sont globalement identiques.
Le traitement est efficace si les degrés de claustrophobie sous traitement Y sont inférieurs aux degrés
sous placebo X : Y ≺ X ou X Y .
H0 : les valeurs de X sont globalement égales à celles de Y
D’où les hypothèses à tester
H1 : les valeurs de X sont globalement supérieures à celles de Y
3
H0 : X et Y ont la même distribution
ou
H1 : la distribution de X est à droite de celle de Y
H0 : X ≡ Y
Le test s’écrit de manière équivalente test unilatéral, au risque α = 5%
H1 : X Y
2.3 Observations
On dispose de 2 échantillons tirés au hasard de manière indépendante dans les 2 populations. On note :
E1 l’échantillon de taille n1 issu de P1 et xi les mesures de E1 ,
E2 l’échantillon de taille n2 issu de P2 et yi les mesures de E2
n représente la taille totale des 2 échantillons : n = n1 + n2
Exemple 1
On dispose de 2 échantillons indépendants :
E1 de taille n1 = 6 issu de P1 et E2 de taille n2 = 7 issu de P2 .
Au total, nous avons n = 6 + 7 = 13 individus.
E1 est appelé ”groupe témoin” et E2 ”groupe expérimental”.
Exemple 1
Les médianes observées de X et de Y valent resp. mX = 5, 95 (milieu entre 5, 6 et 6, 3) et mY = 5, 5
(valeur observée de Y de rang 4) : elles sont proches (pour l’ensemble des 2 groupes la médiane observée
vaut m = 5, 6 valeur observée de (X, Y ) de rang 7).
Cependant la dispersion observée de X est plus grande que celle de Y et la distribution observée de X
est décalée à droite par rapport à celle de Y (valeurs de X globalement plus grandes que celles de Y ) :
les degrés de claustrophobie observés sont globalement plus élevés sous placebo que sous traitement
(Figure 1). Il faut néanmoins faire un test pour confirmer ou infirmer la présence de ce décalage dans
les populations.
4
2.5 Statistiques de test
On définit tout d’abord les statistiques de Wilcoxon pour 2 échantillons indépendants notées Wx et Wy puis
les statistiques de Mann-Whitney notées Ux et Uy qui en découlent, d’utilisation plus simple.
• Principe
Sous H0 : X et Y ont la même loi, ou H0 : X ≡ Y
les deux échantillons ne forment qu’un seul échantillon tiré d’une seule population.
Si on range par ordre croissant l’ensemble des n valeurs (les 2 échantillons confondus) les rangs de X et
de Y sont équivalents.
Exemple 1
Ici, n = 13 : les rangs dans l’interclassement de X et de Y, notés rang(x, y) vont de 1 à 13.
Remarques :
- En cas d’ex aequo, on leur attribue leur rang moyen.
- On ne supprime jamais d’observations dans ce test.
• Statistiques de Wilcoxon Wx et Wy pour 2 échantillons indépendants
Wx = somme des rangs de X et Wy = somme des rangs de Y
Wx et Wy sont des variables quantitatives discrètes.
n(n + 1)
Propriété : Wx + Wy =
2
en effet, cette somme correspond à celle de tous les rangs des individus, du 1er au nème , elle vaut donc
1 + 2 + . . . + n = n(n+1)
2 .
Exemple 1
Statistiques de Wilcoxon Wx et Wy
Les valeurs observées sont
pour Wx : wx = 4 + 5 + 7 + 9 + 12 + 13 = 50
pour Wy : wy = 1 + 2 + 3 + 6 + 8 + 10 = 41
vérification : n = 13, donc n×(n+1)
2 = 13×14
2 = 91.
n(n+1)
Nous avons wx + wy = 50 + 41 = 91 donc wx + wy = 2 .
Remarque :
les valeurs observées de Wx et Wy sont généralement des valeurs entières, sauf en présence d’ex aequo.
• Domaines de variation de Wx et Wy
– Pour la statistique Wx
Au minimum : les n1 valeurs de X ont les rangs les plus faibles, donc de 1 à n1 (les xi prennent les n1
premières places) alors : wx = 1 + 2 + . . . + n1 = n1 (n21 +1) .
Au maximum : à l’inverse, les n1 valeurs de X ont les rangs les plus élevés, et par conséquent, les yi
occupent les rangs les plus faibles donc de 1 à n2 (les yi prennent les n2 premières places et les xi les n1
dernières places) alors : wy = n2 (n22 +1) et au maximum wx = n(n+1)
2 − n2 (n22 +1) .
n1 (n1 + 1) n(n + 1) n2 (n2 + 1)
Domaine de variation de Wx : , ..., −
2 2 2
Exemple 1
Pour n1 = 6 et n2 = 7 le minimum de Wx vaut n1 (n21 +1) = 6×7 2 = 21 et le maximum de Wx est
13×14
2 − 7×8
2 = 91 − 28 = 63.
Wx varie de 21 à 63 : son domaine de variation (définition) est {21, 22, . . . , 63}.
5
– Pour la statistique Wy
Un
n raisonnement identique pour les mesures
o yi nous conduit au domaine de variation de Wy :
n2 (n2 +1) n(n+1) n1 (n1 +1)
2 , ..., 2 − 2
Exemple 1
Pour n1 = 6 et n2 = 7 le minimum de Wy vaut n2 (n22 +1) = 7×8 2 = 28 et le maximum
n(n+1) n1 (n1 +1)
2 − 2 = 91 − 21 = 70 donc W y varie de 28 à 70.
n1 × (n1 + 1) n2 × (n2 + 1)
Ux = Wx − et Uy = Wy −
2 2
Ux et Uy sont des variables quantitatives discrètes.
Exemple 1
Statistiques de Mann-Whitney Ux et Uy
Les valeurs observées sont
pour Ux : ux = 50 − 6×7 2 = 50 − 21 = 29
pour Uy : uy = 41 − 7×8 2 = 41 − 28 = 13
Le domaine de variation de Ux va de 21 − 21 = 0 jusqu’à 63 − 21 = 42 qui est en fait égal à
n1 × n2 = 6 × 7 = 42.
Le domaine de variation de Uy va de 28−28 = 0 jusqu’à 70−28 = 42 qui est aussi égal à n1 ×n2 = 42.
• Domaine de variation de Ux et Uy
Ux et Uy ont le même domaine de variation : {0, 1, . . . , n1 × n2 }
– Ux et Wx varient dans le même sens, de même Uy et Wy .
– Ux et Uy varient en sens contraire de manière à ce que leur somme soit toujours constante, égale à :
Ux + Uy = n1 × n2
Exemple 1
Vérification : ux + uy = 29 + 13 = 42 et n1 × n2 = 6 × 7 = 42, donc ux + uy = n1 × n2 .
• Interprétation de Ux et Uy
Ux est le nombre de fois où une valeur de X est supérieure à une valeur de Y , ou le nombre de fois où un
rang de X est supérieur à un rang de Y . De même pour Uy .
6
Exemple 1
Loi exacte des statistiques de Mann-Whitney sous H0
Sous H0 : X ≡ Y
– Ux et Uy ont la même distribution, définie sur {0, 1, . . . , 6 × 7 = 42} symétrique autour de la
moyenne (et milieu) n1 ×n2
2
= 422 = 21, représentée par son diagramme en bâtons (Figure 2).
– les xi et les yi sont mélangés de manière équilibrée donc les rangs faibles (forts) apparaissent en
quantités similaires dans les 2 échantillons.
Alors les valeurs de Ux et Uy sont proches, situées près du centre de la distribution.
7
Test unilatéral
H1 : X Y RC à droite pour Ux et pour Z αobs = PH0 [Ux ≥ ux ] ' PH0 [Z ≥ zobs ]
H1 : X ≺ Y RC à gauche pour Ux et pour Z αobs = PH0 [Ux ≤ ux ] ' PH0 [Z ≤ zobs ]
Test bilatéral
H1 : X 6≡ Y RC aux 2 extrémités de Ux et de Z αobs ' 2 × PH0 [Z ≥ |zobs |]
Exemple 1
Approximation normale sous H0
n1 n2 6×4
Si on approxime la loi de U par la loi normale de moyenne µ(U ) = 2 = 2 = 21 et de variance
var(U ) = n1 n212
(n+1)
= 6×7×14
12 = 49
U −µ(U ) approx
la statistique de test Z = √ ∼ N (0, 1)
var(U )
(mais cette approximation est peu justifiée ici puisque n1 et n2 ≤ 8).
On choisit de travailler avec Ux donc la valeur observée de Z :
ux −µ(U ) 29−21 8
zobs = √ = √
49
= 7 ' 1, 142857
var(U )
Région critique et niveau de signification du test
αobs ' P [Z ≥ 1, 142857] = 1 − P [Z ≤ 1, 142857] = 1 − 0, 873451 = 0, 126549
(cf Table de la loi N (0, 1)).
2.8 Remarques
Les variables X et Y étant continues, la probabilité de trouver deux valeurs identiques (ex aequo) est nulle.
En pratique, ils sont produits par les arrondis ou les erreurs de mesure :
- les formules (donc les tables) changent en présence d’ex aequo. Il est important de les utiliser uniquement
s’il n’y a que ”peu” d’ex aequo.
- des corrections pour prendre en compte les ex aequo sont disponibles et programmées dans les logiciels.
8
Résultats obtenus avec STATISTICA
STATISTICA calcule les valeurs observées des statistiques de Wilcoxon Wx et Wy et de la statistique
Umin = min(Ux , Uy ).
STATISTICA ne calcule que les p − valeurs bilatérales ; pour obtenir le niveau de signification d’un test
unilatéral il faut diviser la valeur donnée par 2.
STATISTICA calcule systématiquement les p − valeurs bilatérales exacte et basée sur l’approximation nor-
male avec correction de continuité sur la variable Ux , c’est à dire :
u −µ(U )−0,5
x√ si ux − µ(U ) > 0
c var(U )
zobs = −µ(U )+0,5
ux√ si ux − µ(U ) < 0
var(U )
sans tenir compte des tailles des échantillons. Pour de petites tailles (n1 ou n2 ≤ 8) il est préférable d’in-
terpréter la p − valeur exacte, à moins qu’il y ait beaucoup d’ex aequo.
Cette correction de continuité consiste à diminuer la valeur obtenue avec l’approximation normale afin d’aug-
menter le niveau de signification pour rendre le test plus conservateur.
En présence d’ex aequo, on utilise la valeur de l’approximation normale corrigée pour en tenir compte (Z
ajusté) calculée par STATISTICA, et sa p − valeur associée.
Exemple 2
Les niveaux de compétences manuelles des élèves de deux écoles maternelles A et B ont été mesurées pour 6
élèves de l’école A et 8 de l’école B, tirés au sort parmi les élèves de grande section de chaque école
école A 20 12 0 2 6 92
école B 31 14 15 10 21 19 28 22
Peut-on, au risque α = 10%, accepter l’hypothèse que les niveaux de compétences manuelles sont différents
dans les deux écoles ?
Contexte
P1 = {élèves de l’école A} X = niveau de compétences manuelles dans P1
P2 = {élèves de l’école B} Y = niveau de compétences manuelles dans P2
Les 2 variables mesurent le même caractère et sont quantitatives continues.
Hypothèses
de test et risque
H0 : X et Y ont la même distribution H0 : X ≡ Y
ou test bilatéral, α = 10%
H1 : les X sont globalement différents des Y H1 : X 6≡ Y
Observations
On dispose de 2 échantillons indépendants :
E1 de taille n1 = 6 issu de P1 et E2 de taille n2 = 8 issu de P2 . Au total, n = 6 + 8 = 14.
Statistiques de test
Statistiques de Wilcoxon Wx et Wy pour 2 échantillons indépendants.
On range par ordre croissant l’ensemble des n = 14 valeurs : les rangs vont de 1 à 14.
xi 20 12 0 2 6 92
rang(x, y) 9 5 1 2 3 14 wx = 34
yi 31 14 15 10 21 19 28 22
rang(x, y) 13 6 7 4 10 8 12 11 wy = 71
9
Ux et de Uy variables quantitatives discrètes définies sur : {0, 1, . . . , n1 × n2 = 6 × 8 = 48}
vérification : ux + uy = 13 + 35 = 48 est égale à n1 × n2 = 6 × 8 = 48, donc ux + uy = n1 × n2 .
Lois sous H0 , région critique et niveau de signification du test
– loi exacte
Sous H0 , Ux et Uy ont la même loi définie sur {0, 1, . . . , 48} et symétrique de moyenne n12n2 = 24.
Région critique et niveau de signification
Sous H1 : X 6≡ Y RC aux deux extrémités du domaine de Ux (ou de Uy ).
αobs = 2 × PH0 [U ≤ umin ] = 2 × PH0 [U ≤ 13] = 2 × 0, 091 = 0, 182 = 18, 2% (table de Mann-Whitney)
– approximation normale
Sous H0 , Ux et Uy suivent la même loi, approximativement normale
de moyenne µ(U ) = n12n2 = 24 et de variance var(U ) = 6×8×15 12 = 60
U√−24
et la variable centrée réduite Z = 60 suit approximativement une loi normale N (0, 1)
(approximation peu justifiée ici puisque n1 et n2 ≤ 8).
Valeur observée de Z
ux −µ(U )
On choisit de travailler avec Ux : zobs = √ = 13−24√
60
= −1, 420094
var(U )
Région critique et niveau de signification
Sous H1 : X 6≡ Y RC aux deux extrémités du domaine de Ux (ou de Uy ) et donc de Z.
αobs = 2 × PH0 [Z ≥ |zobs |] = 2 × P [Z ≥ | − 1, 420094|] = 2 × (1 − P [Z ≤ 1, 420094])
= 2 × (1 − 0, 922210) = 2 × 0, 077790 = 0, 15558 ' 15, 6% (cf table de la loi N (0, 1))
Décision et conclusion
loi exacte : αobs = 18, 2% > α = 10% donc on conserve H0 , on ne valide pas H1 au seuil α = 10% et au
risque de 2de espèce β.
approximation normale : αobs = 15, 6% < α = 10% même décision que précédemment.
NB : dans ce cas l’approximation normale étant peu justifiée puisque n1 et n2 ≤ 8, on préférera donc conclure
à partir de la décision découlant de la loi exacte.
Les niveaux de compétences manuelles ne sont pas différents dans les deux écoles, au seuil α = 10% et au
risque de 2de espèce β inconnu.
Remarque : le test de Student de comparaison de deux moyennes pour deux échantillons indépendants n’est
pas applicable sur ces données puisque la condition de normalité de X n’est pas vérifiée (tests de normalité
Lilliefors (p < 0, 05) et Shapiro-Wilk (p = 0, 004) significatifs à 5%) et celle d’égalité des variances ne l’est
pas non plus (test du rapport des variances significatif à 5% (p = 0, 000539)).
Exemple 3
On a noté les poids de naissance de bébés (en kg) suivant si la mère avait reçu des soins prénataux depuis le
1er trimestre de grossesse (expérimental) ou le 3ème (en routine) pour resp. 10 et 8 bébés
3ème trimestre 1,68 3,83 3,11 2,76 1,70 2,79 1,40 2,66
1er trimestre 3,05 2,77 2,94 3,38 4,90 2,81 2,80 3,21 3,08 2,95
Peut-on, au risque α = 5%, accepter l’hypothèse que les soins prénataux précoces sont bénéfiques sur le poids
de naissance du bébé ?
Contexte
P1 = {bébés dont les mères ont des soins prénataux au 3ème trimestre de grossesse}
P2 = {bébés dont les mères ont des soins prénataux au 1er trimestre de grossesse}
X = poids de naissance du bébé dans P1 Y = poids de naissance du bébé dans P2
Les 2 variables mesurent le même caractère et sont quantitatives continues.
Hypothèses
de test et risque
H0 : X et Y ont la même distribution H0 : X ≡ Y
ou test unilatéral, α = 5%
H1 : les X sont globalement inférieurs aux Y H1 : X ≺ Y
Observations
On dispose de 2 échantillons indépendants :
E1 ”groupe témoin” de taille n1 = 8 issu de P1 et E2 ”groupe expérimental” de taille n2 = 10 issu de P2 d’où
n = n1 + n2 = 18.
10
Statistiques de test
Statistiques de Wilcoxon puis de Mann-Whitney pour 2 échantillons indépendants.
On calcule les rangs des individus dans l’ensemble des n = 18 individus : les rangs vont de 1 à 18.
3ème trimestre 1,68 3,83 3,11 2,76 1,70 2,79 1,40 2,66
rang(x, y) 2 17 14 5 3 7 1 4 wx = 53
1er trimestre 3,05 2,77 2,94 3,38 4,90 2,81 2,80 3,21 3,08 2,95
rang(x, y) 12 6 10 16 18 9 8 15 13 11 wy = 118
On définit les statistiques de Wilcoxon :
Wx = somme des rangs de X et Wy = somme des rangs de Y
dont les valeurs observées sont
wx = 2 + 17 + 14 + 5 + 3 + 7 + 1 + 4 = 53
wy = 12 + 6 + 10 + 16 + 18 + 9 + 8 + 15 + 13 + 11 = 118
n(n+1) n(n+1) 18×19
vérification : wx + wy = 2 puisque wx + wy = 53 + 118 = 171 et 2 = 2 = 171.
On définit les statistiques de Mann-Whitney : Ux et Uy
dont les valeurs observées sont
ux = wx − n1 (n21 +1) = 53 − 8×9 2 = 53 − 36 = 17
uy = wy − n2 (n22 +1) = 118 − 10×11 2 = 118 − 55 = 63
vérification : ux + uy = n1 × n2 puisque ux + uy = 17 + 63 = 80 et n1 n2 = 8 × 10 = 80.
Ux et Uy quantitatives discrètes sur {0, . . . , 80}.
Lois sous H0 région critique et niveau de signification du test
– loi exacte
Sous H0 , Ux et Uy ont la même loi définie sur {0, 1, . . . , 80} et symétrique de moyenne n12n2 = 40.
Région critique et niveau de signification
Sous H1 : X ≺ Y les valeurs de X occupent des rangs faibles d’où de petites valeurs de Wx et de Ux (à
l’opposé, de grandes valeurs de Wy et de Uy ) ; RC se situe à gauche du domaine de Ux (à droite pour Uy ).
On choisit de travailler avec Ux .
αobs = PH0 [Ux ≤ ux ] = PH0 [U ≤ 17] = 0, 0217 = 2, 17% (table de Mann-Whitney)
– approximation normale
Sous H0 , Ux et Uy suivent la même loi, approximativement normale
de moyenne µ(U ) = n12n2 = 40 et de variance var(U ) = 8×10×19 12 = 95
et la variable centrée réduite Z = U√−40
95
suit approximativement une loi normale N (0, 1).
Valeur observée de Z
ux −µ(U )
On choisit de travailler avec Ux : zobs = √ = 17−40
√
95
= −2, 04
var(U )
Région critique et niveau de signification
Sous H1 : X ≺ Y RC se situe à gauche du domaine de Ux et donc de Z.
αobs = P [Z ≤ zobs ] = P [Z ≤ −2, 04] = 1 − P [Z ≤ 2, 04] = 1 − 0, 9793 = 0, 0207 (Table de la loi N (0, 1))
Décision et conclusion
loi exacte : αobs = 2, 17% < α = 5% donc on rejette H0 en faveur de H1 (on valide H1 ) au risque α = 5%.
approximation normale : α = 5% > αobs = 2, 07% donc on rejette H0 en faveur de H1 (on valide H1 ) au
risque α = 5% (même conclusion).
Les soins prénataux donnés au 1er trimestre de grossesse augmentent le poids de naissance du bébé, au risque
α = 5% et au niveau de signification αobs = 2, 17%.
NB : dans ce cas l’approximation normale peut être justifiée puisque n2 = 10 > 8, mais quand on dispose
de la p − valeur calculée à partir de la loi exacte on préférera conclure à partir de la décision en découlant.
On peut remarquer qu’ici les deux p − valeurs sont très proches et conduisent à la même décision.
En présence d’ex aequo, l’approximation normale avec correction pour les ex aequo peut donner des résultats
plus fiables que la loi exacte qui n’en tient pas compte.
Remarque : le test de Student de comparaison de deux moyennes pour deux échantillons indépendants n’est
pas applicable sur ces données puisque la condition de normalité de Y n’est pas vérifiée (tests de normalité
Lilliefors (p < 0, 05) et Shapiro-Wilk (p = 0, 0002) significatifs à 5%).
11
3 Comparaison de deux distributions pour deux échantillons appariés
3.1 Contexte
Il s’agit d’un test portant sur deux échantillons appariés (ou pairés, ou appareillés) de deux variables X et
Y représentant le même caractère quantitatif continu,
soit issus d’une même population P, et dans ce cas les mesures de X et de Y sont faites sur les mêmes
individus,
soit issus d’une population P composée de paires d’individus (2 individus) aussi semblables que possible :
- personnes de la même famille (paires de jumeaux, (père, fils), ...)
- ou bien, on définit des ”variables d’appariement” (sexe, âge, durée ou gravité de la maladie, ...).
Afin de comparer les distributions de X et Y , on cherche à contrôler les facteurs ”connus” et ”inconnus” qui
jouent un rôle dans la différence entre les variables X et Y , autres que le facteur étudié, qui pourraient être
des ”facteurs de confusion”.
On dispose donc de deux échantillons appariés (en paires d’individus ”jumeaux”) de taille n0 .
Principe pour des échantillons appariés :
on travaille avec la variable ”différence” notée D = X − Y (ou Y − X).
Le test de comparaison de 2 distributions sur 2 échantillons appariés est le test de comparaison de leur
différence à 0.
12
On peut utiliser :
- soit le test du signe (ou des signes) sur la différence D en comparant la médiane de la différence D
à la valeur théorique M0 = 0,
- soit le test des signes et rangs de Wilcoxon sur la différence D (D supposée symétrique).
Comme leur nom l’indique, ces deux tests utilisent les signes de la différence D.
3.2 Observations
On dispose de 2 échantillons appariés de même taille n0 issu de P.
On note :
E1 l’échantillon de taille n0 et (x1 , . . . , xn0 ) les mesures de X,
E2 l’échantillon de taille n0 et (y1 , . . . , yn0 ) les mesures de Y .
Exemple 4
On cherche à savoir si dans les familles, les aı̂nés ont tendance à être plus indépendants que leurs cadets.
Lors d’une étude on a procédé à l’évaluation sur une échelle d’indépendance en 25 points, de 9 aı̂nés
et du frère ou de la sœur qui suit directement chacun des aı̂nés. On a obtenu les résultats suivants
score de l’aı̂né 8 12 14 15 5 13 18 20 17
score du puı̂né 9 10 14 12 9 8 12 10 10
Peut-on répondre à la question, au risque α = 0, 05 ?
Contexte
P = {paire=(aı̂né, puı̂né) d’une même famille}
X = score d’indépendance de l’aı̂né Y = score d’indépendance du puı̂né
Les 2 variables mesurent le même caractère (score d’indépendance) et sont quantitatives continues.
Hypothèses et risque α = 5%
On souhaite tester si les aı̂nés sont plus indépendants, donc si les scores X des aı̂nés sont globalement
supérieurs aux scores Y des puı̂nés, noté X Y .
H0 : X ≡ Y
ce qui s’écrit alternative unilatérale, au risque α = 5%.
H1 : X Y
On définit la variable auxiliaire ”différence” : D = X − Y .
C’est une variable quantitative continue de médiane M inconnue.
Observations
On dispose de deux échantillons appariés de taille n0 = 9. On calcule les différences di = xi − yi . Une
différence est nulle, donc on enlève cette valeur de l’échantillon et on continue à travailler avec n = 8.
On dispose d’un échantillon E de la variable différence D de taille n = 8.
On construit ensuite la variable auxiliaire ”signe” : signe(D) qualitative dichotomique ’+’ ou ’−’ pour
les n = 8 valeurs observées de D non nulles.
score de l’aı̂né xi 8 12 14 15 5 13 18 20 17
score du puı̂né yi 9 10 14 12 9 8 12 10 10
différence di = xi − yi −1 2 0 3 −4 5 6 10 7
signe(di ) − + \/ + − + + + +
13
Analyse descriptive des données
La médiane observée de la différence des scores m = 3 (valeur observée de rang 5 car n0 = 9) : est-elle
significativement supérieure à 0 ?
Par ailleurs la boı̂te à moustache des valeurs observées de D indique une distribution symétrique :
min(D) = −4, max(D) = 10, 1er quartile = 0 et 3ème quartile = 6.
Exemple 4
Hypothèses de test et risque
Les hypothèses du test de H0 : X ≡ Y contre H1 : X Y se traduisent sur la médiane M de la
différence
des scores d’indépendance, par
H0 : M = 0
test unilatéral droit, au risque α = 5%.
H1 : M > 0
En effet, H1 signifie que les valeurs de X sont globalement supérieures aux valeurs de Y , donc que les
différences D = X − Y sont globalement positives et ainsi la médiane de la variable D est positive.
14
Ainsi, le test du signe est le test de comparaison de la proportion p de signes ’+’, à 12 (= 0, 5 = 50%).
Test unilatéral droit
1
H0 : X ≡ Y H0 : M = 0 H0 : p = 2
test de ou de ou de 1
H1 : X Y H1 : M > 0 H1 : p > 2
Test unilatéral gauche
1
H0 : X ≡ Y H0 : M = 0 H0 : p = 2
test de ou de ou de 1
H1 : X ≺ Y H1 : M < 0 H1 : p < 2
Test bilatéral
1
H0 : X ≡ Y H0 : M = 0 H0 : p = 2
test de ou de ou de 1
H1 : X 6≡ Y H1 : M 6= 0 H1 : p 6= 2
Exemple 4
On considère la variable signe(D) qualitative à 2 modalités ’+’ et ’−’
de paramètre p = proportion de signes ’+’.
Les
hypothèses se traduisent pour le test du signe par :
H0 : p = 12 les proportions de signes ’+’ et ’−’ sont égales
H1 : p > 21 la proportion de signes ’+’ est plus élevée que celle des signes ’−’
test unilatéral droit, au risque α = 5%.
Exemple 4
Statistique de test
Sn = nombre de signes ’+’ pour tous les échantillons de taille n = 8
variable quantitative discrète définie sur {0, 1, . . . , n = 8}.
Sur l’échantillon E de taille n = 8 on observe sobs = 6 signes ’+’ pour les différences di .
Exemple 4
Loi exacte de la statistique de test sous H0
Sous H0 : X ≡ Y ou H0 : p = 21 la statistique de test Sn suit une loi binomiale B(8, 21 ) définie
sur {0, 1, . . . , n = 8} symétrique autour de sa moyenne (et milieu) n2 = 28 = 4 représentée par son
diagramme en bâtons (Figure 3).
Sous H0 , les xi et les yi sont mélangés de manière équilibrée donc les différences ’+’ et ’−’ apparaissent
en quantités similaires dans l’échantillon.
La valeur de Sn est alors située près du centre de la distribution.
Région critique et niveau de signification du test
Sous H1 : X Y les valeurs de X sont plus élevés que celles de Y ce qui implique plus de valeurs
positives de D = X − Y donc plus de la moitié de signes ’+’ (ici, plus de 4), c’est à dire une valeur
15
Fig. 3 – Diagramme en bâtons de la loi de Sn sous H0 pour n = 8 : B(8, 21 )
Exemple 4
Approximation normale sous H0
Si on approxime la loi de Sn par la loi normale de moyenne µ(Sn ) = n2 = 4 et de variance var(Sn ) =
Sn −µ(Sn ) n −4
approx
n 8
4 = 4 = 2 ; la statistique de test Z =
√ = S√ 2
∼ N (0, 1)
var(Sn )
(approximation peu justifiée car n = 8 < 30).
16
obs −µ(Sn )
La valeur observée de Z : zobs = s√ = 6−4
√
2
' 1, 4142
var(Sn )
Région critique et niveau de signification du test
αobs ' P [Z ≥ 1, 4142] = 1 − P [Z ≤ 1, 4142] = 1 − 0, 92135 = 0, 07865 (cf Table de la loi N (0, 1))
Exemple 4
Décision et conclusion
loi exacte : αobs = 14, 45% > α = 5% donc on conserve H0 au seuil α = 5% avec un risque β.
approximation normale : αobs = 7, 87% > α = 5%, décision identique à la précédente.
NB : dans ce cas l’approximation normale étant peu justifiée puisque n < 30, on préférera donc conclure
à partir de la décision découlant de la loi exacte.
On ne peut pas conclure au seuil 5% que les aı̂nés ont tendance à être plus indépendants que leurs
cadets, au risque de seconde espèce β inconnu.
Exemple 5
Huit adolescentes de 13 à 18 ans présentant une carence en fer sans anémie ont reçu un traitement
pour améliorer leur fonction cognitive. On mesure cette fonction par le score au test d’apprentissage
verbal de Hopkin avant et après traitement. On obtient les valeurs du tableau suivant
17
Elle représente la mesure de l’effet du traitement sur le score de Hopkin (la fonction cognitive).
Observations
On dispose de deux échantillons appariés de taille n0 = 8. On calcule les différences di = xi − yi . Une
différence est nulle, donc on enlève cette valeur de l’échantillon et on continue à travailler avec n = 7.
On dispose d’un échantillon E de la variable différence D de taille n = 7.
On construit la variable signe(D) qualitative à 2 modalités ’+’ et ’−’ pour les n = 7 valeurs non nulles
de D.
xi 5 3,1 2,8 1,5 1,8 0,5 3,7 6
yi 3,1 6 6,7 1,5 3,5 5,5 4,3 5,7
di 1,9 −2, 9 −3, 9 0 −1, 7 −5 −0, 6 0,3
signe(di ) + − − /\ − − − +
Analyse descriptive des données
La médiane observée de D m = −1, 15 (milieu des valeurs observées de rang 4 et 5 car n0 = 8, donc
entre −1, 7 et −0, 6) est légèrement négative : est-elle significativement inférieure à 0 ?
Par ailleurs la boı̂te à moustache des valeurs observées de D indique une distribution plutôt symétrique :
min(D) = −5, max(D) = 1, 9, 1er quartile = −3, 4 et 3ème quartile = 0, 15.
Test du signe
Hypothèses de test et risque
Sur
la médiane M de la différence des scores de Hopkin, le test se traduit alors par
H0 : M = 0
test unilatéral gauche, au risque α = 10%.
H1 : M < 0
En effet, H1 signifie que les valeurs de X sont globalement inférieures aux valeurs de Y , donc les
différences D = X − Y sont globalement négatives et ainsi la médiane de la variable D est négative.
On considère la variable signe(D) variable qualitative à 2 modalités ’+’ et ’−’ de paramètre p =
proportion de signes ’+’. Les hypothèses se traduisent pour le test du signe par :
H0 : p = 21 les proportions de signes ’+’ et ’−’ sont égales
H1 : p < 21 la proportion de signes ’+’ est plus faible que celle des signes ’−’
test unilatéral gauche, au risque α = 10%.
Statistique de test
Sn = nombre de signes ’+’ sur les échantillons de taille n = 7
variable quantitative discrète définie sur {0, 1, . . . , n = 7}.
Sur l’échantillon E de taille n = 7 on observe sobs = 2 signes ’+’ pour les différences di .
Lois sous H0 , région critique et niveau de signification du test
- loi exacte
Sous H0 , Sn quantitative discrète sur {0, 1, . . . , 7} suit une loi binomiale B(7, 21 ) de moyenne 3,5.
Sous H1 : M < 0 ou p < 21 les valeurs de D sont en majorité négatives, on s’attend à observer
moins de la moitié de signes ’+’ (moins de 3,5), donc Sn est faible ; RC se situe à gauche du domaine
de Sn
αobs = PH0 [Sn ≤ sobs ] = PH0 [Sn ≤ 2] = 0, 2266 (Table de la loi binomiale B(7, 12 )).
- approximation normale
Sous H0 , Sn suit approximativement une loi normale de moyenne 27 = 3, 5 et de variance 74 = 1, 75
−3,5
donc la variable centrée réduite Z = S√n1,75 suit approximativement une loi N (0, 1) (approximation
peu valable car n = 7 << 30).
La valeur observée de Z : zobs = sobs √ −3,5 = √ 2−3,5
= −1, 1339
1,75 1,75
Sous H1 : M < 0 les valeurs de D sont en majorité négatives, donc Sn est faible ; RC est à gauche
du domaine de Sn et de Z, d’où
αobs ' PH0 [Z ≤ zobs ] = PH0 [Z ≤ −1, 1339] = 1 − PH0 [Z ≤ 1, 1339] = 1 − 0, 87158 = 0, 12842
(Table de la loi N (0, 1)).
Décision et conclusion
loi exacte : α = 10% < αobs = 22, 66% donc on conserve H0 au risque β inconnu.
approximation normale : α = 10% < αobs = 12, 84% décision identique à la précédente, bien que peu
justifiée.
On ne peut pas conclure à l’efficacité du traitement sur l’amélioration de la fonction cognitive des
adolescentes présentant une carence en fer, au seuil α = 10% et au risque β inconnu.
18
3.4 Test de Wilcoxon (signes et rangs) sur deux échantillons appariés
Ce test de comparaison de deux distributions s’applique à une variable quantitative continue et symétrique.
Nous utilisons ici un cas particulier de ce test pour deux échantillons appariés, c’est à dire pour une variable
représentant la différence D entre deux autres variables, notées précédemment X et Y , qui sera supposée
symétrique.
Le test du signe ne tient compte que d’une petite partie de l’information contenue dans les données puisqu’il
ne tient compte que du signe (’+’ ou ’−’) de la différence. Pour obtenir un test plus puissant (moindre erreur
β de seconde espèce) on veut prendre en compte non seulement les signes des différences, mais également
les amplitudes de ces différences. Le test des ”signes et rangs” attribue un poids plus important à une
différence de plus grande amplitude.
Ce test nécessite seulement de connaı̂tre les signes (sens) des différences et de savoir les ordonner les unes
par rapport aux autres (ne nécessite pas d’avoir des valeurs quantitatives précises).
3.4.1 Observations
On dispose d’un échantillon E de la variable ”différence” D = X − Y de taille n.
Comme pour le test du signe, on supprime les individus dont les différences sont nulles, c’est à dire pour
lesquels xi = yi .
On calcule successivement pour chaque individu :
– la différence di = xi − yi
– le signe de la différence + ou − (pas de 0)
– la valeur absolue de la différence |di |
– le rang de la valeur absolue rang(|di |)
Exemple 4
Contexte
Il est identique à celui du test du signe (cf section 3.1) en supposant la symétrie de la variable
”différence” D.
Observations
On dispose d’un échantillon E de D = X −Y de taille n = 8 pour lequel on a calculé les signes signe(di ).
Il faut calculer également les valeurs absolues des différences |di | et les rangs de ces valeurs absolues
rang(|di |) de 1 à n = 8.
score de l’aı̂né xi 8 12 14 15 5 13 18 20 17
score du puı̂né yi 9 10 14 12 9 8 12 10 10
différence di = xi − yi −1 2 0 3 −4 5 6 10 7
signe(di ) − + \/ + − + + + +
|di | 1 2 0 3 4 5 6 10 7
rang(|di |) 1 2 \/ 3 4 5 6 8 7
On vérifie que les rangs vont de 1 à 8.
Statistiques de Wilcoxon
Les valeurs observées des statistiques de Wilcoxon
pour V + : v + = 2 + 3 + 5 + 6 + 7 + 8 = 31
pour V − : v − = 1 + 4 = 5
19
Domaine de variation de V + et de V −
Exemple 4
Les rangs vont de 1 à 8.
Au minimum : aucune différence positive donnerait v + = 0
8×9
Au maximum : toutes les différences sont positives, alors v + = 1+2+3+4+5+6+7+8 = S = 2 = 36
Donc V + varie dans l’ensemble {0, 1, 2, . . . , 36}.
Dans le cas général, pour un échantillon
de taille n,
les rangs vont de 1 à n.
n(n + 1)
Domaine de variation de V + : 0, 1, 2, . . . ,
2
V + variable quantitative discrète.
n(n + 1)
De même V − est une variable quantitative discrète sur 0, 1, 2, . . . ,
2
+ − n(n + 1)
Propriété : V + V =
2
en effet, cette somme est celle de tous les rangs de 1 à n.
V + et V − jouent un rôle symétrique :
n(n+1)
quand V + augmente, V − diminue et vice-versa, leur somme restant constante, égale à 2 .
Exemple 4
Ici : v + = 31, v − = 5 donc v + + v − = 36. Or n = 6 donc n(n+1)
2 = 8×9
2 = 36.
+ −
V et V sont quantitatives discrètes et varient sur le domaine {0, 1, . . . , 36}.
Exemple 4
Loi exacte des statistiques de Wilcoxon sous H0
Sous H0 : X ≡ Y
– V + et V − ont la même distribution, définie sur {0, 1, . . . , 8×9 2 = 36} symétrique autour de la
n(n+1) 36
moyenne (et milieu) 4 = 2 = 18 représentée par son diagramme en bâtons (Figure 4).
– les différences di sont équilibrées donc les rangs faibles (forts) apparaissent associés indifféremment
à des signes ’+’ ou ’−’.
Alors les valeurs de V + et V − sont proches, situées près du centre de la distribution.
Région critique et niveau de signification du test
Sous H1 : X Y les valeurs de D = X − Y sont en majorité positives associées à des rangs élevés ce
qui implique de grandes valeurs de V + , et à l’opposé de petites valeurs de V − . La région critique du
test RC est située à droite de la distribution de V + (à gauche pour V − ).
Si on choisit de travailler avec V + :
sym
αobs = PH0 [V + ≥ v + ] = PH0 [V + ≥ 31] = PH0 [V ≤ v − ] = PH0 [V ≤ 5] = 0, 0391
(cf table de Wilcoxon)
20
Fig. 4 – Diagramme en bâtons de la loi de V sous H0 pour n = 8
Exemple 4
Approximation normale sous H0
Si on approxime la loi de V par la loi normale de moyenne µ(V ) = n(n+1)
4 = 8×9
4 = 18 et de variance
n(n+1)(2n+1) 8×9×17
var(V ) = 24 = 24 = 51
V −µ(V ) approx
la statistique de test Z = √ = V√−18
51
∼ N (0, 1) (mais cette approximation est peu justifiée
var(V )
ici puisque n = 8 < 20).
21
On choisit de travailler avec V + donc la valeur observée de Z :
V + −µ(V )
zobs = √ = 31−18
√
51
' 1, 82036
var(V )
Région critique et niveau de signification du test
Sous H1 : X Y RC se situe à droite de la distribution de V + et de Z.
αobs ' P [Z ≥ 1, 82036] = 1 − P [Z ≤ 1, 82036] = 1 − 0, 96565 = 0, 03435 (cf Table de la loi N (0, 1)).
22
Exemple 5
Huit adolescentes de 13 à 18 ans présentant une carence en fer sans anémie ont reçu un traitement
pour améliorer leur fonction cognitive. On mesure cette fonction par le score au test d’apprentissage
verbal de Hopkin avant et après traitement. On obtient les valeurs du tableau suivant
23
V −µ(V ) V√−14 approx
la statistique de test Z = √ = 35
∼ N (0, 1)
var(V )
(mais cette approximation est peu justifiée ici puisque n = 7 < 20).
On choisit de travailler avec V + donc la valeur observée de Z : +
zobs = V√ −µ(V ) = 5−14
√
35
' −1, 521278
var(V )
+
Sous H1 : X ≺ Y RC est à gauche pour V et pour Z.
αobs ' P [Z ≤ −1, 521278] = 1 − P [Z ≤ 1, 521278] = 1 − 0, 9359 = 0, 0641 (cf Table de la loi N (0, 1)).
Décision et conclusion
loi exacte : αobs = 7, 81% < α = 10% donc on rejette H0 en faveur de H1 au risque α = 10%.
approximation normale : αobs = 6, 41% < α = 10% décision identique à la précédente.
NB : dans ce cas l’approximation normale est peu justifiée puisque n < 20, on préférera donc conclure
à partir de la décision découlant de la loi exacte. Cependant, on remarque qu’ici encore le niveau de
signification obtenu avec l’approximation normale est proche de celui du test exact.
On peut conclure à l’efficacité du traitement sur l’amélioration de la fonction cognitive des adolescentes
présentant une carence en fer, au risque α = 10% et au niveau de signification αobs = 7, 81%.
Remarques :
– le test du signe avec αobs = 22, 66% aboutissait à une conclusion opposée.
C’est une constatation fréquente puisque le test des signes et rangs de Wilcoxon est plus puissant
(moins conservateur) que le test du signe.
– le test de Student de comparaison de deux moyennes pour deux échantillons appariés sous les condi-
tions de normalité de D = X − Y (tests de normalité non significatifs) donnerait tobs = −1, 80888
et αobs = PH0 [T ≥ tobs ] = PH0 [T ≤ −1, 80888] = 0, 0567 ' 5, 67% d’après la loi de Student T7 et
induirait une conclusion identique.
Cependant, étant donné les petites tailles d’échantillons, les tests vérifiant la normalité sont peu puis-
sants pour détecter un écart aux conditions, leurs résultats sont peu fiables ; il est donc préférable
de se référer au test non paramétrique présenté ici.
3.6 Remarques
• Pour des variables X et Y continues, la probabilité de trouver un individu ayant la même valeur de X et
de Y est nulle.
De même la probabilité de trouver deux individus (ou plus) ayant la même valeur de D est nulle, en théorie
les ex aequo n’existent pas.
En pratique, ces cas de figure sont produits par les arrondis ou les erreurs de mesure :
- on ignore les individus donnant une valeur de D nulle (ils n’apportent pas d’information sur la différence
entre X et Y ),
- les formules (donc les tables) changent en présence d’ex aequo (voir logiciels). Il est important de les
utiliser uniquement s’il n’y a que ”peu” d’ex aequo.
• Le test du signe est plus conservateur (conserve plus souvent H0 ) ou moins puissant (détecte moins souvent
H1 ) que le test de Wilcoxon.
Démarche à suivre :
- faire le test du signe dont le champ d’application est très étendu puisqu’il ne nécessite aucune condition ;
- si la variable D = X − Y peut être supposée symétrique et si les données le permettent (on ne dispose
pas que des signes), faire le test de Wilcoxon ;
- le plus souvent les décisions concordent, mais si le test du signe conserve H0 alors que le test de Wilcoxon
rejette H0 , on garde cette dernière décision puisque le test de Wilcoxon est plus puissant.
24