0% ont trouvé ce document utile (0 vote)
49 vues36 pages

Statistiques

Le document traite de l'analyse de la variance (ANOVA) et des tests non paramétriques, en détaillant les principes, les calculs et les conditions d'application de l'ANOVA pour comparer plusieurs moyennes. Il aborde également les tests non paramétriques, leur utilisation pour l'inférence sur des distributions et la comparaison de groupes. Enfin, des exemples pratiques illustrent les concepts statistiques présentés, notamment à travers des études sur la mémoire et l'apprentissage.

Transféré par

ombeline.walger
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
49 vues36 pages

Statistiques

Le document traite de l'analyse de la variance (ANOVA) et des tests non paramétriques, en détaillant les principes, les calculs et les conditions d'application de l'ANOVA pour comparer plusieurs moyennes. Il aborde également les tests non paramétriques, leur utilisation pour l'inférence sur des distributions et la comparaison de groupes. Enfin, des exemples pratiques illustrent les concepts statistiques présentés, notamment à travers des études sur la mémoire et l'apprentissage.

Transféré par

ombeline.walger
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

LICENCE

ANOVA
&
TESTS NON-PARAMETRIQUES
Table des Matières

I) Analyse de la Variance ......................................................................................................... 4

1. Introduction ........................................................................................................................ 4

2. Principe général : Comparaison de plusieurs moyennes = Comparaison de 2 variances .. 5


2.1. Le test de l'hypothèse nulle ........................................................................................ 6

3. Logique de calculs de l'ANOVA........................................................................................ 7

4. Calculs dans l'Analyse de la variance .............................................................................. 10


4.1. Plan S<A> ................................................................................................................ 10
4.1.1. Répartition de la variation .................................................................................. 10
4.1.2. Tableau de l'ANOVA ......................................................................................... 12
4.1.3. Intensité d'effet ................................................................................................... 12

4.2. Plan S<A*B>............................................................................................................ 13


4.2.1. Répartition de la variabilité (Somme des Carrés) .............................................. 14
4.2.2. Calcul des F (J et K fixés) .................................................................................. 14
4.2.3. Calcul des F (J et K aléatoires)........................................................................... 14
4.2.4. Calcul des F (J fixé et K aléatoire) ..................................................................... 15
4.2.5. Coefficients d’intensité d’effet........................................................................... 15

4.3. Plan S*A (Mesures répétées) ................................................................................... 16


4.3.1. Décomposition de la variabilité intra : SCIntra = SCS + SCS*J............................. 17
4.3.2. Les Sommes des Carrés...................................................................................... 18
4.3.3. Calcul du F ......................................................................................................... 18
4.3.4. Intensité d’effet .................................................................................................. 18

5. Conditions d'application de l'analyse de variance ............................................................ 19


5.1. Condition de Normalité............................................................................................ 19
5.2. Condition d'homogénéité des variances ................................................................... 19
5.3. Condition d'indépendance des observations............................................................. 19

II) Tests Non – Paramétriques............................................................................................... 20

1. Inférence sur la forme d'une distribution.......................................................................... 20


1.1. Introduction .............................................................................................................. 20
1.1.1. Contraintes des tests paramétriques ................................................................... 20
1.1.2. Les tests non paramétriques à distributions libres.............................................. 20
1.2. Inférence sur la distribution d'une variable nominale. ............................................. 21
1.2.1. Hypothèse de recherche...................................................................................... 21
1.2.2. Principe............................................................................................................... 21
1.3. Inférence sur la distribution d'une variable en classes ordonnées ou numérique: Le
test non - paramétriques de Kolmogorov-Smirnov. ......................................................... 22
1.3.1. Hypothèse de recherche...................................................................................... 22
1.3.2. Principe............................................................................................................... 23

2
2. Inférence sur la relation entre deux Variables.................................................................. 25
2.1. Deux variables Nominales : χ² ................................................................................ 25

3. Comparaison de 2 Echantillons indépendants : Le Test de Mann - Whitney .................. 28


3.1. Méthode.................................................................................................................... 28
3.2. Conditions ................................................................................................................ 30

4. Comparaison de J groupes indépendants. L'Anova de Kruskal - Wallis ......................... 31

5. Comparaison de 2 Echantillons appareillés : Le Test de Wilcoxon................................. 33

6. Comparaison de J groupes appareillés : Le test de Friedman .......................................... 34


6.1. Méthode.................................................................................................................... 34

Bibliographie........................................................................................................................... 36

3
I) ANALYSE DE LA VARIANCE

1. Introduction

L'analyse de la variance qui est le test statistique de loin le plus utilisé en psychologie
repose sur le principe de la comparaison de deux variances. Cette comparaison peut être utile :

a) d'abord dans les comparaisons de moyennes : soit pour comparer entre elles un
ensemble de moyennes, soit même, dans le cas de 2 moyennes, lorsque les
échantillons sont petits et qu'on utilise le test t, pour vérifier l'égalité des variances
(voir hypothèse d’égalité des variances dans le test t de Student : Deug II).

b) comme une fin en soi lorsque l'attention est centrée sur la variabilité; c'est le cas
notamment de problèmes de mesure où une méthode est jugée d'autant plus précise
que sa variabilité est plus faible.

Le test de la comparaison entre 2 variances est généralement fondé sur le rapport de


ces deux variances. Ces deux variances diffèrent significativement si le rapport s'écarte trop
de 1. Ce test demande l'étude préalable des fluctuations d'échantillonnage du rapport de 2
variances.

Fluctuation d'échantillonnage du rapport de deux variances :

Imaginons que la population des étudiants de Licence ont un Q.I. moyen µ avec une
variance σ². Si pour des raisons purement pédagogiques on extrait de cette population deux
échantillons de nA et nB individus les variances de ces deux échantillons seront respectivement
s A2
sA² et sB². Nous nous intéressons aux valeurs que peut prendre le rapport 2 noté F. Nous
sB
savons que chacune des estimations s²A et s²B, doit être proche de σ², donc F de la valeur
"théorique" 1. Les fluctuations d'échantillonnages font que ce rapport F peut prendre
différentes valeurs qui auront différentes probabilités d'occurrence. Les probabilités seront
plus fortes pour des valeurs de F proches de 1 et plus faibles pour des valeurs de F
supérieures ou inférieurs à 1. Ces différentes valeurs possibles de F sont fonctions des
échantillons qu'on aura tiré au sort. D'où le terme fluctuations d'échantillonnage. Les
différentes valeurs de F pour les seuils 0.05 et 0.01 sont reportés dans la table de Fisher pour
les ddl de s²A et s²B.

Exemple :

On veut mesurer la fiabilité de deux méthodes d'apprentissage de la lecture. On calcule


les variances sur deux échantillons d'enfants (25 pour la méthode A et 30 pour la méthode B).
Les variances calculées donnent respectivement pour l'échantillon A et B : 5.16 et 1.96. Ces 2
516
.
variances sont-elles significativement différentes au risque 5%: = 2.63. Le ddl du
196
.
numérateur se note ν1 et le ddl du numérateur se note ν2. Déterminons l'intervalle Fi - Fs du
s A2
rapport F= 2 pour le risque 5%.
sB

4
Pour garder un risque global de 5% avec un test bilatéral il faut se rapporter à la table 2.5%.
Sa limite supérieure est d'après la table 2.5%, F[24,29] =2.20. Ce qui signifie qu'il n'y a que 5
chances sur 100 pour que le rapport F soit supérieur à 2.20. La limite inférieure ne peut être
lue directement dans la table mais elle s'obtient immédiatement en considérant le rapport
s B2
inverse 2 dont la limite supérieure est donnée à l'intersection de la colonne ddl = 29 et la
sA
s B2
ligne ddl = 24. C'est F[29,24] = 2.21. Ainsi on peut parier au risque 2.5% que 2 > 2.21 d'où
sA
2 2
sA 1 sA
< = 0 . 45 . Ce résultat signifie que F= n'a que 2.5 chances sur 100 d'être inférieur à
s B2 2.21 sB2
0.45.

Au total on peut parier que F restera compris dans l'intervalle [0.45 ; 2.20] avec 5 chances sur
100 d'erreur : 2.5% de chances pour que F < 0.45 et 2.5% de chances que F > 2.20.
s A2
Or le rapport 2 vaut 5.16/1.96 = 2.63. Cette valeur étant extérieure à l'intervalle on en
sB
conclut que les 2 variances diffèrent significativement.

Conclusion : la dispersion des performances est significativement plus faible avec la méthode
B qu'avec la méthode A.

2. Principe général : Comparaison de plusieurs moyennes = Comparaison de 2


variances

Pour illustrer le principe de l'analyse de variance nous allons prendre l'exemple d'une
étude menée par M.W. Eysenck (1974). Cet auteur a essayé de montrer que la qualité de
rappel de mots est fonction de la profondeur de traitement lors de leur encodage. Par exemple,
si vous essayez d'apprendre une liste de mots en vous la répétant plusieurs fois le rappel sera
médiocre car le traitement est dit de bas niveau. Par contre, si vous essayez d'associer ces
mots à d'autres mots le traitement sera d'un niveau plus élevé et le rappel sera meilleur.
Eysenck a réparti aléatoirement 50 sujets dans 5 groupes expérimentaux. Le 1er groupe devait
simplement lire une liste de mots et compter le nombre de lettres dans chaque mot. Le 2ième
groupe devait lire chaque mot de la liste et penser à un mot rimant avec le mot lu. Le 3ième
groupe devait trouver un adjectif se rapportant au mot lu. Le 4ième groupe devait former une
image mentale pour chaque mot. Le 5ième groupe avait comme consigne de lire la liste de mot
dans l'objectif de la rappeler le mieux possible par la suite.
Après la passation les sujets de chaque groupe devait écrire le plus de mots dont ils se
souvenaient de la liste de 27 mots présentés auparavant. Si l'apprentissage ne nécessite rien de
plus que d'être confronté au matériel alors les 5 groupes devraient avoir en moyenne les
mêmes performances de rappel. Si par contre le type de traitement a une importance dans
l'apprentissage alors on devrait observer de nettes différences de performances entre les 5
groupes.

5
"Compter" "Rimes" "Adjectifs" "Imagerie" "Intention" Total
9 7 11 12 10
8 9 13 11 19
6 6 8 16 14
8 6 6 11 5
10 6 14 9 10
4 11 11 23 11
6 6 13 12 14
5 3 13 10 15
7 8 10 19 11
7 7 11 11 11
Total 70 69 110 134 120 503

x 7.00 6.90 11.00 13.40 12.00 10.06


S 1.83 2.13 2.49 4.50 3.74 4.01
s² 3.33 4.54 6.22 20.27 14.00 16.058

2.1. Le test de l'hypothèse nulle

Eysenck a donc voulu tester l'hypothèse nulle selon laquelle les performances de
rappel sont les mêmes pour les 5 conditions. En d'autres termes, si µ1 représente la moyenne
de la population de tous les sujets qui pourraient potentiellement être testés dans la condition
"compter", µ2 la population de tous les sujets pouvant potentiellement être testés dans la
condition "Rimes", etc. alors l'hypothèse nulle est la suivante :

H0 : µ1 = µ2 = µ3 = µ4 = µ5

L'hypothèse alternative suppose que les moyennes des populations diffèrent entre
elles. Nous rappelons que l'hypothèse alternative ne peut être testée puisque nous ne pouvons
préciser par avance ni de quelle manière ni de quelle amplitude les moyennes des populations
diffèrent entre elles. Ces moyennes peuvent différer entre elles de plusieurs manières : la 1ère
peut être différente des 4 autres qui peuvent toutes être égales entre elles ; elles peuvent toutes
êtres différentes, etc.

Illustration graphique de H0 :

µ1 = µ2 = µ3 = µ4 = µ5

6
Illustration graphique possible de H1 :

µ1 µ2 µ3 µ4 µ5
Ou

µ1 = µ2 µ3 µ4 µ5

3. Logique de calculs de l'ANOVA

Nous avons postulé plus haut que les variances des différentes populations dont sont
théoriquement issus les groupes expérimentaux sont toutes identiques entre elles. La variance
des 10 scores d'un groupe quelconque de notre expérience est une estimation de la variance de
la population dont il est issu. Puisque nous avons admis que toutes les populations avaient la
même variance σ²e , chaque groupe fournit une estimation de cette variance commune. Ainsi
s²1 = est(σ²1) (i.e., s²1 est une estimation de σ²1 ) ; s²2 = est(σ²2) ; ... ; s²5 = est(σ²5). Notre
supposition de l'homogénéité des variances permet d'affirmer que toutes ces estimations sont
des estimations de σ²e. Nous pouvons obtenir une estimation encore plus fiable de σ²e en
prenant l'estimation moyenne de σ²e :

est (σ e2 ) = s 2 = s j2 = ∑ s 2j / k

où k est le nombre de groupe expérimentaux (dans notre exemple : k = 5). Ceci nous donne
une estimation de la variance de la population que nous appellerons CMintra ou CMerreur (CM :

7
carré moyen). Il est important de comprendre que cette estimation ne dépend pas de H0,
puisque s²j est calculé séparément pour chaque échantillon.

Dans l'exemple de notre expérience nous obtenons une estimation de la variance de la


population :

est(σ²e) = (3.33 + 4.54 + 6.22 + 20.27 + 14.00) / 5 = 9.67.

Maintenant supposons que H0 soit vraie. Dans ce cas on peut considérer que nos 5
échantillons de 10 observations sont 5 échantillons indépendants d'une même population. Par
conséquent, nous pouvons donner une seconde estimation de σ²e . Il suffit de se souvenir que
la variance de moyennes provenant d'une même population est égale à la variance de cette
population divisée par la taille des échantillons. Si H0 est vraie les moyennes ont été tirées de
la même population et par conséquent :

 σ e2 
est   = s x2 ⇒ est (σ e2 ) = ns x2

 n 

où n est la taille de chaque échantillon. Cette estimation de la variance de la population est


notée CMinter.

Nous avons donc deux estimations de la variance de la population σ²e. Une de ces deux
estimations (CMintra) est indépendante du fait que H0 soit vraie ou non. L'autre estimation
(CMinter) est une estimation de σ²e seulement si H0 est vraie.

Si les deux estimations sont identiques nous serons amenés à conclure que H0 est vraie. En
revanche, si ces deux estimations sont différentes nous pourrons conclure que H0 est fausse.

Illustration avec H0 vraie :

Supposons que nous ayons pris au hasard trois échantillons d’une même population
distribuée normalement dont la moyenne µ est de 5 et la variance σe² est de 10. Les données
sont rapportées dans le tableau ci-dessous :

Groupe 1 Groupe 2 Groupe 3


3 1 5
6 4 2
9 7 8
6 4 8
3 1 2
12 10 8
6 4 5
3 1 2
9 7 8
6.333 4.333 5.333
10 10 7.75

8
Nous pouvons voir que la variance moyenne de ces trois échantillons est de 9.25, ce qui est
une bonne estimation de la variance de la population σe² = 10.
La variance des moyennes est de :

(6.333 − 5.333)2 + (4.333 − 5.333)2 + (5.333 − 5.333)2 =


1+1+ 0
=1
3 −1 2

Et puisque nous savons que H0 est vraie :

( )
est (σ e2 ) = n s x2 = 9(1) = 9

Cette estimation est proche de la variance d’erreur dans la population σe² (10) et de
l’estimation de σe² calculée sur les échantillons (9.25). Puisque ces deux estimations de σe²
sont pratiquement équivalentes on peut conclure que H0 est probablement vraie.

Illustration avec H0 fausse :

Dans l’exemple qui suit nous allons considérer que H0 est fausse. Ceci est facilement
réalisable en additionnant des constantes aux données du tableau précédent (+2 pour le
Groupe 1 et –1 pour le groupe 2) :

Groupe 1 Groupe 2 Groupe 3


5 0 5
8 3 2
11 6 8
8 3 8
5 0 2
14 9 8
8 3 5
5 0 2
11 6 8
8.333 3.333 5.333
10 10 7.75

Ainsi il est raisonnable d’affirmer que le 1er groupe provient d’une population N(7,10),
ième
le 2 groupe d’une population N(4,10) et le 3ième groupe d’une population N(5,10).
Notons que la variance à l’intérieur de chaque groupe n’a pas changée puisque le simple fait
d’additionner une constante aux données d’un échantillon ne modifie pas la variance initiale.
Ceci illustre ce que nous avons dit plus haut. A savoir que la variance à l’intérieur des groupes
(i.e., la variance Intra) est indépendante de la véracité ou non de H0.
Par contre, la variance des moyennes ( s x2 ) a considérablement augmenté reflétant par-là les
différences entre les moyennes des populations. Dans ce cas l’estimation de σe² par la
variance des moyennes serait de 9(6.333) = 57. Cette valeur diffère énormément de
l’estimation de σe² par la variance dans les groupes (9.25).

9
La conclusion logique de cette différence est que s x2 n’est plus une estimation de la variance
de la population (σe²), mais de σe² plus la variance des moyennes des populations. En fait,
nous pouvons en être convaincus puisque nous avons nous même élaboré ces données.

Résumé
Pour tester l’hypothèse nulle on calculee deux estimations de la variance de la
population. L’une ne change pas selon que l’hypothèse nulle est vraie ou fausse, l’autre est
dépendante de H0. Si les deux estimations sont équivalentes alors on n’a aucune raison de
rejeter H0. Si elles diffèrent suffisamment alors on peut avancer que le traitement
expérimental sous-jacent a contribué à augmenter la seconde estimation la rendant plus
importante que la première. Par conséquent, nous rejetons l’hypothèse nulle.

4. Calculs dans l'Analyse de la variance

4.1.Plan S<A>

Comme nous allons le voir dans les sections suivantes, le calcul des différentes
variances est conditionné par la plan d’expérience, c’est-à-dire par les relations entre les
variables telles qu’elles ont été définies lors de l’élaboration de l’expérience.

4.1.1. Répartition de la variation

Nous avons vu que des observations réparties dans plusieurs groupes expérimentaux
peuvent donner lieu à différentes variances.

Nous avons distingué les variations entres les sujets d'un même groupe (variance intra) et les
variations entre les groupes (variance inter).

(a) Variance intra-groupes

La somme des carrés dans les groupes correspond à l'écart entre chaque score et la moyenne
du groupe auquel il appartient :

(
SC Intra = ∑ X ij − X j )
2

ij

Lorsqu'on divise cette somme des carrés par son ddl (degrés de liberté) on obtient une
estimation de la variance entre les sujets aussi appelée variance d'erreur (σe²) de la
population :

SCint ra
CM int ra =
N−j

10
où N représente le nombre total d'observations (i.e., pour tous les groupes) et j représente le
nombre de groupes. Ainsi

CMintra = est(σe²)

(b) Variance inter-groupes

La somme des carrés entre les groupes se calcule en faisant la différence (au carré) entre la
moyenne de chaque groupe et la moyenne générale :

(
SC int er = ∑ n j X j − X
j
)
2

nj : nombre de sujet pour le groupe j.


Une estimation de la variance entre les moyennes des populations µj est obtenue en divisant la
somme des carrés par le nombre de ddl :

SCint er
CM int er =
j −1
j : nombre de groupes ou de modalités de la VI.

(c) Variance Totale

La somme des carrés totale représente l'écart entre tous les scores et la moyenne générale :

(
SCTotal = ∑ X ij − X
i, j
)2

Les sommes des carrés intra et inter sont calculées afin d'obtenir deux estimations de la
variance d'erreur (σe²) dans la population sous l'hypothèse nulle.
La somme des carrés totale nous donne une information supplémentaire sur les observations.
Elle exprime la variance totale des données, toute condition expérimentale confondue. Par
conséquent nous pouvons voir quelle est la part des variances intra et inter dans cette
variance totale.
La somme des carrés totale s'obtient donc par addition des sommes des carrés inter et intra.
Ainsi, les sommes des carrés inter et intra sont une décomposition de la variance totale:

SCTotal

SCinter SCintra

11
4.1.2. Tableau de l'ANOVA

Les calculs de l'analyse de la variance sont généralement représentées dans un tableau


ou seuls apparaissent le nom des sources de variation, les sommes des carrés, les ddl, les
carrés moyens et les rapports F avec leur probabilité associée.

Source dl SC CM F P
Gr (inter) 4 351.52 87.88 9.08 < .01
Erreur (intra) 45 435.30 9.67
Total 49 786.82

Lorsque le F calculé est significatif nous rejetons l'hypothèse nulle selon laquelle les
moyennes des populations, dont sont issus nos 5 groupes expérimentaux, sont identiques. En
toute rigueur cette conclusion signifie qu'il y a au moins une moyenne qui diffère
significativement des autres. Mais nous ne savons pas quelles sont les moyennes qui diffèrent
significativement entre elles.

4.1.3. Intensité d'effet

Le rejet de H0 permet d’indiquer que la VI affecte la VD, mais ne permet pas d’évaluer
l’intensité de cet effet.

Ex : « Considérons deux expériences avec un plan S<A>. L’une avec 5 sujets et l’autre avec
50 sujets. Les deux expériences permettent de rejeter l’hypothèse nulle au seuil α = 0.05.
Quelle est l’expérience indiquant le plus clairement un effet de la VI sur la VD, celle avec 5
sujets ou celle avec 50 sujets. Une erreur commune est donc de confondre l’intensité d’effet
expérimental avec le seuil de probabilité.
Pour affiner l’analyse de variance on ajoute au test statistique une estimation de l’intensité de
l’effet de la VI. Il existe plusieurs coefficients. L’idée commune à l’ensemble de ces
approches est d’exprimer la part de variance de la VD attribuable à la VI par rapport à
l’ensemble des sources de variations.
Ou, ce qui revient au même, on cherche à exprimer l’effet de la VI comme un pourcentage de
réduction d’incertitude sur le comportement des sujets lorsque l’on prend en compte la VI.

Coefficient descriptif de l’intensité d’effet

Le coefficient R² exprime l’effet de la VI comme un rapport de la Somme des Carrés


du facteur J considéré à la Somme des Carrés totale.

Pour un plan S<A> :


SCint er SCint er
R2 = =
SCint er + SCint ra SCTotal

Ce coefficient est purement descriptif dans le sens où il ne concerne que l'échantillon


étudié. Le coefficient R² est un mauvais estimateur de l'intensité d'effet dans la population
parente étudiée. Plus précisément, ce coefficient surestime l'intensité d'effet dans la
population. Il existe différents coefficients donnant une bonne approximation de l'intensité

12
d'effet dans la population. On pourra se référer, par exemple, au livre de William Hays
(Statistics for social sciences).

4.2.Plan S<A*B>

Rappel : dans une expérience étudiant plus d’une variable indépendante, on peut
distinguer les effets simples (ou principaux) de chacune des VI des effets d’interactions entre
les variables.

Exemple sans interaction :

a1 a2 a3 moyenne
b1 7.5 6.0 4.5 6.0
b2 7.0 5.5 4.0 5.5
b3 3.5 2.0 0.5 2.0
Moyenne 6.0 4.5 3.0 4.5

b1
b2
Effets simples

b3
Effet principal

a1 a2 a3
Exemple avec interaction :

a1 a2 a3 moyenne
b1 6.0 6.0 6.0 6.0
b2 8.0 7.5 1.0 5.5
b3 4.0 0.0 2.0 2.0
Moyenne 6.0 4.5 3.0 4.5

b1

b2

b3
a1 a2 a3

13
Importance de l’interaction :

L’interaction entre plusieurs facteurs, bien que ne se justifiant pas systématiquement,


peut révéler des informations que les effets simples ne fournissent pas à eux seuls. L’exemple
ci-dessous en est une illustration :

On compare 2 méthodes d’apprentissage de la lecture appliquées chez des filles et des


garçons :

Méthode
I II
Sexe F 55 65 60
G 75 45 60
65 55

Dans cet exemple, en considérant uniquement les effets principaux, on voit d'une part
qu'il n'y a pas de différence entre les filles et les garçons et d'autre part que la méthode I
semble plus efficace que la méthode II.
Cependant, si on affine l'analyse on se rend compte que les filles sont meilleures avec
la méthode II alors que les garçons sont meilleurs avec la méthode I. Il existe donc une
différence entre filles et garçons avec ces deux méthodes d'apprentissage. Ce qui signifie que
ces deux facteurs sont en interaction.

4.2.1. Répartition de la variabilité (Somme des Carrés)

Somme des carrés total :


∑∑∑(y ) ( ) ( )
− X =∑∑∑(yijk − X jk ) + ∑nj X j − X + ∑nk Xk − X + ∑∑njk X jk − X j − Xk + X ( )
2 2 2 2 2
ijk
j k i j k i j k j k

1er terme = SCerreur (dans les groupes)


2eme terme = SCJ (entre les j groupes) : effet principale J
3eme terme = SCk (entre les k groupes) : effet principale K
4eme terme = SCJK (entre les jk groupes) : effet d’interaction JK

4.2.2. Calcul des F (J et K fixés)

CM J CM K CM JK
FJ = FK = FJK =
CM erreur CM erreur CM erreur

4.2.3. Calcul des F (J et K aléatoires)

CM J CM K CM JK
FJ = FK = FJK =
CM JK CM JK CM erreur

14
4.2.4. Calcul des F (J fixé et K aléatoire)

FJ =
CM J
CM JK
( J est fixé) FK =
CM K
CM erreur
( K est alé atoire) FJK =
CM JK
CM erreur

4.2.5. Coefficients d’intensité d’effet

R J2 = SC J / SCTotal
R K2 = SC K / SCTotal
2
R JK = SC JK / SCTotal

Exemple

On désire connaître l’effet de l’environnement de travail sur l’anxiété. Pour cela on


contrôle le type d'éclairage (lumière naturelle vs. lumière artificielle) et l’usine dans laquelle
les mesures ont été établies. Le taux d’anxiété est mesuré après la phase expérimentale
pendant une interview selon une grille pré-établie. Les notes d’anxiété sont exprimées dans
une unité arbitraire.

- Faire l’analyse de variance en considérant d’une part qu’on s’intéresse uniquement aux trois
usines étudiées parce qu’elles ont fait l’objet de plusieurs plaintes de la part du personnel. Et
d'autre part, en considérant que ces trois usines ont été choisies aléatoirement et qu’on désire
généraliser les résultats à toutes les usines équivalentes.
- Donner le pourcentage de variance expliquée par le type d’éclairage.

Lumière Naturelle Lumière Artificielle


Usine A Usine B Usine C Usine A Usine B Usine C
7 5 12 5 2 8
6 4 10 3 2 7
7 3 11 4 5 9

Source Ddl SC CM F P(F)


J = Lumière 1 22.222 22.222 18.182 0.0011
K = Usine 2 113.444 56.722 46.409 > 0.001
KJ 2 3.444 1.722 1.409 0.2820
Intra 12 14.644 1.222
Total 17 153.754

15
4.3.Plan S*A (Mesures répétées)

Dans un plan à mesure répétées les sujets répondent à chaque modalité de la VI. Ces
plans sont souvent utilisés dans les expériences où la VI exprime la durée.

Avantage : demande un nombre de sujets moins important.


Inconvénient : les mesures entre les groupes expérimentaux ne sont pas indépendantes, d’où
possibilité d’apprentissage dans certaines expériences.

Les deux cas :

Plan S<A>
Modalités de la VI
a1 a2 a3
s1 s5 s9
s2 s6 s10
s3 s7 s11
s4 s8 s12

Plan S*A
Modalités de la VI
a1 a2 a3
s1 s1 s1
s2 s2 s2
s3 s3 s3
s4 s4 s4

Dans un plan S<A> on isole deux composantes dans la Somme des carrés totale :

SCtotal = SCIntra + SCInter

Dans un plan à mesure répétées SCIntra ne permet plus une évaluation de l’erreur
expérimentale. En effet, SCIntra surestime l’erreur expérimentale, la variabilité due aux
différences des sujets d’une condition expérimentale à l’autre étant absente.

Dans l'exemple ci-dessous, nous avons éliminé la variabilité due à l'effet expérimental.

Pas d’effet de la VI

Modalités de la VI
Sujets A1 a2 a3
s1 7 7 7
s2 2 2 2
s3 4 4 4
s4 10 10 10
X = 5.75

16
Avec un effet de la VI.

Modalités de la VI
Sujets A1 a2 a3
s1 7 8 10
s2 2 3 5
s3 4 5 7
s4 10 11 13

Il est manifeste que SCIntra n’est pas adéquat pour représenter l’erreur expérimentale telle
qu’elle est calculée avec un plan à mesures indépendantes. Dans les deux exemples ci-dessus,
l'erreur expérimentale n'existe qu'à l'intérieur d'un même groupe. Elle est nulle lorsque l'on
considère la différence du score d'un sujet d'une condition expérimentale à l'autre. Ainsi
l’erreur expérimentale dans un plan à mesures répétées prendra une plus petite valeur que
dans un plan à mesures indépendantes.

4.3.1. Décomposition de la variabilité intra : SCIntra = SCS + SCS*J

Une partie de la variabilité dans les groupes expérimentaux peut s’attribuer aux
différences entre les sujets (c’est-à-dire à l’effet du facteur S). Par exemple, dans le premier
tableau, la moyenne du sujet 1 se trouve à 1.25 de la grande moyenne. La moyenne du sujet 2
se trouve à 3.75 au dessous de la grande moyenne.

Si l’on estime que la configuration des erreurs des sujets par rapport à la grande
moyenne est semblable dans les différentes conditions expérimentales, on pourra estimer ces
différences entre les sujets par l’écart entre la moyenne de chaque sujet et la grande
moyenne : X S − X

Dans un groupe expérimental, on peut identifier deux sources de variabilité : (1) les
différences entre les sujets (2) l’erreur expérimentale. Pour estimer l’erreur expérimentale
nous devons retirer de la variabilité dans les groupes la variabilité entre les sujets puisque
celle-ci est sensée être la même d’un groupe à l’autre.
Ainsi l’erreur expérimentale se manifestera à travers ce qui reste de la variabilité dans
les groupes après que l’on a pris en compte (retiré) la variabilité entre les sujets : on appelle ce
reste le résidu.

(
Yij − X J = Yij − X J − X S + X + X S − X)( )
La partie (X −X ) représente la variabilité entre les sujets. La partie restante
(Y )
S

ij− X J − X S + X représente le résidu. On reconnaît dans ce résidu un terme d'interaction


entre le sujet et la condition expérimentale.

17
4.3.2. Les Sommes des Carrés

SC Intra − groupe = ∑ (Yij − X J )


2

= SC SJ + SC S

(
= ∑ Yij − X J − X S + X ) + J ∑ (X
2
S −X )
2

De la même manière on peut considérer que la variabilité intra-sujet (c’est à dire d’une
condition expérimentale à l’autre) peut s’attribuer d’une part à l’effet de la VI et d’autre part à
l’interaction entre les sujets et les groupes expérimentaux :

SCIntra-sujet = SCJ + SCSJ

Les ddl :

ddlJ = J - 1
ddlS = S - 1 (n - 1)
ddlSJ = (J - 1)(S - 1)

4.3.3. Calcul du F

Sous l’hypothèse nulle d’absence d’effet de J, le carré moyen de J et le carré moyen SJ


estiment la même variance. Le rapport de ces deux variances se distribue suivant une loi de
Fisher avec (J - 1) et (J - 1)(S - 1) ddl.
CM J
F=
CM SJ

4.3.4. Intensité d’effet

R J2 = SC J / SCTotal
R S2 = SCS / SCTotal
R SJ2 = SCSJ / SCTotal

Ex : dans une expérience hypothétique, on utilise un plan d’expérience à mesures répétées. La


VI a 4 modalités et la taille des groupes expérimentaux est de 5 :

V.I.
Sujets j1 j2 j3 j4
s1 5 4 1 8 18
s2 7 4 1 10 22
s3 12 9 8 16 45
s4 4 9 6 9 28
s5 8 9 5 13 35
36 35 21 56 148

18
Source ddl SC CM F P(F)
J 3 124.4 41.47 14.2 0.000349
S 4 115.3 28.82
SJ 12 35.1 2.92
Total 19 274.8

5. Conditions d'application de l'analyse de variance

5.1. Condition de Normalité

L'application de l'ANOVA suppose que les scores de tous les individus sont distribués
normalement autour de la moyenne µj pour chaque population. Toutefois, si on a des
présomptions que la distribution des scores diffère légèrement de la distribution normale cela
aura des conséquences négligeables sur le résultat final.

5.2.Condition d'homogénéité des variances

La seconde condition d'application concerne les variances des populations qui doivent
toutes êtres identiques entre elles :

σ²e =σ²1 = σ²2 = σ²3 = σ²4 = σ²5

Le graphique ci-dessus illustre cette condition par le fait que toutes les courbes sont
identiques. Cette variance, comme vous avez pu le remarquer, est notée σ²e et représente la
variance d'erreur. Cette variance est supposée indépendante de la condition expérimentale et
donne la différence entre les sujets. En d'autres termes elle représente l'idiosyncrasie des
sujets (mode de réaction particulière de chaque individu à l'égard d'un agent étranger).

µ1 µ2 µ3 µ4 µ5

5.3.Condition d'indépendance des observations

Pour que le calcul de l'ANOVA reste valide les observations à l'intérieur d'un même
groupe expérimental doivent toutes être indépendantes. C'est une des raisons principales pour
laquelle les sujets sont répartis aléatoirement dans les différents groupes.

19
II) TESTS NON – PARAMETRIQUES

1. Inférence sur la forme d'une distribution

1.1.Introduction

Les tests étudiés jusqu'ici font partie de ce qu'on appelle des tests paramétriques. En
effet, leur principe consiste à estimer un paramètre de la population (ex : µ ou σ) par une
statistique calculée sur un échantillon (ex : x ou s). L'utilisation de tels tests requièrent,
comme nous l'avons vu, que certaines conditions soient remplies pour que l'application reste
valide (ex : normalité de la population parente, égalité des variances des populations
comparées...). Lorsque ces conditions ne sont pas remplies ou que l'on a un doute sur leur bien
fondé il est possible d'utiliser d'autres tests dont le principe ne consiste pas à estimer la valeur
des paramètres des populations mais à étudier la forme des distributions des données
recueillies. Cette seconde famille de tests s'appellent les tests non - paramétriques.

1.1.1. Contraintes des tests paramétriques

Qu'est ce qui différencie un test paramétrique d'un test non paramétrique ? Lorsqu'on
s'intéresse à des observations recueillies dans un échantillon concernant une ou plusieurs
variables ayant des échelles numériques, la possibilité de faire des inférences sur les
paramètres inconnus à partir des statistiques calculées repose sur des distributions
d'échantillonnages qui ne sont applicables qu'avec un certain nombre de contraintes (on parle
de conditions d'application des tests).

La contrainte la plus fréquente concerne l'exigence d'une distribution particulière de la


variable dans la population parente, en particulier d'une distribution normale. Il est rare qu'on
connaisse la distribution parente, et rien n'implique que la distribution des variables
habituellement étudiées en psychologie soit "naturellement" gaussienne.
De la même manière, l'homogénéité des variances parentes est parfois exigée mais
généralement non testée.

On sait certes que le viol de ces contraintes est d'autant moins grave que les
échantillons sont grands et que ces tests sont "robustes" (peuvent résister à quelques
privautés).

1.1.2. Les tests non paramétriques à distributions libres.

D'un autre côté, certains tests, traitant le plus souvent de données recueillies sur des
échelles ordinales, sont beaucoup moins exigeants et peuvent être utilisés sans faire de
postulats vis-à-vis des distributions parentes inconnues. Lorsque les conditions d'application
des tests paramétriques s'avèrent trop contraignantes, on a donc toujours la possibilité de
transformer les observations recueillies sur les échelles numériques en classements ou en
classes ordonnées et d'appliquer des tests non paramétriques sur les données transformées.

La relation entre les différentes modalités d'une variable et les effectifs


correspondants, observés dans un échantillon d'observations, ne suit habituellement aucune loi

20
particulière. Néanmoins, on peut se demander dans quelle mesure, avec quelle vraisemblance,
une distribution observée peut provenir aléatoirement d'une distribution parente ayant une
certaine forme particulière.

Le principe général consiste à analyser l'écart existant entre la distribution théorique


postulée et la distribution empirique obtenue.

1.2.Inférence sur la distribution d'une variable nominale.

Les caractéristiques de la distribution théorique qui sert de modèle peuvent être


choisies pour plusieurs raisons :
- il peut s'agir d'une distribution théorique (distribution normale, distribution uniforme...).
- il peut s'agir d'une distribution connue (répartition des naissances masculines et féminines,
prédominance d'une maladie...).

1.2.1. Hypothèse de recherche

Les unités statistiques (individus) se répartissent selon la distribution choisie pour


modèle dans les diverses modalités de la variable.

1.2.2. Principe

La démarche consiste à comparer les effectifs obtenus dans chaque modalité de la


variable nominale à ceux que l'on aurait suivant le modèle testé, et à évaluer la probabilité de
trouver de manière aléatoire un écart au moins aussi grand que l'écart trouvé.

(a) Hypothèses statistiques

Hypothèse nulle H0 : il n'y a pas de différence entre les effectifs obtenus (ou observés) et les
effectifs théoriques (ou attendus).
Hypothèse alternative H1 : les deux distributions d'effectifs diffèrent.

(b) détermination du risque α (traditionnellement 5% ou 1%)

( effectif observé − effectifs thé orique)


2

(c) La Statistique de test χ 2


=∑
effectif thé orique

Suivant le risque choisi on lit sur la table de χ² la valeur critique correspondante.

• si le χ² calculé est inférieur au χ² lu dans la table, on ne peut rejeter l'hypothèse nulle. Rien
ne permet de dire que la distribution observée est différente de la distribution théorique.

• si le χ² calculé est supérieur au χ² lu dans la table, on peut rejeter l'hypothèse nulle et


accepter de penser que la distribution observée est significativement différente de la
distribution théorique postulée.

21
Exemple :

On a essayé de voir si le choix d'une sous - discipline de la psychologie est aléatoire.

H0 : la distribution des choix d'une sous - discipline suit une distribution plate (ou uniforme)
ou les sous - disciplines sont aussi souvent choisies les unes que les autres.

H1 : les sous - disciplines n'attirent pas les étudiants de la même façon.

On décide de tester l'hypothèse nulle au risque α = 5%.


La variable nominale "choix de la discipline" comporte 4 modalités.

Sur 100 étudiants en psychologie on observe la distribution de choix de sous - disciplines


suivante :

Sous - discipline sociale générale clinique enfant


effectifs observés 30 13 35 22
effectifs théoriqs 25 25 25 25

( 2 2 2
)
χ 2 = ( 30 − 25) + (13 − 25) + ( 35 − 25) + ( 22 − 25) / 25 = 1112
.

Le χ² lu dans la table pour un ddl de (4 - 1) = 3 et un risque de 5% est 7.81. La valeur trouvée


est supérieure à la valeur critique et on peut donc rejeter l'hypothèse nulle et dire que les sous
- disciplines n'attirent pas les étudiants de la même manière.

1.3.Inférence sur la distribution d'une variable en classes ordonnées ou


numérique: Le test non - paramétrique de Kolmogorov-Smirnov.

On peut toujours adopter la méthode présentée en 1.2. L'inconvénient de cette méthode


est que l'on ne prend pas en compte l'aspect ordonné des modalités. Pour prendre en compte
cet aspect, on analyse, non pas la distribution d'effectifs, mais la distribution des effectifs
cumulés.

En plus des applications présentées en 1.2 on trouve des utilisations supplémentaires,


en particulier :

• on peut tester si une distribution observée peut provenir d'observations se répartissant sur
une distribution gaussienne.

1.3.1. Hypothèse de recherche

Les observations se répartissent selon la distribution théorique choisie dans les


diverses modalités de la variable ordinale ou numérique.

22
1.3.2. Principe

S'il s'agit d'une variable numérique ayant de nombreuses modalités on commence par
la découper en classes. Dans tous les cas on calcule les effectifs, puis les effectifs cumulés et
les fréquences cumulées de la distribution observée et de la distribution théorique. Pour
chaque classe (ou modalité), on calcule la différence entre les fréquences cumulées observées
F0 et les fréquences cumulées théoriques Ft.

(a) On détermine le risque d'erreur α

(b) Hypothèses statistiques

H0 : l'intensité croissante des fréquences observées pour chaque modalité est égale à l'intensité
croissante des fréquences attendues.

H1 : l'intensité croissante des fréquences observées est différente de celle des fréquences
attendues.

(c) La statistique de Test de Kolmogorov-Smirnov

On détermine la plus grande différence : D max = F0 − Ft (en valeur absolue)

(d) Rejet de l'hypothèse nulle

• Si le Dmax calculé est inférieur au Dcritique lu dans la table, on ne peut pas rejeter
l'hypothèse nulle. Rien ne permet de dire que la distribution observée est différente de la
distribution théorique.

• si le Dmax calculé est supérieur au Dcritique lu dans la table on peut rejeter l'hypothèse nulle
et accepter de penser que la distribution observée n’est pas différente de la distribution
théorique.

Exemple :
On se demande si la distribution de la taille observée sur 100 étudiants peut
raisonnablement provenir d'une population d'observations normalement distribuée. Les
résultats donnent une taille moyenne de l'échantillon de 166.5 cm et un écart - type de 10.68.

On se réfère aux caractéristiques d'une distribution normale et on découpe la distribution de la


taille en 6 classes à partir de sa moyenne et de son écart type.

H0 : la distribution observée et la distribution normale en six classes sont semblables.


H1 : la distribution observée est différente d'une distribution normale.

On décide d'un risque de 5%, soit la valeur critique de Dmax = 0.136

Détermination des classes :

23
1ere classe = de 0 à (x - 2s) = 145.14
2eme classe = de (x - 2s) à (x - 1s) = 145.15 à 155.82
3eme classe = de (x - 1s) à (x ) = 155.83 à 166.5
4eme classe = de (x ) à (x + 1s) = 166.6 à 176.18
5eme classe = de (x + 1s) à (x + 2s) = 176.19 à 187.86
6eme classe ≥ à (x + 2s) ≥ à 187..86

Taille classe 1 classe 2 classe 3 classe 4 classe 5 classe 6


observés
effectifs 0 11 47 27 9 6
eff.cumul 0 11 58 85 94 100
fréq.cumul 0 0.11 0.58 0.85 0.94 1
Théoriques
Effectifs 2.28 13.59 34.13 34.13 13.59 2.28
eff.cumul 2.28 15.87 50 84.13 97.72 100
fréq.cumul 0.0228 0.1587 0.5 0.8413 0.9772 1
D 0.0225 0.0487 0.08 0.0087 0.0372

La différence maximale Dmax est 0.08, soit une valeur inférieure à la valeur critique 0.136.
L'hypothèse nulle ne peut être rejetée. Il est possible que cet échantillon de 100 observations
provienne d'une population pour laquelle la distribution de la taille serait normale.

Rq : En utilisant la méthode du χ² on trouve un χ² calculé de 16.73. Le ddl devrait être 6-1=5.


Cependant le fait d'avoir estimé les deux paramètres µ et σ avec les statistiques x et s on doit
soustraire un ddl pour chaque paramètre estimé. Le ddl du χ² critique devient donc 5 - 2 = 3.
Le χ² critique pour un ddl de 3 et un risque de 5% est de 7.81.
En utilisant le χ² on remarque qu'on peut rejeter l'hypothèse nulle et conclure à une
distribution non normale de la population parente. La discordance entre ces deux conclusions
vient du fait qu'une information importante n'est pas prise en considération avec le χ² : c'est à
dire l'aspect ordonné de la variable.

24
2. Inférence sur la relation entre deux Variables

2.1.Deux variables Nominales : χ²


On s'interroge sur la relation entre deux variables nominales (ou qualitatives) :
catégories socio-professionnelles, réussite/échec au rattrapage à un examen, etc. On considère
que les modalités de l'une des variables déterminent k groupes indépendants. On se demande
si la distribution de la deuxième variable (c'est à dire la répartition des observations dans les
différentes modalités de cette variable) est la même pour les k groupes.

Variable X à
3 modalités.

C
B

Variable Y

Variable X à
3 modalités.

C
B

Variable Y

Les modalités des deux variables doivent être exclusives : aucune statistique n'est à la fois
dans plusieurs modalités d'une même variable.

(a) Hypothèse de recherche

Il y a une relation entre les deux variables nominales.

(b) On détermine le % de risque qu'on veut prendre dans notre conclusion portant sur
l'hypothèse nulle.

(c) Les étapes de calcul

25
Rappel :

1. Construction du tableau des effectifs observés

2. Calcul des effectifs théoriques ou attendus prédits par l'hypothèse nulle. Effectifs
théoriques d'une cellule = (total de la ligne × total de la colonne)/N (taille de l'échantillon).

3. Calcul des écarts bruts élevés au carrés puis pondérés en divisant par l'effectif théorique de
la cellule considérée.

(d) La statistique de test χ²

La sommation des valeurs trouvées dans chacune des cases fournit le coefficient χ².

( effectif observé − effectifs thé orique)


2

χ2 =∑
effectif thé orique

La distribution de probabilités du χ² varie de 0 à l'infini et sa forme asymétrique dépend du


degré de liberté du tableau analysé. Le ddl est égal à (c-1)(l-1).

(e) Décision

• Si le χ² calculé est inférieur au χ² lu, on ne peut rejeter l'hypothèse nulle. On ne peut rien
conclure concernant l'indépendance ou la relation entre les deux variables.

• Si le χ² calculé est supérieur au χ² lu, on peut rejeter l'hypothèse nulle et accepter


l'hypothèse alternative : il y a une relation entre les deux variables.

(f) Sens de la relation

Si l'on rejette l'hypothèse nulle, il reste à indiquer dans quel sens se fait la relation. On
analyse les "sur - représentations" ou "attractions" et les "sous - représentations" ou
"répulsions". On regarde quelles sont les cases qui contribuent le plus à la valeur du χ². On
regarde également quel est le signe des écarts bruts correspondants.

(g) Conditions d'application.

La correction de Yates est vivement conseillée à chaque fois que certains effectifs
théoriques sont inférieurs à 5. Elle consiste à diminuer de 0.5 chacun des écarts bruts. La
formule devient :

( eff . observé − eff . thé orique − 0.5) ²


χ corrigé
2
=∑
eff . thé orique

26
Si plus de 20% des cases ont des effectifs théoriques < 5 et s'il existe des cases ayant des
effectifs théoriques < 1, il est déconseillé d'utiliser ce test. On peut essayer de réduire le
nombre de modalités des variables (regroupement des modalités voisines par exemple).

Exemple :
Soit la variable nominale "choix de la sous - discipline" dont les quatre modalités
déterminent quatre groupes indépendants d'étudiants. On essaie de savoir s'il existe une
relation entre cette variable et la variable type de bac obtenu par l'étudiant.

Bac L Bac ES Bac S total


Sociale 10 17 6 33
expérimentale 10 4 8 22
Clinique 16 17 2 35
Enfant 10 8 4 22
Total 46 46 20 100

a) Hypothèse de recherche

Il y a une relation entre le bac obtenu par l'étudiant et la sous - discipline choisie en
psychologie.

b) Choix du risque

Traditionnellement on choisit un risque de 5% de se tromper.

c) Calculs

effectifs théoriques :

Bac L Bac ES Bac S


Sociale 13.55 13.55 5.89
Expérimentale 9.04 9.04 3.93
Clinique 14.37 14.37 6.25
Enfant 9.04 9.04 3.93

On remarque que 2 cellules sur 12, soit 17%, ont des effectifs théoriques inférieurs à 5. On
poursuit en appliquant la correction de Yates.

Bac L Bac ES Bac S


Sociale (-) 0.686 (+) 0.64 (+) 0.026
Expérimentale (+) 0.024 (+) 2.277 (-) 3.247
Clinique (+) 0.088 (+) 0.314 (+) 2.25
Enfant (+) 0.024 (-) 0.032 (+) 0.047

Le χ² calculé est égal à 12.7. Le ddl est égal à 6 ((4-1)(3-1)).

27
d) Décision
La valeur lue dans la table à 0.05 et pour un ddl de 6 est égale à 12.59. La valeur
calculée est donc supérieure à la valeur critique. Il y a une relation non nulle entre le bac
obtenu par l'étudiant et la sous - discipline qu'il choisit en psychologie.

f) Sens de la relation
On constate qu'une case se détache très nettement des contributions au χ², l'attraction
très forte des étudiants ayant choisi la psychologie expérimentale et ayant eu un bac S.
Néanmoins la prudence s'impose car c'est précisément dans cette case qu'on trouve le plus
petit effectif théorique.

3. Comparaison de 2 Echantillons indépendants : Le Test de Mann - Whitney

Ce test est une alternative au test t pour l'égalité de 2 moyennes. Il peut être employé
lorsqu'on a de bonnes raisons de douter de l'hypothèse de l'égalité des variances ou de la
normalité des populations sous-jacentes.

Ce type de test postule que la variable est continue. L'hypothèse nulle à tester affirme
que les distributions des populations sont identiques.

3.1.Méthode

- Les observations des deux échantillons sont classées par ordre de grandeur.
- On attribue un rang à chaque score (le score le plus faible obtient le rang 1, le score
suivant 2, etc.).
- On calcul la somme des rangs, notée T1, pour l'un des deux échantillons.
- Calcul de :
N (N + 1)
U = N1 N 2 + 1 1 − T1
2

Si la valeur de U est supérieure à N1N2/2 on calcule la valeur : U' = N1N2 − U. La statistique


utilisée sera la plus petite valeur de U et U'.

Exemple :

Echantillon A Echantillon B
8 1
3 7
4 9
6 10
12

28
Arrangées par ordre croissant et affectées de rangs ces valeurs deviennent :

B A A A B A B B B
Score 1 3 4 6 7 8 9 10 12
Rang 1 2 3 4 5 6 7 8 9

S'il y a des scores ex aequo alors ces scores reçoivent tous le même rang moyen. Ex : rangs 4,
5, 6 → rang 5.

La somme des rangs pour le premier échantillon est T1 = 2 + 3 + 4 + 6 = 15

4(5)
U = 4(5) + − 15
2
= 15

Ceci est plus grand que (4×5)/2 = 10, par conséquent nous prendrons la statistique
U' = 20 − 15 = 5.

Notons que pour ces 9 scores, la valeur de U dépend uniquement de l'arrangement des
A et B. Le nombre d'arrangements possible est C NN11 + N 2 . Ainsi si l'hypothèse nulle de l'égalité
des populations est vraie l'affectation aléatoire des sujets à l'un ou l'autre échantillon devrait
être le seul facteur de variation des valeurs possibles de U. Sous l'hypothèse nulle, tous les
arrangements devraient avoir la même probabilité d'occurrence. L'ensemble des probabilités
associées aux valeurs possibles de U, rappelons le, s'appelle la distribution de probabilité de
U.

Pour de grands échantillons cette distribution suit approximativement une Loi Normale avec

N1 N 2
E (U ) =
2

N1 N 2 (N1 + N 2 + 1)
σ U2 =
12

Ainsi pour de grands échantillons l'hypothèse de l'absence de différence entre les deux
populations est testée par la statistique suivante :

U − E (U )
z=
σU

Pour un test bilatéral U ou U' peuvent être utilisés indifféremment puisque la valeur
absolue de z sera la même pour les deux. Cependant, si l'hypothèse alternative affirme que
l'une des deux populations devrait avoir une moyenne inférieure à l'autre population
(supposant des distributions à formes identiques), alors le signe de z reprend son importance
dans le test unilatéral.

29
3.2.Conditions

Lorsque le plus grand des deux échantillons a 10 observations ou plus et que la taille
des deux échantillons n'est pas trop différente alors l'approximation par la loi normale peut
être faite. Cependant, lorsque le plus grand des deux échantillons contient moins de 10
observations il faut se référer aux tables de Siegel (1956) pour évaluer la significativité de U.

S'il existe des rangs partagés alors :

 
( )
G

NN  ∑ ti3 − ti 
σ U2 = 1 2  N1 + N 2 + 1 − i =1

12  (N1 + N 2 )(N1 + N 2 − 1)
 

où G représente le nombre d'ensembles d'observations partageant des rangs, ti représente le


nombre d'observations "partagées" dans l'ensemble i. Pour un petit nombre de partages de
rangs et pour de grandes valeurs de N1 + N2 cette correction de σ U2 peut être ignorée.

30
4. Comparaison de J groupes indépendants. L'Anova de Kruskal - Wallis

Le test de Kruskal - Wallis est une généralisation de la méthode du test de Mann -


Whithney. On suppose également que la variable étudiée est continue. Comme pour le test de
Mann -Whitney les scores de toutes les conditions expérimentales sont regroupés et arrangés
par ordre croissant. On affecte un rang à chaque valeur puis on calcule la somme des rangs, Tj,
pour chaque groupe.

Exemple :
Supposons que 3 groupes de jeunes enfants aient reçu comme tâche d'apprendre à
discriminer des paires de stimuli. A chaque groupe expérimental on a donné un indice
différent de discrimination : groupe I la forme, groupe II la couleur et groupe III la taille. 36
enfants ont été affectés aléatoirement à l'un des trois groupes : 12 enfants par groupe.

Indice
I II III
6 (1) 31 (34.5) 13 (10)
11 (7) 7 (2) 32 (36)
12 (9) 9 (4) 31 (34.5)
20 (19) 11 (7) 30 (33)
24 (23) 16 (14) 28 (31)
21 (20) 19 (17.5) 29 (32)
18 (16) 17 (15) 25 (24)
15 (13) 11 (7) 26 (26.5)
14 (11.5) 22 (21) 26 (26.5)
10 (5) 23 (22) 27 (26.5)
8 (3) 27 (29.5) 26 (26.5)
14 (11.5) 26 (26.5) 19 (17.5)
Tj 139 200 327
T = 666

Les nombres entre parenthèses représentent les rangs des différents scores. Si les rangs ont été
correctement attribués l'égalité suivante devra être vérifiée :

N1 (N + 1)
T =
2

(36)(37)
T = = 666
2
Pour de grands échantillons un bon test pour l'égalité des populations est la statistique
suivante :

 T j2 
∑  − 3(N + 1)
12
H =
N (N + 1)  j n j 

31
Cette valeur de H peut être référé à la distribution du χ² avec J − 1 ddl. Pour notre exemple
nous trouvons :

12  (139 ) + (200) + (327 ) 


2 2 2
H =   − 3(37)
36(37)  12 
= 13.81

Cependant, puisque certains rangs ont été partagés la valeur de H doit être corrigée en la
divisant par le résultat de la formule suivante :

 G 3
(
 ∑ ti − t i )
C = 1 −  i =1 3 
 N −N 
 
 

où G est le nombre d'ensembles de rangs partagés et ti est le nombre d'observations partagées


dans chacun des ensembles i.

Dans l'exemple, il y a 4 ensembles de rangs partagés. Ainsi

( ) ( ) (
 4 23 − 2 + 33 − 3 + 43 − 4
C = 1 − 
)
363 − 36 
 
= 0.997

Finalement la valeur corrigée de H est :

H 13.81
H′ = = = 13.85
C 0.997

Si N n'est pas trop petit et si le nombre d'observations partagées n'est pas trop
important on peut omettre la correction. De plus, si chaque ensemble de rangs partagés se
trouve dans le même groupe expérimental alors la correction n'est pas nécessaire.

Si le nombre d'observations dans chacun des groupes expérimentaux est relativement


restreint alors on se reportera aux tables de Siegel.

32
5. Comparaison de 2 Echantillons appareillés : Le Test de Wilcoxon

On peut utiliser le test du signe pour la comparaison de 2 groupes appareillés.


Cependant ce test ne prend pas en compte le sens de la différence. Un test très puissant pour la
comparaison de 2 groupes non indépendants est le test de Wilcoxon.

Le procédé est très simple :

On calcule la différence entre chaque paire d'observations, tout comme pour le test t. Ensuite
ces différences sont classées selon des rangs selon leur valeur absolue. Finalement on affecte
le signe de la différence à chaque rang. La statistique de test est T, la somme des rangs ayant
le signe le moins fréquent.

Exemple :

Groupe I Groupe II Différence Rang Rang signé


83 75 9 8 8
80 78 2 2 2
81 66 15 10 10
74 77 −3 3.5 −3.5
79 80 −1 1 −1
78 68 10 9 9
72 75 −3 3.5 −3.5
84 90 −6 7 −7
85 81 4 5 5
88 83 5 6 6
Le signe (−) est le moins fréquent donc T = 3.5 + 1 + 3.5 + 7 = 15.

L'hypothèse testée par Wilcoxon est que les deux populations représentées par les membres
de chaque paire sont identiques. Si cette hypothèse est vraie alors chacun des 2N ensembles de
rangs signés possibles sont équiprobables. Pour de grands échantillons (N = 8) la distribution
des valeurs possibles de T est approximativement normale avec :
N (N + 1)
E (T ) =
4

N (N + 1)(2 N + 1)
σ T2 =
24
Ainsi la statistique de test utilisée est :
T − E (T )
z=
σT
Pour de petits échantillons se référer aux tables de Siegel (1956).

Conclusion :
Les tests de Mann-Whitney et Wilcoxon sont reconnus comme les plus puissants et
comparables au test t. Leur hypothèse sous-jacente est que les populations dont la forme est
quelconque sont équivalentes.

33
6. Comparaison de J groupes appareillés : Le test de Friedman

Le test de Friedman est une extension du test de Wilcoxon a plus de 2 groupes


appareillés. Il s'applique lorsque K individus passent les J conditions d'un traitement
expérimental.

6.1.Méthode

On détermine les rangs des scores pour chaque ligne K représentant les scores d'un
individu pour chacune des J conditions expérimentales. Ensuite on calcule la somme des
rangs, Tj, pour chaque colonne (i.e. chaque condition expérimentale).

Exemple :

I II III IV
1 (2) 4 (3) 8 (4) 0 (1)
2 (2) 3 (3) 13 (4) 1 (1)
10 (3) 0 (1) 11 (4) 3 (2)
12 (3) 11 (2) 13 (4) 10 (1)
1 (2) 3 (3) 10 (4) 0 (1)
10 (3) 3 (1) 11 (4) 9 (2)
4 (1) 12 (4) 10 (2) 11 (3)
10 (4) 4 (2) 5 (3) 3 (1)
10 (4) 4 (2) 9 (3) 3 (1)
14 (4) 4 (2) 7 (3) 2 (1)
3 (2) 2 (1) 4 (3) 13 (4)
30 24 38 18

K ( J )( J + 1)
T =
2
= 110

La logique du test est très simple. Supposons que dans la population représentée par
une ligne la distribution des valeurs de tous les groupes expérimentaux est identique. Alors,
par échantillonnage et tirage aléatoire des observations, la probabilité pour chacune des
permutations possibles des rangs 1 à J devrait être la même. De plus, la probabilité de chacune
des permutations pour chacun des rangs devrait être la même. Ceci implique que, sous
l'hypothèse nulle, la somme des rangs pour chaque colonne devrait être identique. Cependant,
s'il y a une tendance pour certains rangs à se retrouver plus ou moins systématiquement dans
une même colonne alors l'hypothèse nulle risque d'être infirmée.

La statistique de test pour de grands échantillons est donnée par :

 
∑ T  − 3K (J + 1)
12
χ r2 = 2

KJ (J + 1)  j 

Elle se distribue approximativement selon un χ² avec J − 1 ddl.

34
Dans notre exemple nous trouvons :

χ r2 =
12
[(30)² + (24)² + (38)² + (18)²] − 3(11)(5)
11(4)(5)
= 11.79

L'approximation par la distribution du χ² est satisfaisante lorsque J ≥ 4 et K ≥ 10. Et


comme d'habitude lorsque ces conditions ne sont pas remplies on se reportera aux tables de
Siegel.

35
BIBLIOGRAPHIE

David. C. Howell (1992). Méthodes statistiques en sciences humaines.

T.H. Wonnacott & R.J. Wonnacott (1984). Statistique. John Wiley & Sons, Inc.

B. Beaufils (1996). Statistiques appliquées à la psychologie (Tome2). Bréal, Paris.

W.L. Hays (1973). Statistics for social sciences.

36

Vous aimerez peut-être aussi