Chapitre V : Coefficients de corrélation et tests
Cours de tests paramétriques
2018-2019
1 / 40
Objectif du test
Soient X et Y deux variables aléatoires quantitatives continues.
On dispose de deux échantillons : X1 , . . . , Xn i.i.d e même loi que X
et Y1 , . . . , Yn i.i.d e même loi que Y . Le but de ce chapitre est de :
I Déterminer s’il existe une relation entre X et Y
I Caractériser la forme de la liaison (positive, négative; linéaire,
monotone)
I Quantifier l’intensité de la relation
I Tester si la liaison est statistiquement significative
Remarque : on ne se place pas ici dans le cadre du modèle de
régression linéaire où le but est d’évaluer l’influence d’une variable
sur une autre.
2 / 40
Exemple sur des données réelles
La base de données Orange de R contient des informations sur 35
orangers. On s’intéresse aux 2 variables suivantes :
I “age” représente l’âge des arbres, c’est une variable
quantitative continue. Elle est mesurée en jours, l’arbre le plus
jeune a 118 jours et le plus vieux 1582 jours.
I “circumference” représente la circonférence de l’arbre, c’est une
variable quantitative continue, mesurée en mm. la plus petite
circonférence est de 30 mm et la plus grosse de 214 mm.
On s’intéresse au type de liason entre l’âge des arbres et la
circonférence des arbres. Y-a-t-il une liaison entre ces deux variables
? Si oui, dans quel sens ? Peut-on quantifier l’intensité de la liaison
?
3 / 40
Exemple sur des données réelles (suite)
with(Orange,plot(age,circumference,xlab="Age",ylab=
"Circonférence"))
200
150
Circonférence
100
50
500 1000 1500
Age
4 / 40
Exemples de liaisons entre deux variables
(a) (b)
13
12
20
11
15
10
y
y
9
10
8
7
2 3 4 5 6 1 2 3 4 5 6 7
x x
5 / 40
Exemples (suite)
(c) (d)
6
20
5
15
4
y
10
3
5
2
0
1
2 3 4 5 6 0.0 0.5 1.0 1.5 2.0 2.5 3.0
x x
6 / 40
Exemples (suite)
(e) (f)
3.5
1500
3.0
2.5
1000
y
2.0
1.5
500
1.0
0.5
0
0 2 4 6 15 20 25 30 35
x x
7 / 40
Exemples (suite)
I (a) Absence de liaison entre X et Y .
I (b) Liaison linéaire positive. Si X augmente alors Y aussi.
I (c) Liaison linéaire négative. Si X augmente alors Y diminue.
I (d) Liaison monotone négative mais non linéaire. Si X
augmente alors Y diminue.
I (e) Liaison monotone positive mais non linéaire. Si X
augmente alors Y aussi.
I (f) Liaison non linéaire et non monotone.
8 / 40
Mesures de la liaison entre X et Y
Il existe plusieurs mesures de liaison entre variables quantitatives
continues. Nous utiliserons le coefficient de corrélation de Pearson
et le coefficient de Spearman.
Le coefficient de corrélation de Pearson permet de mesurer le degré
d’association pour des liaisons linéaires uniquement. Le coefficient
de Spearman fonctionne également pour des liaisons monotones.
9 / 40
Coefficient de corrélation de Pearson
On rappelle la définition de la covariance entre X et Y :
Cov (X , Y ) = E [(X − E [X ])(Y − E [Y ])] = E [XY ] − E [X ]E [Y ]
et de la corrélation entre X et Y :
Cov (X , Y )
Cor (X , Y ) = p
V (X )V (Y )
On a la propriété : −1 ≤ Cor (X , Y ) ≤ 1.
10 / 40
Coefficient de corrélation de Pearson
La valeur du coefficient de corrélation de Pearson mesure le type de
liaison linéaire entre X et Y .
I Si Cor (X , Y ) > 0 il y a une liaison linéaire positive entre X et
Y.
I Si Cor (X , Y ) < 0 il y a une liaison linéaire négative entre X et
Y.
I Si Cor (X , Y ) = 0 il n’y a pas de liaison linéaire entre X et Y .
Remarque : X ⊥⊥ Y ⇒ Cor (X , Y ) = 0 mais la réciproque est
généralement fausse ! On a équivalence si le vecteur (X , Y ) est un
vecteur gaussien.
11 / 40
Estimation du coefficient de corrélation de Pearson
Le coefficient de corrélation empirique est un estimateur de
Cor (X , Y ). Il est défini par :
Pn
i=1 (Xi − X̄ )(Yi − Ȳ )
r̂ = qP
n Pn
i=1 (Xi − X̄ )2 j=1 (Yj − Ȳ )2
Sous R on trouve :
I (a)
## [1] 0.07343106
12 / 40
Estimation du coefficient de corrélation de Pearson (suite)
I (b)
## [1] 0.9525128
I (c)
## [1] -0.7879123
I (d)
## [1] -0.7631126
13 / 40
Estimation du coefficient de corrélation de Pearson (suite)
I (e)
## [1] 0.6525232
I (f)
## [1] -0.05069953
14 / 40
Lien avec le modèle linéaire
I Le coefficient de corrélation est proportionnel à la pente de la
droite des moindres carrés dans le modèle linéaire !
I Le coefficient r̂ 2 s’interprète comme la proportion de variance
de Y qui est linéairement expliquée par X . Il s’appelle le
coeficient de détermination.
Par exemple, pour le cas (b), on peut dire au vue du coefficient de
corrélation que la liaison entre X et Y est forte. Par ailleurs, R nous
donne le coefficient de détermination suivant :
## [1] 0.9072807
15 / 40
Limites du coefficient de corrélation de Pearson
I Dans les exemples (d) et (e) la liaison est monotone mais non
linéaire : le coefficient de corrélation donne des indications sur
l’existence de liaison entre X et Y mais traduit mal son
intensité.
I Dans l’exemple (f), la liaison n’est n’y monotone ni linéaire : le
coefficient de corrélation de Pearson n’est pas adapté !
16 / 40
Le coefficient de Spearman
Le coefficient de Spearman est un coefficient de corrélation basé sur
les rangs des observations. On note, pour i = 1, . . . , n, Ri le rang
de Xi au sein de l’échantillon global X1 , . . . , Xn et Si le rang de Yi
au sein de l’échantillon global Y1 , . . . , Yn
Par exemple, pour n = 7, si les réalisations de X1 , . . . , X7 sont :
## [1] 6 1 8 9 3 7 2
alors, les réalisations de R1 , . . . , R7 sont :
## [1] 4 1 6 7 3 5 2
17 / 40
Le coefficient de Spearman (suite)
Le coefficient de Spearman est un coefficient de corrélation de
Pearson calculé sur les rangs des deux échantillons. On le note ρ et
ρ̂ sa version empirique. On a :
ρ = Cor (R, S)
et Pn
i=1 (Ri − R̄)(Si − S̄)
ρ̂ = qP
n Pn
i=1 (Ri − R̄)2 j=1 (Sj − S̄)2
18 / 40
Le coefficient de Spearman (suite)
Ce coefficient s’interpréte de manière similaire au coefficient de
Pearson : −1 ≤ ρ ≤ 1.
I Si ρ > 0 il y a une liaison monotone positive entre X et Y .
I Si ρ < 0 il y a une liaison monotone négative entre X et Y .
I Si ρ = 0 il n’y a pas de liaison monotone entre X et Y .
Par ailleurs, X ⊥⊥ Y ⇒ ρ = 0.
Par contre, ρ2 n’a pas d’interprétation statistique !
19 / 40
Le coefficient de Spearman (suite)
Ce coefficient a donc l’avantage de pouvoir caractériser des liaisons
non linéaires mais monotones.
Sous R on trouve :
I (d)
## [1] -0.8596551
I (e)
## [1] 0.8659638
20 / 40
Le coefficient de Spearman (suite)
Le coefficient de Spearman est par ailleurs robuste aux points
atypiques.
Par contre, il ne permet pas de caractériser une liaison non linéaire
et non monotone !
Sous R on trouve :
I (f)
## [1] -0.06400384
21 / 40
Test de corrélation de Pearson
Le test de corrélation de Pearson teste les hypothèses :
(H0 )Cor (X , Y ) = 0 (H1 )Cor (X , Y ) 6= 0
La statistique de test utilisée est :
r̂
Tn = q
(1 − r̂ 2 )/(n − 2)
22 / 40
Statistique de test dans le cas gausien et région de rejet
I Sous (H0 ), si le vecteur (X , Y ) suit une loi normale bivariée
alors Tn suit une loi de Student à n − 2 degrés.
I La région de rejet s’écrit : Rα = {|Tn | > cα } où cα est le
quantile d’ordre 1 − α/2 de la loi de Student à n − 2 degrés.
L’hypothèse sur la loi de (X , Y ) revient à tester l’indépendance
entre X et Y . C’est une hypothèse impossible à vérifier en pratique
! On utilisera plutôt la version asymptotique de ce test.
23 / 40
Statistique de test dans le cas asymptotique et région de
rejet
I Si n est suffisament “grand”, on peut approximer la statistique
de test par une loi gaussienne. Sous (H0 ), Tn suit
approximativement une loi normale centrée réduite.
I La région de rejet s’écrit : Rα = {|Tn | > cα } où cα est le
quantile d’ordre 1 − α/2 de la loi normale centrée réduite.
24 / 40
Test de Spearman
Le test de Spearman est un test exact qui teste les hypothèses :
(H0 )Cor (R, S) = 0 (H1 )Cor (R, S) 6= 0
La statistique de test utilisée est :
ρ̂
Tn = q
(1 − ρ̂2 )/(n − 2)
Elle suit une loi de Student à n − 2 degrés de liberté sous (H0 ). Ce
résultat est valide sans faire d’hypothèse sur la loi de (X , Y ) ! Pour
n grand, la statistique de test s’approxime par une loi normale
centrée réduite sous (H0 ).
25 / 40
Retour aux exemples (a) : test de Pearson
##
## Pearson's product-moment correlation
##
## data: x1 and y1
## t = 0.7289, df = 98, p-value = 0.4678
## alternative hypothesis: true correlation is not equal to
## 95 percent confidence interval:
## -0.1247869 0.2660124
## sample estimates:
## cor
## 0.07343106
26 / 40
Retour aux exemples (a) : test de Spearman
##
## Spearman's rank correlation rho
##
## data: x1 and y1
## S = 151710, p-value = 0.3745
## alternative hypothesis: true rho is not equal to 0
## sample estimates:
## rho
## 0.08963696
27 / 40
Retour aux exemples (e) : test de Pearson
##
## Pearson's product-moment correlation
##
## data: x5 and y5
## t = 10.476, df = 148, p-value < 2.2e-16
## alternative hypothesis: true correlation is not equal to
## 95 percent confidence interval:
## 0.5497516 0.7358352
## sample estimates:
## cor
## 0.6525232
28 / 40
Retour aux exemples (e) : test de Spearman
##
## Spearman's rank correlation rho
##
## data: x5 and y5
## S = 75392, p-value < 2.2e-16
## alternative hypothesis: true rho is not equal to 0
## sample estimates:
## rho
## 0.8659638
29 / 40
Retour aux exemples (f) : test de Pearson
##
## Pearson's product-moment correlation
##
## data: x6 and y6
## t = -1.1329, df = 498, p-value = 0.2578
## alternative hypothesis: true correlation is not equal to
## 95 percent confidence interval:
## -0.13777758 0.03715625
## sample estimates:
## cor
## -0.05069953
30 / 40
Retour aux exemples (f) : test de Spearman
##
## Spearman's rank correlation rho
##
## data: x6 and y6
## S = 22167000, p-value = 0.1529
## alternative hypothesis: true rho is not equal to 0
## sample estimates:
## rho
## -0.06400384
31 / 40
Etude de cas : retour sur les données d’oranger
with(Orange,plot(age,circumference,xlab="Age",ylab=
"Circonférence"))
Circonférence
150
50
500 1000 1500
Age
32 / 40
Les données d’oranger (suite)
with(Orange,[Link](age,circumference))
##
## Pearson's product-moment correlation
##
## data: age and circumference
## t = 12.9, df = 33, p-value = 1.931e-14
## alternative hypothesis: true correlation is not equal to
## 95 percent confidence interval:
## 0.8342364 0.9557955
## sample estimates:
## cor
## 0.9135189
33 / 40
Les données d’oranger (suite)
with(Orange,[Link](age,circumference,method="spearman"))
## Warning in [Link](age, circumference, method =
## Cannot compute exact p-value with ties
##
## Spearman's rank correlation rho
##
## data: age and circumference
## S = 668.09, p-value = 6.712e-14
## alternative hypothesis: true rho is not equal to 0
## sample estimates:
## rho
## 0.9064294
34 / 40
Les données d’oranger (suite)
Le coefficient de corrélation est relié à la pente de la droite des
moindres carrés.
modelOrange<-lm(circumference~age,data=Orange)
with(Orange,plot(age,circumference,xlab="Age",ylab=
"Circonférence"))
abline(modelOrange,col="red")
Circonférence
150
50
500 1000 1500
Age
35 / 40
Etude de cas sur les graines de soja
La base de données Soybean de R contient des informations sur 412
graines de soja qui ont été plantées. On s’intéresse aux 2 variables
suivantes :
I “Time” représente le jour où la plante de soja est analysée.
I “weight” représente le poids en grammes de la feuille de soja.
On s’intéresse à la liaison entre ces deux variables. Est-ce que le
poids des feuilles de soja évolue à mesure que le temps passe ? Si
oui dans quel sens ?
36 / 40
Les graines de soja (suite)
library(nlme)
with(Soybean,plot(Time,weight,xlab="Temps",ylab="Poids"))
30
25
20
Poids
15
10
5
0
20 30 40 50 60 70 80
Temps
37 / 40
Les graines de soja (suite)
modelSoy<-lm(weight~Time,data=Soybean)
with(Soybean,plot(Time,weight,xlab="Temps",ylab="Poids"))
abline(modelSoy,col="red")
30
20
Poids
10
0
20 30 40 50 60 70 80
Temps
La droite de régression ne caractérise pas parfaitement la relation
entre le temps et le poids !
38 / 40
Les graines de soja (suite)
with(Soybean,[Link](Time,weight))
##
## Pearson's product-moment correlation
##
## data: Time and weight
## t = 44.707, df = 410, p-value < 2.2e-16
## alternative hypothesis: true correlation is not equal to
## 95 percent confidence interval:
## 0.8928916 0.9260385
## sample estimates:
## cor
## 0.9109236
39 / 40
Les graines de soja (suite)
with(Soybean,[Link](Time,weight,method="spearman"))
## Warning in [Link](Time, weight, method = "spea
## compute exact p-value with ties
##
## Spearman's rank correlation rho
##
## data: Time and weight
## S = 314500, p-value < 2.2e-16
## alternative hypothesis: true rho is not equal to 0
## sample estimates:
## rho
## 0.9730172
40 / 40