EXEMPLE D’APPLICATION D’UN TEST PARAMÉTRIQUE: TEST t DE
STUDENT DE CONFORMITÉ
- Rappel des étapes menant à l’élaboration d’un test statistique
- Comment conclure suite à un test?
- Exemple du test de conformité de Student.
Principales étapes menant à l’élaboration d’un test statistique
1) Décrire les données étudiées (ex : type de variables, effectifs,
représentations graphiques)
2) Selon la question écologique, poser les hypothèses H0 (nulle) et H1
(alternative)
3) Définir le test approprié pour répondre à la question posée
4) Déterminer si les conditions de validité du test sont remplies et si
des tests préalables sont nécessaires à la réalisation du test
5) Choisir le risque de première espèce (alpha)
6) Réaliser le test en calculant la statistique observée et en la
comparant à la statistique attendue sous l’hypothèse Ho
7) Rejeter ou non l’hypothèse nulle en accord avec le risque alpha
8) Interpréter les résultats au niveau biologique
Distribution de la statistique théorique ( attendue sous l’hypothèse nulle : test
bilatéral vs. unilatéral)
Test bilatéral
H1 : | S | ≥ | Stheo, α/2 |
S theo, α/2 S theo, α/2
Test unilatéral à droite
H1 : S ≥ Stheo, α
S theo, α
Test unilatéral à gauche
H1 : S ≤ Stheo, α
S theo, α
Un résultat non statistiquement significatif peut avoir 2
causes :
•l’hypothèse H0 est vraie (p.ex. il y a équivalence entre
les deux groupes dans le cadre des tests d‘égalité)
•la puissance statistique n’est pas suffisante (i.e.
nombre de sujets insuffisant)
Tests paramétriques vs. non paramétriques
• Les tests dits « paramétriques » ne sont applicables que si l’on
connaît la loi de distribution de la variable dans la population.
Généralement, il faut que la variable ait une distribution normale. Ils
sont basés sur des paramètres (moyenne, variance…).
• Les tests dits « non paramétriques » n’ont pas de condition
nécessaire quand à la distribution de la variable. Ils ne sont en
général pas basés sur des paramètres mais sur les données elles-
mêmes.
• Les tests paramétriques, quand leurs conditions sont remplies,
sont les plus puissants que les tests non paramétriques.
Echantillon 1 avec estimation
de la moyenne ˆ
ˆ et µ sont proches = échantillon 1 a une forte
probabilité d’ê issue de la pop de référence
de moyenne μ
1- α
Distribution
d’échantillonnage de la
moyenne et on connaît
la moyenne de la 1.96 2.46 2.96
population
α/2
µ α/2
Hypothèses :
Ho : = m, la moyenne de la population, , est égale à une valeur théorique m.
H1, Test bilatéral : ≠ m, la moyenne de la population est différente de la valeur
théorique m.
H1, Test unilatéral : > m ou < m selon l’a priori sur les données.
Test : t de Student
Statistique :
tobs ( ˆ m) / ˆ2
n Estimation de l’erreur type de la
moyenne de la population
Différence entre la moyenne estimée de la
population (à partir d’un échantillon) et la
moyenne théorique, celle de la population
vraie!
Distribution de la statistique sous Ho : T suit une loi de Student à n-1 degrés
de liberté.
Risque de première espèce :
On va alors calculer le risque de première espèce, p ou p-value, associée à
tobs que l’on comparera au risque alpha fixé au début de l’étude! On peut
comparer aussi directement les statistiques observées et théoriques
Test bilatéral :
H1: ≠m
p P( T t obs Ho ) Rejet de Ho si | tobs | ≥ | ttheo, α/2 | ou si p < risque alpha
Test unilatéral :
H1: >m
p P(T t obs Ho ) Rejet de Ho si tobs ≥ ttheo, α ou si p < risque alpha
ou
H1: <m
p P(T t obs Ho ) Rejet de Ho si tobs ≤ - ttheo, α ou si p < risque alpha
Il suffit donc de calculer la statistique de test (t) correspondant à l’écart réduit de la moyenne
observée et de la confronter à la table de l’écart réduit (loi normale centrée réduite) pour
déterminer la probabilité d’observer au minimum ( ˆ m) quand H0 est vraie.
Remarque: Cela revient à déterminer l’intervalle de confiance de ˆ si
m et ˆ étaient égaux (hypothèse nulle)
ˆ m
P( t / 2, t / 2, ) 1 Zone de non rejet de Ho
ˆ
n
P(m t / 2,
ˆ ˆ m t / 2, ˆ ) 1
n n
Quelles seraient les différentes de valeurs de ˆ si ˆ et m
étaient égaux à un seuil de risque alpha de se tromper!
Si ˆ se retrouve en dehors de cet intervalle, on rejette Ho
1- α = zone de non rejet de H0
En vert : Zone de rejet de Ho
1.96 2.46 2.96
α/2 α/2
- tα/2, ʋ - tα/2, ʋ
ˆ m
P( t / 2, t / 2, ) 1
ˆ
n
Exemple :
On s’intéresse à la température corporelle de 25 individus d’une espèce de
crabes intertidaux exposés à une température de l’air de 24.3 °C. On aimerait
savoir si la température corporelle moyenne de ces crabes est égale à la
température de l’air ambiant soit 24.3 °C.
25.8 24.6 22.9 25.1 24.0 23.9 24.5 27.3 26.3 25.4 27.0 24.8 25.4
26.1 24.6 24.3 26.2 23.3 25.5 28.1 24.8 23.5 25.5 23.9 22.9
1. On pose les hypothèses : on fait ici un test bilatéral
Ho : = 24.3°C H1 : ≠ 24.3°C
2. On calcule la statistique observée
ˆ = 25.03 ˆ = 1.34 (°C)
tobs= (25.03-24.3)/(1.34/5 ) = 2.704
3. On cherche dans la table de student le ttheo pour α=0.05 et = 24
ttheo= 2.064 p-value = 0.012
Loi normale
centrée réduite
4. On compare la statistique observée à la statistique théorique
Rejet de Ho si |tobs | > I ttheo I
C’est le cas ici :
ttheo= 2.064 et tobs=2.704
Non rejet Ho
1.96 2.46 2.96
tobs=2.704
- ttheo, 0.025, 24 = - 2.06 ttheo, 0.025, 24 =2.06
5. On conclut
Au risque alpha de 5%, on rejette Ho. La température corporelle moyenne des
crabes est significativement différente de la température de l’air ambiant au
risque de se tromper de 5%
Remarque : plus tobs s’écarte de ttheo, plus la probabilité de rejeter Ho à tord est
faible
Cela revient à déterminer l’intervalle de confiance de ˆ si m et ˆ
étaient égaux (hypothèse nulle)
P (m t 0.025, 24 ˆ ˆ m t 0.025, 24 ˆ ) 0.95
n n
P (24.3 2.064 1.34 ˆ 24.3 2.064 1.34 ) 0.95
25 25
P (23.74 ˆ 24.85) 0.95 Sous HO
ˆ = 25.03 sur les données observées
Rejet Ho car la valeur observée se situe en dehors de
l’intervalle de confiance