principes des tests statistiques et
risque d’erreur α
Objectifs pédagogiques du cours
▪ Comprendre la démarche générale d’un test statistique et son
utilisation pour répondre à une question
• Etudier la signification de la différence statistique entre deux
pourcentage
Introduction et définitions
En épidémiologie et en recherche clinique, l’analyse statistique des données
consiste assez souvent à pratiquer des tests de comparaison.
On cherche ainsi à comparer un paramètre à une valeur de référence ou
plusieurs paramètres entre eux.
Les paramètres peuvent être quantitatifs (moyenne, médiane…) ou qualitatifs
(pourcentage).
A titre d'exemple, on peut citer les situations suivantes :
➢ La valeur moyenne de la pression artérielle systolique est-elle
statistiquement différente selon que la personne soit obèse ou non ?
➢ La prévalence du tabac est-elle statistiquement différente selon le sexe
dans une population donnée ?
➢ Les pourcentages de guérison dans un essai thérapeutique évaluant des
antihypertenseurs de 100 sujets hypertendus (un groupe de 50 sujets
recevant le médicament A et un groupe de 50 sujets recevant le
médicament B) sont-ils statistiquement différents ?
Conditions d’utilisation du test
1. TS doit être réalisé dans une réflexion scientifique qui consiste à bâtir des
hypothèses à partir des faits antérieurs observés. Ces hypothèses sont testées, et à
partir des résultats, elles sont soit retenues ou rejetées.
2. TS n’a de sens que s’il teste une hypothèse préalablement établie afin de répondre à
une question.
3. TS doit avoir pour objectif de vérifier une hypothèse justifiée soit par la connaissance
acquise à partir d’autres études soit à partir des conjectures produites par des
observations
4. Tout TS est utilisé sur des modèles « stochastiques » (lois de distribution
théoriques) issues de la théorie des probabilités. Elles sont strictes et
accompagnées de certaines conditions d’application aussi strictes.
5. Si les conditions ne sont pas remplies, le modèle n’est pas applicable donc le
résultat, même s’il est juste arithmétiquement, il n’a aucun sens statistique.
Etapes du test d’une hypothèse
• Le principe des tests d’hypothèse est de poser une
hypothèse de travail et de prédire les
conséquences de cette hypothèse pour la
population ou l’échantillon.
On compare ces prédictions avec les observations et
l’on conclut en acceptant ou en rejetant
l’hypothèse de travail à partir de règles de décisions
objectives.
Différentes étapes pour tester une hypothèse
1. Définir l’hypothèse de travail, c’est-à-dire l’hypothèse nulle (H0) à contrôler
et de son alternative (H1)
2. Choisir un test statistique et vérifier les conditions d’utilisation pour contrôler
H0,
3. Définir le niveau de signification du test ou région critique notée α,
4. Calculer, à partir des données fournies par l’échantillon, la valeur de la
statistique
5. Interprétation et conclusion
H0: L’hypothèse nulle est toujours l’hypothèse que l’on cherche à invalider
H1: L’hypothèse alternative est toujours ce que l’on cherche à montrer
6
1. Test d’hypothèse
En pratique
Observation → hypothèse → test
Un test d’hypothèse (ou test statistique) est une démarche qui
a pour but de fournir une règle de décision permettant, sur la
base de résultats d’échantillon, de faire un choix entre deux
hypothèses statistiques.
C’est une procédure de prise de décision binaire pour vérifier un
énoncé à propos de la valeur du paramètre
Test d’hypothèse
Principe des tests d’hypothèse
1. poser une hypothèse de travail
2. prédire les conséquences de cette hypothèse pour la population ou l’échantillon.
On compare ces prédictions avec les observations et l’on conclut en acceptant ou en
rejetant l’hypothèse de travail à partir de règles de décisions objectives.
• hypothèse nulle H0
• hypothèse que l’on désire contrôler :
• Il n’est pas logique de construire un test statistique sur l’hypothèse de l’existence
d’une différence. On procède de façon inverse
• elle consiste à dire qu’il n’existe pas de différence entre les paramètres comparés
ou que la différence observée n’est pas significative et est due aux fluctuations
d’échantillonnage.
• Formulée dans le but d’être rejetée en fonction d’un risque défini à priori.
Hypothèse alternative
Hypothèse nulle H0 H1
• hypothèse à contrôler
• est la négation
• consiste à dire qu’il n’existe pas de différence de H0, elle est
entre les paramètres comparés ou que la équivalente à
différence observée n’est pas significative et
est due aux fluctuations d’échantillonnage. dire « H0 est
fausse ».
• Formulée dans le but d’être rejetée en
fonction d’un risque prédéfini
• La décision de
• Il est impératif de définir la zone rejeter H0
d’acceptation et la zone de rejet
• Définir l’intervalle de confiance
signifie que H1
est réalisée ou
• C’est l’hypothèse nulle qui est soumise au test H1 est vraie.
et toute la démarche du test s’effectue en
considérant cette hypothèse comme vraie.
Risques: première espèce α et deuxième espèce β
Risque β
Risque α •Défaut de puissance
•Probabilité de rejeter l’H o alors qu’elle
est vraie
•Probabilité de ne pas
•Risque maximum admissible qu’on se rejeter Ho alors qu’elle
fixe à priori est fausse (càd H1 est
vraie)
Conclusion Réalité : hypothèse Ho
Vraie Fausse
Ho non rejetée
1-β β
Ho rejetée
α 1-α 10
Seuil de signification du test
• Le risque, consenti à l’avance et que nous notons α de rejeter à
tort l’hypothèse nulle H0 alors qu’elle est vraie, s’appelle le seuil
de signification du test et s’énonce en probabilité ainsi :
α = P(rejeter H0 / H0 vraie ).
• A ce seuil de signification, on fait correspondre sur la distribution
d’échantillonnage de la statistique une région de rejet de
l’hypothèse nulle (appelée également région critique). L’aire de
cette région correspond à la probabilité α.
• Si par exemple , on choisit α = 0.05, cela signifie que l’on admet
d’avance que la variable d’échantillonnage peut prendre, dans
5% des cas, une valeur se situant dans la zone de rejet de H0,
bien que H0 soit vraie et ceci uniquement d’après le hasard de
l’échantillonnage.
Puissance d’un test
Rappelons que les tests ne sont pas faits pour « démontrer » H0
mais pour « rejeter » H0 . L’aptitude d’un test à rejeter H0 alors
qu’elle est fausse constitue la puissance du test.
On appelle puissance d’un test, la probabilité de rejeter H0 et
d’accepter H1 alors que H1 est vraie. Sa valeur est 1 -
• La puissance d’un test est fonction de la nature de H1, un test
unilatéral est plus puissant qu’un test bilatéral. Elle augmente
avec taille de l’échantillon N étudié, et diminue lorsque
diminue.
Puissance d’un test statistique
• β : manque de puissance (risque de type 2)
• la puissance d’un test est p =1- β
• La puissance d’un test est liée à la taille des effectifs des
échantillons (+ la taille , plus la puissance et plus β
• La valeur du risque β n’intervient pas dans
l’interprétation du test , car on ne sait pas le calculer
• En pratique on utilise β pour le calcul de l’échantillon
• Relation entre β, α et la taille de l’échantillon
• Les risques β, α sont antagonistes : β ↗ puissance ↘
α ↘ puissance ↗
• α= risque conventionnel
Test unilatéral ou bilatéral
La nature de H0 détermine la façon de
formuler H1 et par conséquent la
nature unilatérale ou bilatérale du TS
Test bilatéral
H0 : p = p0 et H1 : p ≠ p0
Le test sera bilatéral car on considère que la fréquence p peut
être supérieure ou inférieure à la fréquence p0 .
La région critique en vert correspond à une probabilité α/2 de
part et d’autre de la courbe.
Test unilatéral
H0 : p = p0 et H1 : p > p0
Le test sera unilatéral car on considère que la
fréquence p ne peut être que supérieure à la
fréquence p0 .
La région critique a en vert correspond à une
probabilité .
Le raisonnement inverse peut être formulé avec
l’hypothèse suivante :
H0 : p = p0 et H1 : p < p0
Degré de signification: p value
• Probabilité d’obtenir une valeur de la statistique de test qui est au moins
aussi extrême que celle qui représente les données d’échantillon si on
suppose que H0 est vraie
• Risque de se tromper en rejetant H 0
• Permet la décision et conclusion par rapport à la question posée
• On le compare au risque limite qu’on fixe à priori α=5%
1- Si p <5%: on rejette H0
On affirme que la différence est significative
2- Si p˃5% : on ne rejette pas H0
La différence n’est pas significative (NS)
➢ La valeur de p ne préjuge en rien de l’importance de la différence mesurée
➢ Un p faible signifie seulement que le risque de se tromper est très faible
➢ Il ne signifie pas que la différence est très grande
17
Différence entre α et p
• Ils concernent, tous les deux, le risque de se
tromper en rejetant à tort l’hypothèse nulle
• α: c’est le risque maximum admissible qu’on
se fixe à priori, càd avant de faire le test.
• p: c’est le risque d’erreur que l’on calcule, à
postériori, càd après avoir fait le test
18
Conclusion:
Les tests statistiques sont d’usage très fréquent en
épidémiologie et recherche clinique.
Ils sont utiles en tant qu’outil d’évaluation des résultats
des analyses comparatives. Ils permettent, en effet, de
comparer une valeur observée à une valeur de référence
ou bien deux valeurs observées. Ils concluent à l’existence
ou non d’une différence significative entre les valeurs
comparées.
Ils ne permettent cependant pas d’établir un lien de
causalité scientifique entre les paramètres étudiés. Tout
lien statistique n’est donc pas synonyme de causalité.
19