0% ont trouvé ce document utile (0 vote)
156 vues40 pages

Définition de l'inférence statistique

Ce document traite de statistiques inférentielles. Il présente des éléments de probabilités comme les lois normales et du Chi-deux utilisées en statistique. Il aborde ensuite des méthodes d'estimation statistique telles que l'estimation ponctuelle par maximum de vraisemblance et l'estimation par intervalle de confiance.

Transféré par

Djey Jaamad
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
156 vues40 pages

Définition de l'inférence statistique

Ce document traite de statistiques inférentielles. Il présente des éléments de probabilités comme les lois normales et du Chi-deux utilisées en statistique. Il aborde ensuite des méthodes d'estimation statistique telles que l'estimation ponctuelle par maximum de vraisemblance et l'estimation par intervalle de confiance.

Transféré par

Djey Jaamad
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Probabilités et Statistique 2

Inférence Statistique

Licence 2
A imprimer

Sciences économique et gestion

Dr Ténan YEO
[Link]@[Link]
Table des matières

Table des matières 2

1 Éléments de probabilités pour la statistique inférentielle 4


1.1 Convergences et théorèmes limites . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1 Convergences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.2 Théorèmes limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

2 Introduction 10
2.1 But de la statistique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2 Les méthodes statistiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.3 Exemples introductifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3.1 Exemple 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3.2 Exemple 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3.3 Exemple 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.4 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

3 Estimation statistique 14
3.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.2 Qualité d’un estimateur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.2.1 Estimateur sans biais (ou centré) . . . . . . . . . . . . . . . . . . . . . 15
3.2.2 Estimateur asymptotiquement sans biais . . . . . . . . . . . . . . . . . 16
3.2.3 Estimateur convergent (en probabilité) . . . . . . . . . . . . . . . . . . 16
3.2.4 Estimateur préférable . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.3 Information de Fisher . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.4 Inégalité de Fisher-Cramer-Damois-Rao . . . . . . . . . . . . . . . . . . . . . 18

4 Estimation ponctuelle
Méthode du Maximum de Vraisemblance 19
4.1 Fonction de vraisemblance pour un paramètre θ . . . . . . . . . . . . . . . . . 19
4.2 Méthode du Maximum de Vraisemblance . . . . . . . . . . . . . . . . . . . . . 20
4.2.1 Condition nécessaire et suffisante de maximisation de L . . . . . . 20
4.2.2 Propriétés de l’estimateur du Maximum de vraisembance . . . . . 20
4.3 Quelques exemples d’E.M.V. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

5 Estimation par intervalle de confiance 24


5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
5.2 Détermination de l’intervalle I . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

2
TABLE DES MATIÈRES 3

5.3 Estimation de la moyenne m d’une loi normale : X N (m, σ ) et θ = m . . . . 25


5.3.1 Cas où l’écart type σ est connu . . . . . . . . . . . . . . . . . . . . . . 25
5.3.2 Cas où l’écart type σ est inconnu . . . . . . . . . . . . . . . . . . . . . 26
5.4 Estimation de la moyenne lorsque la loi de X n’est pas la loi de Laplace-Gauss 26
5.4.1 Cas où n ≤ 30 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
5.4.2 cas où n > 30 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
5.5 Intervalle de confiance pour la variance σ 2 d’une loi de Laplace-Gauss : X
N (m, σ ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
5.5.1 Cas où n ≤ 30 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
5.5.2 Cas n > 30 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
5.6 Estimation d’une proportion θ = p . . . . . . . . . . . . . . . . . . . . . . . . 27
5.7 Comparaison de paramètres . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
5.7.1 Intervalle de confiance de la différence de deux moyennes : m1 − m2 . . 28
5.7.2 Intervalle de confiance de la différence de deux proportions : p1 − p2 . 28
σ2
5.7.3 Intervalle de confiance pour le rapport de deux variances : 12 . . . . . 29
σ2

6 Tests statistiques 30
6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
6.1.1 Exemples introductifs . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
6.1.2 Problématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
6.1.3 Étude d’un cas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
6.2 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
6.3 Quelques exemples de problème de tests statistiques . . . . . . . . . . . . . . 32
6.3.1 Test d’une moyenne d’une loi de normale : X N (m, σ ) . . . . . . . . 32
6.3.2 Test d’une proportion (n > 30) . . . . . . . . . . . . . . . . . . . . . . . 36
6.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
Chapitre 1

Éléments de probabilités pour la statistique


inférentielle

Définition 1.1 (Loi normale)


On dit quine v.a. X suit une loi normale de paramètre m, σ 2 avec m ∈ R, σ 2 ∈ R∗+ si sa densité


de probabilité est (  )
1 x−m 2

1
fX (x) = √ exp − , x ∈ R.
σ 2π 2 σ

Dans ce cas, on note X N (m, σ 2 ).


Proposition 1.1
N m, σ 2 alors E(X) = m et var(X) = σ 2 .

(i) X
X −m
N m, σ 2 si et seulement si la v.a.r N (0, 1).

(ii) X
σ
Définition 1.2 (Loi du Chi-deux à n degrés de liberté χ 2 (n), où n ∈ N∗ )
Si X1 , . . . , Xn sont des variables aléatoires indépendantes identiquement distribuées (i.i.d) telles
que, ∀i, Xi N (0, 1), alors
n
Y = ∑ Xi2 χ 2 (n)
i=1
a pour densité
1 x n
fY (x) =  e− 2 x 2 −1 1R+ (x).
2n/2 Γ n2

On rappelle que la fonction gamma Γ est définie par :


Z +∞
Γ(x) = t x−1 e−t dt,
0

et que Γ(x + 1) = xΓ(x), de telle façon que pour tout entier naturel n, Γ(n + 1) = n!
Proposition 1.2 Si X χ 2 (n), alors E(X) = n et Var(X) = 2n.

4
1.1. CONVERGENCES ET THÉORÈMES LIMITES 5

Théorème 1.1 Soient X et Y deux variables aléatoires indépendante suivant respectivement


deux lois du χ 2 (n) et χ 2 (m). La variable aléatoire X +Y suit une loi χ 2 (n + m) .
Définition 1.3 (Loi de Fisher-Snedecor Fn,m )
Soient X et Y deux variables aléatoires indépendantes suivant respectivement les lois χ 2 (n) et
X/n
χ 2 (m). La variable aléatoire Fn,m = suit une loi de Fisher-Snedecor à n et m degrés de
Y /m
liberté.
Définition 1.4 (Loi de Student)
Soient X et Y deux variables aléatoires indépendantes suivant respectivement N (0, 1) et χ 2 (n).
On appelle loi de Student à n degrés de liberté la loi suivie par le rapport
X
Tn = q .
Y
n

Proposition 1.3 Si X T (n), alors :


E(X) = 0, si n ≥ 2
n
Var(X) = , si n ≥ 3.
n−2
Théorème 1.2 (de Cochran)
Soit X1 , . .. , Xn des variables aléatoires indépendantes identiquement distribuées suivant la loi
N µ, σ 2 avec σ 2 > 0. Posons
1 n 1 n 2
Xn = ∑ Xi , Sn2 = ∑ Xi − X n .
n i=1 n − 1 i=1
Alors, nous avons
1. X n et Sn2 sont indépendantes.
 2

2. X n N µ, σn .
(n − 1)Sn2
3. χ 2 (n − 1).
σ2
√ 
n Xn − µ
4. T (n − 1).
Sn

1.1 Convergences et théorèmes limites


1.1.1 Convergences
Soit (Xn )n∈N une suite de variables aléatoires sur (Ω, A , P).
Définition 1.5 (convergence en probabilité)
P
On dit que (Xn ) converge en probabilité vers X et on note Xn −→ X si
∀ε > 0, P (|Xn − X| ≥ ε) −→ 0 quand n → +∞.
1.1. CONVERGENCES ET THÉORÈMES LIMITES 6

La proposition suivante donne une condition suffisante de convergence en probabilité d’une


suite de variables aléatoires.

−→ a
 E (Xn ) n→+∞
P
Propriété 1.1 Soit a ∈ R. Si alors Xn −→ a.
 Var (Xn ) −→ 0 n→+∞
n→+∞

On considère une suite de variables aléatoires réelles (Xn )n≥1 définies sur le même espace
probabilisé (Ω, A , P). On note FXn la fonction de répartition de Xn et FX celle de X.
Définition 1.6 (convergence en loi)
L
On dit que (Xn ) converge en loi vers X et on note Xn −→ X si pour toute fonction continue et
bornée, nous avons E (g (Xn )) −→ E(g(X)).
Propriété 1.2 Si la suite (Xn )n≥0 converge en probabilité vers X alors elle converge en loi vers
X.
Remarque 1.1 La réciproque de la Proposition 1.2 n’est pas toujours vraie. Cependant si X = a
où a est une constante, alors il y a équivalence entre les deux modes de convergence
P L
Xn −→ a ⇐⇒ Xn −→ a.
n→+∞ n→+∞

Soit (Xn )n∈N une suite suite de variables aléatoires. Quel est le comportement asymptotique
de g (Xn ) où g est une fonction continue ? Nous introduisons des outils pour étudier le com-
portement de g (Xn ) .
Théorème 1.3 Soit g est une fonction continue. Alors
P P
• Xn −→ X =⇒ g (Xn ) −→ g(X)
L L
• Xn −→ X =⇒ g (Xn ) −→ g(X).

Théorème 1.4 (Théorème de Slusky)


Soient Xn et Yn deux suites de variables aléatoires telles que :
L P
Xn −→ X et Yn −→ a ,
n→+∞ n→+∞

où a est une constante non nul. Alors


L
• Xn +Yn −→ X + a ;
n→+∞
L
• XnYn −→ aX ;
n→+∞
Xn L X
• −→ .
Yn n→+∞ a

1.1.2 Théorèmes limites


Nous énoncerons deux théorèmes limites :
1.1. CONVERGENCES ET THÉORÈMES LIMITES 7

• la loi forte des grands nombres qui énonce la convergence de la moyenne empirique
d’une suite de variables aléatoires indépendantes, identiquement distribuées et inté-
grables ;
• le théorème central limite qui indique à quelle vitesse cette convergence a lieu sous
l’hypothèse supplémentaire que les variables sont de carré intégrables.
Théorème 1.5 (Loi des grands nombres)
Soient X1 , . . . , Xn i.i.d. telles que E (X1 ) = µ < +∞. Alors
P
X n −→ µ, quand n → +∞.

Ce qu’il y a de remarquable dans la loi des grand nombres, c’est que ce résultat s’applique
quelle que soit la loi des variables aléatoires Xn . Ce résultat signifie que lorsque n devient
grand, la moyenne empirique X n se réduit "presque" à la moyenne théorique m.
Théorème 1.6 (Théorème Central limite)
Soient X1 , . . . , Xn i.i.d. telles que E (X1 ) = µ < +∞ et σ 2 = Var (X1 ) 6= 0. Alors, nous avons

√ Xn − µ L
n −→ N (0, 1).
σ
L σ
• Formellement, nous pouvons écrire X n ' µ + √ Y où Y N (0, 1).
n
L
 
σ2
• On déduit alors que X n ' N µ, n , pour n suffisamment grand.
En pratique, l’approximation est fréquemment réalisée dès que n ≥ 30.
L’on peut généraliser ces résultats. Quelle condition doit vérifier une fonction g pour que
g (Xn ) converge en loi vers g(X) dès que Xn converge en loi vers X ?
Si √ L
n (Yn − y) −→ N 0, σy2 ,

n→+∞

quel est la loi asymptotique de la variable aléatoire n (g (Yn ) − g(y)) ? C’est à dire,
√ L
n (g (Yn ) − g(y)) −→ ?
n→+∞

Le résultat suivant permet de répondre à cette question.


Théorème 1.7 (méthode delta)
Si la suite de variables aléatoires (Yn ) est asymptotiquement normale, telle qu’il existe y et σy2
avec √ L
n (Yn − y) −→ N 0 , σy2 ,

n→+∞

et si g est une fonction de classe C 1 alors g (Yn ) est asymptotiquement normale


√ L
 2 
n (g (Yn ) − g(y)) −→ N 0, σy2 g0 (y) .
n→+∞
1.1. CONVERGENCES ET THÉORÈMES LIMITES 8

Exercice 1.1 On considère n variables aléatoires Y1 , . . . ,Yn (n ≥ 2) indépendantes et identique-


ment distribuées (i.i.d.) telles que Yi N m, σ 2 , ∀i = 1, . . . , n.
Montrer que la variance empirique corrigée définie par :
1 n 2
Sn2 = ∑ Yi −Y n
n − 1 i=1

1 n
où Y n = ∑ Yi , converge en probabilité vers la variance σ 2 .
n i=1

Pour cela, calculons les deux premiers moments de Sn2 . On admet le résultat suivant :
(n − 1) 2
S χ 2 (n − 1) ∀n ∈ N.
σ2 n
On sait que si X χ 2 (v) alors E(X) = v et Var(X) = 2v. Dès lors, on obtient :
 
(n − 1) 2
E S = n−1
σ2 n
 
(n − 1) 2
Var S = 2(n − 1).
σ2 n
On en déduit que :
 
(n − 1) 2 (n − 1) 2
 2
 2
E S = E S = n − 1 ⇐⇒ E S n =σ
σ2 n σ2 n

(n − 1)2 2σ 4
 
(n − 1) 2 2
 2

Var S = Var S = 2(n − 1) ⇐⇒ Var S = .
σ2 n σ4 n n
n−1
Par conséquent :
E Sn2 = σ 2


2σ 4
 
2

lim Var Sn = lim =0
n→∞ n→∞ n − 1

On en conclut que la variance empirique corrigée converge vers la variance σ 2 .

Sn2 −→ σ 2 .
P

Exercice 1.2 On considère n variables X1 , . . . , Xn i.i.d. telles que E (Xi ) = αβ et Var (Xi ) = αβ 2 ,
avec α > 0, β > 0. Quelle est alors la distribution asymptotique de la variable βbn définie par :
1 n
βbn = ∑ Xi
αn i=1

Pour répondre à cette question, remarquons tout d’abord que cette variable s’exprime en fonction
de la moyenne empirique X̄n des variables Xi :
Xn
βbn =
α
1.1. CONVERGENCES ET THÉORÈMES LIMITES 9

Sachant que les variables X1 , . . . , Xn sont i.i.d., on peut appliquer le théorème central limite
(Lindeberg-Levy) pour obtenir la distribution asymptotique de X n . On obtient immédiatement
que :
√  L
n X n − αβ −→ N 0, αβ 2


On définit alors une fonction g(x) = x/α. Cette fonction est continue et ne dépend pas de n. Par
définition de la variable βbn , on a :
Xn 
βbn = = g Xn
α
En utilisant la méthode delta, il vient :
√  L   2 
n g X n − g(αβ ) −→ N 0 , g0 (αβ ) αβ 2 .


On a
1
g0 (x) = .
α
Donc
1
g0 (αβ ) = .
α
On en déduit que :
√ b αβ 2
 
L
n(βn − β ) −→ N 0, 2 .
α
On obtient au final la distribution de βbn :

√ b β2
 
L
n(βn − β ) −→ N 0, .
α
Chapitre 2

Introduction

2.1 But de la statistique


L’objet de la statistique est la détermination, à partir d’observations faites sur un échantillon,
d’un ou plusieurs paramètres caractéristiques de cette population. Ainsi, soit X la variable qui
décrit le caractère étudié, et Pθ la loi de probabilité de X, θ étant le paramètre de cette loi. La
statistique inférentielle (ou inductive) a pour objet la détermination, à partir des observations
données par l’échantillon, des valeurs de θ .
Les caractéristiques du paramètre θ dépendent de l’échantillon, en particulier de sa taille.
Le passage de l’échantillon de taille n, à la population de taille N se ramène à étudier le
comportement de X lorsque n → N .
Les données sont souvent entachées d’incertitudes et présentent des variations pour plusieurs
raisons :
• le déroulement des phénomènes observés n’est pas prévisible à l’avance avec certitude
• toute mesure est entachée d’erreur, seuls quelques individus sont observés
• ...
⇒ données issues de phénomènes aléatoires
⇒ intervention du hasard et des probabilités
L’objectif de la statistique est de maîtriser au mieux cette incertitude pour extraire des infor-
mations utiles des données, par l’intermédiaire de l’analyse des variations dans les observa-
tions.

2.2 Les méthodes statistiques


On distingue deux classes de méthodes statistiques
1) la Statistique descriptive : elle a pour but de résumer l’information contenue dans les
données de façon synthétique et efficace par :
• Représentations graphiques
• Indicateurs de position, de dispersion et de relation

10
2.3. EXEMPLES INTRODUCTIFS 11

• Régression linéaire
⇒ cela permet de dégager les caractéristiques essentielles du phénomène étudié et de
suggérer des hypothèses pour une étude ultérieure plus poussée. Les probabilités
n’ont ici qu’un rôle mineur.
2) la Statistique inférentielle : elle a pour but de faire des prévisions et de prendre des
décisions au vu des observations par :
• Estimation paramétrique
• Intervalles de confiance
• Tests d’hypothèse
⇒ Il est donc nécessaire de définir des modèles probabilistes du phénomène aléatoire
et savoir gérer les risques d’erreurs.

Dans ce cours nous traitons le cas de la statistique inférentielle.

2.3 Exemples introductifs


2.3.1 Exemple 1
Un industriel vient de recevoir un lot important de pièces. Afin d’avoir une idée de la propor-
tion, notée θ , de pièces défectueuses celui-ci réalise un tirage aléatoire avec remise de n pièces
au sein du lot (un examen exhaustif du lot étant trop coûteux). L’échantillon est extrait du lot
selon le schéma de Bernoulli. Autrement dit, si on note Xi la variable aléatoire à valeurs dans
{0, 1} associée au tirage numéro i, on suppose que les n variables aléatoires X1 , · · · , Xi , · · · , Xn
sont indépendantes et de même loi ; à savoir P(Xi = 1) = θ et P(Xi = 0) = 1 − θ (l’évènement
0 X = 10 signifie donc que la pièce i est défectueuse).
i

Le problème statistique est d’estimer la proportion inconnue θ à partir des observations, c’est à
dire à partir des xi (réalisations des variables aléatoires Xi ).

2.3.2 Exemple 2
On souhaite savoir si une pièce de monnaie est équilibrée ou non. La pièce est dite équilibrée
si, quand on la lance, la probabilité d’avoir ‘pile’ est égale à la probabilité d’avoir ‘face’. Si on
1
note θ la probabilité d’avoir ‘pile’, la pièce est équilibrée si θ = .
2
Pour répondre à la question posée on lance n = 10 fois la pièce. Le résultat de cette expérience
aléatoire est : PPPFFPFPFP (P=pile et F=face). Peut-on conclure sur la base de ce résultat
que la pièce est équilibrée ?

2.3.3 Exemple 3
Une entreprise E fabrique et commercialise des ampoules électriques de 100 Watts. Sur l’em-
ballage de ces ampoules l’entreprise E a porté la mention : durée d’utilisation T = 1000 heures.
Un organisme de défense du consommateur se propose de ‘valider’ la mention portée par
ce constructeur sur ces emballages. Il souhaite de plus pouvoir décider si la durée de vie
2.4. GÉNÉRALITÉS 12

(moyenne) d’une ampoule de 100 Watts fabriquée par l’entreprise E est supérieure ou égale
T. Pour ce faire, il teste un grand nombre n d’ampoules fabriquées par cette entreprise, et
note xi la durée de vie observée de l’ampoule No i. La durée de vie d’une ampoule électrique
étant ‘par nature’ une grandeur imprévisible - au sens où la valeur de xi ne peut, avant de
l’avoir observée, être prédite avec certitude - il est commode de la modéliser par une variable
aléatoire X. La loi de probabilité généralement retenue pour X est la loi exponentielle. Rappe-
lons qu’une variable aléatoire réelle X suit une loi exponentielle de paramètre θ si sa densité
est :
1  x
f (x) = exp − 1[0,+∞[ (x).
θ θ
On peut aisément vérifier que le paramètre θ de la loi exponentielle est égal à la durée de vie
moyenne d’une ampoule ; autrement dit, E(X) = θ .
Le problème statistique consiste : premièrement, à estimer le paramètre inconnu θ à par-
tir des observations, c’est à dire à partir des xi (réalisations des variables aléatoires Xi ) ; et
deuxièmement, à décider si θ > T, ou si, à l’inverse θ ≤ T.

Ces trois exemples ont en commun de faire reposer la réponse au problème statistique consi-
déré, soit sur une expérience aléatoire (cf exemples 1 et 2), soit une modélisation aléatoire de
la grandeur étudiée (cf exemple 3). Ils ont également en commun de baser l’inférence sur le
paramètre θ (qu’il s’agisse d’estimer θ ou de tester une valeur particulière de θ ) sur n observa-
tions x1 , · · · , xi , · · · , xn où xi désigne la réalisation d’une variable aléatoire réelle Xi (dont la loi de
probabilité est paramétrée par θ ).

2.4 Généralités
Afin de préciser l’objet et la place de la Statistique inférentielle (au sein de la Statisque en gé-
néral) en il convient de rappeler que le travail du Statisticien s’inscrit traditionnellement dans
l’une des trois phases suivantes : production de données, exploration des données, et modéli-
sation (aléatoire) des données. La production de données inclut en particulier l’organisation
de la collecte des données (conception de plans de sondage, par exemple). L’exploration des
données repose essentiellement sur les méthodes de la Statistique descriptive et de l’Analyse
des données. La modélisation comporte classiquement plusieurs étapes :
a) au sein d’un ensemble de modèles probabilistes susceptibles d’avoir généré les observa-
tions, sélectionner l’un d’entre eux (cette étape étant réalisée à l’aide d’une procédure
statistique de choix de modèles).
b valider le modèle retenu.
c) estimer les paramètres du modèle retenu et éventuellement proposer des procédures de
tests portant sur les paramètres du modèle.
Cette présentation présuppose qu’un modèle paramétrique a été retenu, mais d’autres alterna-
tives existent. Dans ce cours on abordera essentiellement les questions relatives à la dernière
étape de cette procédure. La Statistique inférentielle (appelée encore Statistique mathéma-
tique ou Statistique inductive) consiste en un ensemble de concepts, de méthodes et d’outils
élaborés en vue de réaliser chacune des étapes a) b) et c). Les outils mathématiques utili-
sés en Statistique inférentielle ou Statistique inductive font largement appel à la Théorie des
2.4. GÉNÉRALITÉS 13

Probabilités, du simple fait que les observations sont considérées comme des réalisations de
variables aléatoires.
Chapitre 3

Estimation statistique

3.1 Définitions
Soit une population décrite par une variable aléatoire X, dont la loi de probabilité Pθ dépend
d’un ou plusieurs paramètres θ .
Définition 3.1 On appelle modèle aléatoire le couple (Ω, Pθ ) , où Ω est l’ensemble des valeurs
de X et Pθ la loi de probabilité de X.
Exemple 3.1
a) X ∈ {0, 1, 2, · · · , n} et Pθ = B(n, p) avec θ = p.
b) X = N et Pθ = P(λ ) avec λ = θ .
c) X = [0, a] et Pθ = U[0,a] avec θ = a.
d) X = R et Pθ = N (m, σ 2 ) avec θ ∈ {m, σ 2 , (m, σ 2 )}.
L’estimation statistique a pour objet la détermination de la valeur du paramètre θ .
Définition 3.2 Soit Θ l’ensemble des valeurs de θ . L’estimation est dite :
1. ponctuelle si Θ est réduit à une constante : Θ = {θ0 } ;
2. ensembliste sinon. En particulier, si Θ est un ensemble I de R, l’estimation est dite par
par intervalle de confiance pour le paramètre θ .
Définition 3.3 (Notion de Statistique)
Soit (X, Pθ ) un modèle aléatoire et soit Y un espace donné. On appelle Statistique toute applica-
tion T telle que

T : (X, Pθ ) −→ Y
(X1 , X2 , X3 , . . . , Xn ) 7−→ T (X1 , X2 , X3 , . . . , Xn ) = Tn

où (X1 , X2 , X3 , . . . , Xn ) est un échantillon aléatoire de taille n.


Exemple 3.2 : Statistiques usuelles

14
3.2. QUALITÉ D’UN ESTIMATEUR 15

n
1
• Tn = ∑ Xi = X n (moyenne empirique) ;
n i=1
n
1
• Tn = ∑ Xi − X 2 = S2n (variance empirique) ;

n i=1
1 n 2 2
• Tn = ∑ Xi − X n = S0 n (quasi-variance empirique) ;
n − 1 i=1
• Tn = Sup (Xi ) ;
1≤i≤n
• Tn = Inf (Xi ).
1≤i≤n

Définition 3.4 (Notion d’estimateur-estimation)


• Étant donnés un modèle aléatoire (X, Pθ ) et une Statistique T définie sur (X, Pθ ), on appelle
estimateur de θ l’image Tn d’un échantillon aléatoire (X1 , X2 , · · · , Xn ).
X n , S2n , S0 2n , Sup (Xi ), Inf (Xi ) sont des estimateurs.
1≤i≤n 1≤i≤n

• On appelle estimation de θ toute valeur prise par un estimateur T pour une réalisation
(x1 , x2 , · · · , xn ) de l’échantillon (X1 , X2 , X3 , . . . , Xn ).
1 n 1 n 2 1 n
x = ∑ xi ; s2n = ∑ (xi − x)2 ; s0 n = ∑ (xi − x)2 sont des estimations.
n i=1 n i=1 n − 1 i=1

Choix d’un estimateur


Un paramètre θ peut avoir un ou plusieurs estimateurs. Soit Tn un de ces estimateurs pos-
sibles. On appelle erreur d’estimation (ou biais) l’écart Tn − θ , où θ est la vraie valeur du
paramètre.
Un critère de choix de Tn est alors que E (Tn − θ )2 soit minimum. En
 
 effet, 2θ étant un
paramètre, on a : V (Tn − θ ) = V (Tn ) et si E(Tn ) = θ alors V (Tn − θ ) = E (Tn − θ ) .

3.2 Qualité d’un estimateur


Dans tout ce qui suit, on suppose que Tn est un estimateur du paramètre θ .

3.2.1 Estimateur sans biais (ou centré)


Définition 3.5 Un estimateur Tn d’un paramètre θ est dit sans biais si : E(Tn ) = θ .
Exemple 3.3
1 n
1) Tn = ∑ Xi , θ = m = E(X1 ). On a E(Tn ) = m = θ . Tn est donc un estimateur sans biais de
n i=1
m.
3.2. QUALITÉ D’UN ESTIMATEUR 16

2) Soit (X1 , · · · , Xn ) un n-échantillon issu d’une loi N (m, σ 2 ), avec m connu. On considère
2 1 n 2
l’estimateur Tn = S0 n = ∑ Xi − X n de θ = σ 2 . Montrer que Tn est un estimateur
n − 1 i=1
sans biais de σ 2 .

3.2.2 Estimateur asymptotiquement sans biais


Définition 3.6 Un estimateur Tn est dit asymptotiquement sans biais si

lim E(Tn ) = θ .
n→+∞

Exemple 3.4
1 n 2 n−1 2
Tn = Sn2 = ∑ Xi − X et θ = σ 2 . On a E(Tn ) = σ 6= θ ; mais lim E(Tn ) = σ 2 = θ .
n i=1 n n→+∞

Donc Tn est un estimateur asymptotiquement sans biais de σ 2 .

3.2.3 Estimateur convergent (en probabilité)


Définition 3.7 Tn est dit convergent (ou consistant) si
P
Tn −→ θ .

Une condition suffisante de convergence est que l’estimateur soit sans biais et que sa variance
tende vers zéro lorsque la taille de l’échantillon tend vers l’infini.

E(Tn ) = θ   
P
⇒ Tn −→ θ .
V (Tn ) −→ 0 
n→∞

La propriété reste valable lorsque l’estimateur est asymptotiquement sans biais.


Exemple 3.5 Tn = X n , θ = m.
σ2
On a E(Tn ) = m ; V (Tn ) = −→ 0 et X n est donc un estimateur convergent de m.
n n→∞

3.2.4 Estimateur préférable


Définition 3.8
• Soient deux estimateurs Tn et T0n d’un même paramètre θ . On dit que Tn est préférable à T0n
si :
Var(Tn ) ≤ Var(T0n ).
• Soit un ensemble d’estimateurs d’un même paramètre θ . L’estimateur optimal T de ce para-
mètre est celui qui a la plus faible variance : Var(T ) ≤ Var(T0n ), ∀ n.
3.3. INFORMATION DE FISHER 17

3.3 Information de Fisher


Soit (X, Pθ ) un modèle aléatoire, où X la variable dont la densité de probabilité f est telle que
• f est dérivable par rapport à θ jusqu’à l’ordre 2 :
∂f ∂2 f
f ≥0, f0 = , f 00 = .
∂θ ∂θ2
Z
• On peut dériver, par rapport à θ , sous le signe d’intégration l’intégrale f (x, θ )dx.

Définition 3.9 On appelle information de Fisher pour le paramètre θ , le réel I(θ ) défini par :
" 2 #

I(θ ) = E log f (X, θ ) .
∂θ

Théorème 3.1 On a
∂2 
 
I(θ ) = −E log f (X, θ ) .
∂θ2

L’intérêt de cette proposition est que cette expression de I(θ ) est plus facile à manipuler que
celle de la définition.
Exemple 3.6
• On considère l’échantillon (X1 , · · · , Xn ) extrait d’une loi de Bernoulli.
On sait que la densité d’une loi de Bernoulli de paramètre θ est : f (X, θ ) = θ X (1 − θ )1−X ,
x ∈ {0, 1}. D’où
log f (X, θ ) = X log(θ ) + (1 − X) log(1 − θ )
∂ 2 log f (X, θ ) X 1−X
2
=− 2− .
∂θ θ (1 − θ )2
Ainsi
∂2 
  1
I(θ ) = −E 2
log f (X, θ ) = .
∂θ θ (1 − θ )
Soit In (θ ) l’information de Fisher de (X1 , · · · , Xn ), on a donc
n
In (θ ) = .
θ (1 − θ )

• On considère l’échantillon (X1 , · · · , Xn ) extrait d’une loi de N (θ , σ 2 ) , θ inconnu et σ connue.


−(X − θ )2
 
1
f (X, θ ) = √ exp
2πσ 2σ 2

(X − θ )2
 
1
log f (X, θ ) = log √ −
2πσ 2σ 2
∂ log f (X, θ ) 1
2
=− 2
∂θ σ
3.4. INÉGALITÉ DE FISHER-CRAMER-DAMOIS-RAO 18

Ainsi
∂2 
  1
I(θ ) = −E 2
log f (X, θ ) = 2 .
∂θ σ
Soit In (θ ) l’information de Fisher de (X1 , · · · , Xn ), on a donc
n
In (θ ) = 2 .
σ
Propriété 3.1

1) I(θ ) ≥ 0 ;
2) (X1 , X2 ) indépendants ⇒ I(X1 ,X2 ) (θ ) = IX1 (θ ) + IX2 (θ ) ;
3) (X1 , X2 , · · · , Xn ) étant un échantillon aléatoire indépendant, on a par généralisation de la
propriété 2) ci-dessus :
I(X1 ,X2 ,··· ,Xn ) (θ ) = In (θ ) = nIn (θ ).

3.4 Inégalité de Fisher-Cramer-Damois-Rao


Théorème 3.2 Soit une fonction g du paramètre θ , dérivable par rapport à θ , et soit Tn un
estimateur sans biais de g(θ ). On a alors :
[g0 (θ )]2
V (Tn ) ≥ ;
In (θ )
Cette inégalité s’appelle l’inégalité de Cramer-Rao
1
Si g(θ ) = θ alors V (Tn ) ≥ .
In (θ )
On en déduit le résultat suivant pour un estimateur sans biais Tn de θ :
 
1
[Tn efficace] ⇔ V (Tn ) = .
In (θ )
Exemple 3.7
• Soit (X1 , · · · , Xn ) un échantillon de taille n issu de la loi normale N (θ , σ 2 ) avec σ connue. On
a
σ2 n
E(X n ) = θ , Var(X n ) = , In (θ ) = .
n σ2
1
Alors Var(X n ) = . X n est donc un estimateur efficace de θ .
In (θ )
• On considère un échantillon (X1 , · · · , Xn ) de taille n issu de la loi normale N (m, σ 2 ) avec m
connue. On montre que

n 2σ 4 2σ 4
In (σ 2 ) = ; Var(Sn2 ) = 6= .
2σ 4 n−1 n
1 n
Donc Sn2 = ∑ (Xi − X n )2 n’est pas un estimateur efficace.
n − 1 i=1
Chapitre 4

Estimation ponctuelle
Méthode du Maximum de Vraisemblance

4.1 Fonction de vraisemblance pour un paramètre θ


Définition 4.1 Soit un échantillon aléatoire (X1 , X2 , · · · , Xn ) et soit f la densité de probabilité de
la variable aléatoire X. On suppose que f dépend d’un paramètre θ à estimer.
La vraisemblance de θ est définie par la loi conjointe du vecteur aléatoire (X1 , X2 , · · · , Xn ) . Elle
est donnée par la fonction L suivante, définie sur Θ, ensemble des valeurs de θ :

θ ∈ Θ 7−→ L (X1 , X2 , . . . , Xn ; θ )

Si l’échantillon est indépendant, L est le produit des densités de probabilité des Xi , i.e.
 n
∏ P (Xi = xi) si X est discrète





 i=1
L (x1 , x2 , , . . . , xn ; θ ) = n

 n
 ∏ f (xi , θ ) si X est continue .



i=1

Exemple 4.1

1) Pθ = N (m, σ ); θ =σ
"  #
1 n xi − m 2
 n 
1
L (x1 , x2 , . . . , xn ; θ ) = √ exp − ∑ .
σ 2π 2 i=1 σ

2) Pθ = P(λ ); θ =λ
n
∑ xi
e−nλ λ i=1
L (x1 , x2 , . . . , xn ; θ ) = n .
∏ xi!
i=1

19
4.2. MÉTHODE DU MAXIMUM DE VRAISEMBLANCE 20

∂2
 
Remarque 4.1 L’information de Fisher est égale à −E (log L) .
∂θ2

4.2 Méthode du Maximum de Vraisemblance


L’idée fondamentale de cette méthode est de trouver une valeur de θ qui maximise la fonction
de vraisemblance L. On notera θ̂ cette valeur.
Exemple 4.2 Soit Pθ = U[0,θ ] .
 
1 1
 θ si x ∈ [0, θ ]  θn si 0 ≤ inf(Xi ) ≤ sup(Xi ) ≤ θ
f (x, θ ) = ⇒L=
 0 sinon  0 sinon
Le maximum de L est atteint pour θ = θ̂ = sup(Xi ).

4.2.1 Condition nécessaire et suffisante de maximisation de L


[Link] Condition du premier ordre - Équation de vraisemblance
Le maximum de L et celui de log L sont atteints pour la même valeur de θ .
On a donc les équivalences suivantes

∂ ∂
L=0 ⇔ (log L) = 0. (4.1)
∂θ ∂θ

Dans le cas d’un échantillon indépendant l’égalité (4.1) s’écrit :

n  
∂ 
∑ log f (xi , θ ) = 0 (équation de vraisemblance).
i=1 ∂θ

[Link] Condition du second ordre

∂2 ∂2
L≤0 ⇔ (log L) ≤ 0. (4.2)
∂σ2 ∂θ2

4.2.2 Propriétés de l’estimateur du Maximum de vraisembance


Théorème 4.1 S’il existe un estimateur T de θ , efficace, il est unique solution de l’équation de
vraisemblance. Et si θ̂ est l’estimateur du maximum de vraisemblance de θ , on a :
" !#  
1 1
θ̂ −→ N θ , p ⇔ E(θ ) −→ θ et V (θ̂ ) −→ .
I(θ ) n→+∞ n→+∞ I(θ )
4.3. QUELQUES EXEMPLES D’E.M.V. 21

4.3 Quelques exemples d’E.M.V.


Exemple 4.3 Estimation du paramètre d’une loi de Poisson de paramètre λ
n
∑ xi
e−λ λ x e−nλ λ i=1
X ∈ N, P(X = x) = ; on a L = n
x!
∏ xi!
i=1
n

n
!
n
!

∑ xi
log L = −nλ + ∑ xi log λ − log ∏ xi! et (log L) = −n + i=1 =0
i=1 i=1 ∂λ λ
n
∑ Xi n
i=1
⇒ λ̂n = n = X̄n ⇔ ∑ Xi = nλ̂n .
i=1

La condition du second ordre est vérifiée. En effet :


n

∂2
∑ Xi n
i=1
(log L) =− =− ≤ 0.
∂λ2 λ =λ̂n λ2 λ =λ̂n λ̂n
Exemple 4.4 Estimation du paramètre p d’une loi Binomiale : X B(n, p).
X ∈ {0, 1, 2, · · · , · · · , n} ; P(X = x) = Cnx px (1 − p)n−x .
n n
n
!
∑ xi ∑ (n − xi)
On a L= ∏ Cnx pi=1 (1 − p)i=1
i=1
!
n n n
⇒ log L = ∑ logCnx + ∑ Xi log p + ∑ (n − xi) log(1 − p)
i=1 i=1 i=1
n n


∑ xi ∑ (n − xi) Xn
i=1 i=1
⇒ (log L) = − = 0 ⇒ p̂n =
∂p p 1− p n
et
∂2 n2
(log L) =− < 0.
∂ p2 p= p̂n p̂n (1 − p̂n )
Exemple 4.5 Estimation de la moyenne d’une loi de Laplace-Gauss : X N (m, σ 2 ) et σ
connu. On a "  #
1 n xi − m 2
 n 
1
L= √ exp − ∑ .
σ 2π 2 i=1 σ
n  
∂ 1 xi − m
(log L) = ∑ = 0 ⇒ m̂n = X n ;
∂m i=1 σ σ
4.3. QUELQUES EXEMPLES D’E.M.V. 22

∂2 n
2
(log L) = − 2 ≤ 0.
∂m m=m̂ σ
On vérifie aisément les propriétés suivantes de l’estimateur m̂n = X n obtenu :
E(X n ) = m : m̂n est sans biais.
σ2
V (X n ) = √ −→ 0 : m̂n est un estimateur convergent.
n n→+∞
 2 
∂ n 1
In (m) = −E 2
(log L) = 2 = : m̂n est un estimateur efficace.
∂m σ V (X n )

Exemple 4.6 Estimation de la variance σ 2 : X N (m, σ 2 ) et m connu.


n  
xi − m
n − 21 ∑
!
n 
xi − m 2

σ2
 n  n 
1 1 1 1
L = σ √2π exp − 2 ∑ = √2π √
2
e i=1 .
σ σ
i=1

On pose θ = σ 2 et la fonction L s’écrit :


n
n 
xi − m 2 (xi − m)2

− 1 ∑
 n − n 2 ∑ σ
 n n i=1
L = √12π σ 2 2 e i=1 = √12π θ − 2 e− 2θ

n
∑ (xi − m)2
√ n 1
⇒ log L = −n log( 2π) − log θ − i=1
2 2 θ

n n

∂ n
∑ (xi − m)2 ∑ (xi − m)2
⇒ (log L) = − + i=1 = 0 ⇒ θ̂ = i=1
∂θ 2θ 2θ 2 n
et
∂2 n
(log I) =− ≤ 0.
∂ θ̂ 2 θ =θ̂ 2θ̂ 2

Exemple 4.7 Soit (X1 , · · · , Xn ) un échantillon de taille n issu d’une loi exponentielle. Déterminer
l’EMV associé à cet échantillon.
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
4.3. QUELQUES EXEMPLES D’E.M.V. 23

.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
Chapitre 5

Estimation par intervalle de confiance

5.1 Introduction
L’estimation ponctuelle consiste à déterminer un estimateur T d’un paramètre θ et de prendre
pour estimation la valeur (ou la réalisation) θ0 de T sur un échantillon donné. Si l’échantillon
est de faible taille, l’estimation θ0 retenue peut être assez éloignée de la vraie valeur de θ .
Il apparaît, dès lors, préférable de déterminer un intervalle, qui a une probabilité au moins
égale à un niveau fixé, pour contenir la vraie valeur du paramètre.
L’estimation par intervalle de confiance consiste donc à déterminer un tel intervalle pour θ .
C’est-à-dire, qu’étant donné un réel α ∈ [0, 1], on cherche à déterminer l’intervalle I ⊂ R tel
que :
P (θ ∈ I) ≥ 1 − α.

I est l’intervalle de confiance pour θ . α est le seuil de confiance ; et 1 − α le niveau de


confiance.
Définition 5.1 Soit X une variable aléatoire réelle. Supposons que la fonction de répartition FX
de X soit continue et strictement croissante. Pour 0 ≤ α ≤ 1 , on note uα l’unique nombre réel
vérifiant
FX (uα ) = P(X ≤ uα ) = α.
On dit que uα est le quantile d’ordre α.

5.2 Détermination de l’intervalle I


On se limitera à l’égalité : P (θ ∈ I) = 1 − α.
La détermination de I montre qu’il est nécessaire de décomposer α en une somme telle que :
P (θ ∈ I) = α = α1 + α2 avec α1 = P (θ ∈] − ∞,t1 [) et α2 = P (θ ∈]t2 , +∞[).
Théorème 5.1 Pour un seuil α donné, l’intervalle de confiance I (de niveau 1 − α) a une lon-
α
gueur minimale α1 = α2 = et t1 = −t2 = −t.
2

24
5.3. ESTIMATION DE LA MOYENNE M D’UNE LOI NORMALE : X N (M, σ ) ET θ = M 25

5.3 Estimation de la moyenne m d’une loi normale : X N (m, σ )


et θ = m
Soit un échantillon indépendant (X1 , X2 , · · · , Xn ) et I =]a, b[ l’intervalle de confiance recherché.
On doit avoir pour α donné :

P (m ∈ [a, b]) = P (a ≤ m ≤ b) = 1 − α.

∑ Xi
On fait appel à la moyenne empirique X n = qui est un bon estimateur de m :
n

σ2
E(X) = m et V (X n ) = .
n

5.3.1 Cas où l’écart type σ est connu


!
Xn − b Xn − m Xn − a
P (a ≤ m ≤ b) = P σ ≤ σ ≤ σ = 1 − α.
√ √ √
n n n
Par ailleurs, notons que
h σ i hXn − m i
X n N (m, √ ) ⇔ σ N (0, 1) .
n √
n
On pose " # " #
Xn − m Xn − b α Xn − m Xn − a α
P σ ≤ σ = et P σ ≥ σ = .
√ √ 2 √ √ 2
n n n n

Xn − a Xn − b
⇒ σ = u1−α/2 et σ = −u1−α/2
√ √
n n
où u1−α/2 désigne le quantile d’ordre 1 − α/2 donné par les tables de la loi N (0, 1) ;

 a = X n − u1−α/2 . √σn

 b = Xn + u σ
1−α/2 . √n .

L’intervalle de confiance pour m au niveau 1 − α est alors


h σ σ i
X n − u1−α/2 . √ , X n + u1−α/2 . √ .
n n

Plus généralement, soit I = [a, b], et soit la variable aléatoire X. On considère la moyenne
Xn − m p
empirique X n . La variable U = ; où m = E(X) et σX n = V (X n ), est appelée fonction
σX n
pivotale de m. La forme générale de l’intervalle de confiance pour m est :

h i
I = X n − u1−α/2 .σX n ; X n + u1−α/2 .σX n
5.4. ESTIMATION DE LA MOYENNE LORSQUE LA LOI DE X N’EST PAS LA LOI DE LAPLACE-GAUSS

5.3.2 Cas où l’écart type σ est inconnu


Dans ce cas la variance V (X) = σ 2 est estimée par :
n

02 = 1
2
 n n − 1 ∑ Xi − X n ,
S si n ≤ 30



i=1
n
2 1 2
 Sn = n ∑ Xi − X n , si n > 30.



i=1

Xn − m
• Si n ≤ 30 , la fonction pivotale de m est la variable T = S0 n
qui suit une loi de Student

n
T(n − 1). Et on a :

P (a ≤ m ≤ b) = P (−t ≤ T ≤ t) = 1 − α ; où t = t1−α/2 .

S0 n S0 n
⇒ a = X n − t1−α/2 . √ et b = X n + t1−α/2 . √
n n
et donc h S0 n S0 n i
I = X n − t1−α/2 . √ , X n + t1−α/2 . √ .
n n

• Et si n > 30 , la loi T(n − 1) converge vers la loi N (0, 1) ; et les valeurs de t sont données
par la table de la loi normale centrée réduite ;
h S0 n S0 n i
I = X n − u1−α/2 . √ , X n + u1−α/2 . √ .
n n

5.4 Estimation de la moyenne lorsque la loi de X n’est pas la loi


de Laplace-Gauss
5.4.1 Cas où n ≤ 30
Xn − m
Dans ce cas on applique le théorème centrale limite à la fonction pivotale U =
σX n
N (0, 1), et l’intervalle de confiance I est de la forme
h i
I = X n − u1−α/2 .σX n , X n + u1−α/2 .σX n .

5.4.2 cas où n > 30


On applique l’inégalité de Bienaymé-Tchebychev pour obtenir :
 1 1 1
P X n − m < tσX n ≥ 1 − 2 = 1 − α ⇒ 2 = α ⇒ t = ± √
t t α
et h 1 1 i
I = X n − √ σX n , X n + √ σX n .
α α
5.5. INTERVALLE DE CONFIANCE POUR LA VARIANCE σ 2 D’UNE LOI DE LAPLACE-GAUSS : X N

5.5 Intervalle de confiance pour la variance σ 2 d’une loi de Laplace-


Gauss : X N (m, σ )
5.5.1 Cas où n ≤ 30
2
nS2 (n − 1)S0 2n n 
Xi − X n
On sait que : 2 = =∑ χ 2 (n − 1).
σ σ2 i=1 σ

Les intervalles de confiance pour σ 2 et σ sont respectivement de la forme :


s s
h (n − 1)S0 2 (n − 1)S0 2 i h n−1 n−1 0 i
n n
σ2 ∈ , ; σ∈ Sn0 , S ,
χ2 χ1 χ2 χ1 n
avec  α α
P χ 2 (n − 1) ≤ χ1 = et P χ 2 (n − 1) ≤ χ2 = 1 − .
  
2 2
χ1 est le quantile d’ordre α/2 d’une loi de Khi-deux à n − 1 degrés de liberté, et χ2 le quantile
d’ordre 1 − α/2 d’une loi de Khi-deux à n − 1 degrés de liberté.

5.5.2 Cas n > 30


r !
1 n 2 2σ 4
On a : Sn2 = ∑ Xi − X N m, ;
n i=1 n
et les intervalles de confiance pour la variance et l’écart-type sont respectivement :
r r i
2
h
2 2 2 2 2 2
σ ∈ Sn − u1−α/2 Sn , Sn + u1−α/2 Sn et
n n
h Sn Sn i
σ ∈ Sn − u1−α/2 √ , Sn + u1−α/2 √ .
2n 2n

Exemple 5.1 : Soit un échantillon de taille n = 100 où on observe une variance de 1600. On
cherche à déteminer un intervalle de confiance pour l’écart type à un niveau de confiance de 95%.
On a 1 − α = 0, 95 u1−α/2 = 1, 96 Sn2 = 1600 ; d’où
h 40 40 i  
σ ∈ 40 − 1, 96 √ ; 40 + 1, 96 √ = 34, 5 ; 45, 5 .
2 × 100 2 × 100

5.6 Estimation d’une proportion θ = p


Soit p la proportion d’un phénomène dans une population. Une estimation ponctuelle de p
est la fréquence observée dans un échantillon de taille n :
1 n
fn = ∑ Xi où Xi B(1, p).
n i=1

fn est un estimateur sans biais, convergent et efficace de p.


5.7. COMPARAISON DE PARAMÈTRES 28

Propriété 5.1 Un intervalle de confiance asymptotique de seuil α pour p est :


" r r #
fn (1 − fn ) fn (1 − fn )
I = fn − u1−α/2 ; fn + u1−α/2
n n

Exemple 5.2 Soit un échantillon de taille n = 100 ; on y observe f = 0, 2 et soit un niveau de


confiance de 95%.
On a uα = u .... = ....
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................

5.7 Comparaison de paramètres


5.7.1 Intervalle de confiance de la différence de deux moyennes : m1 − m2
Soient deux paramètres p1 et p2 ; on tire un échantillon de chacune d’elles de taille respectives
n1 et n2 , supérieures à 30, et soient X n1 et X n2 , σ1 et σ2 ; s1 et s2 , moyennes empiriques, les
écart-types et les
 écart-types empiriques
 respectifs. On a dans ces conditions :
X n1 − X n2 N m1 − m2 , σX n −X n avec
1 2

 s
 σ12 σ22
si σ1 et σ2 sont connus


 +

 n1 n2
σX n −X n2 = s
1
s21 s22




 + si les écart-types sont inconnus.
n1 n2

L’intervalle de confiance pour m1 − m2 , au niveau 1 − α est de la forme suivante


h i
I = X n1 − X n2 − u1−α/2 σX n −X n2 , X n1 − X n2 + u1−α/2 σX n −X n2 .
1 1

5.7.2 Intervalle de confiance de la différence de deux proportions : p1 − p2


Propriété 5.2 Un intervalle de confiance de la différence de deux proportions p1 − et p2 est
h i
I = f1 − f2 − u1−α/2 σ f1 − f2 , f1 − f2 + u1−α/2 σ f1 − f2 ;
5.7. COMPARAISON DE PARAMÈTRES 29
s
f1 (1 − f1 ) f2 (1 − f2 )
où σ f1 − f2 = + ; f1 et f2 étant les fréquences observées dans un échantillon
n1 n2
de taille n1 , n2 respectivement ; i.e.

1 n1 (1) 1 n2 (2)
f1 = ∑ Xi ; f2 = ∑ Xi .
n1 i=1 n2 i=1

σ12
5.7.3 Intervalle de confiance pour le rapport de deux variances :
σ22
S12 /σ12
F(n1 − 1, n2 − 1) et l’intervalle de confiance est alors :
S22 /σ22
h 1 s2 1 s2 i
1 1
I= ; où F1 et F2 sont définies par les égalités suivantes :
F2 s22 F1 s22
   
P F(n1 − 1, n2 − 1) < F2 = 1 − α/2 et P F(n1 − 1, n2 − 1) < F1 = α/2.

F1 est le quantile d’ordre α/2 d’une loi de Fisher à (n1 − 1 , n2 − 1) degrés de liberté, et F2 le
quantile d’ordre 1 − α/2 d’une loi de Fisher à (n1 − 1 , n2 − 1) degrés de liberté.
Exemple 5.3 : n1 = 16 ; s21 = 25 ; n2 = 10 ; s22 = 20 et 1 − α = 0, 90. On a

S12 /σ12 1 1
F(15 ; 9) et F2 = F0,95 (15, 9) = 3, 006; F1 = F0,05 (15, 9) = = = 0, 33.
S22 /σ22 F0,95 (15, 9) 3, 006

L’intervalle de confiance est alors :


h 1 25 1 25 i  
I= × ; × = 0, 415 ; 3, 78 .
3, 006 20 0, 33 20
Chapitre 6

Tests statistiques

Dans tout ce chapitre :


• on notera π(x) la valeur de fonction de répartition au point x d’une variable normale centrée
réduite ;
• T (n) la loi de Student à n degrés de liberté.

6.1 Introduction
6.1.1 Exemples introductifs
Exemple 6.1 Dans une population, 60% des malades atteints d’une maladie M, survivent plus
de 6 ans. Un laboratoire produit un médicament qu’il expérimente sur 40 patients choisis au
hasard. Et après 6 ans, 26 de ces derniers sont encore vivants.
On veut savoir, à un niveau de signification de 10%, si ce nouveau médicament est plus efficace
que le précédent.
Exemple 6.2 Un échantillon aléatoire de 100 professeurs du secondaire public montre que ceux-
ci reçoivent un salaire moyen de 250 000 F CFA avec un écart-type de 50 000 F CFA ; alors que
100 professeurs du secondaire privé, choisis au hasard, perçoivent un salaire moyen de 210 000
F CFA, avec un écart-type de 30 000 F CFA.
On veut vérifier, au niveau de signification de 1%, si le salaire moyen des professeurs du public
est supérieur de 50 000 F CFA à celui des professeurs du privé.
Exemple 6.3 On veut vérifier si une pièce de monnaie est régulière en la lançant 100 fois de
suite. On obtient 47 fois pile. On doit décider si on accepte, à un niveau de signification de 1%,
qu’elle est régulière ou non.

6.1.2 Problématique
Soit (X, Pθ ) un modèle statistique et Θ l’ensemble des valeurs de θ . Un test statistique consiste
à choisir, au vu des résultats fournis par un échantillon, entre des hypothèses relatives au
paramètre θ .

30
6.2. DÉFINITIONS 31

Pour le statisticien, ce choix consiste à prendre une décision, D0 ou D1 , à partir de deux


hypothèses H0 et H1 . Pour cela on admet que
1) Θ = Θ0 ∪ Θ1 , avec Θ0 ∩ Θ1 = ∅
2) À chaque hypothèse H0 ou H1 est associé un sous-ensemble de Θ0 et Θ1 respectivement.
3) Le choix d’une hypothèse Hi se ramène à décider (prendre une décision Di ) dans quel
sous-ensemble de Θ se trouve la vraie valeur de θ .

6.1.3 Étude d’un cas


Un laboratoire fabrique un médicament contenant un produit toxique qui peut être dangereux
si la teneur t de celui-ci dépasse une valeur t0 fixée. On pose :
H0 : t < t0 et H1 : t ≥ t0
Θ0 = {t ∈ R+ : t < t0 } et Θ1 = Θ0 = {t ∈ R+ : t ≥ t0 } t0 étant une valeur fixée.

6.2 Définitions
Définition 6.1 Étant donné un problème de test statistique, on distingue deux types d’hypo-
thèses :
• l’hypothèse simple : elle est de la forme Hi : θ = θi
• l’hypothèse composite ou (multiple) : elle est de la forme Hi : {θ < θi } ou {θ > θi }
ou {θ 6= θi }.

Définition 6.2 Une règle de décision est une application δ définie de la façon suivante :
δ : (X1 , · · · , Xn ) −→ D = {D0 , D1 }
x = (x1 , · · · , xn ) 7−→ Di ∈ D.

Définition 6.3 Lors d’un test statistique, deux types d’erreurs sont possibles dans la prise de
décision :
• l’erreur de première espèce : elle consiste à refuser l’hypothèse H0 , et donc prendre la
décision D1 alors que cette hypothèse est vraie. On définit alors le risque de première
espèce noté α et défini par :
α = P (D1 /H0 )
• l’erreur de seconde espèce : elle consiste à accepter l’hypothèse H0 , c’est-à-dire prendre
la décision D0 alors que cette hypothèse est fausse. Elle est caractérisée par le risque de
deuxième espèce (ou risque de l’acheteur), c’est-à-dire le réel noté β suivant :

β = P (D0 /H1 ) .

Définition 6.4 On appelle matrice des risques la matrice définie par les risques α et β de la
façon suivante :
6.3. QUELQUES EXEMPLES DE PROBLÈME DE TESTS STATISTIQUES 32

HH Di
HH
D1 D0
Hi HH
H0 α 1−α
H1 1−β = η β

1 − α = P (D0 /H0 ) et 1 − β = P (D1 /H1 ) = η.

Définition 6.5 La puissance d’un test est la probabilité η de rejeter H0 (de prendre la décion
D1 ) sachant qu’elle est fausse (H1 est vraie).
Définition 6.6 La région critique d’un test est le domaine W défini par

W = {x = (x1 , · · · , xn ) : δ (x1 , · · · , xn ) = D1 } .

W est la région de rejet de l’hypothèse H0 ; et la région d’acceptation de H0 est

W = {x = (x1 , · · · , xn ) : δ (x1 , · · · , xn ) = D0 } .

On a
α = P (D1 /H0 ) = P (W /H0 ) .

La résolution d’un problème de test statistique se ramène à la détermination de la


région critique W , pour un risque de première espèce α donné.

6.3 Quelques exemples de problème de tests statistiques


6.3.1 Test d’une moyenne d’une loi de normale : X N (m, σ )
La région critique de ce test est
a) si m1 < m0 alors W = {X : X n ≤ A}
b) si m1 > m0 alors W = {X : X n > A},

où A est à déterminer dans chaque cas.

Détermination de la région critique


L

1) m1 < m0
a) σ connu
Étant donné le risque 1 − α, on a :
6.3. QUELQUES EXEMPLES DE PROBLÈME DE TESTS STATISTIQUES 33

α = P (W | H0 )

= P X n ≤ A | m = m0
 
X n − m0 A − m0
= P √ ≤ √ | m = m0
σ/ n σ/ n
 
X n − m0 A − m0
= P √ ≤ √
σ/ n σ/ n
 
A − m0
= π √
σ/ n
A − m0 σ
⇒ √ = uα et A = m0 + uα √
σ/ n n

Règle de décision
L



 si X n ≤ A alors on rejette H0 et donc m = m1


si X n > A alors on accepte H0 et donc m = m0


 σ
où A = m0 + uα √



n

b) σ inconnu et n > 30
1 n
Dans ce cas on estime σ par la variance empirique s2 = ∑ (xi − x)2 .
n i=1
Mais comme
Xn − m
√ N (0 ; 1)
s/ n
alors  
X n − m0 A − m0 A − m0
P √ ≤ √ =α ⇒ √ = uα
s/ n s/ n s/ n
s
⇒ A = m0 + uα √ .
n

c) σ inconnu et n ≤ 30
Xn − m
On sait que dans ce cas √ T (n − 1), loi de Student à n − 1 degrés de liberté.
s/ n
 
A − m0 A − m0 s
α = P T (n − 1) < √ ⇒ √ = tα (n − 1) et A = m0 + tα (n − 1) √ ,
s/ n s/ n n
où tα (n − 1) est le quantile d’ordre α d’une loi de Student à n − 1 degrés de liberté.

2) m1 > m0
6.3. QUELQUES EXEMPLES DE PROBLÈME DE TESTS STATISTIQUES 34

W = {X = (X1 , · · · , Xn ) | X n ≥ A}

Règle de décision : La décision est la suivante


L

(
si X n ≥ A alors on rejette H0 et donc m = m1
si X n < A alors on accepte H0 et donc m = m0

avec A défini comme suit :

a) σ connu

 
 X n − m0 A − m0
α = P (W | H0 ) = P X n ≥ A | m = m0 =P √ ≥ √
σ/ n σ/ n
 
A − m0 σ
⇒π √ = 1−α et A = m0 + u1−α √ ,
σ/ n n
u1−α étant le quantile d’ordre 1 − α d’une loi normale centrée réduite.

b) σ inconnu et n < 30
Xn − m
Dans ce cas √ T (n − 1). On trouve
s/ n
s
A = m0 + t1−α (n − 1) √ .
n

c) σ inconnu et n ≥ 30

Xn − m s
√ N (0 1) ⇒ A = m0 + u1−α √
s/ n n

On considère maintenant le problème de test suivant


(
H0 : m = m0
(2)
H1 : m > m0

On montre que la région critique est de la forme suivante :


W = {X = (X1 , · · · , Xn ) | X n ≥ A}.

Règle de décision
L

(
si X n ≥ A alors on rejette H0
si X n < A alors on accepte H0
6.3. QUELQUES EXEMPLES DE PROBLÈME DE TESTS STATISTIQUES 35

a) σ connu
σ
La valeur critique est A = m0 + u1−α √ et le risque de deuxième espèce est :
n
 
 A−m
β = P X n < A | m > m0 = π √ = β (m).
σ/ n

La puissance du test est alors une fonction de m, m ≥ m0 :


 
A−m
η = 1−π √
σ/ n

b) σ inconnu et n < 30

Xn − m 2 1 n
√ T (n − 1) avec s0 = ∑ (xi − xn)2,
s0 / n n − 1 i=1
s0
A = m0 + t1−α √ .
n

Soit le problème de test suivant :


(
H0 : m = m0
(3)
H1 : m < m0

Règle de décision
L

(
si X n ≤ A alors on rejette H0
si X n > A alors on accepte H0
 
σ  A−m
avec A = m0 + uα √ et β = P X n > A | m = m0 = 1 − π √ .
n σ/ n
courbe d’efficacité
 
A−m
η = 1 − β (m) = π √ .
σ/ n

Exercice 6.1 Déterminer la constante A pour le test (3) dans les cas :
1) cas σ inconnu et n < 30
2) cas σ inconnu et n ≥ 30

Soit le problème de test (


H0 : m = m0
(4)
H1 : m 6= m0
6.3. QUELQUES EXEMPLES DE PROBLÈME DE TESTS STATISTIQUES 36

Ce test dit bilatéral équivaut à deux tests unilatéraux de type (2) et (3).

Région critique : la région critique est de la forme W = W1 ∪W2 avec


L

W1 = {X = (X1 , · · · , Xn ) : X n ≤ A} et W2 = {X = (X1 , · · · , Xn ) : X n ≥ B}

La région d’acceptation de H0 est W = {X = (X1 , · · · , Xn ) : A ≤ X n ≤ B}.


Il reste à déterminer A et B. Pour une risque α donné, on a
 
P (W | H0 ) = P X n ∈
/ [A, B] | m = m0 = 1 − P X n ∈ [A, B] | m = m0

 
On prend P X n ≤ A | m = m0 et P X n ≥ B | m = m0 .

Dans le cas où σ est connu, on trouve

σ σ
A = m0 + uα/2 √ et B = m0 + u1−α/2 √ .
n n

Règle de décision
L

(
si X n ∈ ]A, B[ alors on accepte H0
si X n ∈
/ ]A, B[ alors on rejette H0 ,

σ σ
A = m0 + uα/2 √ et B = m0 + u1−α/2 √ .
n n

6.3.2 Test d’une proportion (n > 30)


On considère une variable aléatoire X de Bernoulli B(1 p) et un échantillon de taille n ,
1 n
(n > 30). On sait que fn = ∑ Xi est un bon estimateur de p et que pour n > 30, fn suit une
n i=1
r !
p(1 − p)
loi N p , .
n

...................................
(
H0 : p = p0
(1)
H1 : p < p0

Règle de décision
L
6.3. QUELQUES EXEMPLES DE PROBLÈME DE TESTS STATISTIQUES 37

si fn ≤ A alors on rejette H0





si fn > A alors on accepte H0

 r
 où A = p0 + uα p0 (1 − p0 )



n

...................................
(
H0 : p = p0
(2)
H1 : p > p0

Règle de décision
L

si fn ≥ A alors on rejette H0





si fn < A alors on accepte H0

 r
 où A = p0 + u1−α p0 (1 − p0 )



n

...................................
(
H0 : p = p0
(3)
H1 : p 6= p0

Règle de décision
L

(
si fn ∈ ]A, B[ alors on accepte H0
si fn ∈
/ ]A, B[ alors on rejette H0
r r
p0 (1 − p0 ) p0 (1 − p0 )
avec A = p0 + uα/2 et B = p0 + u1−α/2 .
n n
6.4. EXERCICES 38

6.4 Exercices
Exercice 6.2 On réalise des mesures de hauteurs d’arbres dans une forêt sur un échantillon de
12 arbres. On suppose que ces hauteurs sont distribuées selon une loi normale de moyenne et de
variance inconnues. Les résultats sont répertoriés dans le tableau suivant :

1. Donner une estimation de la hauteur moyenne des arbres, ainsi qu’une estimation de la
variance de cette hauteur.
2. Calculer un intervalle de confiance à 95% de cette hauteur.
Exercice 6.3 On suppose que des notes d’examen (sur 100), suivent une loi normale de moyenne
théorique m et d’écart-type σ = 15. Un échantillon de taille n = 25 est observé, on trouve x = 69, 2
Déterminer un intervalle de confiance pour m avec un coefficient de sécurité 90%.
Exercice 6.4 Lors d’un sondage auprès de 500 personnes et portant sur leurs opinions politiques,
180 personnes se sont déclarées favorables au parti A.
Estimer la proportion p des gens favorables au parti A au moyen d’un intervalle de confiance de
niveau 90%.
Exercice 6.5 Dans le cadre d’une étude sur la santé au travail, on a interrogé au hasard 500
salariés de différents secteurs et de différentes régions de la Côte d’Ivoire. 145 d’entre eux déclarent
avoir déjà subi un harcèlement moral au travail.

1. Donner une estimation ponctuelle de la proportion de salariés ayant déjà subi un harcèle-
ment moral au travail.
2. Donner une estimation de cette proportion par un intervalle de confiance à 90%.
3. Si avec les mêmes données on calculait un intervalle de confiance à 95%, serait-il plus grand
ou plus petit que celui trouvé à la question précédente ? (justifier sans calcul).
Exercice 6.6 Une entreprise fabrique des sacs en plastique pour les enseignes de distribution.
Elle s’intéresse au poids maximal que ces sacs peuvent supporter sans se déchirer.
On suppose ici que le poids maximal que ces sacs peuvent supporter suit une loi normale d’espé-
rance mathématique m et d’écart-type 3 kg.
Sur 200 sacs reçus, une grande enseigne de distribution constate un poids moyen de 57, 7 kg.
Donner un intervalle de confiance bilatéral de la moyenne des poids sur un échantillon de taille
200, au seuil 1%.
Exercice 6.7 Afin de mieux gérer les demandes de crédits de ses clients, un directeur d’agence
bancaire réalise une étude relative à la durée de traitement des dossiers, supposée suivre une
distribution normale.
Un échantillon de 30 dossiers a donné :
6.4. EXERCICES 39

1. Calculer la moyenne et l’écart-type des durées de traitement des dossiers de cet échantillon.
2. En déduire les estimations ponctuelles de la moyenne m et de l’écart-type σ de la population
des dossiers.
3. Donner une estimation de m par intervalle de confiance au seuil de risque 5%.
Exercice 6.8 Dans un centre avicole, des études antérieures ont montré que la masse d’un œuf
choisi au hasard peut être considérée comme la réalisation d’une variable aléatoire normale X,
de moyenne m et de variance σ 2 . On admet que les masses des œufs sont indépendant les unes
des autres. On prend un échantillon de n = 36 œufs que l’on pèse. Les mesures sont données (par
ordre croissant) dans le tableau suivant :

50, 34 52, 62 53, 79 54, 99 55, 82 57, 67


51, 41 53, 13 53, 89 55, 04 55, 91 57, 99
51, 51 53, 28 54, 63 55, 12 55, 95 58, 10
52, 07 53, 30 54, 76 55, 24 57, 05 59, 30
52, 22 53, 32 54, 78 55, 28 57, 18 60, 58
52, 38 53, 39 54, 93 55, 56 57, 31 63, 15

a) Calculer la moyenne empirique et l’écart-type empirique de cette série statistique.


b) Donner une estimation des paramètres m et σ .
c) Donner un intervalle de confiance au niveau 95%, puis 98%, de la masse moyenne m d’un
œuf.
d) Tester à un niveau de confiance 95% si la moyenne de cette variable est égale à 56.
Exercice 6.9 On suppose que le poids d’un nouveau né est une variable normale d’écart-type
égal à 0, 5 kg. Le poids moyen des 49 enfants nés au mois de janvier 2004 dans l’hôpital de
Charleville-Mézières a été de 3, 6 kg.
a) Déterminer un intervalle de confiance à 95% pour le poids moyen d’un nouveau né dans
cet hôpital.
b) Quel serait le niveau de confiance d’un intervalle de longueur 0, 1 kg centré en 3, 6 pour ce
poids moyen ?
Exercice 6.10 Un appareil de télécommunications reçoit un signal stocké à chaque (petite) unité
de temps dans une suite de variables (Xn ) . Cet appareil doit détecter un signal effectif, en le
différenciant d’un bruit. On suppose que le bruit est une suite de variables indépendantes de
loi normale de moyenne nulle et de variance 1. Pour un signal, la moyenne n’est pas nulle.
Aujourd’hui on a observé une suite de 40 variables (x1 , . . . , x40 ), supposées indépendantes, de
variance 1. La moyenne empirique vaut 0,6 . S’agit-il de bruit ? Construire un test pour répondre
à cette question.
Exercice 6.11 On utilise une nouvelle variété de pommes de terre dans une exploitation agricole.
Le rendement de l’ancienne variété était de 41.5 tonnes à l’ha. La nouvelle est cultivée sur 100
ha, avec un rendement moyen de 45 tonnes à l’ha et un écart-type de 11.25. Faut-il, au vu de ce
rendement, favoriser la culture de la nouvelle variété ?
6.4. EXERCICES 40

Exercice 6.12 On se propose de tester la qualité d ?un lot important de pièces mécaniques. Soit
X une caractéristique aléatoire de ces pièces dont la loi de probabilité est une loi normale de
moyenne 21.32 et d’écart-type σ = 4. À la suite d’erreurs survenant lors de la fabrication de ces
pièces, on ignore si m égale 20 ou si m égale 22. On doit néanmoins prendre une décision. Pour
cela on prélève dans un lot un échantillon aléatoire de 25 pièces. Quelle décision doit-on prendre ?

Vous aimerez peut-être aussi