Définition de l'inférence statistique
Définition de l'inférence statistique
Inférence Statistique
Licence 2
A imprimer
Dr Ténan YEO
[Link]@[Link]
Table des matières
2 Introduction 10
2.1 But de la statistique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2 Les méthodes statistiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.3 Exemples introductifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3.1 Exemple 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3.2 Exemple 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3.3 Exemple 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.4 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3 Estimation statistique 14
3.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.2 Qualité d’un estimateur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.2.1 Estimateur sans biais (ou centré) . . . . . . . . . . . . . . . . . . . . . 15
3.2.2 Estimateur asymptotiquement sans biais . . . . . . . . . . . . . . . . . 16
3.2.3 Estimateur convergent (en probabilité) . . . . . . . . . . . . . . . . . . 16
3.2.4 Estimateur préférable . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.3 Information de Fisher . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.4 Inégalité de Fisher-Cramer-Damois-Rao . . . . . . . . . . . . . . . . . . . . . 18
4 Estimation ponctuelle
Méthode du Maximum de Vraisemblance 19
4.1 Fonction de vraisemblance pour un paramètre θ . . . . . . . . . . . . . . . . . 19
4.2 Méthode du Maximum de Vraisemblance . . . . . . . . . . . . . . . . . . . . . 20
4.2.1 Condition nécessaire et suffisante de maximisation de L . . . . . . 20
4.2.2 Propriétés de l’estimateur du Maximum de vraisembance . . . . . 20
4.3 Quelques exemples d’E.M.V. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2
TABLE DES MATIÈRES 3
6 Tests statistiques 30
6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
6.1.1 Exemples introductifs . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
6.1.2 Problématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
6.1.3 Étude d’un cas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
6.2 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
6.3 Quelques exemples de problème de tests statistiques . . . . . . . . . . . . . . 32
6.3.1 Test d’une moyenne d’une loi de normale : X N (m, σ ) . . . . . . . . 32
6.3.2 Test d’une proportion (n > 30) . . . . . . . . . . . . . . . . . . . . . . . 36
6.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
Chapitre 1
de probabilité est ( )
1 x−m 2
1
fX (x) = √ exp − , x ∈ R.
σ 2π 2 σ
et que Γ(x + 1) = xΓ(x), de telle façon que pour tout entier naturel n, Γ(n + 1) = n!
Proposition 1.2 Si X χ 2 (n), alors E(X) = n et Var(X) = 2n.
4
1.1. CONVERGENCES ET THÉORÈMES LIMITES 5
On considère une suite de variables aléatoires réelles (Xn )n≥1 définies sur le même espace
probabilisé (Ω, A , P). On note FXn la fonction de répartition de Xn et FX celle de X.
Définition 1.6 (convergence en loi)
L
On dit que (Xn ) converge en loi vers X et on note Xn −→ X si pour toute fonction continue et
bornée, nous avons E (g (Xn )) −→ E(g(X)).
Propriété 1.2 Si la suite (Xn )n≥0 converge en probabilité vers X alors elle converge en loi vers
X.
Remarque 1.1 La réciproque de la Proposition 1.2 n’est pas toujours vraie. Cependant si X = a
où a est une constante, alors il y a équivalence entre les deux modes de convergence
P L
Xn −→ a ⇐⇒ Xn −→ a.
n→+∞ n→+∞
Soit (Xn )n∈N une suite suite de variables aléatoires. Quel est le comportement asymptotique
de g (Xn ) où g est une fonction continue ? Nous introduisons des outils pour étudier le com-
portement de g (Xn ) .
Théorème 1.3 Soit g est une fonction continue. Alors
P P
• Xn −→ X =⇒ g (Xn ) −→ g(X)
L L
• Xn −→ X =⇒ g (Xn ) −→ g(X).
• la loi forte des grands nombres qui énonce la convergence de la moyenne empirique
d’une suite de variables aléatoires indépendantes, identiquement distribuées et inté-
grables ;
• le théorème central limite qui indique à quelle vitesse cette convergence a lieu sous
l’hypothèse supplémentaire que les variables sont de carré intégrables.
Théorème 1.5 (Loi des grands nombres)
Soient X1 , . . . , Xn i.i.d. telles que E (X1 ) = µ < +∞. Alors
P
X n −→ µ, quand n → +∞.
Ce qu’il y a de remarquable dans la loi des grand nombres, c’est que ce résultat s’applique
quelle que soit la loi des variables aléatoires Xn . Ce résultat signifie que lorsque n devient
grand, la moyenne empirique X n se réduit "presque" à la moyenne théorique m.
Théorème 1.6 (Théorème Central limite)
Soient X1 , . . . , Xn i.i.d. telles que E (X1 ) = µ < +∞ et σ 2 = Var (X1 ) 6= 0. Alors, nous avons
√ Xn − µ L
n −→ N (0, 1).
σ
L σ
• Formellement, nous pouvons écrire X n ' µ + √ Y où Y N (0, 1).
n
L
σ2
• On déduit alors que X n ' N µ, n , pour n suffisamment grand.
En pratique, l’approximation est fréquemment réalisée dès que n ≥ 30.
L’on peut généraliser ces résultats. Quelle condition doit vérifier une fonction g pour que
g (Xn ) converge en loi vers g(X) dès que Xn converge en loi vers X ?
Si √ L
n (Yn − y) −→ N 0, σy2 ,
n→+∞
√
quel est la loi asymptotique de la variable aléatoire n (g (Yn ) − g(y)) ? C’est à dire,
√ L
n (g (Yn ) − g(y)) −→ ?
n→+∞
1 n
où Y n = ∑ Yi , converge en probabilité vers la variance σ 2 .
n i=1
Pour cela, calculons les deux premiers moments de Sn2 . On admet le résultat suivant :
(n − 1) 2
S χ 2 (n − 1) ∀n ∈ N.
σ2 n
On sait que si X χ 2 (v) alors E(X) = v et Var(X) = 2v. Dès lors, on obtient :
(n − 1) 2
E S = n−1
σ2 n
(n − 1) 2
Var S = 2(n − 1).
σ2 n
On en déduit que :
(n − 1) 2 (n − 1) 2
2
2
E S = E S = n − 1 ⇐⇒ E S n =σ
σ2 n σ2 n
(n − 1)2 2σ 4
(n − 1) 2 2
2
Var S = Var S = 2(n − 1) ⇐⇒ Var S = .
σ2 n σ4 n n
n−1
Par conséquent :
E Sn2 = σ 2
2σ 4
2
lim Var Sn = lim =0
n→∞ n→∞ n − 1
Sn2 −→ σ 2 .
P
Exercice 1.2 On considère n variables X1 , . . . , Xn i.i.d. telles que E (Xi ) = αβ et Var (Xi ) = αβ 2 ,
avec α > 0, β > 0. Quelle est alors la distribution asymptotique de la variable βbn définie par :
1 n
βbn = ∑ Xi
αn i=1
Pour répondre à cette question, remarquons tout d’abord que cette variable s’exprime en fonction
de la moyenne empirique X̄n des variables Xi :
Xn
βbn =
α
1.1. CONVERGENCES ET THÉORÈMES LIMITES 9
Sachant que les variables X1 , . . . , Xn sont i.i.d., on peut appliquer le théorème central limite
(Lindeberg-Levy) pour obtenir la distribution asymptotique de X n . On obtient immédiatement
que :
√ L
n X n − αβ −→ N 0, αβ 2
On définit alors une fonction g(x) = x/α. Cette fonction est continue et ne dépend pas de n. Par
définition de la variable βbn , on a :
Xn
βbn = = g Xn
α
En utilisant la méthode delta, il vient :
√ L 2
n g X n − g(αβ ) −→ N 0 , g0 (αβ ) αβ 2 .
On a
1
g0 (x) = .
α
Donc
1
g0 (αβ ) = .
α
On en déduit que :
√ b αβ 2
L
n(βn − β ) −→ N 0, 2 .
α
On obtient au final la distribution de βbn :
√ b β2
L
n(βn − β ) −→ N 0, .
α
Chapitre 2
Introduction
10
2.3. EXEMPLES INTRODUCTIFS 11
• Régression linéaire
⇒ cela permet de dégager les caractéristiques essentielles du phénomène étudié et de
suggérer des hypothèses pour une étude ultérieure plus poussée. Les probabilités
n’ont ici qu’un rôle mineur.
2) la Statistique inférentielle : elle a pour but de faire des prévisions et de prendre des
décisions au vu des observations par :
• Estimation paramétrique
• Intervalles de confiance
• Tests d’hypothèse
⇒ Il est donc nécessaire de définir des modèles probabilistes du phénomène aléatoire
et savoir gérer les risques d’erreurs.
Le problème statistique est d’estimer la proportion inconnue θ à partir des observations, c’est à
dire à partir des xi (réalisations des variables aléatoires Xi ).
2.3.2 Exemple 2
On souhaite savoir si une pièce de monnaie est équilibrée ou non. La pièce est dite équilibrée
si, quand on la lance, la probabilité d’avoir ‘pile’ est égale à la probabilité d’avoir ‘face’. Si on
1
note θ la probabilité d’avoir ‘pile’, la pièce est équilibrée si θ = .
2
Pour répondre à la question posée on lance n = 10 fois la pièce. Le résultat de cette expérience
aléatoire est : PPPFFPFPFP (P=pile et F=face). Peut-on conclure sur la base de ce résultat
que la pièce est équilibrée ?
2.3.3 Exemple 3
Une entreprise E fabrique et commercialise des ampoules électriques de 100 Watts. Sur l’em-
ballage de ces ampoules l’entreprise E a porté la mention : durée d’utilisation T = 1000 heures.
Un organisme de défense du consommateur se propose de ‘valider’ la mention portée par
ce constructeur sur ces emballages. Il souhaite de plus pouvoir décider si la durée de vie
2.4. GÉNÉRALITÉS 12
(moyenne) d’une ampoule de 100 Watts fabriquée par l’entreprise E est supérieure ou égale
T. Pour ce faire, il teste un grand nombre n d’ampoules fabriquées par cette entreprise, et
note xi la durée de vie observée de l’ampoule No i. La durée de vie d’une ampoule électrique
étant ‘par nature’ une grandeur imprévisible - au sens où la valeur de xi ne peut, avant de
l’avoir observée, être prédite avec certitude - il est commode de la modéliser par une variable
aléatoire X. La loi de probabilité généralement retenue pour X est la loi exponentielle. Rappe-
lons qu’une variable aléatoire réelle X suit une loi exponentielle de paramètre θ si sa densité
est :
1 x
f (x) = exp − 1[0,+∞[ (x).
θ θ
On peut aisément vérifier que le paramètre θ de la loi exponentielle est égal à la durée de vie
moyenne d’une ampoule ; autrement dit, E(X) = θ .
Le problème statistique consiste : premièrement, à estimer le paramètre inconnu θ à par-
tir des observations, c’est à dire à partir des xi (réalisations des variables aléatoires Xi ) ; et
deuxièmement, à décider si θ > T, ou si, à l’inverse θ ≤ T.
Ces trois exemples ont en commun de faire reposer la réponse au problème statistique consi-
déré, soit sur une expérience aléatoire (cf exemples 1 et 2), soit une modélisation aléatoire de
la grandeur étudiée (cf exemple 3). Ils ont également en commun de baser l’inférence sur le
paramètre θ (qu’il s’agisse d’estimer θ ou de tester une valeur particulière de θ ) sur n observa-
tions x1 , · · · , xi , · · · , xn où xi désigne la réalisation d’une variable aléatoire réelle Xi (dont la loi de
probabilité est paramétrée par θ ).
2.4 Généralités
Afin de préciser l’objet et la place de la Statistique inférentielle (au sein de la Statisque en gé-
néral) en il convient de rappeler que le travail du Statisticien s’inscrit traditionnellement dans
l’une des trois phases suivantes : production de données, exploration des données, et modéli-
sation (aléatoire) des données. La production de données inclut en particulier l’organisation
de la collecte des données (conception de plans de sondage, par exemple). L’exploration des
données repose essentiellement sur les méthodes de la Statistique descriptive et de l’Analyse
des données. La modélisation comporte classiquement plusieurs étapes :
a) au sein d’un ensemble de modèles probabilistes susceptibles d’avoir généré les observa-
tions, sélectionner l’un d’entre eux (cette étape étant réalisée à l’aide d’une procédure
statistique de choix de modèles).
b valider le modèle retenu.
c) estimer les paramètres du modèle retenu et éventuellement proposer des procédures de
tests portant sur les paramètres du modèle.
Cette présentation présuppose qu’un modèle paramétrique a été retenu, mais d’autres alterna-
tives existent. Dans ce cours on abordera essentiellement les questions relatives à la dernière
étape de cette procédure. La Statistique inférentielle (appelée encore Statistique mathéma-
tique ou Statistique inductive) consiste en un ensemble de concepts, de méthodes et d’outils
élaborés en vue de réaliser chacune des étapes a) b) et c). Les outils mathématiques utili-
sés en Statistique inférentielle ou Statistique inductive font largement appel à la Théorie des
2.4. GÉNÉRALITÉS 13
Probabilités, du simple fait que les observations sont considérées comme des réalisations de
variables aléatoires.
Chapitre 3
Estimation statistique
3.1 Définitions
Soit une population décrite par une variable aléatoire X, dont la loi de probabilité Pθ dépend
d’un ou plusieurs paramètres θ .
Définition 3.1 On appelle modèle aléatoire le couple (Ω, Pθ ) , où Ω est l’ensemble des valeurs
de X et Pθ la loi de probabilité de X.
Exemple 3.1
a) X ∈ {0, 1, 2, · · · , n} et Pθ = B(n, p) avec θ = p.
b) X = N et Pθ = P(λ ) avec λ = θ .
c) X = [0, a] et Pθ = U[0,a] avec θ = a.
d) X = R et Pθ = N (m, σ 2 ) avec θ ∈ {m, σ 2 , (m, σ 2 )}.
L’estimation statistique a pour objet la détermination de la valeur du paramètre θ .
Définition 3.2 Soit Θ l’ensemble des valeurs de θ . L’estimation est dite :
1. ponctuelle si Θ est réduit à une constante : Θ = {θ0 } ;
2. ensembliste sinon. En particulier, si Θ est un ensemble I de R, l’estimation est dite par
par intervalle de confiance pour le paramètre θ .
Définition 3.3 (Notion de Statistique)
Soit (X, Pθ ) un modèle aléatoire et soit Y un espace donné. On appelle Statistique toute applica-
tion T telle que
T : (X, Pθ ) −→ Y
(X1 , X2 , X3 , . . . , Xn ) 7−→ T (X1 , X2 , X3 , . . . , Xn ) = Tn
14
3.2. QUALITÉ D’UN ESTIMATEUR 15
n
1
• Tn = ∑ Xi = X n (moyenne empirique) ;
n i=1
n
1
• Tn = ∑ Xi − X 2 = S2n (variance empirique) ;
n i=1
1 n 2 2
• Tn = ∑ Xi − X n = S0 n (quasi-variance empirique) ;
n − 1 i=1
• Tn = Sup (Xi ) ;
1≤i≤n
• Tn = Inf (Xi ).
1≤i≤n
• On appelle estimation de θ toute valeur prise par un estimateur T pour une réalisation
(x1 , x2 , · · · , xn ) de l’échantillon (X1 , X2 , X3 , . . . , Xn ).
1 n 1 n 2 1 n
x = ∑ xi ; s2n = ∑ (xi − x)2 ; s0 n = ∑ (xi − x)2 sont des estimations.
n i=1 n i=1 n − 1 i=1
2) Soit (X1 , · · · , Xn ) un n-échantillon issu d’une loi N (m, σ 2 ), avec m connu. On considère
2 1 n 2
l’estimateur Tn = S0 n = ∑ Xi − X n de θ = σ 2 . Montrer que Tn est un estimateur
n − 1 i=1
sans biais de σ 2 .
lim E(Tn ) = θ .
n→+∞
Exemple 3.4
1 n 2 n−1 2
Tn = Sn2 = ∑ Xi − X et θ = σ 2 . On a E(Tn ) = σ 6= θ ; mais lim E(Tn ) = σ 2 = θ .
n i=1 n n→+∞
Une condition suffisante de convergence est que l’estimateur soit sans biais et que sa variance
tende vers zéro lorsque la taille de l’échantillon tend vers l’infini.
E(Tn ) = θ
P
⇒ Tn −→ θ .
V (Tn ) −→ 0
n→∞
Définition 3.9 On appelle information de Fisher pour le paramètre θ , le réel I(θ ) défini par :
" 2 #
∂
I(θ ) = E log f (X, θ ) .
∂θ
Théorème 3.1 On a
∂2
I(θ ) = −E log f (X, θ ) .
∂θ2
L’intérêt de cette proposition est que cette expression de I(θ ) est plus facile à manipuler que
celle de la définition.
Exemple 3.6
• On considère l’échantillon (X1 , · · · , Xn ) extrait d’une loi de Bernoulli.
On sait que la densité d’une loi de Bernoulli de paramètre θ est : f (X, θ ) = θ X (1 − θ )1−X ,
x ∈ {0, 1}. D’où
log f (X, θ ) = X log(θ ) + (1 − X) log(1 − θ )
∂ 2 log f (X, θ ) X 1−X
2
=− 2− .
∂θ θ (1 − θ )2
Ainsi
∂2
1
I(θ ) = −E 2
log f (X, θ ) = .
∂θ θ (1 − θ )
Soit In (θ ) l’information de Fisher de (X1 , · · · , Xn ), on a donc
n
In (θ ) = .
θ (1 − θ )
(X − θ )2
1
log f (X, θ ) = log √ −
2πσ 2σ 2
∂ log f (X, θ ) 1
2
=− 2
∂θ σ
3.4. INÉGALITÉ DE FISHER-CRAMER-DAMOIS-RAO 18
Ainsi
∂2
1
I(θ ) = −E 2
log f (X, θ ) = 2 .
∂θ σ
Soit In (θ ) l’information de Fisher de (X1 , · · · , Xn ), on a donc
n
In (θ ) = 2 .
σ
Propriété 3.1
1) I(θ ) ≥ 0 ;
2) (X1 , X2 ) indépendants ⇒ I(X1 ,X2 ) (θ ) = IX1 (θ ) + IX2 (θ ) ;
3) (X1 , X2 , · · · , Xn ) étant un échantillon aléatoire indépendant, on a par généralisation de la
propriété 2) ci-dessus :
I(X1 ,X2 ,··· ,Xn ) (θ ) = In (θ ) = nIn (θ ).
n 2σ 4 2σ 4
In (σ 2 ) = ; Var(Sn2 ) = 6= .
2σ 4 n−1 n
1 n
Donc Sn2 = ∑ (Xi − X n )2 n’est pas un estimateur efficace.
n − 1 i=1
Chapitre 4
Estimation ponctuelle
Méthode du Maximum de Vraisemblance
θ ∈ Θ 7−→ L (X1 , X2 , . . . , Xn ; θ )
Si l’échantillon est indépendant, L est le produit des densités de probabilité des Xi , i.e.
n
∏ P (Xi = xi) si X est discrète
i=1
L (x1 , x2 , , . . . , xn ; θ ) = n
n
∏ f (xi , θ ) si X est continue .
i=1
Exemple 4.1
1) Pθ = N (m, σ ); θ =σ
" #
1 n xi − m 2
n
1
L (x1 , x2 , . . . , xn ; θ ) = √ exp − ∑ .
σ 2π 2 i=1 σ
2) Pθ = P(λ ); θ =λ
n
∑ xi
e−nλ λ i=1
L (x1 , x2 , . . . , xn ; θ ) = n .
∏ xi!
i=1
19
4.2. MÉTHODE DU MAXIMUM DE VRAISEMBLANCE 20
∂2
Remarque 4.1 L’information de Fisher est égale à −E (log L) .
∂θ2
∂ ∂
L=0 ⇔ (log L) = 0. (4.1)
∂θ ∂θ
n
∂
∑ log f (xi , θ ) = 0 (équation de vraisemblance).
i=1 ∂θ
∂2 ∂2
L≤0 ⇔ (log L) ≤ 0. (4.2)
∂σ2 ∂θ2
n
!
n
!
∂
∑ xi
log L = −nλ + ∑ xi log λ − log ∏ xi! et (log L) = −n + i=1 =0
i=1 i=1 ∂λ λ
n
∑ Xi n
i=1
⇒ λ̂n = n = X̄n ⇔ ∑ Xi = nλ̂n .
i=1
∂2
∑ Xi n
i=1
(log L) =− =− ≤ 0.
∂λ2 λ =λ̂n λ2 λ =λ̂n λ̂n
Exemple 4.4 Estimation du paramètre p d’une loi Binomiale : X B(n, p).
X ∈ {0, 1, 2, · · · , · · · , n} ; P(X = x) = Cnx px (1 − p)n−x .
n n
n
!
∑ xi ∑ (n − xi)
On a L= ∏ Cnx pi=1 (1 − p)i=1
i=1
!
n n n
⇒ log L = ∑ logCnx + ∑ Xi log p + ∑ (n − xi) log(1 − p)
i=1 i=1 i=1
n n
∂
∑ xi ∑ (n − xi) Xn
i=1 i=1
⇒ (log L) = − = 0 ⇒ p̂n =
∂p p 1− p n
et
∂2 n2
(log L) =− < 0.
∂ p2 p= p̂n p̂n (1 − p̂n )
Exemple 4.5 Estimation de la moyenne d’une loi de Laplace-Gauss : X N (m, σ 2 ) et σ
connu. On a " #
1 n xi − m 2
n
1
L= √ exp − ∑ .
σ 2π 2 i=1 σ
n
∂ 1 xi − m
(log L) = ∑ = 0 ⇒ m̂n = X n ;
∂m i=1 σ σ
4.3. QUELQUES EXEMPLES D’E.M.V. 22
∂2 n
2
(log L) = − 2 ≤ 0.
∂m m=m̂ σ
On vérifie aisément les propriétés suivantes de l’estimateur m̂n = X n obtenu :
E(X n ) = m : m̂n est sans biais.
σ2
V (X n ) = √ −→ 0 : m̂n est un estimateur convergent.
n n→+∞
2
∂ n 1
In (m) = −E 2
(log L) = 2 = : m̂n est un estimateur efficace.
∂m σ V (X n )
n
∑ (xi − m)2
√ n 1
⇒ log L = −n log( 2π) − log θ − i=1
2 2 θ
n n
∂ n
∑ (xi − m)2 ∑ (xi − m)2
⇒ (log L) = − + i=1 = 0 ⇒ θ̂ = i=1
∂θ 2θ 2θ 2 n
et
∂2 n
(log I) =− ≤ 0.
∂ θ̂ 2 θ =θ̂ 2θ̂ 2
Exemple 4.7 Soit (X1 , · · · , Xn ) un échantillon de taille n issu d’une loi exponentielle. Déterminer
l’EMV associé à cet échantillon.
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
4.3. QUELQUES EXEMPLES D’E.M.V. 23
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
Chapitre 5
5.1 Introduction
L’estimation ponctuelle consiste à déterminer un estimateur T d’un paramètre θ et de prendre
pour estimation la valeur (ou la réalisation) θ0 de T sur un échantillon donné. Si l’échantillon
est de faible taille, l’estimation θ0 retenue peut être assez éloignée de la vraie valeur de θ .
Il apparaît, dès lors, préférable de déterminer un intervalle, qui a une probabilité au moins
égale à un niveau fixé, pour contenir la vraie valeur du paramètre.
L’estimation par intervalle de confiance consiste donc à déterminer un tel intervalle pour θ .
C’est-à-dire, qu’étant donné un réel α ∈ [0, 1], on cherche à déterminer l’intervalle I ⊂ R tel
que :
P (θ ∈ I) ≥ 1 − α.
24
5.3. ESTIMATION DE LA MOYENNE M D’UNE LOI NORMALE : X N (M, σ ) ET θ = M 25
P (m ∈ [a, b]) = P (a ≤ m ≤ b) = 1 − α.
∑ Xi
On fait appel à la moyenne empirique X n = qui est un bon estimateur de m :
n
σ2
E(X) = m et V (X n ) = .
n
Xn − a Xn − b
⇒ σ = u1−α/2 et σ = −u1−α/2
√ √
n n
où u1−α/2 désigne le quantile d’ordre 1 − α/2 donné par les tables de la loi N (0, 1) ;
a = X n − u1−α/2 . √σn
⇒
b = Xn + u σ
1−α/2 . √n .
Plus généralement, soit I = [a, b], et soit la variable aléatoire X. On considère la moyenne
Xn − m p
empirique X n . La variable U = ; où m = E(X) et σX n = V (X n ), est appelée fonction
σX n
pivotale de m. La forme générale de l’intervalle de confiance pour m est :
h i
I = X n − u1−α/2 .σX n ; X n + u1−α/2 .σX n
5.4. ESTIMATION DE LA MOYENNE LORSQUE LA LOI DE X N’EST PAS LA LOI DE LAPLACE-GAUSS
Xn − m
• Si n ≤ 30 , la fonction pivotale de m est la variable T = S0 n
qui suit une loi de Student
√
n
T(n − 1). Et on a :
P (a ≤ m ≤ b) = P (−t ≤ T ≤ t) = 1 − α ; où t = t1−α/2 .
S0 n S0 n
⇒ a = X n − t1−α/2 . √ et b = X n + t1−α/2 . √
n n
et donc h S0 n S0 n i
I = X n − t1−α/2 . √ , X n + t1−α/2 . √ .
n n
• Et si n > 30 , la loi T(n − 1) converge vers la loi N (0, 1) ; et les valeurs de t sont données
par la table de la loi normale centrée réduite ;
h S0 n S0 n i
I = X n − u1−α/2 . √ , X n + u1−α/2 . √ .
n n
Exemple 5.1 : Soit un échantillon de taille n = 100 où on observe une variance de 1600. On
cherche à déteminer un intervalle de confiance pour l’écart type à un niveau de confiance de 95%.
On a 1 − α = 0, 95 u1−α/2 = 1, 96 Sn2 = 1600 ; d’où
h 40 40 i
σ ∈ 40 − 1, 96 √ ; 40 + 1, 96 √ = 34, 5 ; 45, 5 .
2 × 100 2 × 100
s
σ12 σ22
si σ1 et σ2 sont connus
+
n1 n2
σX n −X n2 = s
1
s21 s22
+ si les écart-types sont inconnus.
n1 n2
1 n1 (1) 1 n2 (2)
f1 = ∑ Xi ; f2 = ∑ Xi .
n1 i=1 n2 i=1
σ12
5.7.3 Intervalle de confiance pour le rapport de deux variances :
σ22
S12 /σ12
F(n1 − 1, n2 − 1) et l’intervalle de confiance est alors :
S22 /σ22
h 1 s2 1 s2 i
1 1
I= ; où F1 et F2 sont définies par les égalités suivantes :
F2 s22 F1 s22
P F(n1 − 1, n2 − 1) < F2 = 1 − α/2 et P F(n1 − 1, n2 − 1) < F1 = α/2.
F1 est le quantile d’ordre α/2 d’une loi de Fisher à (n1 − 1 , n2 − 1) degrés de liberté, et F2 le
quantile d’ordre 1 − α/2 d’une loi de Fisher à (n1 − 1 , n2 − 1) degrés de liberté.
Exemple 5.3 : n1 = 16 ; s21 = 25 ; n2 = 10 ; s22 = 20 et 1 − α = 0, 90. On a
S12 /σ12 1 1
F(15 ; 9) et F2 = F0,95 (15, 9) = 3, 006; F1 = F0,05 (15, 9) = = = 0, 33.
S22 /σ22 F0,95 (15, 9) 3, 006
Tests statistiques
6.1 Introduction
6.1.1 Exemples introductifs
Exemple 6.1 Dans une population, 60% des malades atteints d’une maladie M, survivent plus
de 6 ans. Un laboratoire produit un médicament qu’il expérimente sur 40 patients choisis au
hasard. Et après 6 ans, 26 de ces derniers sont encore vivants.
On veut savoir, à un niveau de signification de 10%, si ce nouveau médicament est plus efficace
que le précédent.
Exemple 6.2 Un échantillon aléatoire de 100 professeurs du secondaire public montre que ceux-
ci reçoivent un salaire moyen de 250 000 F CFA avec un écart-type de 50 000 F CFA ; alors que
100 professeurs du secondaire privé, choisis au hasard, perçoivent un salaire moyen de 210 000
F CFA, avec un écart-type de 30 000 F CFA.
On veut vérifier, au niveau de signification de 1%, si le salaire moyen des professeurs du public
est supérieur de 50 000 F CFA à celui des professeurs du privé.
Exemple 6.3 On veut vérifier si une pièce de monnaie est régulière en la lançant 100 fois de
suite. On obtient 47 fois pile. On doit décider si on accepte, à un niveau de signification de 1%,
qu’elle est régulière ou non.
6.1.2 Problématique
Soit (X, Pθ ) un modèle statistique et Θ l’ensemble des valeurs de θ . Un test statistique consiste
à choisir, au vu des résultats fournis par un échantillon, entre des hypothèses relatives au
paramètre θ .
30
6.2. DÉFINITIONS 31
6.2 Définitions
Définition 6.1 Étant donné un problème de test statistique, on distingue deux types d’hypo-
thèses :
• l’hypothèse simple : elle est de la forme Hi : θ = θi
• l’hypothèse composite ou (multiple) : elle est de la forme Hi : {θ < θi } ou {θ > θi }
ou {θ 6= θi }.
Définition 6.2 Une règle de décision est une application δ définie de la façon suivante :
δ : (X1 , · · · , Xn ) −→ D = {D0 , D1 }
x = (x1 , · · · , xn ) 7−→ Di ∈ D.
Définition 6.3 Lors d’un test statistique, deux types d’erreurs sont possibles dans la prise de
décision :
• l’erreur de première espèce : elle consiste à refuser l’hypothèse H0 , et donc prendre la
décision D1 alors que cette hypothèse est vraie. On définit alors le risque de première
espèce noté α et défini par :
α = P (D1 /H0 )
• l’erreur de seconde espèce : elle consiste à accepter l’hypothèse H0 , c’est-à-dire prendre
la décision D0 alors que cette hypothèse est fausse. Elle est caractérisée par le risque de
deuxième espèce (ou risque de l’acheteur), c’est-à-dire le réel noté β suivant :
β = P (D0 /H1 ) .
Définition 6.4 On appelle matrice des risques la matrice définie par les risques α et β de la
façon suivante :
6.3. QUELQUES EXEMPLES DE PROBLÈME DE TESTS STATISTIQUES 32
HH Di
HH
D1 D0
Hi HH
H0 α 1−α
H1 1−β = η β
Définition 6.5 La puissance d’un test est la probabilité η de rejeter H0 (de prendre la décion
D1 ) sachant qu’elle est fausse (H1 est vraie).
Définition 6.6 La région critique d’un test est le domaine W défini par
W = {x = (x1 , · · · , xn ) : δ (x1 , · · · , xn ) = D1 } .
W = {x = (x1 , · · · , xn ) : δ (x1 , · · · , xn ) = D0 } .
On a
α = P (D1 /H0 ) = P (W /H0 ) .
1) m1 < m0
a) σ connu
Étant donné le risque 1 − α, on a :
6.3. QUELQUES EXEMPLES DE PROBLÈME DE TESTS STATISTIQUES 33
α = P (W | H0 )
= P X n ≤ A | m = m0
X n − m0 A − m0
= P √ ≤ √ | m = m0
σ/ n σ/ n
X n − m0 A − m0
= P √ ≤ √
σ/ n σ/ n
A − m0
= π √
σ/ n
A − m0 σ
⇒ √ = uα et A = m0 + uα √
σ/ n n
Règle de décision
L
si X n ≤ A alors on rejette H0 et donc m = m1
si X n > A alors on accepte H0 et donc m = m0
σ
où A = m0 + uα √
n
b) σ inconnu et n > 30
1 n
Dans ce cas on estime σ par la variance empirique s2 = ∑ (xi − x)2 .
n i=1
Mais comme
Xn − m
√ N (0 ; 1)
s/ n
alors
X n − m0 A − m0 A − m0
P √ ≤ √ =α ⇒ √ = uα
s/ n s/ n s/ n
s
⇒ A = m0 + uα √ .
n
c) σ inconnu et n ≤ 30
Xn − m
On sait que dans ce cas √ T (n − 1), loi de Student à n − 1 degrés de liberté.
s/ n
A − m0 A − m0 s
α = P T (n − 1) < √ ⇒ √ = tα (n − 1) et A = m0 + tα (n − 1) √ ,
s/ n s/ n n
où tα (n − 1) est le quantile d’ordre α d’une loi de Student à n − 1 degrés de liberté.
2) m1 > m0
6.3. QUELQUES EXEMPLES DE PROBLÈME DE TESTS STATISTIQUES 34
W = {X = (X1 , · · · , Xn ) | X n ≥ A}
(
si X n ≥ A alors on rejette H0 et donc m = m1
si X n < A alors on accepte H0 et donc m = m0
a) σ connu
X n − m0 A − m0
α = P (W | H0 ) = P X n ≥ A | m = m0 =P √ ≥ √
σ/ n σ/ n
A − m0 σ
⇒π √ = 1−α et A = m0 + u1−α √ ,
σ/ n n
u1−α étant le quantile d’ordre 1 − α d’une loi normale centrée réduite.
b) σ inconnu et n < 30
Xn − m
Dans ce cas √ T (n − 1). On trouve
s/ n
s
A = m0 + t1−α (n − 1) √ .
n
c) σ inconnu et n ≥ 30
Xn − m s
√ N (0 1) ⇒ A = m0 + u1−α √
s/ n n
Règle de décision
L
(
si X n ≥ A alors on rejette H0
si X n < A alors on accepte H0
6.3. QUELQUES EXEMPLES DE PROBLÈME DE TESTS STATISTIQUES 35
a) σ connu
σ
La valeur critique est A = m0 + u1−α √ et le risque de deuxième espèce est :
n
A−m
β = P X n < A | m > m0 = π √ = β (m).
σ/ n
b) σ inconnu et n < 30
Xn − m 2 1 n
√ T (n − 1) avec s0 = ∑ (xi − xn)2,
s0 / n n − 1 i=1
s0
A = m0 + t1−α √ .
n
Règle de décision
L
(
si X n ≤ A alors on rejette H0
si X n > A alors on accepte H0
σ A−m
avec A = m0 + uα √ et β = P X n > A | m = m0 = 1 − π √ .
n σ/ n
courbe d’efficacité
A−m
η = 1 − β (m) = π √ .
σ/ n
Exercice 6.1 Déterminer la constante A pour le test (3) dans les cas :
1) cas σ inconnu et n < 30
2) cas σ inconnu et n ≥ 30
Ce test dit bilatéral équivaut à deux tests unilatéraux de type (2) et (3).
W1 = {X = (X1 , · · · , Xn ) : X n ≤ A} et W2 = {X = (X1 , · · · , Xn ) : X n ≥ B}
On prend P X n ≤ A | m = m0 et P X n ≥ B | m = m0 .
σ σ
A = m0 + uα/2 √ et B = m0 + u1−α/2 √ .
n n
Règle de décision
L
(
si X n ∈ ]A, B[ alors on accepte H0
si X n ∈
/ ]A, B[ alors on rejette H0 ,
où
σ σ
A = m0 + uα/2 √ et B = m0 + u1−α/2 √ .
n n
...................................
(
H0 : p = p0
(1)
H1 : p < p0
Règle de décision
L
6.3. QUELQUES EXEMPLES DE PROBLÈME DE TESTS STATISTIQUES 37
si fn ≤ A alors on rejette H0
si fn > A alors on accepte H0
r
où A = p0 + uα p0 (1 − p0 )
n
...................................
(
H0 : p = p0
(2)
H1 : p > p0
Règle de décision
L
si fn ≥ A alors on rejette H0
si fn < A alors on accepte H0
r
où A = p0 + u1−α p0 (1 − p0 )
n
...................................
(
H0 : p = p0
(3)
H1 : p 6= p0
Règle de décision
L
(
si fn ∈ ]A, B[ alors on accepte H0
si fn ∈
/ ]A, B[ alors on rejette H0
r r
p0 (1 − p0 ) p0 (1 − p0 )
avec A = p0 + uα/2 et B = p0 + u1−α/2 .
n n
6.4. EXERCICES 38
6.4 Exercices
Exercice 6.2 On réalise des mesures de hauteurs d’arbres dans une forêt sur un échantillon de
12 arbres. On suppose que ces hauteurs sont distribuées selon une loi normale de moyenne et de
variance inconnues. Les résultats sont répertoriés dans le tableau suivant :
1. Donner une estimation de la hauteur moyenne des arbres, ainsi qu’une estimation de la
variance de cette hauteur.
2. Calculer un intervalle de confiance à 95% de cette hauteur.
Exercice 6.3 On suppose que des notes d’examen (sur 100), suivent une loi normale de moyenne
théorique m et d’écart-type σ = 15. Un échantillon de taille n = 25 est observé, on trouve x = 69, 2
Déterminer un intervalle de confiance pour m avec un coefficient de sécurité 90%.
Exercice 6.4 Lors d’un sondage auprès de 500 personnes et portant sur leurs opinions politiques,
180 personnes se sont déclarées favorables au parti A.
Estimer la proportion p des gens favorables au parti A au moyen d’un intervalle de confiance de
niveau 90%.
Exercice 6.5 Dans le cadre d’une étude sur la santé au travail, on a interrogé au hasard 500
salariés de différents secteurs et de différentes régions de la Côte d’Ivoire. 145 d’entre eux déclarent
avoir déjà subi un harcèlement moral au travail.
1. Donner une estimation ponctuelle de la proportion de salariés ayant déjà subi un harcèle-
ment moral au travail.
2. Donner une estimation de cette proportion par un intervalle de confiance à 90%.
3. Si avec les mêmes données on calculait un intervalle de confiance à 95%, serait-il plus grand
ou plus petit que celui trouvé à la question précédente ? (justifier sans calcul).
Exercice 6.6 Une entreprise fabrique des sacs en plastique pour les enseignes de distribution.
Elle s’intéresse au poids maximal que ces sacs peuvent supporter sans se déchirer.
On suppose ici que le poids maximal que ces sacs peuvent supporter suit une loi normale d’espé-
rance mathématique m et d’écart-type 3 kg.
Sur 200 sacs reçus, une grande enseigne de distribution constate un poids moyen de 57, 7 kg.
Donner un intervalle de confiance bilatéral de la moyenne des poids sur un échantillon de taille
200, au seuil 1%.
Exercice 6.7 Afin de mieux gérer les demandes de crédits de ses clients, un directeur d’agence
bancaire réalise une étude relative à la durée de traitement des dossiers, supposée suivre une
distribution normale.
Un échantillon de 30 dossiers a donné :
6.4. EXERCICES 39
1. Calculer la moyenne et l’écart-type des durées de traitement des dossiers de cet échantillon.
2. En déduire les estimations ponctuelles de la moyenne m et de l’écart-type σ de la population
des dossiers.
3. Donner une estimation de m par intervalle de confiance au seuil de risque 5%.
Exercice 6.8 Dans un centre avicole, des études antérieures ont montré que la masse d’un œuf
choisi au hasard peut être considérée comme la réalisation d’une variable aléatoire normale X,
de moyenne m et de variance σ 2 . On admet que les masses des œufs sont indépendant les unes
des autres. On prend un échantillon de n = 36 œufs que l’on pèse. Les mesures sont données (par
ordre croissant) dans le tableau suivant :
Exercice 6.12 On se propose de tester la qualité d ?un lot important de pièces mécaniques. Soit
X une caractéristique aléatoire de ces pièces dont la loi de probabilité est une loi normale de
moyenne 21.32 et d’écart-type σ = 4. À la suite d’erreurs survenant lors de la fabrication de ces
pièces, on ignore si m égale 20 ou si m égale 22. On doit néanmoins prendre une décision. Pour
cela on prélève dans un lot un échantillon aléatoire de 25 pièces. Quelle décision doit-on prendre ?