Estimation
1 Introduction
En statistique, un estimateur est une fonction permettant d'évaluer un para-
mètre inconnu relatif à une loi de probabilité (comme son espérance ou sa variance).
Il peut par exemple servir à estimer certaines caractéristiques d'une population to-
tale à partir de données obtenues sur un échantillon comme lors d'un sondage. La
dénition et l'utilisation de tels estimateurs constitue la statistique inférentielle.
Lorsque l'estimation renvoie une seule valeur, on parle d'estimation ponctuelle ; si-
non, la plage de valeurs de l'estimation par intervalle est nommée intervalle de
conance.
La qualité des estimateurs s'exprime par leur convergence, leur biais, leur eca-
cité et leur robustesse. Diverses méthodes permettent d'obtenir des estimateurs de
qualités diérentes.
Dénition 1.1. Un échantillon aléatoire ou n-échantillon est l'ensemble {X1 ; ...; Xn }
de n variables aléatoires indépendantes et identiquement distribuées (i.i.d.) de même
loi que X :
Dénition 1.2. On appelle statistique toute fonction du n-échantillon{X ; ...; X } :
1 n
T : Rn → R
(X1 ; ...; Xn ) → T (X1 ; ...; Xn )
Remarque 1.1. t = T (x ; ...; x ) est une réalisation de la variable aléatoire T :
1 n
Dénition 1.3. Soit X une variable aléatoire dont la loi dépend d'un paramètre
inconnu θ
- Un estimateur de θ sera la statistique
T = f (X1 ; ...; Xn ).
- On appelle erreur d'estimation :
T − θ = T − E(T ) + E(T ) − θ :
- On appelle biais d'un estimateur la quantité :
E(T ) − θ
- Un estimateur T de θ est dit sans biais si :
E(T ) = θ
- Un estimateur est dit asymptotiquement sans biais si :
lim E(T ) = θ
n→∞
- On appelle erreur quadratique moyenne la quantité :
E((T − θ)2 ) = V ar(T ) + (E(T ) − θ)
Dénition 1.4. Pour qu'un estimateur asymptotiquement sans biais soit convergent
il sut que
lim V ar(T ) = 0
n→∞
Notez bien
-Un estimateur est dit ecace s'il est convergent, sans biais et de variance minimale.
- Si deux estimateurs T1 et T2 d'un paramètre θ sont convergents et sans biais, on
choisira l'estimateur qui a la variance la plus petite.
2 Estimation ponctuelle
2.1 Estimation d'une moyenne
Soit X une variable aléatoire tel que E(X) = µ et V ar(X) = σ 2 , l'estimateur de
la moyenne X̄ est déni par :
n
1X
X̄ = µ̂ = Xi
n i=1
est un estimateur convergent et sans biais de µ.
Propriétés :
E(X̄) = E(X) = µ
V ar(X) σ2
V ar(X̄) = =
n n
2.2 Estimation d'une variance
1-Cas de E(X) = µ connu
L'estimateur convergent et sans biais de σ 2 est déni par la variable aléatoire T 2 ,
tel que :
n
2 1X
T = (Xi − µ)2
n x=i
Propriétés :
E(T 2 ) = σ 2
µ4 − σ 4
V ar(T 2 ) =
n
2-Cas de E(X) = µ inconnu
L'estimateur convergent et biaisé de σ 2 est déni par la variable aléatoire S 2 , tel
que :
n
1X
S2 = (Xi − X̄)2
n x=i
Propriétés :
n−1 2
E(S 2 ) = σ
n
n−1
V ar(S 2 ) = 3
((n − 1)µ4 − (n − 3)σ 4 )
n
L'estimateur convergent et corrigés (pour qu'il soit sans biais) de σ 2 est déni par
la variable aléatoire S 2 , tel que :
0
n
0 1 X n
S2= (Xi − X̄)2 = S2
n − 1 x=i n−1
Propriétés : 0
E(S 2 ) = σ 2
02 1 4 n−3 4
V ar(S ) = µ − σ
n n−1
2.3 Estimation d'une proportion
Soit p une proportion d'une certaine caractéristique dans une population qu' on
veut estimer. Soit K une variable aléatoire discrète distribuée selon une loi bino-
miale B(n; p). La fréquence observée dans un échantillon de taille n est le meilleur
estimateur de p :
K
F = p̂ = .
n
F est un estimateur convergent et sans biais
Remarque 2.1. L'estimation d'une proportion p est un cas particulier de l'estimateur
de la moyenne, au sens où les v.a.r. Xi considérées sont de Bernoulli de paramètre
p.
3 Estimation par intervalle de conance
3.1 Estimation de la moyenne
1.n≤30
• Cas variance connue :
σ σ
Ic1−α = x̄ − z √ , x̄ + z ∗ √
∗
n n
où z1−α
∗
= φ−1 (1 − α2 )(valeur inverse dans la table de la loi normale), Z ∼ N (0, 1).
Relation entre largeur de l'intervalle et niveau de conance :
Largeur de l'intervalle = L = 2l = 2 √σn z ∗ = 2 √σn φ−1 (1 − α2 ).
• Cas variance inconnue :
0 0
∗ s ∗ s
Ic1−α = x̄ − t √ , x̄ + t √
n n
où t est le quantile d'ordre 1 − 2 de la loi de Student à n-1 degrés de liberté :
α
P(T ≤ t∗ ) = 1 − α2 . 2.n≥30
1-σ 2 connu
∗ σ ∗ σ
Ic1−α = x̄ − z √ , x̄ + z √
n n
2-σ 2 inconnu
s0 s0
Ic1−α = x̄ − z √ , x̄ + z ∗ √
∗
n n
3.2 Estimation de la variance
• Cas moyenne connue :
" #
nt2 nt2
Ic1−α = 2
, 2
X1−α/2 Xα/2
1X
où t2 = (Xi − µ)2 est le meilleur estimateur de la variance σ 2 lorsque la
n i
moyenne µ est connu, et Xq2 est le quantile d'ordre q de la loi de Khi-deux à n degrés
de liberté.
• Cas moyenne inconnue :
" 0 0
#
(n − 1)s 2 (n − 1)s 2
Ic1−α = 2
, 2
X1−α/2 Xα/2
1 X
où s 2 = (Xi − X̄)2 est le meilleur estimateur de la variance σ 2 lorsque
0
n−1 i
la moyenne µ est inconnue, Xq2 est le quantile d'ordre q de la loi de Khi-deux à n-1
degrés de liberté.
3.3 Estimation d'une proportion
Soit p la proportion d'un certain caractère dans une population.
" r r #
∗ F (1 − F ) ∗ F (1 − F )
Ic1−α = F − z1− α , F + z1− α
2 n 2 n
ou F = p̂ = K
n
est la proportion observée sur un échantillon de taille n.
∗
z1− = φ (1 − α2 )(l'inverse de la table de la loi normale),
α
−1
2
Z → N (0, 1) , P(−z ∗ < Z < z ∗ ) = 1 − α.
Remarque 3.1. La largeur de l'intervalle de conance pour la proportion est donné
par : r
α p̂(1 − p̂)
L = 2φ−1 1−
2 n