Master Ingénierie mathématique, Univ.
Nantes
Option Mathématiques et applications, ECN
Statistique Inférentielle.
Anne Philippe
Université de Nantes, LMJL
Fiche 5. Efficacité
Exercice 1.
Soit X1 , · · · , Xn des variables aléatoires indépendantes et identiquement distribuées.
On suppose que φ la transformée de Laplace de X1 est finie, c’est à dire, pour tout t ∈ R,
φ(t) = E(e−tX1 ) < +∞.
1) Quelle est la transformée de Laplace de la loi qui admet pour fonction de répartition
Fn . On la note φ̂n
2) Montrer que, pour tout t ∈ R, φ̂n (t) est un estimateur consistant (au sens de la conver-
gence presque sûre) de φ(t).
3) Montrer que pour tout t ∈ R, φ̂n (t) est un estimateur sans biais de φ(t)
4) Montrer que pour tout t ∈ R, φ̂n (t) est un estimateur de φ(t) convergent au sens L2 .
On suppose que X1 est à valeurs dans {−1, 1} et Pθ (X1 = 1) = θ ∈]0, 1[.
5) Montrer que {Pθ , θ ∈]0, 1[} est une famille exponentielle.
6) Calculer φθ la transformé de la Laplace de X1 .
7) Calculer θ̂n l’estimateur du MV de θ.
8) Montrer que l’estimateur du MV est efficace.
9) Pour t fixé, φ̂n (t) est il un estimateur efficace de φ(t) ? est il asymptotiquement efficace ?
Exercice 2.
On dispose d’un n-échantillon X1 , · · · , Xn d’une loi de Bernoulli de paramètre p ∈]0, 1[
inconnu. On veut montrer qu’il n’existe pas d’estimateur sans biais de p1 .
1) Calculer la loi conditionnelle de (X1 , ..., Xn ) sachant Sn = ni=1 Xi .
P
1
2 Anne PHILIPPE, Université de Nantes
2) Justifier que si h(X1 , ..., Xn ) est un estimateur de 1/p alors Ep (h(X1 , ..., Xn )|Sn ) est
aussi un estimateur de 1/p.
3) Montrer que si h(X1 , ..., Xn )) est un estimateur sans biais de 1/p alors Ep (h(X1 , ..., Xn )|Sn )
est aussi un estimateur sans biais de 1/p.
4) Montrer qu’il n’existe pas d’estimateur sans biais de 1/p de la forme g(Sn )
5) En déduire qu’il n’existe pas d’estimateur sans biais de 1/p
Exercice 3.
On considère un échantillon (X1 , · · · , Xn ) d’une loi gaussienne N (µ, σ 2 ). On estime σ 2
par la variance empirique modifiée
n
1 X
Sn2 = (Xj − X n )2 .
n − 1 j=1
1) Quel est son biais, son risque quadratique ?
2) Quel est parmi les estimateurs de la forme
n
X
c (Xj − X n )2
j=1
(où c > 0) celui qui minimise l’erreur quadratique ?
Exercice 4.
Montrer que les statistiques suivantes sont exhaustives et totales
— La somme pour le modèle de Poisson.
— max{X1 , . . . , Xn } pour un modèle uniforme sur [0, θ] .
Exercice 5.
On dispose d’un n-échantillon (X1 , · · · , Xn ) d’une loi de Poisson de paramètre λ > 0.
1) Montrer que X̄n est un estimateur efficace de λ
On désire estimer τ = e−kλ où k est un entier positif fixé.
2) Montrer que τ̂n = IX1 +...+Xk =0 est un estimateur sans biais de τ .
3) Cet estimateur est il efficace ?
n
X
4) Améliorez l’estimateur τ̂n en utilisant la statistique exhaustive Xj .
j=1
5) Peut on trouver un estimateur efficace de τ ?
Anne PHILIPPE, Université de Nantes 3
Exercice 6.
Soit (X1 , . . . , Xn ) une suite de longueur n, de variables aléatoires indépendantes et de
même loi de Bernoulli de paramètre p ∈]0, 1[.
1) Écrire la vraisemblance.
Pn
2) Montrer que la statistique Sn = i=1 Xi est exhaustive.
3) Montrer que la statistique Sn est totale.
4) Calculer l’estimateur du maximum de vraisemblance de p.
5) Cet estimateur peut il être amélioré à l’aide de la statistique exhaustive Sn ?
6) Est-il un estimateur efficace du paramètre p ?
7) Proposer un estimateur sans biais de pk où k est un entier connu.
8) En déduire un estimateur sans biais de variance minimale.