TD2 : Estimation paramétrique
ponctuelle & Distribution d’échantillonnage
Module : Techniques d’estimation pour l’ingénieur
Exercice N°2
Énoncé:
On considère n variables aléatoires réelles X1 , X2 , . . . , Xn , indépendantes
et identiquement distribuées, ayant pour fonction de densité:
(
λ − θx
θ 2 xe si x ∈]0, +∞[
fθ (x) =
0 sinon
(θ est un paramètre réel > 0).
1.a. Déterminer la valeur de λ pour laquelle fθ est bien une fonction de
densité.
1.b. Calculer E (X ) et Var (X ).
2.a En déduire un estimateur T1 du paramétre θ par la méthode des
moments.
2.b. L’estimateur T1 est-il sans biais ?
.
1
Exercice N°2
3. Soient n ∈ N, (x1 , x2 , . . . , xn ) , une n-observation de l’échantillon
(X1 , X2 , . . . , Xn ).
3.a. Déterminer la fonction de vraisemblance L(x1 , x2 , . . . , xn , θ).
3.b. Montrer que la log-vraisemblance associée à l’observation
(x1 , x2 , . . . , xn ) s’écrit :
n n
X 1X
ln L(x1 , x2 , . . . , xn , θ) = −2n ln(θ) + ln(xi ) − xi
i=1
θ i=1
1. 4.a. Déterminer l’estimateur T2 de maximum de vraisemblance de θ.
4.b. L’estimateur T2 est-il convergent ?
2
Exercice N°2
Solution
1.a. f est une densité de probabilité ssi:
(
fθ (x) ≥ 0 ⇔ λ ≥ 0
R
f (x).dx = 1
R θ
Z +∞ Z +∞
λ −x
fθ (x)dx = xe θ dx = 1
−∞ 0 θ2
on pose : u=x u0 = 1
0 − θx x
v =e v = −θe − θ
Appliquons la formule d’intégration par parties, on en déduit que
Z +∞ λ Z +∞
λ − θx+∞
x
fθ (x)dx = −xθe
+ 2θ e − θ dx
θ2 0
−∞ θ 0
λ − θx +∞
= −θe 0
= λ = 1 → λ = 1. 3
θ
Exercice N°2
1.b.
Z +∞ Z +∞
1 x
E (X ) = x.fθ (x)dx = x 2 e − θ dx
−∞ θ2 0
on pose
u = x2 u 0 = 2x
x x
v 0 = e− θ v = −θe − θ
Appliquons la formule d’intégration par parties, on en déduit que
Z +∞
1 2 −x
E (X ) = x e θ dx
0 θ2
Z +∞
1 2 x
−
+∞
1 −x
= −θx e θ + 2θ xe θ dx.
θ2 0 θ2
0
R +∞ 1 − θx
Comme 0 θ 2 xe dx =1
E (X ) = 2θ. 4
Exercice N°2
1.b. Comme Var (X ) = E (X 2 ) − E (X )2
Z +∞ Z +∞
1 x
E (X 2 ) = x 2 fθ (x)dx = x 3 e − θ dx
−∞ θ2 0
on pose
u = x3 u 0 = 3x 2
x x
v 0 = e− θ v = −θe − θ
Appliquons la formule de l’intégration par parties, on en déduit que
Z +∞
1 3 −x
E (X 2 ) = x e θ dx
0 θ2
Z +∞
1 3 x
−
+∞
1 2 −x
= −θx
e θ + 3θ x e θ dx.
θ2 0 θ2
0
R +∞ 1 2 − x
Comme 0 θ2 x e
θ dx = 2θ
5
Exercice N°2
E (X 2 ) = 6θ2
On a donc,
Var (X ) = E (X 2 ) − E (X )2 = 6θ2 − 4θ2 = 2θ2
2.a
1. E (X1 ) = 2θ = ϕ (θ), avec:
(
ϕ(θ) = 2θ
ϕ−1 (θ) = θ2
Et par la suite l’estimateur de θ par la méthode des moments est
n
1 X
T1 = ϕ−1 (X̄n ) = Xi .
2n
i=1
6
Exercice N°2
2.b. Calculons l’espérance de T1 :
n
1 X
E (T1 ) = E [ Xi ]
2n
i=1
1
= .n.E (X ) (les Xi sont iid et de m̂ loi que X )
2n
(2θ)
= =θ
2
Donc T1 est un estimateur sans biais de θ
7
Exercice N°2
3. Soient n ∈ N, x1 , x2 , . . . , xn ,une n-observation de l’échantillon
X1 , X2 , . . . , Xn
a.
n
Y
L(x1 , x2 , . . . , xn , θ) = fθ (xi )
i=1
n
Y 1 xi
= 2
xi e − θ
θ
i=1
n
1 Y − 1 Pni=1 xi
= xi e θ .
θ2n
i=1
8
Exercice N°2
b.
ln L(x1 , x2 , . . . , xn , θ) = ln(L(x1 , x2 , . . . , xn , θ))
n n
X 1X
= −2n ln θ + ln(xi ) − xi
θ
i=1 i=1
4.a. Déterminons l’estimateur du maximum de vraisemblance de θ:
n
∂ 2n 1 X
(ln L(x1 , x2 , . . . , xn , θ)) = − + 2 xi
∂θ θ θ
i=1
" n
#
∂ 1 1X
(ln L(x1 , x2 , . . . , xn , θ) = 0 ⇔ −2n + xi
∂θ θ θ
i=1
n
1X
⇔ −2n + xi = 0
θ
i=1
n n
1X 1 X
⇔ xi = 2n ⇔ θ = xi
θ 2n
i=1 i=1
9
Exercice N°2
Donc un estimateur par la méthode de vraisemblance est donnée par :
n
1 X
T2 = xi
2n
i=1
On vérifie de plus que :
∂2
(ln L(x1 , x2 , . . . , xn , θ))θ=T2 ≤ 0
∂θ2
En effet
n
∂2 2n 2 X
(ln L(x1 , x2 , . . . , xn , θ)) = 2 − 3 xi
∂θ2 θ θ
i=1
n
2n 2 X
( 2 − 3 xi )θ= 2n1 Pni=1 xi
θ θ
i=1
on obtient 2
1
−2n 2n Pn ≤0
i=1 xi
10
Exercice N°2
4.b.
1 θ2
Var (T2 ) = Var (X1 ) = −→ 0 quand n → +∞
4n 2n
donc T2 est convergent.
11