100% ont trouvé ce document utile (1 vote)
4K vues12 pages

Exercice N°2-Corr

Ce document présente un exercice sur l'estimation paramétrique ponctuelle et la distribution d'échantillonnage. L'exercice contient plusieurs questions sur la détermination d'estimateurs du paramètre θ d'une loi de probabilité par la méthode des moments et du maximum de vraisemblance.

Transféré par

PFE
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
100% ont trouvé ce document utile (1 vote)
4K vues12 pages

Exercice N°2-Corr

Ce document présente un exercice sur l'estimation paramétrique ponctuelle et la distribution d'échantillonnage. L'exercice contient plusieurs questions sur la détermination d'estimateurs du paramètre θ d'une loi de probabilité par la méthode des moments et du maximum de vraisemblance.

Transféré par

PFE
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

TD2 : Estimation paramétrique

ponctuelle & Distribution d’échantillonnage

Module : Techniques d’estimation pour l’ingénieur


Exercice N°2

Énoncé:
On considère n variables aléatoires réelles X1 , X2 , . . . , Xn , indépendantes
et identiquement distribuées, ayant pour fonction de densité:
(
λ − θx
θ 2 xe si x ∈]0, +∞[
fθ (x) =
0 sinon
(θ est un paramètre réel > 0).
1.a. Déterminer la valeur de λ pour laquelle fθ est bien une fonction de
densité.
1.b. Calculer E (X ) et Var (X ).

2.a En déduire un estimateur T1 du paramétre θ par la méthode des


moments.
2.b. L’estimateur T1 est-il sans biais ?
.
1
Exercice N°2

3. Soient n ∈ N, (x1 , x2 , . . . , xn ) , une n-observation de l’échantillon


(X1 , X2 , . . . , Xn ).
3.a. Déterminer la fonction de vraisemblance L(x1 , x2 , . . . , xn , θ).
3.b. Montrer que la log-vraisemblance associée à l’observation
(x1 , x2 , . . . , xn ) s’écrit :
n n
X 1X
ln L(x1 , x2 , . . . , xn , θ) = −2n ln(θ) + ln(xi ) − xi
i=1
θ i=1

1. 4.a. Déterminer l’estimateur T2 de maximum de vraisemblance de θ.


4.b. L’estimateur T2 est-il convergent ?

2
Exercice N°2

Solution
1.a. f est une densité de probabilité ssi:
(
fθ (x) ≥ 0 ⇔ λ ≥ 0
R
f (x).dx = 1
R θ

Z +∞ Z +∞
λ −x
fθ (x)dx = xe θ dx = 1
−∞ 0 θ2
on pose : u=x u0 = 1
0 − θx x
v =e v = −θe − θ
Appliquons la formule d’intégration par parties, on en déduit que

Z +∞  λ Z +∞
λ  − θx+∞
 x
fθ (x)dx = −xθe
  + 2θ e − θ dx
θ2 0

−∞  θ 0
λ − θx +∞

= −θe 0
= λ = 1 → λ = 1. 3
θ
Exercice N°2

1.b.
Z +∞ Z +∞
1 x
E (X ) = x.fθ (x)dx = x 2 e − θ dx
−∞ θ2 0
on pose
u = x2 u 0 = 2x

x x
v 0 = e− θ v = −θe − θ
Appliquons la formule d’intégration par parties, on en déduit que

Z +∞
1 2 −x
E (X ) = x e θ dx
0 θ2
Z +∞
1  2 x 
−
+∞
 1 −x
= −θx e θ + 2θ xe θ dx.
θ2 0 θ2

 0
R +∞ 1 − θx
Comme 0 θ 2 xe dx =1

E (X ) = 2θ. 4
Exercice N°2

1.b. Comme Var (X ) = E (X 2 ) − E (X )2


Z +∞ Z +∞
1 x
E (X 2 ) = x 2 fθ (x)dx = x 3 e − θ dx
−∞ θ2 0

on pose
u = x3 u 0 = 3x 2

x x
v 0 = e− θ v = −θe − θ

Appliquons la formule de l’intégration par parties, on en déduit que


Z +∞
1 3 −x
E (X 2 ) = x e θ dx
0 θ2
Z +∞
1  3 x 
−
+∞
 1 2 −x
= −θx
 e θ + 3θ x e θ dx.
θ2 0 θ2

 0
R +∞ 1 2 − x
Comme 0 θ2 x e
θ dx = 2θ

5
Exercice N°2

E (X 2 ) = 6θ2
On a donc,
Var (X ) = E (X 2 ) − E (X )2 = 6θ2 − 4θ2 = 2θ2

2.a
1. E (X1 ) = 2θ = ϕ (θ), avec:
(
ϕ(θ) = 2θ
ϕ−1 (θ) = θ2
Et par la suite l’estimateur de θ par la méthode des moments est
n
1 X
T1 = ϕ−1 (X̄n ) = Xi .
2n
i=1

6
Exercice N°2

2.b. Calculons l’espérance de T1 :


n
1 X
E (T1 ) = E [ Xi ]
2n
i=1
1
= .n.E (X ) (les Xi sont iid et de m̂ loi que X )
2n
(2θ)
= =θ
2
Donc T1 est un estimateur sans biais de θ

7
Exercice N°2

3. Soient n ∈ N, x1 , x2 , . . . , xn ,une n-observation de l’échantillon


X1 , X2 , . . . , Xn
a.
n
Y
L(x1 , x2 , . . . , xn , θ) = fθ (xi )
i=1
n
Y 1 xi
= 2
xi e − θ
θ
i=1
n
1 Y − 1 Pni=1 xi
= xi e θ .
θ2n
i=1

8
Exercice N°2

b.
ln L(x1 , x2 , . . . , xn , θ) = ln(L(x1 , x2 , . . . , xn , θ))
n n
X 1X
= −2n ln θ + ln(xi ) − xi
θ
i=1 i=1

4.a. Déterminons l’estimateur du maximum de vraisemblance de θ:


n
∂ 2n 1 X
(ln L(x1 , x2 , . . . , xn , θ)) = − + 2 xi
∂θ θ θ
i=1
" n
#
∂ 1 1X
(ln L(x1 , x2 , . . . , xn , θ) = 0 ⇔ −2n + xi
∂θ θ θ
i=1
n
1X
⇔ −2n + xi = 0
θ
i=1
n n
1X 1 X
⇔ xi = 2n ⇔ θ = xi
θ 2n
i=1 i=1
9
Exercice N°2

Donc un estimateur par la méthode de vraisemblance est donnée par :


n
1 X
T2 = xi
2n
i=1

On vérifie de plus que :


∂2
(ln L(x1 , x2 , . . . , xn , θ))θ=T2 ≤ 0
∂θ2
En effet
n
∂2 2n 2 X
(ln L(x1 , x2 , . . . , xn , θ)) = 2 − 3 xi
∂θ2 θ θ
i=1
n
2n 2 X
( 2 − 3 xi )θ= 2n1 Pni=1 xi
θ θ
i=1
on obtient  2
1
−2n 2n Pn ≤0
i=1 xi

10
Exercice N°2

4.b.
1 θ2
Var (T2 ) = Var (X1 ) = −→ 0 quand n → +∞
4n 2n
donc T2 est convergent.

11

Vous aimerez peut-être aussi