0% ont trouvé ce document utile (0 vote)
62 vues3 pages

Corrigé S1 2020

Le document présente une série d'exercices sur les probabilités et les statistiques, incluant des calculs de maximum de vraisemblance et des propriétés des estimateurs. Il aborde également des concepts tels que la convergence en moyenne quadratique et l'efficacité des estimateurs. Les résultats sont illustrés par des intégrales et des dérivées, démontrant les relations entre les variables aléatoires et leurs distributions.

Transféré par

Sofiane SH
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Thèmes abordés

  • estimation de corrélation,
  • estimation de moments de varia…,
  • estimation de moments de corré…,
  • échantillon,
  • estimation de moments de proba…,
  • estimation de fonction de répa…,
  • paramètres,
  • fonction de répartition,
  • estimation de moments conditio…,
  • estimation
0% ont trouvé ce document utile (0 vote)
62 vues3 pages

Corrigé S1 2020

Le document présente une série d'exercices sur les probabilités et les statistiques, incluant des calculs de maximum de vraisemblance et des propriétés des estimateurs. Il aborde également des concepts tels que la convergence en moyenne quadratique et l'efficacité des estimateurs. Les résultats sont illustrés par des intégrales et des dérivées, démontrant les relations entre les variables aléatoires et leurs distributions.

Transféré par

Sofiane SH
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Thèmes abordés

  • estimation de corrélation,
  • estimation de moments de varia…,
  • estimation de moments de corré…,
  • échantillon,
  • estimation de moments de proba…,
  • estimation de fonction de répa…,
  • paramètres,
  • fonction de répartition,
  • estimation de moments conditio…,
  • estimation

Université de Sousse A.

U : 2020/2021
ISSAT Sousse 1er année ING

Correction Série 1
P ROBABILIT É ET ST AT IST IQU ES

Exercice 1.
n
\ n
\
1) {mn ≥ y} = {Xi ≥ y} et {Mn < z} = {Xi < z}
i=1 i=1
n
\
2) G(y) = P {mn < y} = 1 − P { {(Xi ≥ y)} = 1 − [1 − F (y)]n et g(y) = n[1 − F (y)]n−1 f (y)
i=1
n
Y
H(z) = P {Mn < z} = P {Xi < z} = F n (z) et h(z) = nF n−1 (z)f (z).
i=1
Exercice 2.
n
X n
X
On a L(x1 , x2 , . . . , xn ; θ) = θn exp(−θ xi ) =⇒ ln(L) = nln(θ) − θ xi ,
i=1 i=1
n
∂ln(L) n X ∂ 2 ln(L) n
or = − xi , = − 2 < 0.
∂θ θ ∂θ2 θ
i=1
L’estimateur du maximum de vraisemblance est donc
n 1
Tn = n =
X Xn
Xi
i=1
n Z +∞
X 1
La v.a. Sn = Xi , suit une loi γ(n; θ) donc E(Tn ) = nE( S1n ) =n g(s)ds, où g est la
0 s
i=1
densité de SZn . Ainsi :
+∞ Z +∞
θn −θs n−2 n 1 n
E(Tn ) = n e s ds = θ θn−1 e−θs sn−2 = θ L’estima-
0 Γ(n) n − 1 Γ(n − 1) 0 n − 1
teur Tn est asymptotiquement sans biais.
Z +∞
1 1
E(Tn2 ) = n2 E( 2 ) = n2 2
g(s)ds
Sn 0 s

n2
V (Tn ) = E(Tn2 ) − E 2 (Tn ) = θ2 −→ 0 n −→ ∞
(n − 1)2 (n − 2)
donc Tn est convergent.
Exercice 3. Z +∞
1)Pour que f soit une densité, il faut que f (x; θ)dx = 1, soit ici :
−∞
Z +∞
A θ +∞
dx = A[− ] = Aθ
1 x 1+ θ1 x1/θ 1
Donc A = 1/θ.
2)
1 1
L(x1 . . . , xn ; θ) = n
θn Y 1+1/θ
xi
i=1
n
1 X
ln(L) = −nln(θ) − (1 + ) ln(xi )
θ
i=1
n n
∂ln(L) n 1 X ∂ 2 ln(L) n 2 X
=− + 2 ln(xi ), = − ln(xi )
∂θ θ θ ∂θ2 θ2 θ3
i=1 i=1

La dérivée seconde est négative au point qui annule la dérivée première. L’estimateur du
maximum de vraisemblance est donc :
n
1X
Tn = ln(Xi )
n
i=1
Z +∞ Z +∞ Z +∞
ln(x) −1/θ
E(Tn ) = E(ln(X)) = ln(x)f (x; θ)dx = 1+1/θ
dx = [−x +∞
ln(x)]1 + x−1−1/θ dx =
1 1 θx 1
[−θx−1/θ ]1+∞ = θ. donc Tn est sans biais.
Z +∞ Z +∞
ln2 (x) −1/θ 2 +∞ ln(x)
2
E(ln (X)) = 1+1/θ
dx = [−x ln x]1 + 2θ 1+1/θ
dx = 2θE(ln(X)) = 2θ2 .
1 θx 1 θx
d’où :
2
V (Tn ) = n1 V (ln(X)) = n1 (2θ2 − θ2 ) = θn −→ 0 quand n −→ ∞.
donc Tn est aussi convergent.
2 ln(L)
3) In (θ) = E(− ∂ ∂θ 2 ) = − θn2 + θ23 nE(lnX) = − θn2 + 2 θn2 = θn2 , donc V (Tn ) = 1/In (θ) et Tn
est efficace.

Exercice 5.
1) 
0 si x ≤ 0
x
Z 
2x x

F (x; θ) = f (t; θ) (1 − ) si 0 ≤ x ≤ θ
−∞  θ
 2θ
1 si θ ≤ x
2)
2 θ x2
Z
θ
E(X) = (x − )dx =
θ 0 θ 3
Z θ
2 x3 θ2 θ2
E(X 2 ) = (x2 − )dx = V (X) =
θ 0 θ 6 18
3) On a E(X) = θ/3 donc θ = 3E(X) parsuite Tn = 3X n . Cet estimateur est sans biais par
V (X) θ2
construction. On a aussi V (Tn ) = 9V (X n ) = 9 = −→ 0 quand n −→ ∞.
n 2n
donc Tn est convergent en moyenne quadratique.
Yn
4) G(x) = P {Mn ≤ x} = P {Xi ≤ x} = F n (x) et g(x) = nF n−1 (x)f (x), soit
i=1
g(x) = n(2/θ)n xn−1 (1 − x/2θ)n−1 (1 − x/θ) pour 0 ≤ x ≤ θ et g(x) = 0 sinon.
Z θ Z θ Z θ
5) En intégrant par parties : E(Mn ) = tg(t)dt = [tG(t)]θ0 − G(t)dt = θ − G(t)dt
Z θ Z θ 0 Z 1 0 0
t t
avec G(t)dt = − ( )n (2 − )n dt = θ (1 − u)n (1 + u)n du = θIn . Ayant fait le chan-
0 0 θ θ 0
gement de variable u = 1 − t/θ. Ainsi E(Mn ) = θ(1 − In ). Comme In −→ 0. E(Mn ) −→ θ
donc l’estimateur Mn est asymptotiquement sans biais.

2
Z θ Z θ Z θ
2 2
6)E(Mn2 ) = t g(t)dt = [t −2 G(t)]θ0
tG(t)dt = θ − 2 tG(t)dt 2

Z θ 0 Z θ 0 Z 1 0 Z 1
t n+1 t n 2 n+1 n 2
avec tG(t)dt = θ ( ) (2 − ) dt = θ (1 − u) (1 + u) du = θ (1 − u)n (1 +
0 0 Z θ θ 0 0
1
n 2 2 n
u) (1 − u)du = θ [In − u(1 − u ) du].
0
Ayant fait le changement u = 1 − t/θ. Or en faisant le changement v = 1 − u2 :
Z 1 Z 1
2 n 1 1
u(1 − u ) du = v n dv =
0 2 0 2(n + 1)
d’où :
θ2 1
E(Mn2 ) = θ2 − 2θ2 In + V (Mn ) = θ2 ( − In2 )
n+1 n+1
7) E(Mn − θ) −→ 0 et V (Mn ) −→ 0 donc Mn converge en moyenne quadratique vers θ.
8) L’estimateur Mn étant biaisé, la comparaison doit se faire avec le critère de l’erreur qua-
dratique :
θ2
EQ(Tn ) = V (Tn ) =
2n
θ2
EQ(Mn ) = E(Mn − θ)2 = [E(Mn ) − θ]2 + V (Mn ) =
n+1
EQ(Mn )
Ainsi −→ 2 et Tn et préférable à Mn .
EQ(Tn )

Vous aimerez peut-être aussi