0% ont trouvé ce document utile (0 vote)
70 vues14 pages

Série 2 - Solutions

Le document présente une série d'exercices corrigés sur la théorie de l'estimation ponctuelle dans le cadre d'un cours de statistique paramétrique et non paramétrique. Il aborde des concepts tels que les estimateurs sans biais, la convergence, et l'efficacité des estimateurs à travers divers exemples et solutions. Les solutions incluent des calculs de variance et des propriétés des estimateurs, ainsi que des discussions sur la maximisation de la vraisemblance.

Transféré par

riad.djaid92700
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
70 vues14 pages

Série 2 - Solutions

Le document présente une série d'exercices corrigés sur la théorie de l'estimation ponctuelle dans le cadre d'un cours de statistique paramétrique et non paramétrique. Il aborde des concepts tels que les estimateurs sans biais, la convergence, et l'efficacité des estimateurs à travers divers exemples et solutions. Les solutions incluent des calculs de variance et des propriétés des estimateurs, ainsi que des discussions sur la maximisation de la vraisemblance.

Transféré par

riad.djaid92700
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

1

USTHB, Faculté de Mathématiques 2023=2024


1ere année Master-MSPRO Statistique Paramétrique et Non Paramétrique

Série d’exercices No 2 Corrigé des exercices


Théorie de l’estimation ponctuelle

Solution 02:

Solution 03:
2

Solution 04:
3

Solution 05:

1.
4

2.

Solution 06:
5

Solution 07:

1.
6

2.

3.
7

Solution 08:

1. Comme E (X) = l’estimateur est obtenu par la méthode des moments comme solution de
2
l’équation X = ; soit Tn = 2X.
2
Propriétés de l’estimateur:
*Tn est sans biais car E (Tn ) = .
*Tn est convergent, on montre ça par la loi des grands nombres.
2
V ar (X)
*V ar (Tn ) = 4V ar X = 4 = ;
n 3n
Sauf qu’ici la question de l’e¢ cacité d’un estimateur ne se pose pas; car nous n’avons pas les
conditions de régularité de Fisher, puisque l’ensemble des valeurs possibles pour X étant
X ( ) = [0; ] qui dépend donc du paramètre à estimer.

2. La vraisemblance a pour expression :


n
si 0 min xi max xi
` (x1 ; :::; xn ; ) =
0 sinon
Ainsi, ` est nulle pour < max xi et ensuite est décroissante pour max xi , donc est maximum
pour = max xi , ce qui correspond à l’emv:
Mn = max fX1 ; :::; Xn g
Propriétés de l’estimateur:
Pour déterminer ces propriétés, nous devons déterminer sa loi de probabilité:
8
< nxn 1
n
P (Mn < x) = (FX (x)) ; la densité de Mn est g (x) = F (x) n 1
f (x) = n si 0 x
: 0 sinon
n R n
*Mn est biaisé car: E (Mn ) = n 0 xn dx = 6= .
n+1
n+1
Donc l’estimateur sans biais de est bn = Mn .
n
*bn est convergent, on montre ça par l’utilisation d’un certain théorème limite.
n R n 2
* Pour calculer sa variance, on calcule d’abord : E Mn2 = n 0 xn+1 dx = .
n+2
n 2
V ar (Mn ) =
(n + 1)2 (n + 2)
2
V ar bn =
n (n + 2)
Ce qui montre aussi que bn est convergent puisque limn !1 V ar bn = 0.

3. V ar bn V ar (Tn ) donc bn est de variance plus petite que Tn et comme le rapport


V ar bn 3
= ! 0 montre que bn est in…niment plus e¢ cace que Tn .
V ar (Tn ) n+2
8

Solution 09:

Solution 10:
9

Solution 11:

Solution 12:
10

Solution 13:

Solution 14:

1 Pn
1. (a) X = n i=1 Xi est un estimateur de E (X) par la méthode des moments. (1 pt)
(b) Propriétés de X:
Biais: X est un estimateur sans biais de E (X) car: E X = E (X). (0.5 pt)
Convergence: X est un estimateur convergent vers E (X) par la loi forte et faible des grands
nombres puisque X E (X). (0.5 pt)
P:S
proba
E¢ cacité: X est un estimateur e¢ cace de E (X) = car:
2
@
g( )
@ 1
V ar X = = bcr = = n = . (0.5 pt)
n nI ( ) n

P 2
(a) S 2 = n1 ni=1 Xi X est un estimateur biaisé pour V ar (X) = ,
puisque E S 2 = nn 1 V ar (X) 6= V ar (X). (1 pt)
P 2
(b) On a S 2 = n1 ni=1 Xi2 X . Donc par la loi forte des grands nombres:

n n
!2
1X 2 2 1X
Xi E X2 et X = Xi [E (X)]2
n P:S n P:S
i=1 i=1

Pn 2
D’où: S 2 = 1
n
2
i=1 Xi X E X2 [E (X)]2 = V ar (X) = . (1 pt)
P:S
(c) Ètant donné que:
Pn 2 Pn 2
E S 2 = nn 1 V ar (X) ) E n 1
n 1n i=1 Xi X =E 1
n 1 i=1 Xi X = V ar (X).
P 2
Alors: S 20 = n 1 1 ni=1 Xi X est un (ESB) pour V ar (X). (1 pt)
20
(d) Comme X et S sont deux estimateurs sans biais pour alors pour évaluer leurs précisions
il nous su¢ t de calculer leurs variances respectives. (0.5 pt)
11

0 1
V ar X = et V ar S 2 = n(n 1) (n 1) 4 + (3 n) 4 car:
n
n
1
V ar S 2 = (n 1) 4 + (3 n) 4
n3 !
n
(n 1)2 n 1X 2 n 1 4
) 2
V ar Xi X = (n 1) 4 + (3 n)
n n 1n n3
i=1
n
!
1 X 2 1 4
) V ar Xi X = (n 1) 4 + (3 n)
n 1 n (n 1)
i=1

4 = E (X E (X))4 = E (X )4 = E X 4 + 4X 3 + 6X 2 2
+ 4X 3
+ 4
.
= + 11 2
+ 24 3
+ 16 4
, et 4 = 2 2 = 2
.
4
0 1 2 3 4 2
V ar S2 = n(n 1) (n 1) + 11 + 24 + 16 + (3 n)
2
+ 24 3 + 16 4 (3 n) 2
+ 11
= + > (0.5 pt)
n n (n 1) n
0 0
V ar S 2 > V ar X ) X est un bien meilleur (plus précis) estimateur que S 2 . (0.5 pt)
0 0
(e) Non, S 2 n’est pas e¢ cace car: V ar S 2 6=> bcr = . (0.5 pt)
n
P
(a) Par la méthode
P des moments, on a: m3 = n1 ni=1 Xi3 = E X 3 .
) m3 = n1 ni=1 Xi3 est un estimateur naturel pour E X 3 . (1 pt)
(b) Propriétés de m3 :
nE X 3
Biais:m3 est un estimateur sans biais de E X 3 car: E (m3 ) = = E X 3 .(0.5 pt)
n
Convergence: m3 est un estimateur convergent vers E X 3 par la loi forte des grands
Pn
X3
nombres puisque i=1 i E X 3 . (0.5 pt)
n P:S
E¢ cacité: m3 n’est pas e¢ cace
Pn car: 3V ar (m3 ) 6= bcr. (0.25 pt)
nV ar X 3 V ar X3
i=1 Xi
En e¤et: V ar (m3 ) = V ar = = .
n n2 n
2
V ar X 3 = E X 6 E X3 = + 30 2 + 84 3 + 54 4 + 9 4 .
2 2
@ @
g( ) +3 2+ 3
@ @ + 12 2 + 42 3 + 36 4 + 9 4
bcr = = = .
nI ( ) nI ( ) n

Solution 15:

1. f (x; ) = a x ( +1) I[a;+1[ (x) = a I[a;+1[ (x) e ( +1) ln(x) de la forme d’une densité qui 2 la
famille des lois exponentielles:
f (x) = c ( ) h (x) e ( )a(x)
avec c ( ) = a ; h (x) = I[a;+1[ (x) et P( ) a (x) = ( + 1) ln (x).
Donc sa statistique exhaustive est ni=1 ln (Xi ).
a +1 a
2. on a f (x) = d’où: ln f (x; ) = ln + ( + 1) ln .
a x a x
P
n P
n a
ln L ( ; (x1 ; :::; xn )) = ln f (xi ; ) = ln + ( + 1) ln :
i=1 i=1 a xi
P
n
ln L ( ; (x1 ; :::; xn )) = n ln + ( + 1) ln(a) ln (xi )
a i=1
P
n
ln L ( ; (x1 ; :::; xn )) = n [ln ( ) + ln(a)] ( + 1) ln (xi )
i=1
12

Les conditions de la maximisation de la logvraisemblance sont données par:


@ n P n a
ln L ( ; (x1 ; :::; xn )) = + ln = 0:
@ i=1 xi
bemv = n
Pn xi
ln
i=1 a
@2
ln L ( ; (x1 ; :::; xn )) < 0
@ 2
n
3. bemv = n est un estimateur biaisé de Car: E bemv 6= .
P xi
ln
i=1 0 a 1 0 1 0 1
B n C B 1 C B C
En e¤et: E B C = n EB C = n EB 1 C
@P n xi A @P n xi A @P n A
ln ln Yi
i=1 a i=1 a i=1
P
n 1
avec Yi Exp ( ) ) Yi (n; ). D’où: E = si Z (n; ).
0 i=1 1 0 1Z n 1

B n C B 1 C
Ce qui donne E B C=n EB C= n
@P n xi A @ P
n A n 1 6= .
ln Yi
i=1 a i=1

P
n P
n
4. Oui, bemv = f ln (xi ) telle que ln (xi ) est une statistique exhuastive, de plus X 2
i=1 i=1
Pn P
n
famille des lois exponentielles et dim ln(xi ) = dim ( ) donc ln (xi ) est complète et
i=1 i=1
P
n P
n
puisque ln (xi ) est exhaustive et complète ) ln (xi ) est exhaustive minimale.
i=1 i=1

5. Pour pouvoir appliquer le Théorème de Lehmann-Sche¤é, on doit d’abord corriger notre


estimateur bemv en lui enlevant le biais.
b0 n 1 0
emv = P n est estimateur sans biais de car E bemv = .
xi
ln
i=1 a
0 n 1
D’après le Théorème de Lehmann-Sche¤é: Soit bemv = n un estimateur sans biais
P xi
ln
i=1 a
P
n 0 P
n
de et soit T (X) = ln (xi ) une statistique exhaustive et complète alors E bemv j ln (xi )
i=1 i=1
P
n P
n P
n
est l’ESBV U M de . Comme E f ln(xi) j ln (xi ) =f ln (xi ) donc:
0 1 i=1 i=1 i=1

B n 1 C n 1
EB
@ j ln (xi )C
A= P est l’ESBV U M de .
P
n xi n xi
ln ln
i=1 a i=1 a
@2 1 @2 1
6. Pour la bcr, nous calculons: ln f (x; ) = 2 . D’où: I ( ) = E ln f (x; ) = 2.
@ 2 @ 2
2 2
n ( @ ( ))
Donc In ( ) = 2 et la bcr = @In ( ) = .
n 0 1
B n C
Pour la varinace de l’EM V on V ar bemv = V ar B C = V ar n où Z (n; ).
@ P
n xi A Z
ln
i=1 a
13

1 n2
V ar bemv = n2 V ar = 2
. Lorsque n tend vers 1.
Z (n 1)2 (n 2)
2
lim V ar bemv = = bcr. Cela implique que bemv est asymptotiquement e¢ cace.
n !1 n
Solution 16:
1
1. (a) f (x; ) = (1 )x 1 x = ex ln(1 ) e(1 x) ln( ) = ex ln( )
de la forme d’une densité qui 2 la famille des lois exponentielles:
( )a(x)
f (x) = c ( ) h (x) e
avec c ( ) = ; h (x) = 1 et ( ) a (x) = ln 1 x. .
(b) on a :
Q
n Q
n
L ( ; (x1 ; :::; xn )) = f (xi ; ) = (1 )xi 1 xi
:
i=1 i=1
n x n x
L ( ; (x1 ; :::; xn )) = (1 ) i=1 i (n i=1 i )
n x n x
ln L ( ; (x1 ; :::; xn )) = ln (1 ) i=1 i (n i=1 i )
P
n P
n
ln L ( ; (x1 ; :::; xn )) = xi ln (1 )+ n xi ln ( )
i=1 i=1
(c) On peut réécrire notre fonction de vraisemblance de la manière suivante:
n
Y 1 n x ln( 1
L ( ; (x1 ; :::; xn )) = exi ln( )= n
e i=1 i )
i=1

Donc d’après le théorème de factorisation: L ( ; (x1 ; :::; xn )) = h (x) g ( ; T (x)),


P
n
on peut en déduire que: Xi est une statistique exhaustive, avec:
i=1
n 1
h (x) = 1 et g ( ; T (x)) = e i=1 xi ln( ) .
n

Pn
(d) Puisque T (X) = Xi est une statistique exhuastive, de plus X 2 famille des lois expo-
i=1
Pn P
n
nentielles et dim Xi = dim ( ) donc Xi est complète:
i=1 i=1
Pn
i=1 Xi
(a) b = 1 X=1 est un estimateur de par la méthode des moments.
n
On a d’une part E (X) = 1 et d’autre part X = E (X) = 1 lorsque n 1
) par la méthode des moments X = 1 ) b = 1 X.
(b) Propriétés de X:
Biais: 1 X est un estimateur sans biais de car: E 1 X = .
Convergence: X est un estimateur convergent vers E (X) par la loi forte et faible des grands
nombres puisque 1 X 1 E (X) = . (0.5 pt)
P:S,proba
E¢ cacité: X est un estimateur e¢ cace de car:
2
@
g( )
(1 ) @ 1 (1 )
V ar 1 X = = bcr = = n = .
n nI ( ) n
(1 )
(c) Les conditions de la maximisation de la logvraisemblance sont données par:
@ Pn
ln L ( ; (x1 ; :::; xn )) = n (1 ) i=1 xi = 0:
@ Pn
bemv = 1 i=1 xi
= 1 x:
2
n
@
ln L ( ; (x1 ; :::; xn )) < 0
@ 2
14

P 2
(a) S 2 = n1 ni=1 Xi X est un estimateur biaisé pour V ar (X) = (1 ),
n 1 2
puisque E S 2 = n V ar (X) 6= V ar (X) = .
(b) Ètant donné que:
Pn 2 Pn 2
E S 2 = nn 1 V ar (X) ) E n 1
n 1n i=1 Xi X =E 1
n 1 i=1 Xi X = V ar (X).
P 2
Alors: S 20 = n 1 1 ni=1 Xi X est un (ESB) pour V ar (X) = 2
.
2
0 0 (1 2 )
(c) Non, S 2 n’est pas e¢ cace car: V ar S 2 6=> bcr = .
n

Vous aimerez peut-être aussi