1
USTHB, Faculté de Mathématiques 2023=2024
1ere année Master-MSPRO Statistique Paramétrique et Non Paramétrique
Série d’exercices No 2 Corrigé des exercices
Théorie de l’estimation ponctuelle
Solution 02:
Solution 03:
2
Solution 04:
3
Solution 05:
1.
4
2.
Solution 06:
5
Solution 07:
1.
6
2.
3.
7
Solution 08:
1. Comme E (X) = l’estimateur est obtenu par la méthode des moments comme solution de
2
l’équation X = ; soit Tn = 2X.
2
Propriétés de l’estimateur:
*Tn est sans biais car E (Tn ) = .
*Tn est convergent, on montre ça par la loi des grands nombres.
2
V ar (X)
*V ar (Tn ) = 4V ar X = 4 = ;
n 3n
Sauf qu’ici la question de l’e¢ cacité d’un estimateur ne se pose pas; car nous n’avons pas les
conditions de régularité de Fisher, puisque l’ensemble des valeurs possibles pour X étant
X ( ) = [0; ] qui dépend donc du paramètre à estimer.
2. La vraisemblance a pour expression :
n
si 0 min xi max xi
` (x1 ; :::; xn ; ) =
0 sinon
Ainsi, ` est nulle pour < max xi et ensuite est décroissante pour max xi , donc est maximum
pour = max xi , ce qui correspond à l’emv:
Mn = max fX1 ; :::; Xn g
Propriétés de l’estimateur:
Pour déterminer ces propriétés, nous devons déterminer sa loi de probabilité:
8
< nxn 1
n
P (Mn < x) = (FX (x)) ; la densité de Mn est g (x) = F (x) n 1
f (x) = n si 0 x
: 0 sinon
n R n
*Mn est biaisé car: E (Mn ) = n 0 xn dx = 6= .
n+1
n+1
Donc l’estimateur sans biais de est bn = Mn .
n
*bn est convergent, on montre ça par l’utilisation d’un certain théorème limite.
n R n 2
* Pour calculer sa variance, on calcule d’abord : E Mn2 = n 0 xn+1 dx = .
n+2
n 2
V ar (Mn ) =
(n + 1)2 (n + 2)
2
V ar bn =
n (n + 2)
Ce qui montre aussi que bn est convergent puisque limn !1 V ar bn = 0.
3. V ar bn V ar (Tn ) donc bn est de variance plus petite que Tn et comme le rapport
V ar bn 3
= ! 0 montre que bn est in…niment plus e¢ cace que Tn .
V ar (Tn ) n+2
8
Solution 09:
Solution 10:
9
Solution 11:
Solution 12:
10
Solution 13:
Solution 14:
1 Pn
1. (a) X = n i=1 Xi est un estimateur de E (X) par la méthode des moments. (1 pt)
(b) Propriétés de X:
Biais: X est un estimateur sans biais de E (X) car: E X = E (X). (0.5 pt)
Convergence: X est un estimateur convergent vers E (X) par la loi forte et faible des grands
nombres puisque X E (X). (0.5 pt)
P:S
proba
E¢ cacité: X est un estimateur e¢ cace de E (X) = car:
2
@
g( )
@ 1
V ar X = = bcr = = n = . (0.5 pt)
n nI ( ) n
P 2
(a) S 2 = n1 ni=1 Xi X est un estimateur biaisé pour V ar (X) = ,
puisque E S 2 = nn 1 V ar (X) 6= V ar (X). (1 pt)
P 2
(b) On a S 2 = n1 ni=1 Xi2 X . Donc par la loi forte des grands nombres:
n n
!2
1X 2 2 1X
Xi E X2 et X = Xi [E (X)]2
n P:S n P:S
i=1 i=1
Pn 2
D’où: S 2 = 1
n
2
i=1 Xi X E X2 [E (X)]2 = V ar (X) = . (1 pt)
P:S
(c) Ètant donné que:
Pn 2 Pn 2
E S 2 = nn 1 V ar (X) ) E n 1
n 1n i=1 Xi X =E 1
n 1 i=1 Xi X = V ar (X).
P 2
Alors: S 20 = n 1 1 ni=1 Xi X est un (ESB) pour V ar (X). (1 pt)
20
(d) Comme X et S sont deux estimateurs sans biais pour alors pour évaluer leurs précisions
il nous su¢ t de calculer leurs variances respectives. (0.5 pt)
11
0 1
V ar X = et V ar S 2 = n(n 1) (n 1) 4 + (3 n) 4 car:
n
n
1
V ar S 2 = (n 1) 4 + (3 n) 4
n3 !
n
(n 1)2 n 1X 2 n 1 4
) 2
V ar Xi X = (n 1) 4 + (3 n)
n n 1n n3
i=1
n
!
1 X 2 1 4
) V ar Xi X = (n 1) 4 + (3 n)
n 1 n (n 1)
i=1
4 = E (X E (X))4 = E (X )4 = E X 4 + 4X 3 + 6X 2 2
+ 4X 3
+ 4
.
= + 11 2
+ 24 3
+ 16 4
, et 4 = 2 2 = 2
.
4
0 1 2 3 4 2
V ar S2 = n(n 1) (n 1) + 11 + 24 + 16 + (3 n)
2
+ 24 3 + 16 4 (3 n) 2
+ 11
= + > (0.5 pt)
n n (n 1) n
0 0
V ar S 2 > V ar X ) X est un bien meilleur (plus précis) estimateur que S 2 . (0.5 pt)
0 0
(e) Non, S 2 n’est pas e¢ cace car: V ar S 2 6=> bcr = . (0.5 pt)
n
P
(a) Par la méthode
P des moments, on a: m3 = n1 ni=1 Xi3 = E X 3 .
) m3 = n1 ni=1 Xi3 est un estimateur naturel pour E X 3 . (1 pt)
(b) Propriétés de m3 :
nE X 3
Biais:m3 est un estimateur sans biais de E X 3 car: E (m3 ) = = E X 3 .(0.5 pt)
n
Convergence: m3 est un estimateur convergent vers E X 3 par la loi forte des grands
Pn
X3
nombres puisque i=1 i E X 3 . (0.5 pt)
n P:S
E¢ cacité: m3 n’est pas e¢ cace
Pn car: 3V ar (m3 ) 6= bcr. (0.25 pt)
nV ar X 3 V ar X3
i=1 Xi
En e¤et: V ar (m3 ) = V ar = = .
n n2 n
2
V ar X 3 = E X 6 E X3 = + 30 2 + 84 3 + 54 4 + 9 4 .
2 2
@ @
g( ) +3 2+ 3
@ @ + 12 2 + 42 3 + 36 4 + 9 4
bcr = = = .
nI ( ) nI ( ) n
Solution 15:
1. f (x; ) = a x ( +1) I[a;+1[ (x) = a I[a;+1[ (x) e ( +1) ln(x) de la forme d’une densité qui 2 la
famille des lois exponentielles:
f (x) = c ( ) h (x) e ( )a(x)
avec c ( ) = a ; h (x) = I[a;+1[ (x) et P( ) a (x) = ( + 1) ln (x).
Donc sa statistique exhaustive est ni=1 ln (Xi ).
a +1 a
2. on a f (x) = d’où: ln f (x; ) = ln + ( + 1) ln .
a x a x
P
n P
n a
ln L ( ; (x1 ; :::; xn )) = ln f (xi ; ) = ln + ( + 1) ln :
i=1 i=1 a xi
P
n
ln L ( ; (x1 ; :::; xn )) = n ln + ( + 1) ln(a) ln (xi )
a i=1
P
n
ln L ( ; (x1 ; :::; xn )) = n [ln ( ) + ln(a)] ( + 1) ln (xi )
i=1
12
Les conditions de la maximisation de la logvraisemblance sont données par:
@ n P n a
ln L ( ; (x1 ; :::; xn )) = + ln = 0:
@ i=1 xi
bemv = n
Pn xi
ln
i=1 a
@2
ln L ( ; (x1 ; :::; xn )) < 0
@ 2
n
3. bemv = n est un estimateur biaisé de Car: E bemv 6= .
P xi
ln
i=1 0 a 1 0 1 0 1
B n C B 1 C B C
En e¤et: E B C = n EB C = n EB 1 C
@P n xi A @P n xi A @P n A
ln ln Yi
i=1 a i=1 a i=1
P
n 1
avec Yi Exp ( ) ) Yi (n; ). D’où: E = si Z (n; ).
0 i=1 1 0 1Z n 1
B n C B 1 C
Ce qui donne E B C=n EB C= n
@P n xi A @ P
n A n 1 6= .
ln Yi
i=1 a i=1
P
n P
n
4. Oui, bemv = f ln (xi ) telle que ln (xi ) est une statistique exhuastive, de plus X 2
i=1 i=1
Pn P
n
famille des lois exponentielles et dim ln(xi ) = dim ( ) donc ln (xi ) est complète et
i=1 i=1
P
n P
n
puisque ln (xi ) est exhaustive et complète ) ln (xi ) est exhaustive minimale.
i=1 i=1
5. Pour pouvoir appliquer le Théorème de Lehmann-Sche¤é, on doit d’abord corriger notre
estimateur bemv en lui enlevant le biais.
b0 n 1 0
emv = P n est estimateur sans biais de car E bemv = .
xi
ln
i=1 a
0 n 1
D’après le Théorème de Lehmann-Sche¤é: Soit bemv = n un estimateur sans biais
P xi
ln
i=1 a
P
n 0 P
n
de et soit T (X) = ln (xi ) une statistique exhaustive et complète alors E bemv j ln (xi )
i=1 i=1
P
n P
n P
n
est l’ESBV U M de . Comme E f ln(xi) j ln (xi ) =f ln (xi ) donc:
0 1 i=1 i=1 i=1
B n 1 C n 1
EB
@ j ln (xi )C
A= P est l’ESBV U M de .
P
n xi n xi
ln ln
i=1 a i=1 a
@2 1 @2 1
6. Pour la bcr, nous calculons: ln f (x; ) = 2 . D’où: I ( ) = E ln f (x; ) = 2.
@ 2 @ 2
2 2
n ( @ ( ))
Donc In ( ) = 2 et la bcr = @In ( ) = .
n 0 1
B n C
Pour la varinace de l’EM V on V ar bemv = V ar B C = V ar n où Z (n; ).
@ P
n xi A Z
ln
i=1 a
13
1 n2
V ar bemv = n2 V ar = 2
. Lorsque n tend vers 1.
Z (n 1)2 (n 2)
2
lim V ar bemv = = bcr. Cela implique que bemv est asymptotiquement e¢ cace.
n !1 n
Solution 16:
1
1. (a) f (x; ) = (1 )x 1 x = ex ln(1 ) e(1 x) ln( ) = ex ln( )
de la forme d’une densité qui 2 la famille des lois exponentielles:
( )a(x)
f (x) = c ( ) h (x) e
avec c ( ) = ; h (x) = 1 et ( ) a (x) = ln 1 x. .
(b) on a :
Q
n Q
n
L ( ; (x1 ; :::; xn )) = f (xi ; ) = (1 )xi 1 xi
:
i=1 i=1
n x n x
L ( ; (x1 ; :::; xn )) = (1 ) i=1 i (n i=1 i )
n x n x
ln L ( ; (x1 ; :::; xn )) = ln (1 ) i=1 i (n i=1 i )
P
n P
n
ln L ( ; (x1 ; :::; xn )) = xi ln (1 )+ n xi ln ( )
i=1 i=1
(c) On peut réécrire notre fonction de vraisemblance de la manière suivante:
n
Y 1 n x ln( 1
L ( ; (x1 ; :::; xn )) = exi ln( )= n
e i=1 i )
i=1
Donc d’après le théorème de factorisation: L ( ; (x1 ; :::; xn )) = h (x) g ( ; T (x)),
P
n
on peut en déduire que: Xi est une statistique exhaustive, avec:
i=1
n 1
h (x) = 1 et g ( ; T (x)) = e i=1 xi ln( ) .
n
Pn
(d) Puisque T (X) = Xi est une statistique exhuastive, de plus X 2 famille des lois expo-
i=1
Pn P
n
nentielles et dim Xi = dim ( ) donc Xi est complète:
i=1 i=1
Pn
i=1 Xi
(a) b = 1 X=1 est un estimateur de par la méthode des moments.
n
On a d’une part E (X) = 1 et d’autre part X = E (X) = 1 lorsque n 1
) par la méthode des moments X = 1 ) b = 1 X.
(b) Propriétés de X:
Biais: 1 X est un estimateur sans biais de car: E 1 X = .
Convergence: X est un estimateur convergent vers E (X) par la loi forte et faible des grands
nombres puisque 1 X 1 E (X) = . (0.5 pt)
P:S,proba
E¢ cacité: X est un estimateur e¢ cace de car:
2
@
g( )
(1 ) @ 1 (1 )
V ar 1 X = = bcr = = n = .
n nI ( ) n
(1 )
(c) Les conditions de la maximisation de la logvraisemblance sont données par:
@ Pn
ln L ( ; (x1 ; :::; xn )) = n (1 ) i=1 xi = 0:
@ Pn
bemv = 1 i=1 xi
= 1 x:
2
n
@
ln L ( ; (x1 ; :::; xn )) < 0
@ 2
14
P 2
(a) S 2 = n1 ni=1 Xi X est un estimateur biaisé pour V ar (X) = (1 ),
n 1 2
puisque E S 2 = n V ar (X) 6= V ar (X) = .
(b) Ètant donné que:
Pn 2 Pn 2
E S 2 = nn 1 V ar (X) ) E n 1
n 1n i=1 Xi X =E 1
n 1 i=1 Xi X = V ar (X).
P 2
Alors: S 20 = n 1 1 ni=1 Xi X est un (ESB) pour V ar (X) = 2
.
2
0 0 (1 2 )
(c) Non, S 2 n’est pas e¢ cace car: V ar S 2 6=> bcr = .
n