0% ont trouvé ce document utile (0 vote)
31 vues5 pages

D2-Exos s05

Transféré par

djolkhane44
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
31 vues5 pages

D2-Exos s05

Transféré par

djolkhane44
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

T.D.

V - Estimation

I - Construction d’estimateurs E [Xn ] = p. Ainsi,


h i p n−1
2
E Xn = + p2
Solution de l’exercice 1. n  n
n h i E X
1. D’après la définition, Yn =
P
Xi est une somme de n variables 2 n n−1 2
E Xn = + p
i=1 n n
aléatoires indépendantes de mêmes lois de Bernoulli de paramètre p. h i 1   n−1
2
Ainsi, Yn suit une loi binomiale, Yn ,→ B(n, p). E Xn − E Xn = p2
 n  n
2. Comme Yn ,→ B(n, p), alors n 2 1
E X n − X n = p2
n−1 n
E [Yn ] = np,
 
n 2 1
E Xn − X n = p2 .
V (Yn ) = np(1 − p). n−1 n−1

D’après la formule de Kœnig-Huygens, n 2 1


Ainsi, n−1 X n − n−1 X n est un estimateur sans biais de p2 .
V (Yn ) = E Yn2 − E [Yn ]2 Remarque. Comme Xi est à valeurs dans {0, 1}, alors Xi2 = Xi . Ainsi,
 

E Yn2 = V (Yn ) + E [Yn ]2


 
n
!2 n
n 2 1 n 1X 1 X
= np(1 − p) + (np)2 Xn − Xn = × Xi − Xi
n−1 n−1 n−1 n (n − 1)n
i=1 i=1
= np(1 − p + np)  
n n
= np(1 + (n − 1)p). 1 X X X
=  Xi2 + Xi Xj − Xi 
(n − 1)n
i=1 1⩽i̸=j⩽n i=1
3. En utlisant la question précédente et la linéarité de l’espérance, 1 X
= Xi Xj
E Yn2 = np(1 + (n − 1)p)
  n(n − 1)
1⩽i̸=j⩽n
2
h i
2
E n2 X n = np(1 + (n − 1)p)
X
= Xi Xj
n(n − 1)
h i p(1 + (n − 1)p) 1⩽i<j⩽n
2
E Xn = . 1 X
n = n Xi Xj .
h i 2 1⩽i<j⩽n
2 2
Ainsi, si n ̸= 1, alors E Xn ̸= p et X n n’est pas un estimateur sans
1
Ainsi, un estimateur sans biais de p2 est
P
biais de p2 . n Xi Xj (et il est aisé
( ) 1⩽i<j⩽n
2
Pour obtenir un estimateur sans biais de p2 , on utilise le fait que de vérifier directement que l’espérance de cet estimateur est bien p2 ).

Lycée Ozenne 49 A. Camanes


T.D. V - Estimation D2

n
1
2e méthode. En utilisant la variance empirique, X n − n−1
P
(Xi − X n )2 3. En utilisant une identité remarquable, puis les propriétés de la
i=1 somme,
est un estimateur sans biais de p − p(1 − p) = p2 n
De plus, comme Xi (Ω) = {0, 1}, alors Xi2 = Xi et
X
nsn = (Xi − X n )2
n n i=1
1 X 1 X 2 2

n 
(Xi − X n )2 = Xi − 2Xi Xn + X n X 2

n−1
i=1
n−1
i=1
= Xi2 − 2Xi X n + X n
n n i=1
1 X 2 X n 2 n n n
= Xi − Xn Xi + Xn X X X 2
n−1
i=1
n−1 n−1
i=1
= Xi2 − 2X n Xi + Xn
i=1 i=1 i=1
n 2n 2 n 2
Xn −= Xn + Xn n
n−1 n−1 n−1 2 2
X
n n = Xi2 − 2nX n + nX n
2
= Xn − X i=1
n−1 n−1 n n
n   1X 2 2
1 X 2 n n 2 sn = Xi − X n .
Xn − (Xi − X n ) = 1 − Xn + Xn n
n−1 n−1 n−1 i=1
i=1
n 2 1 Ainsi, en utilisant la linéarité de l’espérance et les questions précédentes,
= Xn − X n,
n−1 n−1 n
1 X  2 h i
2
E [sn ] = E Xi − E X n
et on retrouve l’estimateur précédent. n
i=1
n
Solution de l’exercice 2. 1 X    2 
V (Xi ) + E [Xi ]2 − V X n + E X n

=
1. Comme X n est une fonction de X1 , . . . , Xn , alors X n est bien un n
i=1
estimateur. De plus, n  2 
1 X σ
= (σ 2 + m2 ) − + m2
" n # n n n n
  1X 1X 1X i=1
E Xn = E Xi = E [Xi ] = m = m.  2 
n n n 2 2 σ 2 n−1 2
i=1 i=1 i=1 =σ +m − +m = σ .
n n
Ainsi, X n est un estimateur sans biais de m.
4. D’après la question précédente, dès que n ̸= 1, la variable aléatoire
2. Comme les variables aléatoires X1 , . . . , Xn sont indépendantes, sn n’est pas un estimateur sans biais de σ 2 .
d’après la propriété de la variance,
5. Sn est une fonction de X1 , . . . , Xn donc c’est un estimateur.
n
n n n D’après la question précédente, Sn = n−1 sn . Ainsi,
!
X X X
V Xi = V (Xi ) = σ 2 = nσ 2
n n n−1 2
i=1 i=1 i=1 E [Sn ] = E [sn ] = × σ = σ2.
n
! n
! n−1 n−1 n
 1X 1 X σ2
V Xn = V Xi = V Xi = . n
n n2 n Sn = 1 P
(Xi − X n )2 est donc un estimateur sans biais de σ 2 .
i=1 i=1 n−1
i=1

Lycée Ozenne 50 A. Camanes


T.D. V - Estimation D2

Solution de l’exercice 3. 4. En utilisant les questions précédentes, comme Mn est à valeurs


1. On est dans le cadre du calcul de la fonction de répartition d’un dans J1, N K,
maximum : N
X
P ([Mn ⩽ i]) = P ([max {X1 , . . . , Xn } ⩽ i]) E [Mn ] = P ([Mn ⩾ i])
n
! i=1
\ N
=P [Xk ⩽ i] X
k=1
= (1 − P ([Mn ⩽ i − 1]))
n i=1
Y
N 
= P ([Xk ⩽ i]) , en utilisant l’indépendance i−1 n
X   
k=1 = 1−
n
N
Y i=1
= P ([X1 ⩽ i]) , car X1 , . . . , Xn sont de mêmes lois XN 
i−1 n

k=1 =N−
N
= P ([X1 ⩽ i])n i=1
N −1 
i n
i
!n X 
=N− .
X
= P ([X1 = ℓ]) , car X1 prend les valeurs 1, . . . , N N
i=0
ℓ=1
 n
i
= , car X1 ,→ U (J1, N K) 5. D’après la question précédente, pour j ∈ J0, N − 1K,
n
0 j N −1
2. En utilisant la formule précédente, ⩽ ⩽
N  n N 
N
N −1 n
 n 
N −1 j
P ([Mn = N ]) = P ([Mn ⩽ N ]) − P ([Mn ⩽ N − 1]) = 1 − . 0⩽ ⩽
N N N
 n  n
Comme −1 < N −1
< 1, alors lim P ([Mn = N ]) = 1. N −1 j
N n→+∞
− ⩽− ⩽0
N N
3. On va effectuer un changement dans l’ordre des sommations : N −1  N −1 
1 n j n
X  X 
N N X
N − 1− ⩽− ⩽0
X X N N
P (Y ⩾ i) = P (Y = j) j=0 j=0
1 n
 
i=1 i=1 j=i
X N −N 1− ⩽ E [Mn ] ⩽ N.
= P (Y = j) N
1⩽i⩽j⩽N n
j
N X
Comme lim 1 − N1 = 0, alors d’après le théorème d’encadrement,
X n→+∞
= P (Y = j)
j=1 i=1 lim E [Mn ] = N.
n→+∞
N
X
= jP (Y = j) = E [Y ] . Remarque. Pour obtenir l’encadrement, il n’y avait pas besoin de la
j=1 formule sur l’espérance car

Lycée Ozenne 51 A. Camanes


T.D. V - Estimation D2

∗ d’une part, Mn ⩽ N , donc E [Mn ] ⩽ E [N ] = N , Or, comme les X1 , . . . , Xn sont indépendantes,


N
P
∗ d’autre part, E [Mn ] = n n
! !
kP (Mn = k) ⩾ N P (Mn = N ),  1X 1 X
k=1 V Xn = V Xi = 2 V Xi
ce qui donne l’encadrement annoncé. n n
i=1 =1
n
1 X λ
= 2 V (Xi ) = .
II - Comparaison d’estimateurs n
i=1
n

Finalement,
Solution de l’exercice 4.
 
1. Comme X n et Tn sont des fonctions de X1 , . . . , Xn , alors ce sont des n 2 λ 2 n n−1
E [Tn ] = λ+λ − −λ = λ = λ.
estimateurs. n−1 n n−1 n
En utilisant la linéarité de l’espérance,
Ainsi, Tn est un estimateur sans biais de λ.
n n
  1X 1X 2. Comme X n est un estimateur sans biais, son risque quadratique
E Xn = E [Xi ] = λ = λ.
n n est égal à sa variance. Ainsi, d’après les calculs réalisés à la question
i=1 i=1
précédente,
Ainsi, X n est un estimateur sans biais de λ.
  λ
En utilisant les propriétés de la somme, Rλ X n = V X n = .
n
n
1 X 2
Tn = (Xi − X n )2 3. Comme n−12λ
> 0, alors X n (qui est la moyenne empirique) est un
n−1
i=1 estimateur préférable de λ que Tn (qui est l’estimateur sans biais de la
n 
1 X 2
 variance) car son risque quadratique est plus faible.
= Xi2 − 2Xi X n + X n
n−1 Solution de l’exercice 5.
i=1
" n n
#
1 X X 2 1. Commme X n est une fonction de X1 , . . . , Xn , alors X n est un esti-
= Xi2 − 2X n Xi + nX n
n−1 mateur.
i=1 i=1
" n # De plus, d’après la linéarité de l’espérance,
1 X 2
= Xi2 − nX n . n
n−1   1X
i=1 E Xn = E [Xi ] = θ.
n
i=1
Ainsi,
" n # Ainsi, X n est un estimateur sans biais de θ.
1 X   h i
2
E [Tn ] = E Xi2 − nE X n Comme X1 , . . . , Xn sont indépendantes, d’après les propriétés de la va-
n−1
i=1
n h  2 h ii riance,
2
= E X1 − E X n
n−1h n n n
!
 1 X 1 X 1 X 1
n  2 i V Xn = 2 V Xi = 2 V (Xi ) = 2 1= .
V (X1 ) + E [X1 ]2 − V X n − E X n

= . n n n n
n−1 i=1 i=1 i=1

Lycée Ozenne 52 A. Camanes


T.D. V - Estimation D2

 
2. Comme Yn est une fonction de X1 , . . . , Xn , alors Yn est un estimateur. L’égalité V X n = V (Yn ) a lieu si et seulement
 si V X n − Yn = 0,
De plus, d’après la linéarité de l’espérance, i.e. X n − Yn = c presque sûrement. Comme E X n = E [Yn ] = θ, alors
n n
c = 0 et X n = Yn presque sûrement.
X X
E [Yn ] = αi E [Xi ] = θ αi . 4. Ainsi, parmi les estimateurs sans biais qui sont des combinaisons
i=1 i=1 linéaires de X1 , . . . , Xn , l’estimateur de θ qui a le plus faible risque
quadratique est l’estimateur de la moyenne empirique.
Comme θ ̸= 0, alors Yn est un estimateur sans biais si et seulement si
Pn
αi = 1.
i=1
3. En utilisant la bilinéarité de la covariance,
 
n n
 1 X X
Cov X n , Yn = Cov  Xi , αj Xj 
n
i=1 j=1
n X
n
1 X
= αj Cov (Xi , Xj ) .
n
i=1 j=1

De plus, en utilisant l’indépendance,


(
0 si j ̸= i
Cov (Xi , Xj ) = .
V (Xi ) si i = j

Alors,
 
n
 1 X X
Cov X n , Yn = αi V (Xi ) + 0
n | {z }
i=1 =1 j̸=i
1
= .
n
Ainsi, d’après la positivité de la variance,
  
0 ⩽ V X n − Yn = V X n + V (Yn ) − 2Cov X n , Yn
1 1 
= + V (Yn ) − 2 = V (Yn ) − V X n .
n n

Ainsi, V X n ⩽ V (Yn ) et X n a un risque quadratique inférieur à celui
de Yn .

Lycée Ozenne 53 A. Camanes

Vous aimerez peut-être aussi