0% ont trouvé ce document utile (0 vote)
42 vues4 pages

CC1 Correction

Le document présente une correction d'un contrôle continu sur l'estimation statistique dans le cadre d'un cours de statistique à l'Université de Pau. Il aborde des concepts tels que les estimateurs sans biais, la méthode des moments, l'estimation du paramètre de la loi de Weibull, et la consistance des estimateurs. Des exercices pratiques sont inclus pour illustrer ces concepts, ainsi que des rappels de résultats théoriques en probabilité.

Transféré par

El-Mehdi Farah
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
42 vues4 pages

CC1 Correction

Le document présente une correction d'un contrôle continu sur l'estimation statistique dans le cadre d'un cours de statistique à l'Université de Pau. Il aborde des concepts tels que les estimateurs sans biais, la méthode des moments, l'estimation du paramètre de la loi de Weibull, et la consistance des estimateurs. Des exercices pratiques sont inclus pour illustrer ces concepts, ainsi que des rappels de résultats théoriques en probabilité.

Transféré par

El-Mehdi Farah
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Université de Pau et des Pays de l’Adour Semestre printemps 2023–2024

L3 Math Introduction à la Statistique

CC 1 - Estimation statistique Correction

Question de cours (3pts)


Soit (Hn , (Qθ )θ∈Θ ) un modèle statistique. On note θ̂n un estimateur du véritable paramètre
inconnu θ∗ .
1. (1pt) Qu’est-ce qu’un estimateur sans biais ?
Ne pas oublier le ∀θ ∈ Θ dans la définition !
2. (2pts) Pour le modèle ({0, 1}n , (B(p)⊗n )p∈(0,1) ), montrez que l’estimateur suivant est sans biais
n
1X
X̄n = Xi .
n i=1

Par linéarité.

Exercice 1 Méthode des moments (3pts)


Soit (Rn+ , (P⊗n
a∈R,b∈R,c>0 )) un modèle statistique vérifiant pour X ∼ Pa,b,c

E[X] = a + b − c2 ; Var(X) = a − b + c2 ; E[X 4 ] = c2 .

Déterminer un estimateur de (a∗ , b∗ , c∗ ) à l’aide de la méthode des moments.


Il fallait résoudre le système

2
X̄n = âM M + b̂M M − ĉM M

Sn2 = âM M − b̂M M + ĉ2M M

U4 (n) = ĉ2M M

Exercice 2 Estimation du paramètre de la loi de Weibull (15pts)


Soit X une variable aléatoire réelle suivant la loi de Weibull de densité : pour tout x > 0

x
e− β
fβ (x) = √
2β x

où β est un paramètre strictement positif inconnu.


Partie 1 : Estimation classique du paramètre
1. (1pt) Écrire le modèle statistique dans le cas où les observations sont indépendantes.
On travaille dans la suite sur le modèle ((R∗+ )n , (P⊗n
β )β>0 ) avec Pβ pour β > 0 donné par l’énoncé.
2. (2pts) Montrer que pour β > 0, on a

Eβ [X] = 2β 2 .

En déduire un estimateur β̂M M par la méthode des moments.


Soit β > 0, on a
Z +∞ Z +∞ √
x −√x/β
Eβ [X] = xfβ (x) dx = e dx
0 0 2β
Z +∞  √ 2
1 x √ √
=β 2
√ e− x/β dx et donc avec un changement de variable avec u = x/β,
0 2 xβ β
Z +∞
= β2 u2 e−u du.
0

Il reste à effectuer deux IPP. Bien vérifier l’existence de chaque termes lorsqu’on effectue une
IPP avec une intégrale généralisée ! Maintenant pour trouver l’estimateur des moments, il suffit
de résoudre
2
X̄n = 2β̂M M.

3. (1.5pt) Soit x1 , . . . , xn ∈ R∗+ , déterminer la vraisemblance du modèle et montrer que pour tout
β ∈ R+ ∗ :
n
∂ log Ln n 1 X√
(x1 , . . . , xn ; β) = − + 2 xi .
∂β β β i=1
On rappelle qu’on utilise la notation log pour le logarithme népérien.
Pour β > 0 et x1 , . . . , xn ∈ R∗+ , on a
n n √
Y 1 Y e− xi /β
Ln (x1 , . . . , xn ; β) = fβ (xi ) = n √ .
i=1
β i=1 2 xi

Et donc la log-vraisemblance vaut


n Pn √
X √ i=1 xi
log Ln (x1 , . . . , xn ; β) = −n log β − log(2 xi ) − .
i=1
β

D’où en dérivant par rapport à β,


n
∂ log Ln n 1 X√
(x1 , . . . , xn ; β) = − + 2 xi .
∂β β β i=1

4. (1.5pts) Montrer que l’estimateur du maximum de vraisemblance du modèle est


n
1 Xp
β̂M V = Xi .
n i=1

On justifiera bien le fait qu’il s’agit d’un maximum.


Pour x1 , x . . . , xn ∈ R∗+ , on peut vérifier par croissance comparée que

lim log Ln (x1 , . . . , xn ; β) = lim log Ln (x1 , . . . , xn ; β) = −∞,


β→0 β→+∞

donc la fonction possède un maximum global. Comme la log-vraisemblance possède un unique


point critique, ce point critique est forcément le maximum global.
5. (3pts) Déterminer le biais de l’EMV, puis sans calculer explicitement le biais, montrer que
l’estimateur β̂M M est biaisé.
Par un calcul similaire à la question 2, on peut montrer que β̂M V est sans biais. Pour l’estima-

teur des moments, comme u 7→ u est strictement concave (donc son opposée est strictement
convexe), on a par l’inégalité de Jensen,
"r # q
X̄n
q
Eβ [β̂M M ] = Eβ < Eβ [X̄n ]/2 = Eβ [X]/2 = β.
2

6. (1pt) Montrer que les estimateurs β̂M M et β̂M V sont fortement consistants.

Comme nos observations (Xi )i et ( Xi )i sont i.i.d. et possèdent un moment d’ordre 1, on peut
appliquer la LGN, pour β > 0, Pβ -p.s.
n
2 1 Xp p
X̄n → Eβ [X1 ] = 2β et β̂M V = Xi → Eβ [ X1 ] = β.
n i=1
p
Donc l’EMV est fortement consistant et comme β̂M M = X̄n /2, on obtient aussi sa forte consis-
tance par la continuité des opérations.
7. (1pt) Déterminer le risque de l’EMV.
Comme l’EMV est sans biais, on a d’après la décomposition biais-variance, pour β > 0,
n
! n
1 Xp 1 X p
R(β; β̂M V ) = Varβ (β̂M V ) = Varβ Xi = 2 Varβ ( Xi ),
n i=1 n i=1

par l’indépendance. Et comme nos variables sont identiquement distribuées, il suffit de calculer

la variance de X1 ,
p p
Varβ ( X1 ) = Eβ [X1 ] − Eβ [ X1 ]2 = 2β 2 − β 2 = β 2 .

Chaque espérance avait déjà été calculée, d’où

β2
R(β; β̂M V ) = .
n

Partie 2 : Estimation à l’aide des statistiques d’ordre


8. (1.5pts) Déterminer la fonction de répartition FX de la variable X. En déduire que

FX−1 (0.5) = (β log 2)2 .

Interpréter le terme FX−1 (0.5).


Soit β > 0, pour t ⩽ 0, on a FX (t) = 0 car notre variable est à valeurs dans R∗+ , et pour t > 0,
Z t √
FX (t) = fβ (x) dx = 1 − e− t/β
.
0

En résolvant 12 = 1 − e− t/β , on retrouve la valeur de l’énoncé. Il s’agit de la médiane de notre
variable. X a autant de chance d’être au dessus de cette valeur que en dessous.
9. (1.5pts) On range de manière croissante notre échantillon, et notons

X(1) ⩽ X(2) ⩽ . . . ⩽ X(n) ,

le nouveau réarrangement. Montrer que presque sûrement, ces inégalités sont strictes.
Pour β > 0, on a

Qβ (une de ces inégalités est une égalité) = Qβ (∃i ̸= j, X(i) = X(j) )


= Qβ (∃i ̸= j, Xi = Xj )
X XZ
⩽ Qβ (Xi = Xj ) = fβ (x)fβ (y) dxdy = 0,
i̸=j i̸=j {x=y}

par l’indépendance entre Xi et Xj et le fait que {x = y} est de mesure nulle pour la mesure de
Lebesgue (il s’agit d’une droite dans le plan). On pourrait aussi dire que Xi − Xj est à densité
car Xi et Xj sont à densité et indépendantes. C’est assez important de revenir à Xi et non
garder X(i) car la loi du réarrangement est un peu compliquée.
10. (1pt) À l’aide du réarrangement, déterminer un nouvel estimateur de β.
On peut estimer la vraie médiane par la médiane de notre échantillon, et comme la médiane vaut
(β log 2)2 , on peut proposer comme estimateur de β,
p
X(⌊n/2⌋)
β̂med = .
log 2

Rappel du cours de probabilité : On pourra utiliser sans preuve les résultats suivants :
1. Si X ∼ B(p) pour p ∈ [0, 1] alors E[X] = p et Var(X) = p(1 − p).
2. La Loi des Grands Nombres : Soit X une variable aléatoire possèdant un moment
d’ordre 1 et soit (Xn )n∈N une suite i.i.d. de variables aléatoires de même loi X, on a
n
1X p.s.
Xi −→ E[X].
n i=1

3. Le Théorème Central Limite : Si de plus, X possède un moment d’ordre 2 alors

√ X̄n − E[X] loi


np −→ Z ∼ N (0, 1).
Var(X)

4. Inégalité de Jensen : Soit X une variable aléatoire non constante ayant un moment
d’ordre 1, pour φ une fonction strictement convexe, si φ(X) possède un moment d’ordre 1
alors
φ(E[X]) < E[φ(X)].

Vous aimerez peut-être aussi