Statistiques
Master Statistique et econométrie
TD - Feuille n𝑜 3
M. Emily, V. Monbet
Master 1 - 2011
Exercice 1
On peut modéliser la durée d’une connection sur le site ”www.Cpascher.com” par
une loi gamma 𝛾(2, 1/𝜃) de densité
𝑓 (𝑥; 𝜃) = 𝜃−2 𝑥 exp(−𝑥/𝜃)𝕀ℝ+ (𝑥).
Pour fixer vos tarifs publicitaires, vous voulez estimer le paramètre 𝜃 à partir d’un
échantillon 𝑋1 , ..., 𝑋𝑛 de 𝑛 durées de connexion.
1. Vérifiez que 𝑓 est bien une densité de probabilité.
2. Vous décidez d’estimer 𝜃 par l’estimateur du maximum de vraisemblance 𝜃ˆ𝑛 .
Déterminer 𝜃ˆ𝑛 .
3. Sachant que 𝐸𝜃 [𝑋1 ] = 2𝜃, l’estimateur 𝜃ˆ𝑛 est-il biaisé?
4. Vous vous interrogez sur la performance de votre estimateur. On vous donne
𝑉 𝑎𝑟𝜃 (𝑋1 ) = 2𝜃2 . Comparez la variance de 𝜃ˆ𝑛 à la borne de Cramer-Rao.
Conclusion ?
Exercice 2
Information et exhaustivité.
Soit 𝑋1 , ⋅ ⋅ ⋅ , 𝑋𝑛 des v.a.i.i.d de loi de Gauss de moyenne 𝜇 et de variance 𝜎 2 .
Considérons 𝑛
1 ∑ ¯ 2
𝑇𝑛 = 𝑇 (𝑋1 , ⋅ ⋅ ⋅ , 𝑋𝑛 ) = (𝑋𝑖 − 𝑋)
𝑛 − 1 𝑖=1
et définissons 𝑌𝑛 = (𝑛 − 1) 𝑇𝜎𝑛2
1
1. Verifier que 𝑇𝑛 est un estimateur sans biais de 𝜎 2 .
2. Donner la loi de 𝑌𝑛 ainsi que sa densité de probabilité.
3. En déduire la densité de probabilité 𝑔(𝑡; 𝜎 2 ) de la loi de 𝑇𝑛 en utilisant un
changement de variables simple.
4. Calculer l’information de Fisher
∂ 2 𝑔(𝑡; 𝜎 2 )
( )
2
𝐼𝑇𝑛 (𝜎 ) = 𝐸 .
∂(𝜎 2 )2
5. Donner l’infomation de Fisher sur 𝜎 2 continue dans l’échantillon.
6. Utiliser le théorème ci dessous pour en déduire que 𝑇𝑛 n’est pas exhaustive
pour 𝜎 2 .
Théorème 1 Pour toute statistique 𝑇 , on a
𝐼𝑇 (𝜃) ≤ 𝐼𝑛 (𝜃)
et 𝐼𝑇 (𝜃) = 𝐼𝑛 (𝜃) si et seulement si 𝑇 est exhaustive,
𝐼𝑇 (𝜃) = 0 si et seulement 𝑇 est libre (c’est à dire que sa loi ne dépend pas de 𝜃.
Exercice 3
On considère le modèle de régression simple
𝑌𝑖 = 𝛼 + 𝛽𝑥𝑖 + 𝜖𝑖 , 𝑖 = 1, ⋅ ⋅ ⋅ , 𝑛
où 𝜖1 , ⋅ ⋅ ⋅ , 𝜖𝑛 sont des variables indépendantes de loi de Gauss centrées et de variance
𝜎2.
1. Calculer 𝐸(𝑌𝑖 ) et 𝑉 𝑎𝑟(𝑌𝑖 ).
ˆ et 𝛽ˆ du maximum de vraisemblance de 𝛼 et 𝛽.
2. Donner les estimateurs 𝛼
3. Vérifier que les estimateurs du maximum de vraisemblance de 𝛼 et 𝛽 sont
identiques aux estimateurs des moindres carrés.
ˆ et 𝛽ˆ sont des estimateurs sans biais de 𝛼 et 𝛽.
4. Montrer que 𝛼
5. Calculer la variance de 𝛼 ˆ
ˆ et 𝛽.
6. Sous quelle condition, ces estimateurs sont-ils efficaces?
2
Exercice 4
Soit 𝑋 une variable aléatoire géométrique de paramètre 𝜋. Sa loi est donnée par
𝑃 (𝑋 = 𝑘) = (1 − 𝜋)𝑘−1 𝜋, 𝑘 = 1, 2, 3, ...
On peut reparamétriser cette loi en posant 𝜃 = 1/𝜋 , ce qui donne
( )𝑘−1
1 𝜃−1
𝑃 (𝑋 = 𝑘) = , 𝑘 = 1, 2, 3, ...
𝜃 𝜃
1. Montrer que
( )𝑘 ( )𝑘−1
∂ 𝜃−1 1 𝜃−1
=𝑘 2
∂𝜃 𝜃 𝜃 𝜃
et que
∞ ( )𝑘
∑ 𝜃−1
=𝜃−1
𝑘=1
𝜃
2. Supposons que l’on observe 𝑥1 , ..., 𝑥𝑛 un échantillon issu de 𝑋. Donner l’estimateur
du maximum de vraisemblance de 𝜃.
3. Calculer l’information de Fisher 𝐼𝑛 (𝜃) et en déduire la borne de Cramér-Rao.
4. L’estimateur du maximum de vraisemblance atteint-il la borne de Cramér-
Rao? Commenter : qu’est ce que cela signifie ?
Exercice 5
On observe le nombre de cas graves traités chaque jour par un vétérinaire sur une
période de 200 jours.
X : Nbre de cas graves (i) 0 1 2 3 4 5 et plus
Nbre de jours (ni) 50 74 50 21 4 1
Notons 𝑋 la variable aléatoire observée. On modélise la loi de 𝑋 par une loi de
Poisson de paramètre 𝜆.
Partie 1 - Considérons l’estimation de 𝜆.
1. Donner l’estimateur du maximum de vraisemblance de 𝜆. En déduire l’estimation
correspondant aux observations ci-dessus. Puis calculer la probabilité d’avoir
plus de 3 cas graves un jour donné.
3
2. L’estimateur du maximum de vraisemblance est-il efficace? Justifier votre
réponse.
Partie 2 - Considérons maintenant l’estimation de 𝑔(𝜆) = 𝜆2 par l’estimateur
¯ 𝑛 )2 − 1 𝑋
𝑇𝑛 = (𝑋 ¯𝑛
𝑛
1. Montrer que 𝑇𝑛 est un estimateur sans biais de 𝑔(𝜃).
2. Montrer que 𝑇𝑛 est un estimateur de variance minimale pour 𝑔(𝜃).
Indication : montrer que 𝑇𝑛 est exhaustive complète puis utiliser le théorème
de Lehmann-Scheffé.
3. Calculer la borne de Cramér-Rao pour 𝑇𝑛 .
4. Prouver que 𝑋1 +⋅ ⋅ ⋅+𝑋𝑛 suit une loi de Poisson de paramètre 𝑛𝜃. Et montrer
que
4𝜃3 2𝜃2
𝑉 𝑎𝑟(𝑇𝑛 ) = + 2
𝑛 𝑛
5. En déduire que 𝑇𝑛 n’est pas efficace pour 𝑔(𝜃).
4
Eléments de Corrigé
Exercice 4
L’espérance d’une variable aléatoire suivant une loi géométrique de paramètre 𝑝 est
1
𝑝
. La variance est 𝑝𝑞2 avec 𝑞 = 1 − 𝑝.
Démonstration - Calculs préliminaires, pour tout 𝑥 ∈ [0; 1[,
+∞ +∞
∑
𝑘−1
∑ 1
𝑓 (𝑥) = 𝑥 = 𝑥𝑘 = (1)
𝑘=1 𝑘=0
1−𝑥
+∞ +∞
∑ ∑ 1
𝑓 ′ (𝑥) = 𝑘𝑥𝑘−1 = (𝑘 + 1)𝑥𝑘 = (2)
𝑘=1 𝑘=0
(1 − 𝑥)2
+∞ +∞ +∞
′′
∑
𝑘−1
∑
2 𝑘−1
∑ 2
𝑓 (𝑥) = 𝑘(𝑘 + 1)𝑥 = 𝑘 𝑥 + 𝑘𝑥𝑘−1 = (3)
𝑘=1 𝑘=1 𝑘=1
(1 − 𝑥)3
En particulier +∞ 2 𝑘−1 2 1
∑
𝑘=1 𝑘 𝑥 = (1−𝑥) 3 − (1−𝑥)2
On peut alors utiliser ces identités pour le calcul de l’espérance :
+∞
∑
𝔼[𝑋] = 𝑘𝑞 𝑘−1 𝑝 (4)
𝑘=1
𝑝
= (5)
(1 − 𝑞)2
1
= , (6)
𝑝
car 1 ? q = p, et pour celui de la variance :
( +∞ )
∑
𝑉 (𝑋) = 𝑘 2 𝑞 𝑘−1 𝑝 − 𝔼[𝑋]2 (7)
𝑘=1
2𝑝 𝑝 1
= 3
− 2
− 2 (8)
(1 − 𝑞) (1 − 𝑞) 𝑝
2 1 1
= 2− − 2 (9)
𝑝 𝑝 𝑝
𝑞
= 2. (10)
𝑝