100% ont trouvé ce document utile (2 votes)
701 vues8 pages

Epreuve Corrigé Statistique Inférentielle

Le document présente un concours d'accès à l'École Doctorale de Recherche Opérationnelle, avec un examen de mathématiques non déterministes axé sur les probabilités et la statistique. Il contient des problèmes liés aux variables aléatoires, à leurs lois de probabilité, et à des concepts statistiques comme l'exhaustivité et l'estimation. Le corrigé fournit des solutions détaillées aux questions posées, démontrant des propriétés des estimations et des statistiques associées.

Transféré par

Lina Char
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
100% ont trouvé ce document utile (2 votes)
701 vues8 pages

Epreuve Corrigé Statistique Inférentielle

Le document présente un concours d'accès à l'École Doctorale de Recherche Opérationnelle, avec un examen de mathématiques non déterministes axé sur les probabilités et la statistique. Il contient des problèmes liés aux variables aléatoires, à leurs lois de probabilité, et à des concepts statistiques comme l'exhaustivité et l'estimation. Le corrigé fournit des solutions détaillées aux questions posées, démontrant des propriétés des estimations et des statistiques associées.

Transféré par

Lina Char
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Concours d’accès à l’Ecole Doctorale de

Recherche Opérationnelle
Pôles USTHB et USDB
Epreuve de : Mathématiques non déterministes (Probabilités et Statistique)
Année 2008 2009 Date: 12 10 2008 Durée: 02 heures

PROBLEME
Soient X1 ; X2 ; :::; Xn n variables aléatoires (v.a.) indépendantes et identiquement distribuées (i:i:d:)
de même loi qu’une v.a. X dont la densité de probabilité, fX (:; ), est donnée par

2 2 1=2 1
fX (x; ; ) = (2 ) exp 2
(x )2 ; x 2 R;
2
n
X
(i.e. X suit une loi normale N ( ; 2) de paramètres 2 R et 2 > 0). On pose S1 = iXi ,
i=1
n
X 1
S2 = (n i + 1)Xi et S3 = (S1 + S2 ).
n+1
i=1

Partie I (5 points)
1 (1.5 points). En rappelant que la fonction génératrice des moments d’une loi normale X
2
N ; 2 est donnée par MX (t) = exp t2 , déterminer la fonction génératrice des mo-
t+
2
ments puis en déduire la loi de probabilité de chacune des v.a. S1 , S2 et S3 (On pourra utiliser les
n
X Xn
n(n + 1) n(n + 1)(2n + 1)
identités i= et i2 = ).
2 6
i=1 i=1
2 (1.5 points). Montrer que la loi de probabilité de S3 peut s’écrire sous la forme
2 2 2 2
fS3 (s; ; ) = a(s)b( ; ) exp c1 (s)d1 ( ; ) + c2 (s)d2 ( ; ) ;

où a(:); b(:); ci (:) et di (:) sont des fonctions réelles. En déduire sans faire de calculs qu’il en est de
même pour S1 et S2 . Que peut-on conclure ?

3 (1 point). Soit Tn = T (X1 ; X2 ; :::; Xn ) une v.a. fonction de X1 ; X2 ; :::; Xn , telle que E(Tn ) =
et var(Tn ) ! 0 quand n ! 1. Montrer en utilisant l’inégalité de Tchebychev que (Tn )n2N converge
en probabilité vers .

4 (1 point). Trouver une v.a. U = U (S3 ; n; ; 2 ), fonction de S3 , n; et 2, telle que sa loi de


probabilité est indépendante de et 2 .

Partie II (10 points)


On suppose que 2 = 1, et on admet dans la suite que X1 ; X2 ; :::; Xn est un échantillon aléatoire
simple, issu d’une population régie par X, et à travers lequel on veut faire des inférences concernant
.

1
1 (2 points). Rappeler rigoureusement le concept d’exhaustivité, exposer le théorème de factori-
sation de Neyman-Fisher et l’utiliser pour trouver une statistique exhaustive pour .
2 (1 point). Donner la dé…nition d’une statistique complète et expliquer son rôle dans l’estimation
statistique, puis montrer que les statistiques S1 , S2 et S3 sont complètes.
2 2
3 (2 points). On pose T1 = n(n+1) S1 , T2 = n(n+1) S2 et T3 = 12 (T1 + T2 ). Montrer que les
estimateurs T1 ; T2 et T3 sont sans biais pour . Sont-ils convergents (en probabilité)?
4 (2 points). Véri…er que 8n > 1, var (T3 ) < min (var (T1 ) ; var (T2 )). Peut-on trouver un esti-
mateur sans biais de variance plus petite que celle de T3 ? En déduire que les statistiques S1 , S2
ne peuvent être exhaustives.
5 (2 points). Expliquer brièvement l’intuition derrière le principe du maximum de vraisemblance.
Calculer l’estimateur du maximum de vraisemblance pour . Est-il e¢ cace?
6 (1 point). Trouver un intervalle de con…ance bilatéral pour au seuil 1 ( 2]0; 1[).

Partie III (5 points)


2 2
On suppose maintenant que = et = ( > 0).
n n
!
X X
1 (1 point). Montrer que la statistique S = Xi ; Xi2 est exhaustive pour .
i=1 i=1
2 !2 3
n
X n
X
2 (1 point). Calculer E 42 Xi (n + 1) Xi2 5 puis en déduire que la statistique S n’est
i=1 i=1
pas complète.

3 (2 points). Trouver par la méthode des moments deux estimateurs di¤érents pour .
4 (1 point). Déterminer l’estimateur du maximum de vraisemblance pour .

2
Concours d’accès à l’Ecole Doctorale de
Recherche Opérationnelle
Pôles USTHB et USDB
Epreuve de : Mathématiques non déterministes (Probabilités et Statistique)
Année 2008 2009 Date: 12 10 2008 Durée: 02 heures

Corrigé de l’épreuve
Partie I (5 points)
1- (1.5 points). Soit à déterminer la fonction génératrice des moments et la loi de probabilité de
chacune des v.a. S1 , S2 et S3 .
On note MSi (t) la fonction génératrice des moments de la v.a. Si (i = 1; 3). Alors en exploitant
les propriétés de la fonction exponentielle, la propriété i:i:d: des X1 ; X2 ; :::; Xn et l’expression de
la fonction génératrice des moments d’une loi normale N ( ; 2 ) qui est donnée par, MX (t) =
2
exp t + 2 t2 , on trouve:

n
!!
X Q
n
MS1 (t) = E exp t iXi = E (exp (tiXi ))
i=1 i=1

Q
n Q
n 2
= MXi (it) = exp ti + i2 t2
i=1 i=1 2
n n
!
X X 2 n(n + 1) n(n + 1)(2n + 1) 2 t2
= exp ti + i2 t2 = exp t+ :
2 2 6 2
i=1 i=1

n(n+1)
Ainsi on reconnaît la fonction génératrice des moments d’une loi normale de moyenne 2 et de
n(n+1)(2n+1) 2 n(n+1) n(n+1)(2n+1) 2
variance 6 . D’où par unicité de la fonction génératrice S1 N 2 ; 6 .
De même,
n
!!
X Q
n
MS2 (t) = E exp t (n i + 1)Xi = MXi ((n i + 1)t)
i=1 i=1
n
!
X 2
= exp t(n i + 1) + (n i + 1)2 t2
2
i=1
n(n + 1) n(n + 1)(2n + 1) 2 t2
= exp t+ ;
2 6 2
n(n+1) 2
montrant que S2 est de même loi que S1 , i.e. S2 ; n(n+1)(2n+1)
6 N . 2
X n
1
En …n, de manière similaire, et remarquant que S3 = n+1 (S1 + S2 ) = Xi , on trouve
i=1

n
!!
X 2
MS3 (t) = E exp t Xi = exp n t + nt2 :
2
i=1

1
D’où S3 N n ; n 2 .
2- (1.5 points). Soit à montrer que la loi de probabilité de S3 peut se factoriser comme produit
d’une fonction exponentielle de la variable et une fonction exponentielle du paramètre, à un facteur
de produit séparable près.
S3 suivant une loi normale, on a

1 1
fS3 (s) = p exp 2
(s n )2
2 n 2n
1 2 1 2
= p exp 2
exp s + 2s
2 n 2 2n 2
= a(s)b( ; 2 ) exp c1 (s)d1 ( ; 2 ) + c2 (s)d2 ( ; 2
) ;
2
avec a(s) = 1, b( ; 2) = p 1 exp 2 , c1 (s) = s2 , d1 ( ; 2) = 1
2 , c2 (s) = s et d2 ( ; 2) =
2 n 2 2n
2 . Il en est de même pour S1 et S2 puisqu’elles suivent également une loi normale. Ainsi, on conclue
que les lois de S1 , S2 et S3 appartiennent à la famille de lois exponentielles.
3- (1 point). Soit à montrer que sous les hypothèses mentionnées (Tn )n2N converge en probabilité
vers .
Puisque la v.a. Tn est de variance …nie, elle véri…e donc l’inégalité de Tchebychev qui s’énonce
comme suit
var (Tn )
8" > 0; P (jTn E (Tn )j ") :
"2
Donc par remplacement de la valeur de E(Tn ) dans cette dernière inégalité et tout en exploitant la
positivité de la probabilité on trouve pour tout n 2 N,

var (Tn )
8" > 0; 0 P (jTn j ") ;
"2
En passant à la limite lorsque n ! 1, alors

var (Tn )
8" > 0; 0 lim P (jTn j ") lim = 0:
n!1 n!1 "2
D’où
8" > 0; lim P (jTn j ") = 0;
n!1
p
signi…ant que Tn ! quand n ! 1.
4- (1 point). Soit à trouver une v.a. U = U (S3 ; n; ; 2 ), fonction de S3 , n; et 2, telle que sa
loi de probabilité soit indépendante de et 2 .
D’après I-1), on a S3 N n ; n 2 . Donc,

S3 n
p N (0; 1)
n

Ainsi U = Sp 3 n
n
.
Partie II (10 points)
On suppose que 2 = 1, et on admet dans la suite que X1 ; X2 ; :::; Xn est un échantillon aléatoire
simple issue d’une population régie par X.
1- (2 points). Soit à rappeler le concept d’exhaustivité, à exposer le théorème de factorisation de
Neyman-Fisher et à l’utiliser pour trouver une statistique exhaustive pour .
Soit X = (X1 ; X2 ; :::; Xn ) un échantillon aléatoire simple de même loi que X, où X est une v.a. de
distribution de probabilité connue, fonction d’un paramètre inconnu et soit S(X) une fonction de

2
l’échantillon dont l’expression est indépendante de . Alors formellement, la statistique S(X) est
dite exhaustive pour le paramètre si la distribution de probabilité conjointe de l’échantillon X
conditionnée par cette statistique est indépendante de . Intuitivement parlant, une statistique ex-
haustive pour un paramètre est un résumé de l’échantillon apportant toute l’information concernant
le paramètre et contenue dans l’échantillon.
Le théorème de factorisation de Neyman-Fisher donne un moyen simple pour rechercher une statis-
tique S ou pour montrer qu’une statistique donnée soit exhaustive. En e¤et, une condition néces-
saire et su¢ sante pour qu’une statistique S soit exhaustive pour est que la loi de l’échantillon,
Qn
fX (x, ) = fXi (xi ; ), peut s’écrire comme suit
i=1

Q
n
fXi (xi ; ) = h (x) g ( ; S (x)) ;
i=1

où h (x) est une fonction ne dépendant pas de et où g (:; :) est une fonction qui ne dépend de
l’échantillon qu’à travers S.
Pour 2 = 1, la loi de l’échantillon s’écrit
n
!
Q
n p n 1X 2
fXi (xi ; ) = 2 exp (xi )
i=1 2
i=1
n
! n
!
p n 1X 1 X
= 2 exp xi 2 exp 2
+ xi
2 2
i=1 i=1
= h (x) g ( ; S3 (x)) ;

Par conséquent, d’après le théorème le théorème de factorisation de Neyman-Fisher, S3 est exhaus-


tive pour .
2- (1 point). Soit à donner la dé…nition d’une statistique complète et expliquer son rôle dans
l’estimation statistique, puis à montrer que les statistiques S1 , S2 et S3 sont complètes.
- Une statistique S est dite complète si sa famille de lois fS (:; ) est complète. Une famille de lois
fS (:; ) est dite complète si pour toute fonction h (S) mesurable, telle que E (h (S)) = 0 8 2 ,
on a h 0 presque sûrement.
- La propriété de complétion est très importante pour l’inférence statistique, notamment pour la
recherche de l’estimateur sans biais de variance minimum.
- Comme les lois de S1 , S2 , et S3 appartiennent à la famille de lois exponentielles (voir question
I-2)) il s’ensuit, par le théorème qui stipule que toute statistique dont la famille de lois appartient
à la famille de lois exponentielle est complète, que les statistiques S1 , S2 et S3 sont complètes.
2 2
3- (2 points). Soit à montrer que les estimateurs T1 = n(n+1) S1 , T2 = n(n+1) S2 et T3 = 12 (T1 + T2 )
sont sans biais (ESB) pour .
Xn
2
- Par un calcul direct on trouve que E (T1 ) = E (T2 ) = n(n+1) i = . D’autre part, T3 =
i=1
n
X
1 1
2 (T1 + T2 ) n’est rien d’autre que n Xi = X qui est un ESB pour .
i=1
- Puisque T1 ; T2 et T3 sont ESB pour , pour montrer qu’ils sont convergents, il su¢ t de montrer
que leur variances convergent vers 0, lorsque n ! 1 (cf, question I-3). Un calcul simple montre que
n
X
4 4 n(n+1)(2n+1) n!1
var (T1 ) = var (T2 ) = n2 (n+1)2 i2 = n2 (n+1)2 6 ! 0. De même, var (T3 ) = n12 ! 0.
i=1
D’où les estimateurs donnés sont convergents.
4- (2 points). Soit à véri…er que 8n > 1 var (T3 ) < min(var (T1 ) ; var (T2 )).

3
4 n(n+1)(2n+1)
- Comme on a vu plus haut (cf, question II- 3)) var (T1 ) = var (T2 ) = n2 (n+1)2 6 =
2 (2n+1) 2 (2n+1)
3 n(n+1) et var (T3 ) = n12 On véri…e aisément que dès que n > 1 on a 1
3 (n+1) > n , c’est à dire que
var (T3 ) < var (T1 ) = var (T2 ) pour tout n > 1.
- Puisque T3 = X = n1 S3 est sans biais pour et fonction d’une statistique, S3 , exhaustive (par II-
1) et complète (par II-2), d’après le théorème de Lehman-She¤e, il est donc l’unique ESBVM, et
on ne peut trouver d’ESB de variance plus petite.
- Si les statistiques S2 et S3 étaient exhaustives, alors puisqu’on a montré qu’elles sont complètes
(cf, II-2), les ESB T2 et T3 fonctions de S2 et S3 , respectivement, seraient par le théorème de
Lehman-She¤é des estimateurs sont biais de variance minimum. Comme on vient de voir qu’ils
ne le sont pas (var (T3 ) < var (T1 ) = var (T2 )), les statistiques S2 et S3 ne peuvent donc être
exhaustives.
5- (2 points). Soit à expliquer l’intuition derrière le principe du maximum de vraisemblance et à
calculer l’estimateur du maximum de vraisemblance ( EM V ) pour .
- Dans un problème d’estimation paramétrique, le principe du maximum de vraisemblance consiste
à trouver par rapport à quelle valeur du paramètre l’observation X1 ; :::; Xn , dont on dispose,
est la plus probable. Autrement dit, quelle est la valeur du paramètre la plus plausible, la plus
vraisemblable à travers laquelle l’observation dont on dispose a été générée.
- Puisque la fonction de vraisemblance L( ; X1 ; :::; Xn ) = fX (x; ) est di¤érentiable par rapport à
sur R, l’EM V est solution de l’équation normale

@ log L( ; X1 ; :::; Xn )
= 0;
@
soit,
n
X
(Xi ) = 0;
i=1

qu’on résout par rapport à dans l’ensemble des statistiques. Donc l’EM V de est égal X = T3 .
6- (1 point). Soit à trouver un intervalle de con…ance bilatéral pour au seuil 1 ( 2]0; 1[).
Trouvons d’abord une fonction pivotale pour . Puisque d’après I)-4 la loi de U = S3pnn est
indépendante de , la fonction U étant monotone en et dont la loi ne dépend pas de dé…nit
une fonction pivotale. Ainsi il su¢ t de trouver un réel strictement positifs x tel que
S3 n
P( x p x) = 1 ;
n

soit,

1 1
P T3 p x T3 + p x =1 :
n n
h i
D’où X p1n x; X + p1n x est un intervalle de con…ance bilatéral pour au seuil 1 .
Partie III (5 points)
On suppose que = et 2 = 2 ( > 0). !
n
X n
X
1- (1 point). Soit à montrer que la statistique S = Xi ; Xi2 est exhaustive pour .
i=1 i=1

4
n
Y
2 2
fX x; ; = fXi xi ; ;
i=1
n
!
2 n=2 1 X
= (2 ) exp (xi )2
2 2 i=1
n
! n
!
2 n=2 1 X 2 1X
= (2 ) exp ( n=2) exp xi exp xi
2 2 i=1 i=1
= h(x)g(S(x); )
P
n P
n
où S(x) = xi ; x2i . D’après le théorème de factorisation de Neyman-Fisher, la statistique
i=1 i=1
P
n P
n
S (X) = Xi ; Xi2
est exhaustive pour :
i=1 i=1 2 !2 3
X n n
X
2- (1 point). Soit à calculer E 42 Xi (n + 1) Xi2 5 puis à en déduire que la statistique
i=1 i=1
S n’est
2 pas complète. 3
n
!2 n
X X
i) E 42 Xi (n + 1) Xi2 5 =
i=1 i=1
0 !2 1
n
X n
X
2E @ Xi A (n + 1) E Xi2
i=1 i=1
n
! n
!!2 n
X X X
= 2var Xi +2 E Xi (n + 1) var (Xi ) + (E (Xi ))2
i=1 i=1 i=1
n n
!2 n
X X X
2 2
= 2 var (Xi ) + 2 E (Xi ) (n + 1) +
i=1 i=1 i=1
2 2 2 2
= 2 n +n 2n(n + 1)
= 0; pour tout > 0:

ii) Prenons la fonction à deux variables h (S1 ; S2 ) = 2 (S1 )2 (n + 1) S2 . Alors d’après i) E (h (S (X))) =
0 8 > 0 sans que h (:) ne soit une fonction identiquement nulle presque surement. D’où la statis-
tique S n’est pas complète.
3- (2 points). Soit à trouver par la méthode des moments deux estimateurs di¤ érents pour .
i) Un estimateur des moments bM de , basé sur X1 ; X2 ; :::; Xn , est solution de l’équation

E (X) = X;

qu’on résout par rapport à dans l’ensemble des statistiques fonctions du moment empirique d’ordre
Pn
1, où X = n1 Xi . Or, puisque X N ; 2 et donc E(X) = , la dernière équation s’écrit tout
i=1
simplement
= X:
D’où
bM = X:

5
ii) Un autre estimateur des moments de peut être obtenu, en raison de la dépendance entre la
moyenne et la variance 2 , comme solution de l’équation du second moment
n
2 1X 2
E X = Xi ;
n
i=1

ou encore
n
1X 2
var(X) + E (X)2 = Xi :
n
i=1

D’où il su¢ t de résoudre l’équation au second degré suivante


n
2 2 1X 2
+ Xi = 0;
n
i=1

dont la solution est v


u n
u 1 X
bM =t Xi2 :
2n
i=1

(l’autre solution négative ne sera pas retenue puisque > 0:


4- (1 point). Soit à déterminer l’estimateur du maximum de vraisemblance bM V pour .
La fonction de vraisemblance L ( ; x1 ; :::; xn ) s’écrit avec = et 2 = 2 comme suit
n
!
2 n=2 1 X 2
L ( ; x1 ; :::; xn ) = (2 ) exp (xi ) , > 0:
2 2 i=1

Cette fonction est di¤érentiable sur ]0; +1[, et donc l’EM V sera la solution de l’équation normale

@ log L( ; X1 ; :::; Xn )
= 0;
@
soit
n n
n 1 X 1 X
+ 3 (Xi )2 + 2 (Xi ) = 0;
i=1 i=1

qui se réduit à l’équation du second degré suivante


n
X n
X
2
n Xi + Xi2 = 0;
i=1 i=1

dont l’unique solution positive, bM V , (l’autre elle est négative et ne sera pas retenue) est donnée
par s
Pn Pn Pn
Xi + 4n Xi2 Xi
i=1 i=1 i=1
bM V = :
2n

Vous aimerez peut-être aussi