Concours d’accès à l’Ecole Doctorale de
Recherche Opérationnelle
Pôles USTHB et USDB
Epreuve de : Mathématiques non déterministes (Probabilités et Statistique)
Année 2008 2009 Date: 12 10 2008 Durée: 02 heures
PROBLEME
Soient X1 ; X2 ; :::; Xn n variables aléatoires (v.a.) indépendantes et identiquement distribuées (i:i:d:)
de même loi qu’une v.a. X dont la densité de probabilité, fX (:; ), est donnée par
2 2 1=2 1
fX (x; ; ) = (2 ) exp 2
(x )2 ; x 2 R;
2
n
X
(i.e. X suit une loi normale N ( ; 2) de paramètres 2 R et 2 > 0). On pose S1 = iXi ,
i=1
n
X 1
S2 = (n i + 1)Xi et S3 = (S1 + S2 ).
n+1
i=1
Partie I (5 points)
1 (1.5 points). En rappelant que la fonction génératrice des moments d’une loi normale X
2
N ; 2 est donnée par MX (t) = exp t2 , déterminer la fonction génératrice des mo-
t+
2
ments puis en déduire la loi de probabilité de chacune des v.a. S1 , S2 et S3 (On pourra utiliser les
n
X Xn
n(n + 1) n(n + 1)(2n + 1)
identités i= et i2 = ).
2 6
i=1 i=1
2 (1.5 points). Montrer que la loi de probabilité de S3 peut s’écrire sous la forme
2 2 2 2
fS3 (s; ; ) = a(s)b( ; ) exp c1 (s)d1 ( ; ) + c2 (s)d2 ( ; ) ;
où a(:); b(:); ci (:) et di (:) sont des fonctions réelles. En déduire sans faire de calculs qu’il en est de
même pour S1 et S2 . Que peut-on conclure ?
3 (1 point). Soit Tn = T (X1 ; X2 ; :::; Xn ) une v.a. fonction de X1 ; X2 ; :::; Xn , telle que E(Tn ) =
et var(Tn ) ! 0 quand n ! 1. Montrer en utilisant l’inégalité de Tchebychev que (Tn )n2N converge
en probabilité vers .
4 (1 point). Trouver une v.a. U = U (S3 ; n; ; 2 ), fonction de S3 , n; et 2, telle que sa loi de
probabilité est indépendante de et 2 .
Partie II (10 points)
On suppose que 2 = 1, et on admet dans la suite que X1 ; X2 ; :::; Xn est un échantillon aléatoire
simple, issu d’une population régie par X, et à travers lequel on veut faire des inférences concernant
.
1
1 (2 points). Rappeler rigoureusement le concept d’exhaustivité, exposer le théorème de factori-
sation de Neyman-Fisher et l’utiliser pour trouver une statistique exhaustive pour .
2 (1 point). Donner la dé…nition d’une statistique complète et expliquer son rôle dans l’estimation
statistique, puis montrer que les statistiques S1 , S2 et S3 sont complètes.
2 2
3 (2 points). On pose T1 = n(n+1) S1 , T2 = n(n+1) S2 et T3 = 12 (T1 + T2 ). Montrer que les
estimateurs T1 ; T2 et T3 sont sans biais pour . Sont-ils convergents (en probabilité)?
4 (2 points). Véri…er que 8n > 1, var (T3 ) < min (var (T1 ) ; var (T2 )). Peut-on trouver un esti-
mateur sans biais de variance plus petite que celle de T3 ? En déduire que les statistiques S1 , S2
ne peuvent être exhaustives.
5 (2 points). Expliquer brièvement l’intuition derrière le principe du maximum de vraisemblance.
Calculer l’estimateur du maximum de vraisemblance pour . Est-il e¢ cace?
6 (1 point). Trouver un intervalle de con…ance bilatéral pour au seuil 1 ( 2]0; 1[).
Partie III (5 points)
2 2
On suppose maintenant que = et = ( > 0).
n n
!
X X
1 (1 point). Montrer que la statistique S = Xi ; Xi2 est exhaustive pour .
i=1 i=1
2 !2 3
n
X n
X
2 (1 point). Calculer E 42 Xi (n + 1) Xi2 5 puis en déduire que la statistique S n’est
i=1 i=1
pas complète.
3 (2 points). Trouver par la méthode des moments deux estimateurs di¤érents pour .
4 (1 point). Déterminer l’estimateur du maximum de vraisemblance pour .
2
Concours d’accès à l’Ecole Doctorale de
Recherche Opérationnelle
Pôles USTHB et USDB
Epreuve de : Mathématiques non déterministes (Probabilités et Statistique)
Année 2008 2009 Date: 12 10 2008 Durée: 02 heures
Corrigé de l’épreuve
Partie I (5 points)
1- (1.5 points). Soit à déterminer la fonction génératrice des moments et la loi de probabilité de
chacune des v.a. S1 , S2 et S3 .
On note MSi (t) la fonction génératrice des moments de la v.a. Si (i = 1; 3). Alors en exploitant
les propriétés de la fonction exponentielle, la propriété i:i:d: des X1 ; X2 ; :::; Xn et l’expression de
la fonction génératrice des moments d’une loi normale N ( ; 2 ) qui est donnée par, MX (t) =
2
exp t + 2 t2 , on trouve:
n
!!
X Q
n
MS1 (t) = E exp t iXi = E (exp (tiXi ))
i=1 i=1
Q
n Q
n 2
= MXi (it) = exp ti + i2 t2
i=1 i=1 2
n n
!
X X 2 n(n + 1) n(n + 1)(2n + 1) 2 t2
= exp ti + i2 t2 = exp t+ :
2 2 6 2
i=1 i=1
n(n+1)
Ainsi on reconnaît la fonction génératrice des moments d’une loi normale de moyenne 2 et de
n(n+1)(2n+1) 2 n(n+1) n(n+1)(2n+1) 2
variance 6 . D’où par unicité de la fonction génératrice S1 N 2 ; 6 .
De même,
n
!!
X Q
n
MS2 (t) = E exp t (n i + 1)Xi = MXi ((n i + 1)t)
i=1 i=1
n
!
X 2
= exp t(n i + 1) + (n i + 1)2 t2
2
i=1
n(n + 1) n(n + 1)(2n + 1) 2 t2
= exp t+ ;
2 6 2
n(n+1) 2
montrant que S2 est de même loi que S1 , i.e. S2 ; n(n+1)(2n+1)
6 N . 2
X n
1
En …n, de manière similaire, et remarquant que S3 = n+1 (S1 + S2 ) = Xi , on trouve
i=1
n
!!
X 2
MS3 (t) = E exp t Xi = exp n t + nt2 :
2
i=1
1
D’où S3 N n ; n 2 .
2- (1.5 points). Soit à montrer que la loi de probabilité de S3 peut se factoriser comme produit
d’une fonction exponentielle de la variable et une fonction exponentielle du paramètre, à un facteur
de produit séparable près.
S3 suivant une loi normale, on a
1 1
fS3 (s) = p exp 2
(s n )2
2 n 2n
1 2 1 2
= p exp 2
exp s + 2s
2 n 2 2n 2
= a(s)b( ; 2 ) exp c1 (s)d1 ( ; 2 ) + c2 (s)d2 ( ; 2
) ;
2
avec a(s) = 1, b( ; 2) = p 1 exp 2 , c1 (s) = s2 , d1 ( ; 2) = 1
2 , c2 (s) = s et d2 ( ; 2) =
2 n 2 2n
2 . Il en est de même pour S1 et S2 puisqu’elles suivent également une loi normale. Ainsi, on conclue
que les lois de S1 , S2 et S3 appartiennent à la famille de lois exponentielles.
3- (1 point). Soit à montrer que sous les hypothèses mentionnées (Tn )n2N converge en probabilité
vers .
Puisque la v.a. Tn est de variance …nie, elle véri…e donc l’inégalité de Tchebychev qui s’énonce
comme suit
var (Tn )
8" > 0; P (jTn E (Tn )j ") :
"2
Donc par remplacement de la valeur de E(Tn ) dans cette dernière inégalité et tout en exploitant la
positivité de la probabilité on trouve pour tout n 2 N,
var (Tn )
8" > 0; 0 P (jTn j ") ;
"2
En passant à la limite lorsque n ! 1, alors
var (Tn )
8" > 0; 0 lim P (jTn j ") lim = 0:
n!1 n!1 "2
D’où
8" > 0; lim P (jTn j ") = 0;
n!1
p
signi…ant que Tn ! quand n ! 1.
4- (1 point). Soit à trouver une v.a. U = U (S3 ; n; ; 2 ), fonction de S3 , n; et 2, telle que sa
loi de probabilité soit indépendante de et 2 .
D’après I-1), on a S3 N n ; n 2 . Donc,
S3 n
p N (0; 1)
n
Ainsi U = Sp 3 n
n
.
Partie II (10 points)
On suppose que 2 = 1, et on admet dans la suite que X1 ; X2 ; :::; Xn est un échantillon aléatoire
simple issue d’une population régie par X.
1- (2 points). Soit à rappeler le concept d’exhaustivité, à exposer le théorème de factorisation de
Neyman-Fisher et à l’utiliser pour trouver une statistique exhaustive pour .
Soit X = (X1 ; X2 ; :::; Xn ) un échantillon aléatoire simple de même loi que X, où X est une v.a. de
distribution de probabilité connue, fonction d’un paramètre inconnu et soit S(X) une fonction de
2
l’échantillon dont l’expression est indépendante de . Alors formellement, la statistique S(X) est
dite exhaustive pour le paramètre si la distribution de probabilité conjointe de l’échantillon X
conditionnée par cette statistique est indépendante de . Intuitivement parlant, une statistique ex-
haustive pour un paramètre est un résumé de l’échantillon apportant toute l’information concernant
le paramètre et contenue dans l’échantillon.
Le théorème de factorisation de Neyman-Fisher donne un moyen simple pour rechercher une statis-
tique S ou pour montrer qu’une statistique donnée soit exhaustive. En e¤et, une condition néces-
saire et su¢ sante pour qu’une statistique S soit exhaustive pour est que la loi de l’échantillon,
Qn
fX (x, ) = fXi (xi ; ), peut s’écrire comme suit
i=1
Q
n
fXi (xi ; ) = h (x) g ( ; S (x)) ;
i=1
où h (x) est une fonction ne dépendant pas de et où g (:; :) est une fonction qui ne dépend de
l’échantillon qu’à travers S.
Pour 2 = 1, la loi de l’échantillon s’écrit
n
!
Q
n p n 1X 2
fXi (xi ; ) = 2 exp (xi )
i=1 2
i=1
n
! n
!
p n 1X 1 X
= 2 exp xi 2 exp 2
+ xi
2 2
i=1 i=1
= h (x) g ( ; S3 (x)) ;
Par conséquent, d’après le théorème le théorème de factorisation de Neyman-Fisher, S3 est exhaus-
tive pour .
2- (1 point). Soit à donner la dé…nition d’une statistique complète et expliquer son rôle dans
l’estimation statistique, puis à montrer que les statistiques S1 , S2 et S3 sont complètes.
- Une statistique S est dite complète si sa famille de lois fS (:; ) est complète. Une famille de lois
fS (:; ) est dite complète si pour toute fonction h (S) mesurable, telle que E (h (S)) = 0 8 2 ,
on a h 0 presque sûrement.
- La propriété de complétion est très importante pour l’inférence statistique, notamment pour la
recherche de l’estimateur sans biais de variance minimum.
- Comme les lois de S1 , S2 , et S3 appartiennent à la famille de lois exponentielles (voir question
I-2)) il s’ensuit, par le théorème qui stipule que toute statistique dont la famille de lois appartient
à la famille de lois exponentielle est complète, que les statistiques S1 , S2 et S3 sont complètes.
2 2
3- (2 points). Soit à montrer que les estimateurs T1 = n(n+1) S1 , T2 = n(n+1) S2 et T3 = 12 (T1 + T2 )
sont sans biais (ESB) pour .
Xn
2
- Par un calcul direct on trouve que E (T1 ) = E (T2 ) = n(n+1) i = . D’autre part, T3 =
i=1
n
X
1 1
2 (T1 + T2 ) n’est rien d’autre que n Xi = X qui est un ESB pour .
i=1
- Puisque T1 ; T2 et T3 sont ESB pour , pour montrer qu’ils sont convergents, il su¢ t de montrer
que leur variances convergent vers 0, lorsque n ! 1 (cf, question I-3). Un calcul simple montre que
n
X
4 4 n(n+1)(2n+1) n!1
var (T1 ) = var (T2 ) = n2 (n+1)2 i2 = n2 (n+1)2 6 ! 0. De même, var (T3 ) = n12 ! 0.
i=1
D’où les estimateurs donnés sont convergents.
4- (2 points). Soit à véri…er que 8n > 1 var (T3 ) < min(var (T1 ) ; var (T2 )).
3
4 n(n+1)(2n+1)
- Comme on a vu plus haut (cf, question II- 3)) var (T1 ) = var (T2 ) = n2 (n+1)2 6 =
2 (2n+1) 2 (2n+1)
3 n(n+1) et var (T3 ) = n12 On véri…e aisément que dès que n > 1 on a 1
3 (n+1) > n , c’est à dire que
var (T3 ) < var (T1 ) = var (T2 ) pour tout n > 1.
- Puisque T3 = X = n1 S3 est sans biais pour et fonction d’une statistique, S3 , exhaustive (par II-
1) et complète (par II-2), d’après le théorème de Lehman-She¤e, il est donc l’unique ESBVM, et
on ne peut trouver d’ESB de variance plus petite.
- Si les statistiques S2 et S3 étaient exhaustives, alors puisqu’on a montré qu’elles sont complètes
(cf, II-2), les ESB T2 et T3 fonctions de S2 et S3 , respectivement, seraient par le théorème de
Lehman-She¤é des estimateurs sont biais de variance minimum. Comme on vient de voir qu’ils
ne le sont pas (var (T3 ) < var (T1 ) = var (T2 )), les statistiques S2 et S3 ne peuvent donc être
exhaustives.
5- (2 points). Soit à expliquer l’intuition derrière le principe du maximum de vraisemblance et à
calculer l’estimateur du maximum de vraisemblance ( EM V ) pour .
- Dans un problème d’estimation paramétrique, le principe du maximum de vraisemblance consiste
à trouver par rapport à quelle valeur du paramètre l’observation X1 ; :::; Xn , dont on dispose,
est la plus probable. Autrement dit, quelle est la valeur du paramètre la plus plausible, la plus
vraisemblable à travers laquelle l’observation dont on dispose a été générée.
- Puisque la fonction de vraisemblance L( ; X1 ; :::; Xn ) = fX (x; ) est di¤érentiable par rapport à
sur R, l’EM V est solution de l’équation normale
@ log L( ; X1 ; :::; Xn )
= 0;
@
soit,
n
X
(Xi ) = 0;
i=1
qu’on résout par rapport à dans l’ensemble des statistiques. Donc l’EM V de est égal X = T3 .
6- (1 point). Soit à trouver un intervalle de con…ance bilatéral pour au seuil 1 ( 2]0; 1[).
Trouvons d’abord une fonction pivotale pour . Puisque d’après I)-4 la loi de U = S3pnn est
indépendante de , la fonction U étant monotone en et dont la loi ne dépend pas de dé…nit
une fonction pivotale. Ainsi il su¢ t de trouver un réel strictement positifs x tel que
S3 n
P( x p x) = 1 ;
n
soit,
1 1
P T3 p x T3 + p x =1 :
n n
h i
D’où X p1n x; X + p1n x est un intervalle de con…ance bilatéral pour au seuil 1 .
Partie III (5 points)
On suppose que = et 2 = 2 ( > 0). !
n
X n
X
1- (1 point). Soit à montrer que la statistique S = Xi ; Xi2 est exhaustive pour .
i=1 i=1
4
n
Y
2 2
fX x; ; = fXi xi ; ;
i=1
n
!
2 n=2 1 X
= (2 ) exp (xi )2
2 2 i=1
n
! n
!
2 n=2 1 X 2 1X
= (2 ) exp ( n=2) exp xi exp xi
2 2 i=1 i=1
= h(x)g(S(x); )
P
n P
n
où S(x) = xi ; x2i . D’après le théorème de factorisation de Neyman-Fisher, la statistique
i=1 i=1
P
n P
n
S (X) = Xi ; Xi2
est exhaustive pour :
i=1 i=1 2 !2 3
X n n
X
2- (1 point). Soit à calculer E 42 Xi (n + 1) Xi2 5 puis à en déduire que la statistique
i=1 i=1
S n’est
2 pas complète. 3
n
!2 n
X X
i) E 42 Xi (n + 1) Xi2 5 =
i=1 i=1
0 !2 1
n
X n
X
2E @ Xi A (n + 1) E Xi2
i=1 i=1
n
! n
!!2 n
X X X
= 2var Xi +2 E Xi (n + 1) var (Xi ) + (E (Xi ))2
i=1 i=1 i=1
n n
!2 n
X X X
2 2
= 2 var (Xi ) + 2 E (Xi ) (n + 1) +
i=1 i=1 i=1
2 2 2 2
= 2 n +n 2n(n + 1)
= 0; pour tout > 0:
ii) Prenons la fonction à deux variables h (S1 ; S2 ) = 2 (S1 )2 (n + 1) S2 . Alors d’après i) E (h (S (X))) =
0 8 > 0 sans que h (:) ne soit une fonction identiquement nulle presque surement. D’où la statis-
tique S n’est pas complète.
3- (2 points). Soit à trouver par la méthode des moments deux estimateurs di¤ érents pour .
i) Un estimateur des moments bM de , basé sur X1 ; X2 ; :::; Xn , est solution de l’équation
E (X) = X;
qu’on résout par rapport à dans l’ensemble des statistiques fonctions du moment empirique d’ordre
Pn
1, où X = n1 Xi . Or, puisque X N ; 2 et donc E(X) = , la dernière équation s’écrit tout
i=1
simplement
= X:
D’où
bM = X:
5
ii) Un autre estimateur des moments de peut être obtenu, en raison de la dépendance entre la
moyenne et la variance 2 , comme solution de l’équation du second moment
n
2 1X 2
E X = Xi ;
n
i=1
ou encore
n
1X 2
var(X) + E (X)2 = Xi :
n
i=1
D’où il su¢ t de résoudre l’équation au second degré suivante
n
2 2 1X 2
+ Xi = 0;
n
i=1
dont la solution est v
u n
u 1 X
bM =t Xi2 :
2n
i=1
(l’autre solution négative ne sera pas retenue puisque > 0:
4- (1 point). Soit à déterminer l’estimateur du maximum de vraisemblance bM V pour .
La fonction de vraisemblance L ( ; x1 ; :::; xn ) s’écrit avec = et 2 = 2 comme suit
n
!
2 n=2 1 X 2
L ( ; x1 ; :::; xn ) = (2 ) exp (xi ) , > 0:
2 2 i=1
Cette fonction est di¤érentiable sur ]0; +1[, et donc l’EM V sera la solution de l’équation normale
@ log L( ; X1 ; :::; Xn )
= 0;
@
soit
n n
n 1 X 1 X
+ 3 (Xi )2 + 2 (Xi ) = 0;
i=1 i=1
qui se réduit à l’équation du second degré suivante
n
X n
X
2
n Xi + Xi2 = 0;
i=1 i=1
dont l’unique solution positive, bM V , (l’autre elle est négative et ne sera pas retenue) est donnée
par s
Pn Pn Pn
Xi + 4n Xi2 Xi
i=1 i=1 i=1
bM V = :
2n