0% ont trouvé ce document utile (0 vote)
36 vues6 pages

Exam

Ce document est un examen de statistique non paramétrique daté du 18 février 2020, comprenant des questions sur des concepts tels que les estimateurs à noyau, le biais et la variance. Les questions portent sur des vecteurs aléatoires, des fonctions de densité, et des propriétés des noyaux d'ordre supérieur. Les étudiants doivent répondre en cochant les bonnes réponses et peuvent détailler leurs calculs sur une copie séparée.

Transféré par

Em Em,
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
36 vues6 pages

Exam

Ce document est un examen de statistique non paramétrique daté du 18 février 2020, comprenant des questions sur des concepts tels que les estimateurs à noyau, le biais et la variance. Les questions portent sur des vecteurs aléatoires, des fonctions de densité, et des propriétés des noyaux d'ordre supérieur. Les étudiants doivent répondre en cochant les bonnes réponses et peuvent détailler leurs calculs sur une copie séparée.

Transféré par

Em Em,
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

NOM :

PRÉNOM :

Statistique non paramétrique


Examen du 18/02/2020
Durée: 2h
Documents autorisés : 2 feuilles A4 recto-verso, manuscrites (à rendre avec la copie)

Répondez aux questions en cochant la bonne réponse. Vous pouvez détailler les calculs sur
une copie séparée si vous le souhaitez.

Soit (X, Y ) , (X1 , Y1 ) , . . . , (Xn , Yn ) des vecteurs aléatoires i.i.d. à valeurs dans Rd ×R, d ≥ 1.
On suppose que la loi de X est absolument continue par rapport à la mesure de Lebesgue sur
Rd , de densité f . Si elles existent, on note avec f 0 , f 00 , f (3) , f (4) , ..., les dérivées succesives de f .
On note m(x) = E(Y |X = x) la fonction de régression de Y sur X.

1. Soit d = 1, x ∈ R fixé, f continue en x et bornée sur R. Soit K : R → R la fonction


1 −u2
définie par K(u) = e , u ∈ R. On note avec Kh , pour h > 0, la fonction définie par
2 π
1  u 
Kh (u) = K pour tout u ∈ R. Alors :
h h
(a) lim (Kh ∗ f )(x) = f (x);  OUI  NON
h→0
(b) lim (Kh ∗ f )(x) = K(x);  OUI  NON
h→0
Z
(c) lim (Kh ∗ f )(x) = f (x) K(u) du;  OUI  NON
h→0
1
(d) lim (Kh ∗ f )(x) = √ f (x).  OUI  NON
h→0 2 π

2. Soit K la densité d’une loi normale centrée et réduite. On suppose ici que d = 1 et que la
densité des Xi est continue et bornée sur R. Indiquez si les estimateurs suivants de f (x)
(x ∈ R fixé) sont asymptotiquement sans biais (E[fbn (x)] −→ f (x)) :
n→∞

n  
1 X x − Xj
(a) fn (x) =
b K , avec hn = 2 n−1/4 ;  OUI  NON
nhn hn
j=1
n  
1 X x − Xj
(b) fn (x) =
b Yj K , avec hn = n−1/5 ;  OUI  NON
nhn hn
j=1
n
X
(c) fbn (x) = K ((n − 1) (x − Xj ));  OUI  NON
j=2
n
1 X √
(d) fbn (x) = √ n − 1 (x − Xj ) .

K  OUI  NON
n
j=1

1
3. Soit K la densité d’une loi normale centrée et réduite, K 0 sa dérivée. On suppose que
n  
1 X 0 x − Xj
la densité f est une fonction de classe C sur R. Soit f n,h (x) =
4 b0 K
nh2 h
j=1
l’estimateur à noyau de la dérivée f 0 (x) de f en x, x ∈ R (avec h > 0). Pour h "petit",
c’est-à-dire si h → 0 et si nh2 → ∞, le biais B(fb0 n,h (x)) = E[fb0 n,h (x)]−f 0 (x) et la variance
V (fb0 n,h (x)) de fb0 n,h (x) vérifient :

(a) B(fb0 n,h (x)) = O(h);  OUI  NON


(b) B(fb0 n,h (x)) = O(h2 );  OUI  NON
(c) B(fb0 n,h (x)) = O(h4 );  OUI  NON
1
(d) V (fb0 n,h (x)) = O( );  OUI  NON
n
1
(e) V (fb0 n,h (x)) = O( );  OUI  NON
nh
1
(f) V (fb0 n,h (x)) = O( 2 ).  OUI  NON
nh

n  
1 X x − Xj
4. Soit K un noyau d’ordre 4 sur R tel que K(u) = 0 si |u| > 1, et soit fbn,h (x) = K
nh h
j=1
l’estimateur à noyau de f (x), x ∈ R (avec h > 0). On suppose que la densité f est une
fonction de classe C 3 sur R. Si h → 0 et nh4 → ∞, le biais B(fbn,h (x)) et la variance
V (fbn,h (x)) de fbn,h (x) vérifient :

(a) B(fbn,h (x)) = O(h);  OUI  NON


(b) B(fbn,h (x)) = O(h3 );  OUI  NON
(c) B(fbn,h (x)) = O(h4 );  OUI  NON
1
(d) V (fbn,h (x)) = O( );  OUI  NON
n
1
(e) V (fbn,h (x)) = O( 3 );  OUI  NON
nh
1
(f) V (fbn,h (x)) = O( 4 ).  OUI  NON
nh

1 1 2
5. Soit K ∗ (u) = (3 − u2 ) √ e−u /2 pour tout u ∈ R et K(u1 , u2 ) = K ∗ (u1 ) · K ∗ (u2 ) pour
2 2π
tout (u1 , u2 ) ∈ R2 . Alors :

(a) K ∗ est un noyau d’ordre 2 sur R;  OUI  NON


(b) K∗ est un noyau d’ordre 3 sur R;  OUI  NON
(c) K ∗ est un noyau d’ordre 4 sur R;  OUI  NON
(d) K est un noyau d’ordre 2 sur R2 ;  OUI  NON
(e) K est un noyau d’ordre 3 sur R2 ;  OUI  NON
(f) K est un noyau d’ordre 4 sur R2 .  OUI  NON

2
6. Soit K le noyau défini à la question 5: K(u1 , u2 ) = K ∗ (u1 )·K ∗ (u2 ) pour tout (u1 , u2 ) ∈ R2 ,
n  
1 1 −u2 /2 1 X x − Xj
avec K (u) = (3−u ) √ e
∗ 2 pour tout u ∈ R. Soit fn,h (x) =
b K
2 2π nh2 h
j=1
l’estimateur à noyau de f (x), x ∈ R2 (avec h > 0). On suppose que la densité f est une
fonction de classe C 5 sur R2 . Si h → 0 et si nh5 → ∞, le biais B(fbn,h (x)) et la variance
V (fbn,h (x)) de fbn,h (x) vérifient :

(a) B(fbn,h (x)) = O(h3 );  OUI  NON


(b) B(fbn,h (x)) = O(h4 );  OUI  NON
(c) B(fbn,h (x)) = O(h5 );  OUI  NON
1
(d) V (fbn,h (x)) = O( 3 );  OUI  NON
nh
1
(e) V (fbn,h (x)) = O( 4 );  OUI  NON
nh
1
(f) V (fbn,h (x)) = O( 5 ).  OUI  NON
nh

n  
1 X x − Xj
7. Soit f de classe C 4 sur R et telle que f (x) = 0 si |x| > 2. Soit fbn,h (x) = K
nh h
j=1
un estimateur de Parzen-Rosenblatt de f (x), x ∈ R, avec K un noyau d’ordre 4 sur R et
tel que K(x) = 0 si |x| > 1. On cherche à choisir, en pratique, la fenêtre h qui minimise
l’erreur quadratique intégrée moyenne
Z h i2 
M (h) = E fn,h (x) − f (x) dx .
b
R
Z h Z 2 Z
1 i2
(a) Soit a = 2 (4)
f (x) dx · u K(u)du , b = K 2 (u)du, b
4
a un estimateur
24
de a et bb un estimateur de b. On dit que le paramètre de lissage (la fenêtre) e
hn est
choisi par la méthode "plug-in" si :
 
b
i. hn = arg min a h +
e 4
;  OUI  NON
h nh
!
bb
ii. e
hn = arg min b ah4 + ;  OUI  NON
h nh
!
bb
iii. e
hn = arg min b ah8 + ;  OUI  NON
h nh2
!
bb
iv. ehn = arg min b ah8 + ;  OUI  NON
h nh4
 −1/9
8b
a
v. hn =
e n−1/9 ;  OUI  NON
bb
 −1/5
4b
a
vi. hn =
e n−1/5 .  OUI  NON
bb

3
n  
1 · (−i) 1 X x − Xj
(b) Soit Kh (·) = K . On définit fbn,h (x) = K pour tout
h h (n − 1) h h
j=1
j6=i
i ∈ {1, . . . , n}. Alors :
h i
(−i)
i. E fbn,h (Xi ) = E [Kh (X1 − X2 )];  OUI  NON
h i
(−i)
ii. E fbn,h (Xi ) = E [Kh (X − X1 )];  OUI  NON
h i n−1
iii. E fn,h (Xi ) =
b E [Kh (X1 − X2 )];  OUI  NON
n
h i n−1 K(0)
iv. E fbn,h (Xi ) = E [Kh (X1 − X2 )] + .  OUI  NON
n n

(c) Soit
Z h i2 
M (h) = E fn,h (x) − f (x) dx ,
b
R

Z h n
i2 2Xb
CV 1(h) = fbn,h (x) dx − fn,h (Xi ) ,
R n
i=1
Z h n
i2 2 X b(−i)
CV 2(h) = fbn,h (x) dx − fn,h (Xi ) .
R n
i=1

Alors :

2
i. E [CV 2(h)] − E [CV 1(h)] = E [Kh (X1 − X2 )];  OUI  NON
Z n
ii. E [CV 1(h)] = M (h) − f 2 (x)dx;  OUI  NON
R
iii. E [CV 1(h)] = M (h);  OUI  NON
Z
iv. E [CV 2(h)] = M (h) − f 2 (x)dx;  OUI  NON
R
v. E [CV 2(h)] = M (h).  OUI  NON

(d) Pour l’estimation de la densité f par fbn,bhn , choisir b


hn par validation croisée signifie
que :
i. b
hn = arg min M (h);  OUI  NON
h
ii. b
hn = arg min CV 1(h);  OUI  NON
h
iii. b
hn = arg min E[CV 2(h)];  OUI  NON
h
iv. b
hn = arg min [CV 1(h) − CV 2(h)].  OUI  NON
h

4
8. Soit
n  
n   X x − Xj
X x − Xj Yj K
Yj K h
h j=1
j=1 (−i) j6=i
m
b n,h (x) = n   , m
b n,h (x) = n   ,
X x − Xj X x − Xj
K K
h h
j=1 j=1
j6=i

pour tout i ∈ {1, . . . , n} fixé. On peut alors écrire :


h i h i h i
(a) E (m(X) − m b n,h (X))2 + E (m(X) − Y )2 = E (m b n,h (X) − Y )2 ;
 OUI  NON
h i h i h i
b n,h (X))2 = E (Y − m
(b) E (m(X) − m b n,h (X))2 − E (Y − m(X))2 ;
 OUI  NON
 2  h i h i
(−i)
(c) E m(X) − m
b n,h (X) + E (m(X) − Y )2 = E (Y − m
b n,h (X))2 ;
 OUI  NON
 2   2  h i
(−i) (−i)
(d) E Y −m
b n,h (X) =E b n,h (X) − m(X)
m + E (m(X) − Y )2 .
 OUI  NON

9. Pour déterminer, à partir des données (X1 , Y1 ) , . . .h, (Xn , Yn ), le meilleuri estimateur de
Nadaraya-Watson pour m par rapport au critère E (m (X) − m b n,h (X))2 , on considère
b b , avec b
m n,hn
hn choisi par validation croisée. Cela signifie que :
h i
(a) b
hn = arg min E (m(X) − m b n,h (X))2 ;  OUI  NON
h
h i
(b) b b n,h (X))2 ;
hn = arg min E (Y − m  OUI  NON
h
n
1 X (−i)
2
(c) b
hn = arg min b n,h (Xi ) ;
Yi − m  OUI  NON
h n
i=1
n
X
(d) b
hn = arg min b n,h (Xi ))2 ;
(Yi − m  OUI  NON
h
i=1
n  2
(−i)
X
(e) b
hn = arg min b n,h (Xi ) .
Yi − m  OUI  NON
h
i=1

5
10. On suppose que dans l’échantillon (X1 , Y1 ) , . . . , (Xn , Yn ), tous les Yi ne sont pas observés.
On souhaite estimer θ = E(Y ). Soit D1 , . . . Dn des variables binaires telles que
Di = 1, si Yi est observé,
Di = 0, sinon.
On suppose que (X1 , Y1 , D1 ) , . . . , (Xn , Yn , Dn ) sont i.i.d., de même loi que (X, Y, D), et
satisfont à l’hypothèse de données manquantes au hasard (MAR) : D ⊥⊥ Y | X, c’est-à-dire
P (D = 1 | Y, X) = P (D = 1 | X) = p(X),
où p(X) = P (D = 1|X) = E(D|X) est le score de propension. On définit :
n   n  
X x − Xj X x − Xj
D j Yj K Dj K
h h
j=1 j=1
rb(x) = n   , pb(x) = n   .
X x − Xj X x − Xj
K K
h h
j=1 j=1

On suppose vérifiées les conditions de régularité qui permettent d’obtenir la consistance


forte de ces deux estimateurs :
• rb(x) converge presque sûrement vers r(x) pour tout x, avec
r(x) = E(DY | X = x);
• pb(x) convergent presque sûrement vers p(x) pour tout x, avec
p(x) = E(D | X = x) = P (D = 1 | X = x).
On accepte aussi que ces mêmes conditions de régularité nous permettent, pour obtenir la
convergence des statistiques θb1 , . . . , θb7 définies par la suite, de remplacer rb et pb par leur
limites correspondantes r et p. Alors :
n
1X
(a) θb1 = Yi est un estimateur consistant de θ;
n
i=1
 OUI  NON
n    
1 X Di Di rb(Xi )
(b) θ2 =
b Yi − 1 − est un estimateur consistant de θ;
n pb(Xi ) pb(Xi ) pb(Xi )
i=1
 OUI  NON
n
1 X Di
(c) θ3 =
b Yi est un estimateur consistant de θ;
n pb(Xi )
i=1
 OUI  NON
n
1X
(d) θb4 = Di Yi + (1 − Di ) rb(Xi ) est un estimateur consistant de θ;
n
i=1
 OUI  NON
n
1X
(e) θb5 = Di Yi + (1 − Di ) pb(Xi ) est un estimateur consistant de θ;
n
i=1
 OUI  NON
n
1X
(f) θ6 =
b rb(Xi ) est un estimateur consistant de θ;
n
i=1
 OUI  NON
n
1 X rb(Xi )
(g) θ7 =
b est un estimateur consistant de θ.
n pb(Xi )
i=1
 OUI  NON

Vous aimerez peut-être aussi