Mem Final
Mem Final
Faculté de Mathématiques
Mémoire de Licence
Probabilité et Statistique
Thème
Examinateur : Mr R. MESSACI
Présenté par :
ARDJANI Amina
Nous remercions ALLAH le tout puissant de nous avoir donné la santé et la volonté d’entamer et
de terminer ce mémoire.
Tout d’abord, ce travail ne serait pas aussi riche et n’aurait pas pu avoir le jour sans l’aide et
l’encadrement de Mme F.HAMRANI, on la remercie pour la qualité de son encadrement
exceptionnel, pour sa patience, sa rigueur et sa disponibilité durant notre préparation de ce
mémoire. Sans oublier de remercier notre examinateur Mr R.MESSACI pour son aide et ses
encouragements.
Nos remerciements s’adressent également à tout nos professeurs pour leurs générosités et la grande
patience dont ils ont su faire preuve malgré leurs charges académiques et professionnelles.
Nous remercions aussi nos parents, pour leur soutien et leur encouragement quotidien. Enfin, nos
profonds remerciements vont également à toutes les personnes qui nous ont aidés et soutenue de
prés ou de loin.
1
Résumé
L’objectif de ce mémoire est d’étudier les propriétés de certains estimateurs non paramétriques pour
la fonction de répartition et la densité. On s’est intéressé à l’estimateur à noyau de la densité. Une
attention particulière est donnée au choix du paramètre de lissage (fenêtre) pour cet estimateur. Nous
avons donné la valeur optimale de ce paramètre au sens de l’erreur quadratique moyenne intégrée
par la méthode de plug-in.
2
Table des matières
1 Introduction 1
4 Conclusion 15
3
Chapitre 1
Introduction
Un problème récurrent en statistique est celui de l’estimation d’une densité f ou d’une fonction de
répartition F à partir d’un échantillon de variables aléatoires réelles X1 , X2 , . . . , Xn indépendantes et
de même loi inconnue. Il existe plusieurs approches pour estimer ces dernières à partir des données. Il y
a l’approche paramétrique où on suppose que les données suivent un type de loi de distribution connu
et on se restreint à l’estimation des paramètres de cette loi. Dans l’approche non paramétrique, on ne
fait aucune hypothèse à priori sur la loi des observations mais on utilise directement les observations
pour l’estimation.
Pour la fonction de répartition, l’estimateur non paramétrique usuel est la fonction de répartition
empirique. Dans le cas de la fonction de densité, il existe plusieurs méthodes, citons :
– l’estimateur par histogramme
– l’estimateur naı̈f
– l’estimateur par la méthode du noyau.
Parmi l’ensemble de ces estimateurs, l’un les plus utilisés reste l’estimateur par la méthode du noyau
introduit par Rosenblatt(1962) et développé par Parzen (1962). Notons que l’utilisation pratique de
cette méthode nécessite le choix de deux paramètres :
– le noyau( qui est généralement une densité d’une loi statistique)
– le paramètre de lissage ou fenêtre.
Il est connu que le choix du noyau peu influent sur l’estimation, il n’en est pas de même pour
le paramètre de lissage. Un paramètre trop faible provoque l’apparition de détails artificiels sur le
graphe de l’estimateur et pour une valeur trop grande du paramètre, la majorité des caractéristiques
est effacée. Le choix du paramètre de lissage donc est une question très importante dans l’estimation
à noyau ainsi plusieurs méthodes existent pour le choix de ce paramètre, on peut citer
– la méthode de plug-in
– la méthode de validation croisée non biaisée
– la méthode du maximum de vraisemblance avec validation croisée.
Dans ce mémoire nous étudions quelque méthodes d’estimation non paramétrique de la fonction de
répartition et de la fonction de densité. Nous commençons par un chapitre d’introduction. Ensuite,
dans le chapitre deux, nous présentons un estimateur non paramétrique de la fonction de répartition
qui est la fonction de répartition empirique ainsi que ses propriétés statistiques.
Dans le chapitre trois, nous concentrons sur les méthodes d’estimation non paramétriques de la
densité : la méthode d’estimation par histogramme, la méthode d’estimation simple (l’estimateur
naı̈f) et la méthode d’estimation par noyau. Nous étudions particulièrement les propriétés statistiques
de l’estimateur à noyau. Une attention particulière est donnée au choix du paramètre de lissage par
la méthode de plug-in. Nous terminerons par une conclusion.
1
Chapitre 2
Pn
Fn (x) =
n
n
1X
= I{Xi ≤x}
n i=1
D’où
0 si
x ≤ X(1)
k
Fn (x) = si X(k) ≤ x ≤ X(k+1) , k = 1, 2, ..., n − 1
n
1 si x ≥ X(n)
2
2.2 Propriétés de la fonction de répartition empirique
2.2.1 Biais
On calcule d’abord l’espérance de Fn (x).
n
!
1X
E(Fn (x)) = E I{Xi ≤x}
n i=1
n
1X
= E(I{Xi ≤x} )
n i=1
1
= nE(I{X≤x} )
n
= P (X ≤ x)
= F (x)
Donc
Biais(Fn (x)) = E(Fn (x)) − F (x) = 0
c’est à dire, Fn est un estimateur sans biais de F.
2.2.2 Variance
Remarquons que nFn (x) est une somme d’une suite de variables aléatoires indépendantes identi-
quement distribuées Ui avec Ui = I{Xi ≤x} , i = 1, 2, ..., n. Les variables aléatoires Ui suivent une loi de
Bernoulli de paramètre p = F (x) (Ui B(p), i = 1, 2, ..., n)
Xn n
X
Ainsi nFn (x) = I{Xi ≤x} = Ui suit une loi Binomiale de paramètre n et p = F (x).
i=1 i=1
Ce qui donne !
n
X
V ar(nFn (x)) = V ar Ui
i=1
= n(F (x))(1 − F (x))
Ainsi
F (x)(1 − F (x))
V ar(Fn (x)) =
n
Alors
V ar(Fn (x)) −→ 0
n→+∞
c’est à dire que Fn est un estimateur convergent de F .
= E (Fn (x) − E(Fn (x)))2 + 2E [(Fn (x) − E(Fn (x)))(E(Fn (x)) − F (x))]
3
2.2.4 Convergence en probabilité
D’après l’inégalité de Chebyshev, on a ∀ε > 0,
V ar(Fn (x))
P (| Fn (x) − F (x) |≥ ε) ≤
ε2
Comme V ar(Fn (x)) −→ 0 alors
n→+∞
V ar(Fn (x))
−→ 0.
ε2 n→+∞
Ainsi
P
Fn (x) −−−−→ F (x).
n→+∞
nF (x) − nF (x) L
p n −−−−→ N (0, 1)
nF (x)(1 − F (x)) n→+∞
Alors √ L
n(Fn (x) − F (x)) −−−−→ N (0, F (x)(1 − F (x)))
n→+∞
.
4
Chapitre 3
3.1 L’histogramme
Soit X1 , ..., Xn une suite de variables aléatoires réelles qui suivent la même loi que X de fonction
densité de probabilité f .
En partitionnant l’espace des observations en intervalles semi-ouverts à droite (Ik )1≤k≤D .
On note nk = Card{i; Xi ∈ Ik } le nombre d’observation dans Ik et |Ik | la longueur de de l’intervalle
Ik . L’estimateur par histogramme de f est défini par
D
1 X nk
fˆ(x) = I{x∈Ik }
n k=1 |Ik |
La figure 3.1 représente un histogramme construit à partir d’un échantillon de taille 1500 issu de
la loi normale centrée réduite.
5
0.4
0.3
Density
0.2
0.1
0.0
−3 −2 −1 0 1 2 3
En remplaçant F par la fonction de répartition empirique, on obtient l’estimateur naı̈f de f , noté fˆ,
défini par
F̂ (x + h) − F̂ (x − h)
fˆ(x) = lim
h→0 2h
n
1 X
= I{x−h<Xi ≤x+h}
2nh i=1
n
1 X1
= I{x−h<Xi ≤x+h}
nh i=1 2
n
1 X1
= I x−Xi
nh i=1 2 {−1< h ≤1}
n
1 X x − Xi
= K0
nh i=1 h
où K0 est une fonction définie par
1
K0 (x) = I[−1,1] (x).
2
et Z +∞
K(u)du < +∞
−∞
Remarque 2. Les conditions supplémentaires suivantes nous permettant d’obtenir les propriétés
usuelles pour les estimateurs de la densité :
– Le noyau est une densité : Z +∞
K(u)du = 1
−∞
– Le noyau est de carré intégrable :
Z +∞
K 2 (u)du < +∞
−∞
6
– Le noyau admet un moment d’ordre 2 :
Z +∞
u2 K(u)du < +∞
−∞
Density
Density
−2 −1 0 1 2 −2 −1 0 1 2 −2 −1 0 1 2
Density
Density
−2 −1 0 1 2 −2 −1 0 1 2 −2 −1 0 1 2
où K est un noyau de Parzen et h > 0 est un paramètre de lissage appelé fenêtre.
Exemple :
7
0.5
gaussien
epanechnikov
rectangulaire
0.4
courbe théorique
0.3
Density
0.2
0.1
0.0
−6 −4 −2 0 2 4 6
Figure 3.3 – Estimation de la densité d’un échantillon issu d’une loi normale centrée réduite par
différents noyaux.
Preuve : On a !
n
1 X x − X i
E(fˆ(x)) = E K
nh i=1
h
1 x−X
= E K
h h
Z +∞
1 x−y
= K f (y)dy.
h −∞ h
En posant
x−y
−u =
h
On aura
y = x + uh
et
dy = hdu.
8
Nous obtenons donc Z +∞
1
E(fˆ(x)) = K(−u)f (x + uh)hdu.
h −∞
Comme la fonction noyau est paire, on aura
Z +∞
ˆ
E(f (x)) = K(u)f (x + uh)du.
−∞
Le biais peut s’écrire
Z +∞
E(fˆ(x)) − f (x) = K(u)f (x + uh)du − f (x)
−∞
Z +∞
= K(u) {f (x + uh) − f (x)} du
−∞
car Z +∞
K(u)du = 1.
−∞
En utilisant le développement de Taylor de f au voisinage de x à l’ordre 2
(uh)2 00
f (x + uh) = f (x) + uhf 0 (x) + f (x) + ◦(h2 )
2
Le biais devient
+∞
u2 h2 00
Z
E(fˆ(x)) − f (x) = K(u) uhf (x) + 0 2
f (x) + o(h ) du
−∞ 2
Z +∞ Z +∞
0 h2 00
= hf (x) uK(u)du + f (x) u2 K(u)du + o(h2 )
−∞ 2 −∞
2 Z +∞
h 00
= f (x) u2 K(u)du + o(h2 )
2 −∞
car Z +∞
uK(u)du = 0.
−∞
Nous remarquons que si h −→ 0 alors Biais −→ 0.
n→+∞ n→+∞
9
x−t 1
−u = ⇒ du = dt
h h
On aura
Z +∞ Z +∞ 2
ˆ 1 2 1
V ar(f (x)) = K (−u)f (x + hu)hdu − 2 K(−u)f (x + uh)hdu
nh2 −∞ nh −∞
Z +∞ Z +∞ 2
1 2 1
= K (u)f (x + hu)du − K(u)f (x + uh)du
nh −∞ n −∞
car K est une fonction paire.
En utilisant le développement de Taylor de f au voisinage de x à l’ordre 1
on obtient
Z +∞
ˆ 1 2 0 1
V ar(f (x)) = K (u) [f (x) + uhf (x) + ◦(h)] du + O
nh −∞ n
Z +∞ Z +∞
1 2 1 2 0 1 1
= [K(u)] f (x)du + u [K(u)] f (x)du + ◦ +O
nh −∞ n −∞ n n
Comme Z +∞
uK 2 (u)du < +∞
−∞
alors Z +∞
1 1
V ar(fˆ(x)) = 2
K (u)f (x)du + O
nh −∞ n
Finalement, si nh −→ 0 alors V ar(fˆ(x)) −→ 0.
n→+∞ n→+∞
Remarque 3. D’après les expressions du Biais et la variance, on observe que plus le paramètre h
est faible plus le biais diminue mais plus la variance augment et de façon inverse, une valeur grande
de h augmente le biais et diminue la variance (ceci est illustré dans la figure 3.4). Donc le choix de
h est très important dans l’estimation à noyau.
On peut voir l’influence de la largeur de la fenêtre sur l’estimation de la densité dans la figure
3.4. Dans le cas h = 0, 05 on a une courbe sous-lissée. Par contre, dans le cas h = 0, 8 on remarque
que la courbe est sur-lissée. Et le meilleur résultat est obtenu pour h = 0, 4.
10
0.4
0.4
Density
Density
0.2
0.2
0.0
0.0
−2 −1 0 1 2 −2 −1 0 1 2 3
0.4
Density
Density
0.2
0.2
0.0
0.0
−3 −2 −1 0 1 2 3 4 −4 −2 0 2 4
Figure 3.4 – La densité théorique N (0, 1) (en rouge) et la densité estimée (en noir) avec noyau
Gaussien pour n = 100, h = 0.05, h = 0.2, h = 0.4, h = 0.8.
Ainsi
Z +∞
M ISE(fˆ(x)) = M SE(fˆ(x))dx
−∞
+∞ 2
h4 +∞ 00
Z Z Z +∞
1 2 1 2
= K (u)du + O + (f (x)) dx u K(u)du + ◦(h4 )
2
nh −∞ n 4 −∞ −∞
Quand n 7−→ +∞, nh 7−→ +∞ et l’approximation asymptotique du M ISE(fˆ(x)) est donnée par :
+∞ +∞ +∞ 2
h4
Z Z Z
1
AM ISE(fˆ(x)) = 2
K (u)du + 00
(f (x)) dx 2 2
u K(u)du]
nh −∞ 4 −∞ −∞
Ensuite
∂
AM ISE(fˆ(x)) = 0
∂h
11
Z +∞ 2 Z +∞ Z +∞
3 2 00 2 1
⇔h u K(u)du [f (x)] dx − 2 K 2 (u)du = 0
−∞ −∞ nh −∞
1 R +∞ 2
−∞
K (u)du
⇔ h5 = R +∞ n R +∞
[ −∞ u2 K(u)du]2 −∞ f 002 (x)dx
R +∞ 2 !1/5
−1/5 −∞
K (u)du
⇔h=n R +∞ R +∞
[ −∞ u2 K(u)du]2 −∞ f 002 (x)dx
D’où
Z +∞ −2/5 Z +∞ 1/5 Z +∞ −1/5
00 2
hopt = 2
u K(u)du 2
K (u)du [f (x)] dx n−1/5
−∞ −∞ −∞
Calculons ϕ00
1 2 w 2
ϕ(w) = √ e−w /2 ⇒ ϕ0 (w) = − √ e−w /2
2π 2π
1 2
⇒ ϕ00 (w) = √ (w2 − 1)e−w /2
2π
00
On remplace l’expression de ϕ (w), on obtient
Z +∞ Z +∞
00 1 1 2
2
(f (x)) dx = 2 (w2 − 1)2 e−w dw
−∞ σ 2π −∞
Z +∞ Z +∞ Z +∞
1 1 4 −w2 2 −w2 −w2
= 5 w e dw − 2 w e dw + e dw
σ 2π −∞ −∞ −∞
1 +∞ 2 −w2
Z Z +∞
1 1 −w2
= 5 − w e dw + e dw
σ 2π 2 −∞ −∞
12
Posons √ √
u= 2w ⇒ du = 2dw
On trouve
+∞
1 +∞ u2 −u2 /2 du
Z Z Z +∞
00 2 1 1 1 −u2 /2
(f (x)) dx = − e √ +√ e du
−∞ σ 5 2π 2 −∞ 2 2 2 −∞
1√ √
1 1
= − π+ π
σ 5 2π 4
1 1 3√
= π
σ 5 2π 4
1 3
= √
σ5 8 π
Où n
1 X
σ
b= (Xi − X̄)2
n − 1 i=1
est un estimateur sans biais de σ et n
1X
X̄ = Xi .
n i=1
Ce qui implique
13
1/5 −1/5
1 3
hopt = 1. √ √ n−1/5
2 π 8 πσ 5
−1/5
3
= 2−1/5 π −1/10 π 1/10 σ̂n−1/5
8
= 2−1/5 23/5 3−1/5 σ̂n−1/5
= 22/5 3−1/5 σ̂n−1/5
1/5
4
= σ̂n−1/5
3
σ n−1/5
= 1.06b
Le paramètre de lissage donnée par la méthode de plug-in pour un noyau gaussien est donné par
σ n−1/5 .
hopt = 1.06b
La figure 3.5 représente la densité estimée d’un échantillon de taille 100 issu d’une loi normale centrée
réduite avec un noyau gaussien et avec la valeur optimale de h.
On remarque que la courbe estimée ajuste bien la courbe estimée.
0.5
0.4
0.3
Density
0.2
0.1
0.0
−3 −2 −1 0 1 2 3
Figure 3.5 – La densité théorique (en rouge) et la densité estimée (en noir) avec un noyau Gaussien
et n = 100, h = hopt .
14
Chapitre 4
Conclusion
Au cours de notre mémoire, nous avons traité les techniques de l’estimation non paramétrique
de la fonction de répartition et de la fonction de densité. Il se compose de deux parties essentielles.
La première partie porte sur l’estimation de la fonction de répartition par celle empirique. Dans
la deuxième partie, nous avons présenté quelques estimateurs de la densité comme l’histogramme,
l’estimateur naı̈f et l’estimateur à noyau (l’estimateur de Parzen-Rosenblatt) pour lequel nous avons
étudié ses propriétés statistiques et nous avons mis en évidence le rôle du paramètre de lissage et
nous avons présenté une méthode de sélection de ce paramètre par la méthode de plug-in.
15
Annexe
Nous donnons dans cet annexe les programmes permettant d’obtenir les figures données dans ce
mémoire. On a programmé à l’aide de langage R i386 3.4.4.
Figure 3.1
x=rnorm(1500,0,1)
hist(x,prob=T)
Figure 3.2
par(mfrow=c(2,3))
plot(density(x=0,bw=1,kernel=”gaussian”),xlim=c(2,2),ylim=c(0,1),lwd=2,main=”gaussian”)
plot(density(x=0,bw=0.4,kernel=”triangular”),xlim=c(2,2),ylim=c(0,1),lwd=2,main=”triangular”)
plot(density(x=0,bw=0.6,kernel=”rectangular”),xlim=c(2,2),ylim=c(0,1),lwd=2,main=”rectangular”)
plot(density(x=0,bw=0.4,kernel=”epanechnikov”),xlim=c(2,2),ylim=c(0,1),lwd=2,main=”epanechnikov”)
plot(density(x=0,bw=0.35,kernel=”biweight”),xlim=c(-2,2),ylim=c(0,1),lwd=2,main=”biweight”)
plot(density(x=0,bw=0.4,kernel=”cosine”),xlim=c(-2,2),ylim=c(0,1),lwd=2,main=”cosine”)
Figure 3.3
x=rnorm(250,0,1)
plot(density(x,bw=0.45),lwd=2,xlim=c(-6,6),ylim=c(0,0.5),main=””)
lines(density(x,bw=0.45,kernel=”epanechnikov”),lwd=2,col=2,main=””)
lines(density(x,bw=0.45,kernel=”rectangular”),lwd=2,col=3,main=””)
curve(dnorm(x,0,1),col=4,add=T,lwd=2)
legend(2,0.5,cex=0.55,legend=c(”gaussien”,”epanechnikov”,”rectangulaire”,”courbe
théorique”),col=c(1,2,3,4),lwd=2)
Figure 3.4
x=rnorm(100,0,1)
par(mfrow=c(2,2))
plot(density(x,bw=0.05),ylim=c(0,0.5))
curve(dnorm(x,0,1),add=T,col=2)
plot(density(x,bw=0.2),ylim=c(0,0.5))
curve(dnorm(x,0,1),add=T,col=2)
plot(density(x,bw=0.4),ylim=c(0,0.5))
curve(dnorm(x,0,1),add=T,col=2)
plot(density(x,bw=0.8),ylim=c(0,0.5))
curve(dnorm(x,0,1),add=T,col=2)
Figure 3.5
x=rnorm(100,0,1)
plot(density(x,bw=1.06 ∗ 100−0.2 ),ylim=c(0,0.5),main=””)
curve(dnorm(x,0,1),add=T,col=2)
16
Bibliographie
[1] Tsybakov, A.B. (2004). Introduction à l’estimation non paramétrique. Springer- Verlag, New
York-Berlin. ISBN 3-540-40592-5.
[2] Parzen, E. (1962). on Estimation of a Probability Density Functions and Mode. Annals. Mathe.
Statist., Vol 33 ,Issue 3, pp 1065-1076.
[3] Rosenblatt, M. (1956). Remarks on Some Nonparametric Estimates of Density Functions. An-
nals. Mathe. Statist., Vol 27, pp 832-837.
[4] Silverman, B.W. (1986). Density estimation for statistics and data analysis. Chapman and Hall,
London.
17