0% ont trouvé ce document utile (0 vote)
49 vues173 pages

Méthode non-paramétrique en mathématiques

Transféré par

Quentin Kere
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
49 vues173 pages

Méthode non-paramétrique en mathématiques

Transféré par

Quentin Kere
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Méthode non-paramétrique des noyaux associés mixtes

et applications
Francial Giscard Baudin Libengué Dobélé-Kpoka Libengue Dobele-Kpoka

To cite this version:


Francial Giscard Baudin Libengué Dobélé-Kpoka Libengue Dobele-Kpoka. Méthode non-
paramétrique des noyaux associés mixtes et applications. Mathématiques générales [[Link]]. Uni-
versité de Franche-Comté; Université Joseph Ki-Zerbo (Ouagadougou, Burkina Faso), 2013. Français.
�NNT : 2013BESA2007�. �tel-01124288�

HAL Id: tel-01124288


[Link]
Submitted on 6 Mar 2015

HAL is a multi-disciplinary open access L’archive ouverte pluridisciplinaire HAL, est


archive for the deposit and dissemination of sci- destinée au dépôt et à la diffusion de documents
entific research documents, whether they are pub- scientifiques de niveau recherche, publiés ou non,
lished or not. The documents may come from émanant des établissements d’enseignement et de
teaching and research institutions in France or recherche français ou étrangers, des laboratoires
abroad, or from public or private research centers. publics ou privés.
École Doctorale Carnot-Pasteur (France)
&
École Doctorale des Sciences et Technologie (Burkina Faso)

THÈSE EN CO-TUTELLE
pour obtenir le grade de
Docteur de l’Université de Franche-Comté
et de l’Université de Ouagadougou
Spécialité : Mathématiques et Applications
Présentée par

Francial Giscard Baudin LIBENGUÉ DOBÉLÉ-KPOKA

Directeurs de Thèse :

Professeur Célestin C. KOKONENDJI (Université de Franche-Comté)


Professeur Blaise SOMÉ (Université de Ouagadougou)

Méthode non-paramétrique des noyaux associés


mixtes et applications
Soutenue le 13 juin 2013 à Ouagadougou

Après avis des Rapporteurs :

Pascal SARDA, Professeur à l’Université de Toulouse II-Le Mirail, France


Anne-Françoise YAO-LAFOURCADE, Professeure à l’Université Blaise Pascal, France

Devant le Jury composé, des Directeurs de thèse, des rapporteurs et :

Président : Professeur Gane Samb LO, Université Saint Louis, Sénégal


Examinateurs : Professeur Clovis NITIEMA, Université Ouaga II, Burkina Faso
Professeur Ousséni SO, Institut Des Sciences, Burkina Faso
Professeur Longin SOME, Université de Ouagadougou, Burkina Faso
2 Francial G. Libengué
Dédicaces

Je dédie cette thèse à :

Dieu le Père Tout Puissant qui ne cesse de faire pour moi des merveilles ;

Emmanuel LIBENGUE et Françoise KONAMO, le couple qui m’a mis au monde.

Je le dédie aussi à vous : Paméla DENEMANDJI, Patrick BAÏPO, Arlette LIBENGUE,


Nadine LIBENGUE, Fridolin LIBENGUE, Junior LIBENGUE, Jenifer LIBENGUE, Cyin-
thia LIBENGUE, Jésus LIBENGUE, Divina LIBENGUE, Adoreinne LIBENGUE et Exau-
cée LIBENGUE, pour votre amour, votre soutien sans faille et tout ce vous avez pu
m’apporter pour franchir les obstacles les plus difficiles.

Enfin, en mémoire de ma défunte et chère maman Elizabeth, et ma soeur Ella qui


auraient été fières du fruit de tant d’efforts consentis.

"KANGA BÉ TI MO, GBOU MBÉTI A GOUÉ YONGORO".

3
4 Francial G. Libengué
Remerciements

Je suis très heureux d’exprimer ici tous mes remerciements, mes profondes gratitude
et reconnaissance à mon directeur de thèse, le Professeur Célestin C. Kokonendji, sans
qui ce travail n’aurait pu voir le jour. Merci de m’avoir proposé ce sujet de thèse aussi
intéressant. Merci d’avoir pris le temps de m’enseigner avec patience les nécessaires
bases de la statistique mathématique et de développer en moi l’aptitude d’analyse des
projets de recherche. Ta rigueur scientifique, tes critiques pertinentes et ta présence
attentive tout au long de ce parcours ont été essentiels à la réalisation de ce travail.
J’espère que cette thèse est digne de ton attente et de ton investissement personnel.
Je remercie chaleureusement mon second directeur de thèse le Professeur Blaise
Somé, Directeur de Laboratoire d’Analyse Numérique, d’Informatique et de Biomathé-
matique (LANIBIO) de l’Université de Ouagadougou qui a guidé mes premiers pas
en recherche depuis mon DEA et qui s’est fortement impliqué pour le financement
de cette thèse en me recommandant personnellement à l’Agence Universitaire de la
Francophonie (AUF). Merci d’avoir créé le LANIBIO qui nous pousse à rechercher le
meilleure de nous même.
Je remercie cordialement le Professeur Pascal Sarda, de l’université de Toulouse
II-Le Mirail et la Professeure Anne-Françoise Yao-Lafourcade, de l’Université Blaise
Pascal de Clermont Ferrand, d’avoir accepté être rapporteurs externes de cette thèse.
J’adresse également mes remerciements au Professeur Clovis Nitiéma de l’Université
de Ougadougou qui a accepté être rapporteur interne de cette thèse.
Mes remerciements au Professeur Gane Samb Lo de l’Université Gaston Berger de
Saint Louis au SENEGAL, qui a accepté présider ce jury, merci aussi à tous les autres
membres du jury à savoir les Professeurs Longhin Somé et Ousséni So de l’Université
de Ougadougou.
Mes profonds remerciements à l’Agence Universitaire de la Francophonie (AUF),
pour avoir investi sur moi en finançant entièrement cette thèse. Ces remerciements
vont aussi en l’endroit de ses agents en particulier Madame Fabar Sané, Madame Zoé
Aubièrge Wangré, Madame Anne Laure Lejeune, Monsieur Benjamin Sia, Monsieur
Ousmane Barra et Monsieur Youssouf Ouattara pour leurs services.
Je n’oublierai pas de remercier le Professeur Christian Maire, Directeur du Labora-
toire de Mathématiques de Besançon (LMB) ainsi que son prédécesseur le Professeur
Patrick Hild de m’avoir accueilli dans ce cadre idéal de travail. Mes remerciements
vont aussi en l’endroit du Professeur Gilles Lancian, Directeur de l’École Doctorale
Carnot Pasteur ainsi que tous les autres membres du LMB sans oublier Mme Catherine
Pagani.

5
J’aimerais remercier tous les membres d’Équipe de Probabilités-Statistique du LMB
en particulier les Maîtres de Conférences : Yacouba Boubacar Maïnassara, Davit Var-
ron, Stéphane Chretien et Landy Rabhéhasaina pour leur collaboration.
Je remercie particulièrement Monsieur Nicolas Klutchnikoff, Maître de Confé-
rences à l’ENSAI, pour m’avoir appris la théorie des minimax lors de mon séjour à
Rennes. Merci aussi à toute l’équipe qui m’avait accueilli.
J’adresse mes remerciements à toute l’équipe du Décanat, à tous les Enseignants
Chercheurs et en particuliers ceux du Département Mathématiques & Informatique de
la Faculté des Sciences de l’Université de Bangui.
Mes remerciement s’adressent aussi à tous les membres du LANIBIO et en parti-
culier au Pr. G. Kabré, Dr. O. Sawadogo, Dr. E. Gouba, Dr. V. Kana sans oublier Dr. Y.
Paré, Dr. W. Mbwentchou, Dr. T. Sadou, Dr. M. Kéré et Mr K. Somé.
Je remercie aussi tous les doctorants du LMB et du LANIBIO, en particulier Cyril
Moypemna, Matthieu Somé, Khoirin Nisa, Basad Al-sarray, Julien Grépat, Mohamed
Gazibo et Étienne Ouédraogo. Je vous encourage à continuer jusqu’au bout.
Je remercie les Professeurs Sékou Traoré et Faustin Touadéra qui m’ont encouragé
et orienter vers la recherche. Mes remerciements vont aussi à l’encontre de Pr. Jean L.
Syssa Magalé, Pr. Joachim R. Sioké, Dr. Jean Mboliguipa, Dr. Ernest Mada, Dr. Jocelyn
Gonessa et Dr. Doriano B. Pougaza pour les précieux conseils qu’ils n’ont cessé de me
donner.
Que mes tantes Bernadette Konam, Simone Konam, Germaine Millier et Françoise
Libengué ainsi que mes oncles Jean Aurelien Libengué, Dominique Konamo et Narcisse
Millier soient aussi remerciés pour leurs soutiens infaillibles.
Mes sincères remerciement aux familles Grébongo, Moussapiti, Dénémandji, Dou-
loumatchi, Bondéboli, Wambobo, Mokambo, Lho-Konam, Kpawilina, Légué, Adiallo,
Yandoba, Adrisse, Bompangué et Mbito pour leurs soutiens infaillible et inconditionnel
tout au long de mon parcours.
Merci à tous mes collaborateurs, je pense notamment à Frédéric Wango, Hugues
et Rebecca Penda, Ange Wakamba, Crepin Bouté, Stevens Orondrou, Stève Djetel,
Placide Douam, Arsène Solamosso, Dieudonné Mandéhou, Vianney Rama, Yvon Sen-
guéla, Martinien Penda Rodrigue Rama et Mariam Saba.
Ben-Sthal Sakoma et Bienvenu Pakouzou, mes compagnons de misères, nous avons
toujours partagé le même sort, vos soutien et conseil n’ ont cessé de me réconforter.
Que vous en soyez ainsi remerciés.
Merci à vous tous que je n’ai peut être pas nommément cité ici, pour les agréables
occasions de partage que nous avons eues je pense à Mylène et Kevin Kokonendji,
Daniel Bongo ainsi que Chérubin Magba.
Pour le meilleur, c’est surtout une profonde pensée pour mes quatre grands parents
décédés, et qui auraient été fiers de moi.
Je n’oublierai pas la Communauté Centrafricaine du Burkina (CCAB), l’Union des
Élèves, Étudiants et Stagiaires Centrafricains vivant au Burkina Faso (UEESCABF), les
jeunes légionnaires de la Paroisse Saint Michel, la chorale Notre Dame de l’Unité et le
groupe liturgique de Scholasticat Saint Camille.

6 Francial G. Libengué
Production scientifique

i. Parues
[i.1] Senga Kiessé, T., Libengué, F.G., Zocchi, S.S. & Kokonendji, C.C. (2010). The R pa-
ckage for general discrete triangular distributions, http ://[Link]/
web/packages/TRIANGG/[Link]
[i.2] Kokonendji, C.C. & Libengué, F.G. (2011). Méthode des noyaux associés continus
et estimation de densité. Procedings du 43 ème Journée de Statistique de la SFdS, 86-91,
Tunis 23-27 mai 2011.
[i.3] Kokonendji, C.C., Libengué, F.G. & Varron, D. (2012). Covergence des estimateurs
à noyaux associés de densité. Journées de Statistique de la SFdS, 5 pages, Bruxelles
21-25 mai 2012. http ://[Link]/[Link] ?id=98
[i.4] Libengué, F.G., Somé, S.M. & Kokonendji, C.C. (2013). Estimateur par noyaux a
ssociés mixtes d’un modèle de mélange. Les 45e Journées de Statistique de la SFdS,
Toulouse 27 - 31 mai 2013.
[i.5] Somé, S.M., Libengué, F.G. & Kokonendji, C.C. (2013). Estimation de densité par
noyau bêta bivarié avec structure de corrélation. Les 45e Journées de Statistique de
la SFdS, Toulouse 27 - 31 mai 2013.

ii. Soumises
[ii.1] Kokonendji, C.C. & Libengué, F.G. (2012). Asymptotic results for continuous as-
sociated kernel estimators for density functions. Soumis pour publication depuis
le 19.11.2012 à Annals of the Institute of Statistical Mathematics (Ref. AISM-D-12-
00087 ; Under Review).
[ii.2] Kokonendji, C.C. & Libengué, F.G. (2013). Non-classical associated kernels for
non-standard density estimators. Soumis pour publication depuis le 07.01.2013 à
Statistical Methodology ([Link]-D-13-00005 ; Under Review).

iii. En préparation
[iii.1] Klutchnikoff, N., Kokonendji, C.C. & Libengué, F.G. Minimax and Adaptive
Properties of Associated Kernel Density.
[iii.3] Kokonendji, C.C., Libengué, F.G. & Somé, S.M. Mixed associated kernel esti-
mators of a mixture model.

7
iv. Sans comité de lecture et séminaires universitaires
[iv.1] Libengué, F.G. (2011a). Introduction à la méthode des noyaux associés continus.
Deuxième Journée de Rencontre Dijon-Besançon en Probabilités et Statistique. Dijon
2011.01.28.
[iv.2] Libengué, F.G. (2011b). Extended beta kernel estimators for bounded functions.
Séminaires de l’Equipe Probabilités et Statistique de l’Université de Franche-Comté.
Besançon 2011.02.14.
[iv.3] Libengué, F.G. (2011c). Estimation de densités par le noyau bêta étendu. Sé-
minaires du Laboratoire d’Analyse Numérique d’Informatique et de Biomathématique
(LANIBIO) de l’Université de Ouagadougou. Ouagadougou 2011.03.03.
[iv.4] Libengué, F.G. (2012a). Quelques résultats asymptotiques des estimateurs à
noyaux associés de densité. Séminaires de l’Equipe Probabilités et Statistique de l’Uni-
versité de Franche-Comté. Besançon 2012.02.20.
[iv.5] Libengué, F.G. (2012b). Convergences des estimateurs à noyaux associés de den-
sité . Séminaires des Doctorants de l’Université de Franche-Comté. Besançon 2012.03.07.
[iv.6] Libengué, F.G.. (2012c). Convergences des estimateurs à noyaux associés de
densité . Séminaires du Laboratoire d’Analyse Numérique d’Informatique et de Bioma-
thématique (LANIBIO) de l’Université de Ouagadougou. Ouagadougou 2012.04.22
[iv.5] Libengué, F.G. (2013). Estimation par noyaux associés mixtes d’un modèle de
mélange. Séminaires de l’Equipe Probabilités et Statistique de l’Université de Franche-
Comté. Besançon 2013.02.11.

8 Francial G. Libengué
Résumé
Nous présentons dans cette thèse, l’approche non-paramétrique par noyaux associés
mixtes, pour les densités à supports partiellement continus et discrets. Nous commen-
çons par rappeler d’abord les notions essentielles d’estimation par noyaux continus
(classiques) et noyaux associés discrets. Nous donnons la définition et les caractéris-
tiques des estimateurs à noyaux continus (classiques) puis discrets. Nous rappelons
aussi les différentes techniques de choix de paramètres de lissage et nous revisitons les
problèmes de supports ainsi qu’une résolution des effets de bord dans le cas discret.
Ensuite, nous détaillons la nouvelle méthode d’estimation de densités par les noyaux
associés continus, lesquels englobent les noyaux continus (classiques). Nous définis-
sons les noyaux associés continus et nous proposons la méthode mode-dispersion pour
leur construction puis nous illustrons ceci sur les noyaux associés non-classiques de la
littérature à savoir bêta et sa version étendue, gamma et son inverse, gaussien inverse
et sa réciproque le noyau de Pareto ainsi que le noyau lognormal. Nous examinons
par la suite les propriétés des estimateurs qui en sont issus plus précisément le biais,
la variance et les erreurs quadratiques moyennes ponctuelles et intégrées. Puis, nous
proposons un algorithme de réduction de biais que nous illustrons sur ces mêmes
noyaux associés non-classiques. Des études par simulations sont faites sur trois types
d’estimateurs à noyaux lognormaux. Par ailleurs, nous étudions les comportements
asymptotiques des estimateurs de densité à noyaux associés continus. Nous montrons
d’abord les consistances faibles et fortes ainsi que la normalité asymptotique ponc-
tuelle. Ensuite nous présentons les résultats des consistances faibles et fortes globales
en utilisant les normes uniformes et L1 . Nous illustrons ceci sur trois types d’estima-
teurs à noyaux lognormaux. Par la suite, nous étudions les propriétés minimax des
estimateurs à noyaux associés continus. Nous décrivons d’abord le modèle puis nous
donnons les hypothèses techniques avec lesquelles nous travaillons. Nous présentons
ensuite nos résultats minimax et enfin nous faisons une application sur les noyaux
associés non-classiques bêta, gamma et lognormal. Enfin, nous combinons les noyaux
associés continus et discrets pour définir les noyaux associés mixtes. De là, les outils
d’unification d’analyses discrètes et continues sot utilisés, pour montrer les différentes
propriétés des estimateurs à noyaux associés mixtes. Une application sur un modèle
de mélange des lois normales et de Poisson tronquées est aussi donnée. Tout au long
de ce travail, nous choisissons le paramètre de lissage uniquement avec la méthode de
validation croisée par les moindres carrés.

Mots clés : Convergence, Densité mixte, Échelles de temps, Effet de bords, Estimation
non-paramétrique par noyau, Modèle de mélange, noyau uni-modal, Paramètre de
dispersion, Validation croisée.

9
Abstract
We present in this thesis, the non-parametric approach using mixed associated ker-
nels for densities with supports being partially continuous and [Link] first start
by recalling the essential concepts of classical continuous and discrete kernel density
estimators. We give the definition and characteristics of these estimators. We also re-
call the various technical for the choice of smoothing parameters and we revisit the
problems of supports as well as a resolution of the edge effects in the discrete case.
Then, we describe a new method of continuous associated kernels for estimating den-
sity with bounded support, which includes the classical continuous kernel method.
We define the continuous associated kernels and we propose the mode-dispersion for
their construction. Moreover, we illustrate this on the non-classical associated kernels
of literature namely, beta and its extended version, gamma and its inverse, inverse
Gaussian and its reciprocal, the Pareto kernel and the kernel lognormal. We subse-
quently examine the properties of the estimators which are derived, specifically, the
bias, variance and the pointwise and integrated mean squared errors. Then, we propose
an algorithm for reducing bias that we illustrate on these non-classical associated ker-
nels. Some simulations studies are performed on three types of estimators lognormal
kernels. Also, we study the asymptotic behavior of the continuous associated kernel
estimators for density. We first show the pointwise weak and strong consistencies as
well as the asymptotic normality. Then, we present the results of the global weak and
strong consistencies using uniform and L1 norms. We illustrate this on three types of
lognormal kernels estimators. Subsequently, we study the minimax properties of the
continuous associated kernel estimators. We first describe the model and we give the
technical assumptions with which we work. Then We present our results that we apply
on some non-classical associated kernels more precisely beta, gamma and lognormal
kernel estimators. Finally, we combine continuous and discrete associated kernels for
defining the mixed associated kernels. Using the tools of the unification of discrete and
continuous analysis, we show the different properties of the mixed associated kernel
estimators. All through this work, we choose the smoothing parameter using the least
squares cross-validation method.

Keywords : Asymmetric kernel, Boundary effect, Convergence, Cross-validation, Dis-


persion parameter, Mixed density, Mixture model, Nonparametric kernel estimation,
Time-scales, Unimodal kernel.

10 Francial G. Libengué
Table des matières

Introduction générale 19

1 Estimateurs à noyaux : continus classiques et associés discrets 21


1.1 Estimateurs à noyaux continus classiques . . . . . . . . . . . . . . . . . . 22
1.1.1 Caractéristiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.1.2 Exemples des noyaux continus classiques . . . . . . . . . . . . . . 27
1.1.3 Choix de fenêtre . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.1.4 Problèmes de supports . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.2 Estimateurs à noyaux associés discrets . . . . . . . . . . . . . . . . . . . . 32
1.2.1 Caractéristiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.2.2 Exemples de noyaux associés discrets . . . . . . . . . . . . . . . . 36
1.2.3 Choix de fenêtre . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
1.2.4 Une résolution de problèmes de bords . . . . . . . . . . . . . . . . 42

2 Méthode des noyaux associés continus 47


2.1 Noyaux associés continus . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.1.1 Type de noyau et noyaux associés . . . . . . . . . . . . . . . . . . 48
2.1.2 Méthode mode-dispersion . . . . . . . . . . . . . . . . . . . . . . . 50
2.1.3 Noyaux associés non-classiques : bêta et son extension, gamma
et son inverse, gaussien inverse et sa réciproque, Pareto puis log-
normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.2 Estimateurs à noyaux associés continus . . . . . . . . . . . . . . . . . . . 64
2.2.1 Caractéristiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
2.2.2 Réduction de biais et noyaux associés modifiés . . . . . . . . . . . 70
2.2.3 Illustration sur les noyaux associés non-classiques . . . . . . . . . 76
2.2.4 Problèmes de choix de fenêtre . . . . . . . . . . . . . . . . . . . . 88
2.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93

3 Convergence des estimateurs à noyaux associés continus 95

11
Table des matières

3.1 Consistance et normalité asymptotique ponctuelles . . . . . . . . . . . . 96


3.1.1 Consistance faible et forte . . . . . . . . . . . . . . . . . . . . . . . 96
3.1.2 Normalité asymptotique . . . . . . . . . . . . . . . . . . . . . . . . 97
3.2 Nouvelles convergences globales . . . . . . . . . . . . . . . . . . . . . . . 98
3.2.1 Convergence uniforme . . . . . . . . . . . . . . . . . . . . . . . . . 99
3.2.2 Convergence en norme L1 . . . . . . . . . . . . . . . . . . . . . . . 101
3.3 Étude des estimateurs à noyaux lognormaux . . . . . . . . . . . . . . . . 104

4 Propriétés minimax des estimateurs à noyaux associés 111


4.1 Description du modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
4.1.1 Risque minimax . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
4.1.2 Hypothèses techniques . . . . . . . . . . . . . . . . . . . . . . . . 114
4.2 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
4.2.1 Contrôle du risque . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
4.2.2 Illustrations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119

5 Estimateurs à noyaux associés mixtes et applications 125


5.1 Calculs sur des échelles de temps . . . . . . . . . . . . . . . . . . . . . . . 128
5.1.1 Définitions et notations . . . . . . . . . . . . . . . . . . . . . . . . 128
5.1.2 Dérivabilité unifiée . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
5.2 Définitions et propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
5.2.1 Noyaux associés mixtes . . . . . . . . . . . . . . . . . . . . . . . . 132
5.2.2 Estimateur de densités mixtes . . . . . . . . . . . . . . . . . . . . . 134
5.3 Etudes de biais et variances . . . . . . . . . . . . . . . . . . . . . . . . . . 135
5.4 Application au modèle de mélange non-paramétrique . . . . . . . . . . . 138

Conclusion et perspectives 143

Bibliographie 153

Annexes 153

A Programme sous R 155


A.1 Noyaux associés continus classiques . . . . . . . . . . . . . . . . . . . . . 155
A.2 Noyaux associés continus non-classiques : bêta étendu . . . . . . . . . . 157
A.3 Estimateurs à noyaux associés continus . . . . . . . . . . . . . . . . . . . 158
A.3.1 Programme général d’estimation . . . . . . . . . . . . . . . . . . . 158

12 Francial G. Libengué
Table des matières

A.3.2 Calcul général de Biais, Variance et MSE . . . . . . . . . . . . . . 159


A.3.3 Cas particuliers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
A.3.4 Choix de h par la validation croisée . . . . . . . . . . . . . . . . . 163
A.4 Programme de simulation avec réplication : Cas de ISE . . . . . . . . . . 165
A.5 Estimateurs à noyaux associés mixtes . . . . . . . . . . . . . . . . . . . . 166

13 Francial G. Libengué
Table des matières

14 Francial G. Libengué
Liste des tableaux

1.1 Quelques noyaux continus classiques . . . . . . . . . . . . . . . . . . . . 27


1.2 Quelques noyaux associés discrets sur TN ⊆ Z . . . . . . . . . . . . . . . 38

2.1 Quelques types de noyaux (pour la suite voir Tableau 2.2) . . . . . . . . 60


2.2 Quelques types de noyaux (suite du Tableau 2.1) . . . . . . . . . . . . . . 61
2.3 Noyaux associés bêta et sa version étendue . . . . . . . . . . . . . . . . . 62
2.4 Quelques noyaux associés non-classiques . . . . . . . . . . . . . . . . . . 63
2.5 Quelques valeurs de Λ(n, h, K) ≃ 1 de la Proposition 2.2.2 pour h = 0.05
et n = 1000 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
2.6 Quelques noyaux associés modifiés ( suite voir Tableau 2.7) . . . . . . . . 86
2.7 Quelques noyaux associés modifiés (suite du Tableau 2.6) . . . . . . . . . 87
2.8 Valeurs optimales de h obtenues aux bords par la validation croisée par
les moindres carrés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
2.9 Valeurs optimales de h obtenues à l’intérieur par la validation croisée
par les moindres carrés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
2.10 Biais et variances des trois estimateurs à noyaux lognormaux suivant le
Modèle 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
2.11 Biais et variances des trois estimateurs à noyaux lognormaux suivant le
Modèle 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
2.12 La moyenne des ISEs pour les trois estimateurs de densité à noyaux
lognormaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92

3.1 Tableau récapitulatif des différents r dans les Théorème 3.1.1, Théorème
3.2.2 et Théorème 3.2.4. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109

5.1 Classification des points de T . . . . . . . . . . . . . . . . . . . . . . . . . 128


5.2 Biais et variances de l’estimateur à noyaux associés mixtes de la densité
définie en (5.33) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141

15
Liste des tableaux

16 Francial G. Libengué
Table des figures

1.1 Quelques noyaux classiques . . . . . . . . . . . . . . . . . . . . . . . . . . 28


1.2 Différentes formes du noyau gaussien en x (effet cible) . . . . . . . . . . . 33
1.3 Différentes formes du noyau gaussien en x (effet h) . . . . . . . . . . . . . 34
1.4 Quelques noyaux associés discrets . . . . . . . . . . . . . . . . . . . . . . 37
1.5 Différentes formes du noyau discret triangulaire général. . . . . . . . . . 44

2.1 Type de noyau bêta étendu sur [2, 5] . . . . . . . . . . . . . . . . . . . . . 54


2.2 Noyau associé bêta étendu avec h fixé . . . . . . . . . . . . . . . . . . . . 55
2.3 Noyau associé bêta étendu avec x fixé . . . . . . . . . . . . . . . . . . . . 55
2.4 Comportements de quelques noyaux associés non-classiques de la droite
réelle positive aux bords. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
2.5 Comportements de quelques noyaux associés non-classiques de la droite
réelle positive à l’intérieur. . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
2.6 Comportements des estimateurs noyaux associés non-classiques de la
droite réelle positive. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
2.7 Comportements des MSE aux bords dans l’estmation de la densité nor-
male tronquée. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
2.8 Comportements des MSE aux bords dans l’estmation de la densité ex-
ponentielle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73

5.1 Un exemple de T. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125


5.2 Exemple d’une densité mixte. . . . . . . . . . . . . . . . . . . . . . . . . . 126

17
Table des figures

18 Francial G. Libengué
Introduction générale

Dans de nombreux domaines (p. ex. médecine, économie, sociologie, environne-


ment, finances, markéting) surviennent des phénomènes complexes à modéliser. Dans
le cas univarié, ces derniers sont souvent décrits par une variable aléatoire réelle (v.a.r.)
X à support connu T ⊆ R. Cet ensemble T peut être constitué à la fois de parties
continues (intervalles) et discrètes ; on parlera alors d’échelles de temps ("time scales"
en anglais). Cette notion a été introduite par Stefan Hilger dans sa thèse en 1988 pour
unifier les analyses continues et discrètes ; voir Hilger (1990), Agarwal & Bohner (1999),
Bohner & Peterson (2001, 2003), Sanyal (2008) pour d’autres développements.
On considère f la densité mixte et inconnue de la v.a.r. X à valeurs dans T ⊆ R.
Puisqu’il n’est pas courant d’avoir de manière générale des modèles paramétriques
sur de tels supports, cette thèse propose l’approche non-paramétrique pour estimer
f par la méthode des noyaux dits associés afin de respecter les différentes structures
topologiques de T. Par exemple, si on étudie un processus de suivi d’un malade à
trois phases connues dont la première correspond à une période d’hospitalisation où
le patient doit subir des soins intensifs avec des prélèvements quasi-instantanés (i.e.
continus), la deuxième représente une phase de soins externes où les prélèvements sont
périodiques ou séquentiels dans le temps (i.e. discrets) et enfin une dernière phase de
soins intensifs à nouveau jusqu’à la disparition ; alors le support de ce processus peut
s’écrire
T = [t0 , t1 ] ∪ {t2 , t3 , ..., tk }∪]tk , +∞[⊆ R, (1)

où t j ∈ [−∞, +∞] avec t j 6 t j+1 . Des cas usuels de (1) sont R, N, {1, 2, ..., k}, [0, 1], [0, +∞[
et [0, 1[∪N∗ .
L’objet de cette thèse est d’unifier les estimateurs à noyaux depuis les travaux de
Rosenblatt (1956) et Parzen (1962) sur T = R jusqu’à la thèse de Tristan Senga Kiessé
en 2008 sur T ⊆ N, en passant par les travaux de Chen (1999, 2000) pour T = [0, 1] et
T = [0, +∞[ respectivement. Sans perte de généralité, on s’intéressera en particulier à
de densités mixtes f par rapport à la mesure de Lebesgue pour les parties continues
et la mesure de comptage pour les parties discrètes. Cette thèse est composée de cinq
chapitres et une conclusion générale portant sur des discussions et perspectives.
Le Chapitre 1 est composé de deux parties bien distinctes. La première rappelle
les propriétés essentielles des estimateurs à noyaux continus classiques sur T = R.
On souligne la moindre importance du choix de ces noyaux contrairement à celui
de fenêtres dont les diverses techniques sont brièvement présentées. Les problèmes
de différentes structures de supports sont alors posés. La seconde partie récapitule la
solution de “lissage discret” sur T ⊆ N par des noyaux associés discrets. Différentes

19
Table des figures

propriétés fondamentales sont revisitées ; en particulier, on propose une résolution


pratique de problème de bord par des noyaux triangulaires discrets.
Le Chapitre 2 est consacré à la méthode des noyaux associés continus sur un intervalle
T de R. On y introduit les deux notions du type de noyau ainsi que celles de noyau associé
continu. Par la suite, la technique “mode-dispersion” est proposée pour construire des
noyaux associés continus non-classiques puis illustrée sur de nombreux types de noyaux.
On élabore les propriétés caractéristiques des estimateurs de densité correspondants
dont un algorithme de réduction de leurs biais. Des exemples sont donnés, et les
problèmes de choix efficaces de fenêtre sont également évoqués.
Dans le Chapitre 3, on traite de nouvelles convergences des estimateurs définis au
chapitre précédent. On commence d’abord par montrer trois types de convergences
ponctuelles en probabilité, presque-sûre et en loi. Sous des hypothèses simples de
continuité sur des compacts relatives à la densité à estimer, on démontre ensuite des
consistances globales en normes uniforme et L1 . Des études théoriques et par simulation
sont menées sur les estimateurs de densité à différents noyaux lognormaux, gamma,
gaussien inverse et sa réciproque.
Le Chapitre 4 fournit les propriétés minimax des estimateurs de densités à noyaux
associés continus. On décrit d’abord le modèle en précisant les classes des densités et les
hypothèses techniques avec lesquelles on travaille. Ensuite on présente les principaux
résultats dont une application est faite sur les estimateurs à noyaux associés classiques
d’une manière générale et les noyaux associés non-classiques dans les cas particuliers
dans bêta, gamma et lognormal.
Enfin, le Chapitre 5 présente l’estimateur de densité mixte par les noyaux associés
lesquels généralisent tous les noyaux étudiés précédemment. Il s’agit ici d’un mélange
approprié des noyaux associés continus et discrets. Pour les passages entre les sous-
ensembles successifs continus et discrets de T ⊆ R (1), on introduit de nouveaux outils
d’analyse sur ces échelles de temps. Des simulations et quelques applications concrètes
terminent ce travail.

20 Francial G. Libengué
Chapitre 1

Estimateurs à noyaux : continus


classiques et associés discrets

L’estimation d’une densité de probabilité est similaire à sa construction à partir des


données observées. La première approche est celle de l’estimation paramétrique. L’idée
principale de cette approche est de supposer que la densité f à estimer appartient à
une famille de distributions ayant un nombre fini de paramètres (nous citons essentiel-
lement la méthode du maximum de vraisemblance et la méthode des moments). Son
avantage réside dans la simplicité algorithmique de sa mise en œuvre. Par opposition,
l’approche non-paramétrique ne fait aucune hypothèse a priori sur l’appartenance de
f à une famille de lois connues. L’estimation ne concerne donc plus un paramètre
dans cette famille de loi, mais directement la fonction elle-même (d’où le terme de non
paramétrique).
La plus ancienne dans cette approche est la méthode de l’histogramme. Cette mé-
thode est la plus naturelle et très répandue car elle est facilement implémentable.
Cependant, l’estimateur de densité fourni par un histogramme ne peut pas être adapté
à la situation assez courante où l’on dispose d’une information a priori sur la régula-
rité de la densité à estimer. Plus précisément, si l’on sait par avance que la densité de
l’échantillon observé est, par exemple, deux fois continûment différentiable, on aurait
naturellement envie d’estimer cette densité par une fonction qui, elle aussi, est deux
fois continûment différentiable. C’est ainsi que la méthode d’estimation par les noyaux
(continus) fut introduite par Rosenblatt (1956) puis améliorée par Parzen (1962). Elle
est basée sur la convolution de la loi empirique par une fonction noyau prise sous
forme d’une densité de probabilité. Elle est la plus fréquente et la plus utilisée pour
estimer les densités de probabilités dans ces dernières décennies. La plus récente dans
cette approche est celle des noyaux associés discrets, introduite dans la thèse de Senga
Kiessé (2008) puis améliorée par Kokonendji & Senga Kiessé (2011) et qui tient compte
de la nature discrète des observations.
L’objet de ce chapitre est de rappeler les différentes techniques d’estimation par
les noyaux continus (classiques) ainsi que les noyaux associés discrets dans le cas
univarié sur le modèle de densité puisque celui-ci est simple et permet de tester les
différentes innovations statistiques sans rentrer dans des calculs très fastidieux. Nous
présentons dans un premier temps, les estimateurs à noyaux continus (classiques)

21
Chapitre 1. Estimateurs à noyaux : continus classiques et associés discrets

avec leurs propriétés de base puis les différentes méthodes de choix de fenêtres. Dans
un second temps, nous décrivons succinctement les noyaux associés discrets et les
propriétés élémentaires des estimateurs définis à partir de ces derniers. Un accent
sera mis sur le choix du paramètre de lissage et nous terminons le chapitre par des
illustrations.
Tout au long de ce chapitre, on suppose que les observations X1 , · · · , Xn sont des
variables indépendantes de même loi (iid) de densité f .

1.1 Estimateurs à noyaux continus classiques


Nous présentons, dans cette section, la méthode d’estimation de densité par noyaux
continus (classique). Pour simplifier, on suppose que les Xi sont à valeurs réelles et que
f est la densité par rapport à la mesure de Lebesgue sur T = R.

1.1.1 Caractéristiques
Fixons la définition d’un noyau continu (classique).

Définition 1.1.1 Une fonction K de support S est dite noyau si elleR est une densité de
probabilité symétrique (i.e. K (−u) = K (u)), de moyenne µK nulle (µK := S uK (u)du = 0), de
R R
variance σ2K finie (σ2K := S u2 K (u)du < +∞) et de carré intégrable ( S K 2 (u)du < +∞).

Précisons ici qu’en tant que densité de probabilité, le noyau R K est positif et de masse
totale égale à 1 (i.e. pour tout élément u de S, K (u) ≥ 0 et S K (u)du = 1).

Définition 1.1.2 Soit hn > 0 la fenêtre de lissage et K la fonction noyau vérifiant la Définition
1.1.1. L’estimateur à noyau continu (classique) de f est défini en un point x ∈ T par :
n  
b 1 X x − Xi
fn (x) = K . (1.1)
nhn i=1 hn

De ce fait, on peut considérer l’estimation par noyau en un point donné x ∈ T comme


la moyenne des valeurs des fonctions noyaux centrés sur chaque observation Xi de
l’échantillon.
Dans l’expression (1.1), le paramètre de lissage hn a une influence assez évidente.
Il est largement admis (et partiellement démontré) que le choix de hn est d’une impor-
tance capitale dans le processus. Lorsqu’il tend vers 0, la fonction noyau s’apparente
à la fonction Dirac et plus on a d’informations (sur lissage) ; tandis que, lorsque hn
devient grand, plus on manque d’informations ( sous lissage). Ainsi, l’obtention d’une
estimation plus proche de la réalité implique donc un choix optimal de hn et ceci est
l’objet de la Section 1.1.3 du présent chapitre. Dans toute la suite, sauf mention expresse
du contraire, nous remplacerons hn par h.

22 Francial G. Libengué
1.1. Estimateurs à noyaux continus classiques

Erreur Quadratique Moyenne

Lorsqu’on définit l’estimateur à noyau, il y a un certain nombre de critères qui


permettent d’évaluer la similarité de l’estimateur fbn par rapport à la vraie densité
f à estimer. Parmi les nombreux critères proposés dans la littérature, figure l’Erreur
Quadratique Moyenne ponctuelle en anglais “pointwise Mean Squared Error” (MSE).
Ainsi, pour l’estimateur fbn définie en (1.1) on a :
n o2 
b
MSE(x) = E fn (x) − f (x) , x ∈ T. (1.2)

Il est intéressant de développer cette expression


n pour
o y faire
n apparaitre
o la variance et le
biais ponctuels de l’estimateur fbn notés Var fbn (x) et Biais fbn (x) définis respectivement
en (1.3) et (1.4) pour tout point x ∈ T par :
n o h n oi2 
b b b
Var fn (x) = E fn (x) − E fn (x) , (1.3)

n o n o
Biais fbn (x) = E fbn (x) − f (x). (1.4)
Ceci conduit à une nouvelle expression du MSE(x) comme suit
n o2  n o   2
b
MSE(x) = E fn (x) − 2E fbn (x) f (x) + E f (x) ,
n o2  h n oi2 h n oi2 n o
b
= E fn (x) − E fbn (x) + E fbn (x) − 2 f (x)E fbn (x) + f 2 (x),
n o n o
= Var fbn (x) + Biais2 fbn (x) . (1.5)

Cette dernière expression montre bien le compromis pour la minimisation du MSE


entre
n leobiais (erreur systématique) et la variance (erreur aléatoire). A cause des termes
E fbn (x) dans (1.3) et (1.4), on voit qu’une réduction de biais entraîne une augmentation
de la variance et vice versa. Cependant, on peut constater que l’espérance et la variance
de l’estimateur fbn en un point x de T peuvent être exprimées en fonction du noyau
classique K et de la densité à estimer f comme suit :
n o 1   x − t  1 Z 
x−t

b
E fn (x) = E K = K f (t)dt (1.6)
h h h T h
et
 
n o 
X n         
b 1  x − Xi   1 2 x − X1 2 x − X1
Var fn (x) = 2 Var 
 K 
 = E K −E K ,
nh 
i=1
h  nh2 h h
Z     
1 2 x−t 1 2 x − X1
= 2 K f (t)dt − 2 E K . (1.7)
nh T h nh h
Il découle de (1.6) que le biais ne dépend pas directement de la taille de l’échantillon,
mais plutôt du noyau. Par conséquent, l’obtention d’une estimation asymptotiquement
sans biais implique un ajustement du noyau K et de paramètre de lissage h.

23 Francial G. Libengué
Chapitre 1. Estimateurs à noyaux : continus classiques et associés discrets

Une mesure, globale, de l’efficacité de l’estimateur fbn est obtenue en intégrant le


MSE sur tout le support T de f . Il s’agit de “l’Erreur Quadratique Moyenne Intégrée”
en anglais “Means Integrated Squared Error” (MISE). En utilisant (1.5), elle s’écrit :
Z
MISE(n, h, K , f ) = MSE(x)dx
T
Z Z
= b
Var{ fn (x)}dx + Biais2 { fbn (x)}dx. (1.8)
T T

Il est possible de reporter dans (1.8), les valeurs de la variance et du biais définies
dans (1.3) et (1.4), mais cela va rendre les calculs lourds et conduit à des résultats
rarement exploitables. D’où l’intérêt de faire quelques approximations et hypothèses
supplémentaires pour garder les résultats généraux. Ainsi, en dépit des conditions
vérifiées par le noyau classique dans la Définition 1.1.1, nous supposons dans la suite
que la densité à estimer f admette des dérivées de tous ordres.
En reprenant l’expression de l’espérance de l’estimateur fbn dans (1.6) et la variance
dans (1.7) puis en posant t = x − hu, on a :
n o Z
E fbn (x) = K (u) f (x − hu)du (1.9)
T

et Z   
n o 1 1 2 x − X1
b
Var fn (x) = 2 2
K (u) f (x − hu)dt − 2 E K . (1.10)
nh T nh h
Le développement en séries de Taylor de f (x − hu) au voisinage de x est alors

1 n o
f (x − hu) = f (x) − hu f ′ (x) + h2 u2 f ′′ (x) + o (hu)2 .
2
En l’injectant dans (1.9) et (1.10) on obtient alors :
n o Z 
1 2 2 ′′
 n o
b
E fn (x) = K (u) f (x) − hu f (x) + h u f (x) dx + o (hu)2 ,

T 2
1
= f (x) + h2 f ′′ (x)σ2K + o(h2 ) (1.11)
2
et
n o Z  
b 1 2 1
Var fn (x) = K (u) f (x)du + Rn + o ,
nh T nh
Z  
1 2 1
= f (x) K (u) du + o , (1.12)
nh T nh

avec Rn = (1/nh2 ) −hu f ′ (x) + (1/2)h2 u2 f ′′ (x) − E2 [K {(x − X1 )/h}] ≃ o {1/(nh)}. De ces
deux derniers résultats (1.12) et (1.11), on peut déduire les formes approximées et
asymptotiques du MSE et du MISE notées respectivement AMSE et AMISE par :
Z
1 1
AMSE(x) = f (x) K 2 (u)du + h4 σ4K f ′′2 (x) (1.13)
nh T 2

24 Francial G. Libengué
1.1. Estimateurs à noyaux continus classiques

et Z Z
1 1
AMISE(n, h, K , f ) = K (u)du + h4 σ4K
2
f ′′2 (x)dx. (1.14)
nh T 4 T

Parmi toutes les qualités que peut avoir un estimateur (ou une suite d’estimateurs), on
s’intéresse souvent à sa consistance, b
 i.e., au fait qu’une suite d’estimateurs fn converge
ou non vers f en une distance d fbn , f donnée. Le paragraphe suivant nous donne
quelques résultats de convergence des estimateurs à noyaux classiques de la littérature.

Convergence des estimateurs à noyaux classiques

Rappelons d’abord les hypothèses (sur le noyau et la fenêtre de lissage) par les-
quelles ces résultats ont été établis.
Z Z
K (u)du = 1, sup|K (u)| < +∞ et |K (u)| du < +∞. (1.15)
T u∈T T

h → 0 quand n → +∞ (1.16)
nh → +∞ quand n → +∞. (1.17)
nh2 → +∞ quand n → +∞. (1.18)
nh
→ +∞ quand n → +∞. (1.19)
log n

Convergence en moyenne quadratique ponctuelle et intégrée

Ces résultats sont établis dans les travaux respectivement de Parzen (1962) et Tiago
de Oliviera (1963). Le premier montre la convergence du MSE et le second donne celle
du MISE.

Théorème 1.1.3 (Parzen [1962]). Soit f , une densité continue sur T = R et fbn son estimateur
à noyau (classique) K vérifiant (1.15). Si le paramètre h satisfait (1.16) et (1.17) alors
n o P
MSE fbn (x) → 0, ∀x ∈ T = R,

P
où → désigne la convergence en probabilité.

Théorème 1.1.4 (Tiago de Oliviera [1963]). Soit f une densité de puissance peme -intégrable et
fbn son estimateur à noyau (classique) K satisfaisant (1.15). Si h vérifie (1.16) et (1.17) alors
  P
MISE fbn → 0.

25 Francial G. Libengué
Chapitre 1. Estimateurs à noyaux : continus classiques et associés discrets

Consistances faible et forte

Les trois résultats donnés ici sont issus des travaux de Parzen (1962), Nadaraya
(1965), et Silverman (1986). Les deux premiers montrent la consistance faible tandis
que le dernier propose quant à lui la consistance forte.

Théorème 1.1.5 (Parzen [1962]). Soit f , la densité à estimer et fbn son estimateur à noyau
(classique) ZK satisfaisant (1.15). Si h vérifie (1.18) et de plus si la transformée de Fourier
T F (z) := exp (−izu)K (u)du est absolument intégrable, alors


 

 b  P

sup  fn (x) − f (x)
  → 0.

x∈T=R

Théorème 1.1.6 (Nadaraya [1965]). Soit f , une densité uniformément continue et fbn son
estimateur
X à noyau (classique) K positif et à variations bornées. Pour tout h vérifiant (1.16) tel
que exp (−εnh2 ) < +∞, alors
k>1


 

b 
sup   P
 f
 n (x) − f (x) → 0.

x∈T=R

Théorème 1.1.7 (Silverman [1986]). Soit f , une densité uniformément continue et fbn son
estimateur à noyau (classique) K positif et à variations bornées. Pour tout h satisfaisant (1.16)
et (1.19), alors  

 
 p.s
sup   b (x) (x) 
 f n − f  → 0,

x∈T=R

p.s
où → est la convergence presque-sûre.

Normalité asymptotique

Ce dernier résultat est tiré des travaux de Parzen (1962). Il montre que l’estimateur
à noyau est asymptotiquement normal.

Théorème 1.1.8 (Parzen [1962]). Soit f , une densité continue sur T = R et fbn son estimateur
à noyau (classique) K vérifiant (1.15). Si h satisfait (1.16) et (1.17) alors
n o
fbn (x) − E fbn (x) L
q n o → N(0, 1), ∀x ∈ T = R,
b
Var fn (x)

L
où → désigne la convergence en loi.

26 Francial G. Libengué
1.1. Estimateurs à noyaux continus classiques

1.1.2 Exemples des noyaux continus classiques

Nous résumons dans le Tableau 1.1, quelques exemples de noyaux classiques de


la littérature. Le lecteur peut éventuellement se référer à Scott (1977), Epanechnikov
(1969), Tsybakov (2004), et Silverman (1986) pour plus de détails. Tous ces noyaux
vérifient la Définition 1.1.1 et sont en général de support [−1, 1] ou R. Nous avons
donné aussi dans ce tableau la famille des noyaux définie par :

n o−1  p
Fp (x) = 22p+1 B(p + 1, p) 1 − x2 , (1.20)

où B(p + 1, p) est la fonction bêta d’Euler et p est un entier naturel.

Table 1.1 – Quelques noyaux continus classiques

Noyaux Support Densité Efficacité

3
Epanechnikov (p = 1) [−1, 1] (1 − x2 ) 1
4
π
Cosinus [−1, 1] π
4
cos( x) 0, 999
2
15
Biweight (p = 2) [−1, 1] (1 − x2 )2 0, 994
16
35
Triweight (p = 3) [−1, 1] (1 − x2 )3 0, 987
32

Triangulaire [−1, 1] 1−|x| 0, 986

1
Gaussien R √ exp (− 21 x2 ) 0, 946

1
Unifiorme (p = 0) [−1, 1] 0, 930
2

Double Epanechnikov [−1, 1] 3|x|(1−|x|) 0, 816

1
Double Exponentielle R exp {− 21 |x|} 0, 759
2

Famille des lois Kp [−1, 1] Fp (x) : Voir (1.20) −

27 Francial G. Libengué
Chapitre 1. Estimateurs à noyaux : continus classiques et associés discrets

Noyaux classiques pour x=0


1.2

Epanechnikov
Biweight
Triangulaire
1.0

Uniforme
Gaussien
0.8
0.6
y
0.4
0.2
0.0

−1.0 −0.5 0.0 0.5 1.0


x

Figure 1.1 – Quelques noyaux classiques

28 Francial G. Libengué
1.1. Estimateurs à noyaux continus classiques

1.1.3 Choix de fenêtre

Comme nous l’avons précédemment signalé, pour avoir une bonne estimation par
la méthode des noyaux, il faut bien choisir le paramètre de lissage h puisque celui-ci
a un rôle crucial dans le processus. Lorsque la fenêtre h est très petite, l’estimateur est
très volatile et on parle de sous-lissage (“under-smoothing” en anglais). En revanche,
lorsque h grandit, l’estimateur est alors de moins en moins influencé par les données.
On parle d’un effet de sur-lissage (“over-smoothing” en anglais). En pratique, il est
primordial de trouver la bonne dose de lissage qui permet d’éviter le sous-lissage et le
sur-lissage. Les méthodes existantes pour le choix de h peuvent être classées en deux
catégories.
La première catégorie est constitué des méthodes purement théoriques qui sont
basées sur la minimisation de l’erreur quadratique moyenne intégrée (MISE). En effet,
la valeur idéale théorique de h notée hid s’obtient en minimisant le MISE asymptotique
donné en (1.14). Ainsi, pour un échantillon de taille n donné et pour un noyau (classique)
K fixé, cette valeur idéale de h est donnée par
 R 1/5
1 
 K 2
(t)dt 

 T 
hid = 1/5 
 R   . (1.21)
n  σ4 f ′′ (x)dx 
2 
K T

Ce paramètre de lissage idéal hid obtenu n’est pas directement utilisable puisqu’il
2
dépend encore de la quantité inconnue f ′′ (x).
La deuxième catégorie est celle dite des méthodes pratiques. Elle est intéressante
puisqu’elle se laisse seulement guider par les observations. Elles ont été sujets des
travaux de nombreux auteurs parmi lesquels nous pouvons citer Scott et al. (1977),
Rudemo (1982), Stone (1984), Bowman (1984), Marron (1987), Berlinet & Devroye (1989),
Park & Marron (1992), Sarda & Vieu (1991), Cuevas et al. (1994) ainsi que Yondjé et al.
(1996a, 1996b).
Dans ce qui suit, nous allons décrire deux de ces méthodes pratiques à savoir
méthode de ré-injection (“Plug-in” en anglais), la méthode de validation croisée par les
moindres carrées (“Least Squares Cross Validation” en anglais).

Méthode Plug-in
R 2
Il s’agit ici d’estimer la quantité R f ′′ (x)dx dans l’expression de hid donnée en
(1.21). Plusieurs approches ont été proposées dans la littérature mais nous en rete-
nons deux. La première consiste à supposer que f appartient R à une famille de lois

′′ 2
paramétriques puis à estimer ces paramètres afin d’identifier T f (x)dx. L’autre est
R 2
totalement non paramétrique et fait appel à un estimateur à noyau de T f ′′ (x)dx.
Pour la première approche, en supposant que f appartienne à la famille gaussienne
centrée et de variance σ2 on trouve :
Z
2 3
f ′′ (x)dx = √ σ1/5 ≈ 0.212σ1/5 .
T 8 π

29 Francial G. Libengué
Chapitre 1. Estimateurs à noyaux : continus classiques et associés discrets

La valeur optimale de h notée hopt est obtenue en remplaçant σ dans l’expression de hid
q
Pn Pn
par son estimateur σ =
b i=1 (Xi − X) /(n − 1) avec X =
2
i=1 Xi /n. Ce qui conduit à :

! "
b
σ
hopt = 1.06 1/5 .
n

Cette approche donne de bons résultats lorsque la population est réellement normale-
ment distribuée. Toutefois, elle peut aussi donner une distribution trop lissée dans le
cas d’une population multimodale ; voir Silverman (1986).
La seconde approche est celle de SheatherR & Jones (1991) appelée communément
plug-in à trois étapes. Elle consiste à remplacer T f ′′2 (x)dx dans (1.14) par son estimateur
Z  n ! "
b b′′
2 1 X (4) Xi − X j
Ra = f (x)dx = 2 5 L ,
T n a i,j=1 a

où L(4) désigne la dérivée quatrième du noyau suffisamment lisse L et a est un nouveau


paramètre de lissage appelé paramètre pilote. Cet estimateur est obtenu en remarquant
que sous des conditions de régularités suffisantes
Z Z
′′ 2
f (x)dx = f (4) (x) f (x)dx.
T R
n R o2 
b 2
Le nouveau paramètre de lissage b
a minimisant la quantité E Ta − T f ′′
(x)dx
admet la représentation asymptotique suivante :
 1/7

 (4)
2L (0) 

 
a=
b  R  2 
 n−1/7 .
σ 2
f ′′ (x)dx 
L T
R
Une fois de plus,b
a dépend de la quantité inconnue R f ′′2 (x)dx qu’on estime de nouveau
par
Z X n ! "
1 Xi − X j
b
Rb = fb (x)dx = 2 7
′′2
L (6)
,
T n b i, j=1 b

avec b = 0.912b
λn−1/9 où b
λ est l’estimateur de λ qui représente une mesure d’échelle de
f (par exemple son écart inter-quartile).
La mise en œuvre de ces différentes approches de plug-in fait usage des fonctions
nommées respectivement bw.nrd0 et [Link] disponible dans R Development Core Team
(2012).

Méthode de la validation croisée par les moindres carrés

L’idée de base des méthodes de validation croisée consiste à trouver une fonction
de score CV(h) dont le calcul est plus simple que MISE(h). Le paramètre de lissage h
sélectionné ici n’est pas déterministe mais dépend plutôt des observations. Pour plus

30 Francial G. Libengué
1.1. Estimateurs à noyaux continus classiques

de détails, on peut se référer à de nombreux auteurs tels que Bowman (1984), Marron
(1987), Rudemo (1982), Stone (1984). L’approche la plus utilisée est celle de validation
croisée par les moindres carrés. Elle consiste à minimiser une estimateur convenable
de ISE(h) défini par
Z n o2 Z Z Z
2
ISE(h) = fbn (x) − f (x) dx = b
fn (x)dx − 2 fbn (x) f (x)dx + f 2 (x)dx.
T T T T
Z
Compte tenu du fait que la quantité f 2 (x)dx ne dépend pas de h, on choisit le
T
paramètre de lissage de façon à ce qu’il minimise un estimateur de CV(h) définie par
Z n n
b
o2 2Xb
CV(h) = fn (x) dx − fn,−i (Xi ).
T n i=1

1 X ! x − Xj "
où fbn,−i (Xi ) = K est l’estimateur calculé à partir de l’échantillon
(n − 1)h j,i h
privé de l’observation Xi . Et la valeur optimale de h notée hCV est donnée par

hcv = arg min CV(h).


h>0

1.1.4 Problèmes de supports


Malgré leur robustesse sur les modèles les plus généraux, les estimateurs à noyaux
(classiques) connaissent quelques inconvénients parmi lesquels se situent les problèmes
de support. Le premier cas est celui des effets de bord dans l’estimation des densités
à support borné au moins d’un côté. Ceci est dû au fait que le noyau classique étant
symétrique (voir la Définition 1.1.1) assigne des poids à l’extérieur du support de la
densité à estimer lorsque le lissage se fait aux points de bord. Cela crée ainsi les biais
dits de bord qui rendent l’estimateur non consistant. Plusieurs solutions à ce problème
ont été proposées dans la littérature.
Schuster (1985), Silverman (1986) et Cline & Hart (1991) ont fait usage de la méthode
dite des données reflétées (“reflection data method” en anglais). Cette méthode est
spécialement conçue pour le cas des densités vérifiant f (1) (0) = 0 et f (1) (t1 ) = 0, où
f (1) désigne la dérivée première de f définie sur un intervalle du type [0, t1 ]. Ensuite,
Gasser & Müler (1979), Gasser et al. (1985), Jones (1993), Zhang & Karunamuni (2000)
et Karunamuni & Albert (2005) ont suggéré l’utilisation de la méthode des noyaux de
bord (“boundary kernels method” en anglais). Cette méthode est plus générale que
celle des données reflétées dans le sens où elle peut s’adapter à n’importe quelle forme
de la densité. Cependant, un inconvénient de cette méthode est que les estimations
faites pourraient être négatives à proximité des extrémités, surtout quand f (0) ≃ 0 ou
f (t1 ) ≃ 0. Pour corriger cette déficience de la méthode des noyaux de bord, certains
remèdes ont été proposés ; se référer à Jones (1993), Jones & Foster (1996), Gasser &
Müler (1979), Karunamuni et al. (2006) ainsi que Karunamuni & Zhang (2008) pour un
approfondissement.

31 Francial G. Libengué
Chapitre 1. Estimateurs à noyaux : continus classiques et associés discrets

Toujours dans l’optique de résoudre le problème des effets de bord, Cowling & Hall
(1996) ont proposé la méthode des pseudo-données (“pseudo-data method” en anglais).
L’idée de cette méthode consiste à générer des observations supplémentaires X(i) à l
’aide de ce qu’ils appellent les “trois points pour mieux régner”, puis les combiner avec
les observations d’origine Xi pour former un type d’estimateur à noyau. Dans le même
ordre d’idée, Marron et Ruppert (1994) ont proposé la méthode de transformation
(“transformation method” en anglais). Elle est constituée de trois étapes. Tout d’abord,
une transformation g est choisie dans une famille paramétrique de telle sorte que la
densité des variables Yi = g(Xi ) ait une dérivée première qui est approximativement
égale à 0 aux bords. Ensuite, un estimateur à noyau de la réflexion est appliquée à
Yi . Enfin, cet estimateur est converti par la formule de changement de variables pour
obtenir une estimation de f .
Notons aussi que d’autres auteurs comme Bouezmarni et al. (2005) ainsi que Gus-
tafson et al. (2007) ont abordé le même sujet en combinant parfois quelques-unes de
ces méthodes.
Récemment, certains auteurs ont proposé, dans le cas des densités à support com-
pact, l’utilisation de noyaux dont le support coïncide avec celui de la densité à estimer.
Ceci a efficacement résolu le problème des effets de bord puisque les noyaux utilisés
ici sont généralement asymétriques et peuvent changer de forme selon la position du
point d’estimation. C’est notamment le cas de Chen (1999, 2000) avec les noyaux bêta et
gamma pour estimer les densités à support respectivement [0, 1] et [0, +∞[ puis Scaillet
(2004) avec les noyaux inverses gaussien et sa réciproque pour les densités à support
]0, +∞[.
Dans cette même optique, Senga Kiessé (2008) et Kokonendji & Senga Kiessé (2011)
ont proposé l’utilisation des noyaux associés discrets pour le lissage des données caté-
gorielles ou de dénombrement ; puisque jusqu’alors, certains auteurs comme Simonof
(1996) ainsi que Simonof & Tutz (2000) dans leur tentative d’estimation des données dis-
crètes font usage des noyaux continus. Nous présentons dans le prochain paragraphe
la méthode d’estimation par noyaux associés discrets.

1.2 Estimateurs à noyaux associés discrets


Cette section présente l’essentiel des travaux de Aitchison & Aitken (1976), Senga
Kiessé (2008) et Kokonendji & Senga Kiessé (2011) sur les noyaux associés discrets.
Nous désignons par T := TN ⊆ N le support de la fonction de masse de probabilité
( f.m.p.) à estimer puis par Sx,h := Sx ⊆ N celui du noyau associé.

1.2.1 Caractéristiques
Nous présentons, successivement, les définitions améliorées des types de noyaux et
noyaux associés discrets de Senga Kiessé (2008) et Kokonendji & Senga Kiessé (2011).
Nous rappelons ensuite les estimateurs à noyaux associés discrets. Enfin, examinons
quelques unes de leurs propriétés importantes pour la suite du présent travail.

32 Francial G. Libengué
1.2. Estimateurs à noyaux associés discrets

Noyau associé gaussien pour x=2.1


0.5

x=−4
x=−2.1
x=1.2
0.4

x=2
0.3
N(x,h)(y)
0.2
0.1
0.0

−6 −4 −2 0 2 4 6
y

Figure 1.2 – Différentes formes du noyau gaussien en x (effet cible)

33 Francial G. Libengué
Chapitre 1. Estimateurs à noyaux : continus classiques et associés discrets

Noyau associé gaussien pour x=2.1


1.5

h=0.3
h=0.7
h=1.1
h=1.4
1.0
N(x,h)(y)
0.5
0.0

−1 0 1 2 3 4 5
y

Figure 1.3 – Différentes formes du noyau gaussien en x (effet h)

34 Francial G. Libengué
1.2. Estimateurs à noyaux associés discrets

Définition 1.2.1 On appelle type de noyau discret toute fonction de masse de probabilité
( f.m.p.) Kθ , paramétrée par θ ∈ Θ ⊆ R2 , de support Sθ ⊆ Z et de carré sommable.

Dans le reste de cette section, nous ne considérerons que les types de noyaux discrets
uni-modaux pour la construction des noyaux associés discrets. Donnons maintenant la
définition améliorée du noyau associé discret.

Définition 1.2.2 Soit x ∈ TN ⊆ Z et h > 0 avec TN le support de la fonction de masse de


probabilité f , à estimer. Une densité paramétrée Kx,h de support Sx,h ⊆ Z est appelée “noyau
associé discret” lorsque les conditions suivantes sont vérifiées :
x ∈ Sx,h (1.22)
E(Zx,h ) = x + A(x, h) (1.23)
Var(Zx,h ) = B(x, h) (1.24)
avec A(x, h) et B(x, h) qui tendent vers zéro quand h tend vers 0, et Zx,h une variable aléatoire
discrète de loi Kx,h .

Notons que, lorsque B(x, h) 9 0, le noyau associé discret Kx,h est dit de “second ordre”.
Dans le cas contraire, il est dit du “premier ordre” (ou encore standard). Nous signalons
aussi qu’il n’existe pas une méthode générale pour la construction des noyaux associés
discrets. Il en résulte que celle-ci se fait au cas par cas. Toutefois, on peut remarquer que
les noyaux associés discrets sont en général asymétriques et leurs supports peuvent ne
pas dépendre de x et/ou h. La définition suivante présente l’estimateur à noyau associé
discret.

Définition 1.2.3 Soit X1 , X2 , · · · Xn , une suite de variables aléatoires discrètes i.i.d de fonction
de masse de probabilité (fmp) inconnue f sur TN ⊆ Z. L’estimateur à noyau associé discret de
f est défini par
1 Xn
fbn (x) = Kx,h (Xi ) (1.25)
n i=1
où h > 0 est le paramètre de lissage et Kx,h est le noyau associé discret dépendant de x et h.

Nous rappelerons dans le prochain paragraphe quelques propriétés élémentaires de


cet estimateur. Le lecteur peut se référer éventuellement à Senga Kiessé (2008), Abdous
& Kokonendji (2009) et Kokonendji & Senga Kiessé (2011) pour les démonstrations et
exemples détaillés. Dans le reste de ce paragraphe, Zx,h désigne une variable aléatoire
discrètes de loi Kx,h .

Proposition 1.2.4 (Senga Kiessé [2008]). Soit f la fmp à estimer sur TN ⊆ Z et fbn son
estimateur à noyau associé discret en (1.25). Pour tout x ∈ TN et h > 0, on a respectivement
n o  
E fbn (x) = E f Zx,h
fbn (x) ∈ [0, 1]
X
fbn (x) = C
x∈TN

où C est une constante strictement positive et finie.

35 Francial G. Libengué
Chapitre 1. Estimateurs à noyaux : continus classiques et associés discrets

La proposition suivante montre que les estimateurs à noyaux associés discrets sont
asymptotiquement sans biais en chaque point x ∈ TN .

Proposition 1.2.5 (Kokonendji & Senga Kiessé [2011]). Soit f la fmp à estimer sur TN ⊆ Z
et fbn son estimateur à noyau associé discret en (1.25). Pour tout x ∈ TN et h > 0, si h → 0
quand n → +∞ alors
n o X
E fbn (x) = f (y)Kx,h (y) → f (x), quand n → +∞.
y∈TN

Les résultats suivants concernent les faibles et fortes consistances ainsi que la nor-
malité asymptotique des estimateurs à noyaux associés discrets.

Proposition 1.2.6 (Abdous & Kokonendji [2009]). Soit f la fmp à estimer sur TN ⊆ Z et fbn
son estimateur à noyau associé discret en (1.25). Pour tout x ∈ TN et sous les conditions (1.23)
et (1.24) on a n o2 P
E fbn (x) − f (x) −→ 0, quand n → +∞.
P
où −→ est la convergence en probabilité.

Proposition 1.2.7 (Abdous & Kokonendji [2009]). Soit f la fmp à estimer sur TN ⊆ Z et fbn
son estimateur à noyau associé discret en (1.25). Pour tout x ∈ TN et sous les conditions (1.23)
et (1.24) on a
fbn (x) −→ f (x), quand n → +∞.
P

P.S.
où −→ désigne la convergence presque sûre.

Proposition 1.2.8 (Abdous & Kokonendji [2009]). Soit f la fmp à estimer sur TN ⊆ Z et fbn
son estimateur à noyau associé discret en (1.25). Pour tout x ∈ TN et sous les conditions (1.23)
et (1.24) on a n o
fbn (x) − E fbn (x) L
h n oi1/2 −→ N(0, 1), quand n → +∞.
b
Var fn (x)
L
où −→ représente la convergence en loi.

1.2.2 Exemples de noyaux associés discrets


Nous présentons dans le tableau suivant quelques noyaux associés discrets de la
littérature. Le lecteur trouvera les versions détaillées de ces noyaux ainsi que leurs
applications dans les travaux de Senga Kiessé (2008) et Kokonendji & Senga Kiessé
(2011). La constante P(m, h) donnée dans le tableau (le dénominateur du noyau associé
triangulaire) est la constante de normalisation. Elle est explicitement donnée par :
m
X
P(m, h) = (2m + 1)(m + 1)h − 2 km .
k=0

36 Francial G. Libengué
1.2. Estimateurs à noyaux associés discrets

Figure 1.4 – Quelques noyaux associés discrets

37 Francial G. Libengué
Chapitre 1. Estimateurs à noyaux : continus classiques et associés discrets

Table 1.2 – Quelques noyaux associés discrets sur TN ⊆ Z

Noyau associé Kx,h (u) TN

h
Aitchison & Aitken (1 − h) I{u=x} + I{u,x} {0, 1, ..., c − 1}
c−1
! "u ! "x+1−u
(x + 1)! x+h 1−h
Binomial {0, 1, ..., x + 1}
u!(x + 1 − u) x + 1 x+1
! "u  x+1
(x + u)! x+h x+1
Binomial Négatif N
u!x! 2x + 1 + h 2x + 1 + h

(x + h)u e−(x+h)
Poisson N
u!

(m + 1)h − |u − x|h
Triangulaire {0, ±1, ..., ±k}
P(m, h)

1
Wang & Van Ryzin (1 − h) I{u=x} + (1 − h) h|u−x| I{|u−x|>1} Z
2

1.2.3 Choix de fenêtre

Dans les travaux de Senga Kiessé (2008) et Kokonendji & Senga Kiessé (2011), ceux-
ci ont proposé deux méthodes pour le choix du paramètre de lissage dans le cas discret.
Il s’agit en fait des méthodes de validation croisée par les moindres carrés et l’excès
de zéro que nous allons brièvement résumer dans les paragraphes suivants. Ensuite,
nous présentons aussi les méthodes bayésiennes pour le choix de paramètres de lissage
proposées par Zougab et al. (2012, 2013a, 2013b, 2013c).

Validation croisée par les moindres carrés

L’idée principale de la méthode adaptée ici est la même que celle présentée dans la
Section 1.1.3. La seule différence est qu’ici, la fonction noyau Kx,h dépend intrinsèque-
ment du point d’estimation x et de paramètre de lissage h. Elle a l’avantage de ne pas
utiliser les approximations des dérivées de f .
On exprime le MISE de l’estimateur défini en (1.25) par
 

 X 
 X  X
 bn 2 (x) b
MISE(h) = E 
 f 
 − 2E f n (x) f (x) + f 2 (x),
  x∈TN x∈TN n
x∈TN

X
avec le terme f 2 (x) qui est non aléatoire et indépendant de h. Ensuite, on remplace
x∈TN n

38 Francial G. Libengué
1.2. Estimateurs à noyaux associés discrets

le terme stochastique par son estimateur non biaisé CV(h) défini par
X 2X
CV(h) = fbn 2 (x) − fbn,−i (Xi )
x∈TN
n x∈TN

 2
X X
 

 2 Xn X n
= 
 Kx,h (Xi )
 − KXi (X j ),
x∈T

x∈T
 n(n − 1) i=1 j,i
N N

où fbn,−i est calculé à partir de fbn sans l’observation Xi . Enfin, on obtient le paramètre de
lissage optimal par
hcv = arg min CV(h).
h>0

Excès de zéros

Cette méthode proposée par Kokonendji et al. (2007) repose sur la particularité
des données de comptage (pour TN = N) qui consiste à avoir un nombre important
de zéros dans l’échantillon. Notons h0 = h0 (n, K) une fenêtre adaptée. Pour un noyau
associé discret Kx,h , le choix de h0 est fait de sorte que
X
P(Zx,h0 = 0) = n0 , (1.26)
y∈TN

où n0 est le nombre de zéros dans l’échatillon. L’équation (1.26) s’obtient à partir de


n o X
b
E fn (x) = P(Zx,h = y) f (y)
y∈TN

en prenant y = 0 et f (0) = 1 afin d’identifier le nombre de zéros théorique au nombre


de zéros empiriques. Le paramètre de lissage h0 obtenu par excès de zéros est proche de
ceux obtenus par la minimisation du MISE et validation croisée. Le lecteur peut aussi
consulter l’article de Marsh & Mukhopadhyay (1999) qui applique cette méthode sur
le modèle poissonien.

Approche bayésienne globale

Cette approche a été adaptée à l’estimation d’une fmp aux noyaux asymétriques par
Kuruwita et al. (2010) puis aux noyaux associés discrets par Zougab et al. (2013b). L’idée
consiste à considérer d’abord une suite de variables aléatoires discrètes X1 , X2 , · · · , Xn
de fmp f et de réalisations x = (x1 , x2 , · · · , xn ). Puis, on détermine l’estimateur de la
vraisemblance conditionnelle de données x sachant h définie par
n
Y
L(x1 , x2 , · · · , xn ; h) = π(x1 , x2 , · · · , xn |h) = fbn (xi ),
i=1

où fbn est l’estimateur défini en (1.25). Ensuite, on utilise la technique de la validation


croisée pour estimer f (xi ) à partir de l’ensemble des points sauf en xi . Ce qui permet

39 Francial G. Libengué
Chapitre 1. Estimateurs à noyaux : continus classiques et associés discrets

d’avoir
n
Y n
1 X
L(x1 , x2 , · · · , xn ; h) = π(x1 , x2 , · · · , xn |h) = Kx ,h (x j ). (1.27)
i=1
n − 1 j=1,i, j i

Par la suite, on choisit la loi a priori de h notée π(h) de sorte que les méthodes de Monte
Carlo pour les Chaînes de Markov (MCMC) puissent fonctionner correctement en la
prenant à constante près de la forme
1
π(h) ∝ . (1.28)
1 + h2
Ce qui n’a pas été le cas pour certains auteurs comme Brewer (1998), qui ont proposé la
loi gamma comme loi a priori pour h. Ensuite, on détermine par le théorème de Bayes
la loi a posteriori de h définie par
n
Y
π(h) fbn (xi )
π(x1 , x2 , · · · , xn |h)π(h) i=1
π(h|x1 , x2 , · · · , xn ) = = , (1.29)
π(x1 , x2 , · · · , xn ) π(x1 , x2 , · · · , xn )
Z
où π(x1 , x2 , · · · , xn ) = π(x1 , x2 , · · · , xn |h)dh. Puisque le calcul ce cette intégrale entraîne
des calculs fastidieux, alors on remplace la loi a posteriori par le produit de la loi a priori
avec l’estimateur de la vraisemblance. Ce qui conduit à
n n
1 Y 1 X
π(h|x1 , x2 , · · · , xn ) ∝ Kx ,h (x j ). (1.30)
1 + h2 i=1 n − 1 j=1,i, j i

Enfin, on utilise les méthodes de MCMC pour estimer h. Plus précisément, on applique
l’algorithme à marche aléatoire selon les quatre étapes suivantes :
Etape 1-) Initialisation de h0

Etape 2-) Pour t ∈ {1, · · · , N} :


a) Générer h̃ ∼ N(h(t) , τ) ( )
π(h̃|x1 , x2 , · · · , xn )
b) Calculer la probabilité d’acceptation ρ = min 1, puis consi-
 π(h(t) |x1 , x2 , · · · , xn )


(t+1)

 h̃ si u < ρ, u ∼ U[0,1]
dérer h =


 h(t) sinon

Etape 3-) t = t + 1 et aller à 2.

XN
1
Etape 4-) Calculer l’estimateur de Bayes : b
h= h(t) .
N − N0 t=N +1
0

Approche bayésienne locale

L’objectif de cette approche est d’estimer le paramètre de lissage en chaque point x


dans le support TN d’une fmp f caractérisant une suite de variable aléatoire X1 , X2 , · · · , Xn

40 Francial G. Libengué
1.2. Estimateurs à noyaux associés discrets

de réalisation x1 , x2 , · · · , xn . Pour cela, on le considère comme paramètre du modèle fh


qu’on utilise pour construire un estimateur bayésien de h pour chacun des point x de
TN . Soit π(h) la loi a priori de h. Par la formule de Bayes, la loi a posteriori de h au point
x prend la forme suivante
fh (x)π(x)
π(h|x) = R . (1.31)
fh (x)π(h)dh

Comme le modèle fh est inconnu, on le remplace par son estimateur à noyau associé
discret fbh . Ainsi, la loi a posteriori de π(h|x) devient

fbh (x)π(x)
π(h|x, X1 , X2 , · · · , Xn ) = R
b . (1.32)
fbh (x)π(h)dh
L’utilisation de l’estimateur de Bayes sous la perte quadratique conduit au meilleur
estimateur bh de h au point x par
Z
b
hn (x) = π(h|x, X1 , X2 , · · · , Xn )dh.
hb (1.33)

Lorsque la loi a priori (1.31), la densité a posteriori (1.32) ainsi que la moyenne a posteriori
(1.33) ne s’obtiennent pas explicitement, on peut utiliser les MCMC.

Approche bayésienne adaptative

Soit X1 , X2 , · · · , Xn une suite de variables aléatoires d’observations x1 , x2 , · · · , xn et


de fmp inconnue f . L’approche que nous décrivons ici consiste dans un premier temps
à l’estimateur à noyau associé adaptatif donné pour tout x ∈ TN par
n
1X
fb(x) = Kx,hi (xi ) (1.34)
n i=1

où Kx,h est le noyau associé et hi est le paramètre de lissage adaptatif associé à chaque
observation xi . En utilisant la technique de validation croisée on estime f (xi ) comme en
(1.34) sur l’ensemble des observations sauf en xi et on a
n
1 X
fb−i (xi ) = fb(xi |{x−i }, hi ) = Kx,hi (x j ). (1.35)
n − 1 j=1,j,i

Soit π(hi ) la loi a priori de hi , à partir de la formule de Bayes, la loi a posteriori pour
chaque hi prend la forme suivante :

fb(xi |{x−i }, hi )π(hi )


π(hi |xi , {x−i }) = R
b . (1.36)
fb(xi |{x−i }, hi )π(hi )dhi
Par l’estimateur de Bayes sous la perte quadratique, le meilleur estimateur pour hi est
la moyenne de bπ(hi |xi , {x−i }) donnée par
Z
e
hi = E [hi |xi , {x−i }] = π(hi |xi , {x−i })dhi .
hb (1.37)

41 Francial G. Libengué
Chapitre 1. Estimateurs à noyaux : continus classiques et associés discrets

Les expressions (1.36) et (1.37) donnent dans certains cas des résultats explicites grâce
à l’usage des priors conjugués ; le lecteur peut se référer à Brewer (2000) et Zougab et
al. (2013a).

1.2.4 Une résolution de problèmes de bords


Cette section se propose de rappeler la résolution de problèmes de bords dans l’es-
timation d’une fmp par le noyau triangulaire général DT (m; a1 , a2 ; h1 , h2 ), proposé par
Kokonendji & Zocchi (2010). La fmp de DT (m; a1 , a2 ; h1 , h2 ) est notée f (·; m, a1 , a2 , h1 , h2 )
où m ∈ Z est son mode, a1 , a2 ∈ N sont respectivement ses bras gauche et droit et enfin
h1 , h2 ∈ R+ sont ses degrés à gauche et à droite. En posant respectivement

Ta1 ,m = {m − k ; k = 0, 1, · · · , a1 } ; T∗a1 ,m = Ta1 ,m {m}


Tm,a2 = {m + k ; k = 0, 1, 2, · · · , a2 } et T∗m,a2 = Tm,a2 {m},

on remarque facilement que

Tm,a1 ,a2 = T∗a1 ,m ∪ Tm,a2 = Ta1 ,m ∪ T∗m,a2 = T∗a1 ,m ∪ {m} ∪ T∗m,a2 .

L’expression explicite de f (·; m, a1 , a2 , h1 , h2 ) est donnée par


(#  m − y  h1 % #  y − m  h2 % )
1
f (y; m, a1 , a2 , h1 , h2 ) = 1− 1T∗a1 ,m (y) + 1 − 1Tm,a2 (y) ,
D(a1 , a2 , h1 , h2 ) a1 + 1 a2 + 1

avec
a1
X a2
X
h1
D(a1 , a2 , h1 , h2 ) = (a1 + a2 + 1) − (a1 + 1) −h1
k − (a2 + 1) −h2
kh2 .
k=1 k=1

Il a été signalé dans Kokonendji & Zocchi (2010) que lorsque h1 = h2 = h, on a la loi tri-
angulaire générale d’ordre h notée DT (m; a1 , a2 ; h, h) = DT (m; a1 , a2 ; h). Les principales
caractéristiques de cette loi sont données par le théorème suivant :

Théorème 1.2.9 (Kokonendji & Zocchi [2010]). Pour une variable aléatoire discrète Y de loi
DT (m; a1 , a2 ; h1 , h2 ) on a :

E(Y) = m + A(a1 , a2 ; h1 , h2 )
Var(Y) = B(a1 , a2 ; h1 , h2 ) − [A(a1 , a2 ; h1 , h2 )]2

avec
#
1 a2 (a2 + 1) a1 (a1 + 1)
A(a1 , a2 ; h1 , h2 ) = −
D(a1 , a2 , h1 , h2 ) 2 2
a
X1
! " h 1 a
X 2
! "h 2
%
k k
+ k − k
a1 + 1 a2 + 1
k=1 k=1

42 Francial G. Libengué
1.2. Estimateurs à noyaux associés discrets

et
#
1 a2 (a2 + 1) (2a2 + 1) a1 (a1 + 1) (2a1 + 1)
B(a1 , a2 ; h1 , h2 ) = +
D(a1 , a2 , h1 , h2 ) 6 6
a
X1
! "h 1 Xa 2
! " h2
%
k k
− k2 − k2 .
a1 + 1 a2 + 1
k=1 k=1

De plus, lorsque :

h1 → 0 et h2 → 0, alors DT (m; a1 , a2 ; h1 , h2 ) tend vers D(m);


h1 → +∞ et h2 → +∞, alors DT (m; a1 , a2 ; h1 , h2 ) tend vers U(Tm,a1 ,a2 );
h1 → 0 et h2 → +∞, alors DT (m; a1 , a2 ; h1 , h2 ) tend vers U(Tm,a2 );
h1 → +∞ et h2 → 0, alors DT (m; a1 , a2 ; h1 , h2 ) tend vers U(Ta1 ,m ).

La Figure 1.5 illustre les différentes formes qu’on peut obtenir en modifiant les para-
mètres de DT (m; a1 , a2 ; h1 , h2 ).
Considérons maintenant X1 , · · · , Xn une suite de variables aléatoires discrètes iid de
fmp inconnue f et de support TN = N ou TN = {0, 1, · · · , N} avec N un entier naturel
non nul. L’estimateur à noyau discret triangulaire général d’ordre h de f est défini par :
n
1X
fbn (x) = Kx,h;a1 ,a2 (Xi ) , x ∈ TN , (1.38)
n i=1

où (a1 , a2 ) ∈ N2 sont les deux bras, h = h(n) > 0 est le paramètre de lissage vérifiant
lim h(n) = 0, et Kx,h (·) ≡ f (·; x, a1 , a2 , h) qui satisfait la Définition 1.2.3. Soit Zx,a1 ,a2 ,h une
n→∞
variable aléatoire de loi DT (m; a1 , a2 ; h), les biais et variances ponctuels de cet estimateur
sont respectivement donnés par
h i  1 
Bias fbn (x) = f E(Zx,a1 ,a2 ,h ) − f (x) + Var Zx,a1 ,a2 ,h f (2) (x) + o(h)
2
1 n o
= A(a1 , a2 ; h) f (1) (x) + B(a1 , a2 ; h) − [A(a1 , a2 ; h)]2 f (2) (x) + o(h), (1.39)
2

h i 1   2
Var fen (x) = f (x) 1 − f (x) Pr Zx,a1 ,a2 ,h = x + Rn (x; a1 , a2 , h)
n
1  
= 2
f (x) 1 − f (x) + Rn (x; a1 , a2 , h)
n [D(a1 , a2 , h)]

où f (k) est la différence finie d’ordre k ∈ {1, 2} et Rn (x; a1 , a2 , h) → 0 quand n → ∞ ; voir


Kokonendji & Zocchi (2010) et Kokonendji
S & Senga Kiessé (2011) S pour plus de détails.
Notons cependant que lorsque Sx,h est différent de T (i.e. Sx,h ! T) alors on a les
x∈T x∈T
effets de bords. Pour corriger ce défaut, on procède comme suit :

43 Francial G. Libengué
Chapitre 1. Estimateurs à noyaux : continus classiques et associés discrets

Figure 1.5 – Différentes formes du noyau discret triangulaire général.

Cas où T = N et a1 , 0

Ici, l’estimateur à noyauSdiscret triangulaire général produit les effets de bords à


gauche de N car la réunion Tx,a1 ,a2 = {−a1 , · · · , −1}∪N contient d’une manière stricte
x∈N
le support N de f . Ainsi, on considère un nouveau bras gauche dit modifié et noté a0
obtenu à partir de a1 et défini de sorte que, pour x ∈ N,




 x si x ∈ {0, 1, · · · , a1 − 1}
a0 = 
 (1.40)
 a si x ∈ {a1 , a1 + 1, · · · , N, · · · }.
1

44 Francial G. Libengué
1.2. Estimateurs à noyaux associés discrets

Cas où T = {0, 1, · · · , N}

Dans ce cas, l’estimateur à noyau discret triangulaire général produit les effets de
bords à droite du support {0, 1, · · · , N} puisque
[
Tx,a1 ,a2 = {−a1 , · · · , −1} ∪ {0, 1, · · · , N} ∪ {N + 1, · · · , N + a2 }.
x∈{0,1,··· ,N}

En appliquant (1.40) à droite de {0, 1, · · · , N} qui est un voisinage de x = N, alors


le nouveau bras modifié aN obtenu à partir de a2 est défini de sorte que, pour x ∈
{0, 1, · · · , N},



 a2 si x ∈ {0, 1, · · · , N − a2 }
aN = 
 (1.41)
 N − x si x ∈ {N − a2 + 1, · · · , N − 1, N}.

La combinaison de (1.40) et (1.41) fournit un noyau associé modifié et asymétrique


qui est plus approprié pour l’estimation de toute pmf compact (ou fonctions discrètes).

45 Francial G. Libengué
Chapitre 1. Estimateurs à noyaux : continus classiques et associés discrets

46 Francial G. Libengué
Chapitre 2

Méthode des noyaux associés continus

Dans le chapitre précédent, nous avons vu que pour une suite de variables aléatoires
X1 , · · · , Xn indépendantes et identiquement distribuées (iid) de fonction densité de
probabilité (fdp) f inconnue de support T, un sous ensemble de Rd (avec d = 1).
l’estimateur fbn de la fdp f est défini par
n  
b 1 X x − Xi
fn (x) = K , x ∈ T = R. (2.1)
nh i=1 h

La fonction noyau K (·) en (2.1) vérifie la Définition 1.1.1 et est indépendante de la cible
x et la fenêtre de lissage h. Le lecteur peut, en plus du chapitre précédent, se référer aux
travaux de Rosenblatt (1956), Parzen (1962), Sylverman (1986), Devroye (1987), Scott
(1992) et Tsybakov (2004) afin d’approfondir ces notions. Cette fonction noyau K (·)
avait été imaginée pour estimer des densités f à support non borné T = R. Depuis
des travaux de Chen (1999, 2000) sur les noyaux bêta et gamma, respectivement pour
estimer les densité à support T = [0, 1] et T = [0, ∞), de Scaillet (2004) sur les noyaux
inverse gaussien et sa réciproque estimant les densités à support T = [0, ∞) ainsi que
les travaux de Kokonendji & Senga Kiessé (2011) pour le cas discret (i.e. T ⊆ Z), est née
une nouvelle famille d’estimateurs que nous appelons estimateurs à noyaux associés où
la fonction noyau est paramétrée par le point d’estimation x et le paramètre de lissage
h. Afin d’harmoniser l’écriture comme dans Kokonendji & Senga Kiessé (2011), on peut
écrire les estimateurs à noyaux associés continus fbn de la fdp f comme suit

n
1X
fbn (x) = Kx,h (Xi ), x ∈ T ⊆ R. (2.2)
n i=1
Il est facile de voir que le noyau (classique) K (·) en (2.1) devient un cas particulier des
noyaux associés continus Kx,h qui dépendent intrinsèquement de x et h, à travers la
relation :  
1 x−·
Kx,h (·) = K . (2.3)
h h
De nombreux auteurs ont raffiné les propriétés de ces estimateurs à noyaux associés
dans des cas particuliers. C’est notamment le cas de Bouezmarni & Rolin (2003) qui ont
travaillé sur la consistance des estimateurs à noyaux bêta. Kokonendji et al. (2009) ont

47
Chapitre 2. Méthode des noyaux associés continus

aussi traité le cas d’estimation semi-paramétrique avec les noyaux associés discrets.
Bouezmarni & Roumbots (2010) ont présenté le cas multivarié essentiellement pour
les données bornées. Kokonendji & Zocchi (2010) ont proposé (comme nous l’avons
présenté dans le dernier paragraphe du chapitre précédent) une solution aux problèmes
des effets de bords dans le cas discret en utilisant le noyau triangulaire général. Senga
Kiesse & Rivoire (2010) ont pour leur part appliqué la régression semi-paramétrique sur
des données réelles. Balakrishnan et al. (2011) ont étudié le cas de mélange du noyau
Birnbaum-Sanders avec d’autres. Klutchnikoff & Bertin (2011) ont donné les propriétés
minimax des estimateurs à noyau bêta. Enfin, Zougab et al. (2012a, 2012b, 2012c) ont
traité le cas du choix de paramètres de lissage discret avec les méthodes bayésiennes.
Ce chapitre, se propose d’homogénéiser la théorie concernant les estimateurs à
noyaux associés continus en fournissant une technique systématique de construction
sans effets de bords sur n’importe quel type de support T de la densité f , à estimer.
Il s’organise de la manière suivante : nous présentons d’abord une définition géné-
rale des noyaux associés continus incluant les cas classiques. Ensuite, nous donnons
le principe de construction à partir de n’importe quelle fdp paramétrée et nous illus-
trons ceci sur les noyaux non-classiques de la littérature. Par la suite, nous utilisons ces
noyaux associés pour estimer des densités. Différentes propriétés ponctuelles sont pré-
sentées, en particulier la convergence au sens du risque quadratique moyen et intégré
asymptotique (”Asymptotic Mean Integrated Squared Error“ (AMISE) en anglais) et
l’algorithme de réduction de biais. Puis, des illustrations avec les types de noyaux tels
que Pareto, lognormal, bêta et sa version étendue, gamma et son inverse ainsi que l’in-
verse gaussien et sa réciproque, seront données. Enfin nous présentons les résultats des
études par simulation sur trois différents types d’estimateurs à noyaux lognormaux.
Dans tout ce chapitre, nous désignons par T = TI les intervalles de R a fortiori bornés
au moins d’un côté.

2.1 Noyaux associés continus


Nous détaillons dans cette section la méthode de construction des noyaux associés
continus en commençant par les notions de type de noyaux.

2.1.1 Type de noyau et noyaux associés


Fixons d’abord la définition du type de noyau continu.

Définition 2.1.1 Un type de noyau continu Kθ , est une famille de densités de probabilité
paramétrées par θ ∈ Θ ⊆ R2 , de support un intervalle Sθ ⊆ R et de carré intégrable.

Puisque Θ est de dimension deux alors on peut écrire θ = (θ1 , θ2 ) où θi : R → R avec


i ∈ {1, 2}. Pour une commodité d’écriture, nous allons écrire θ comme fonction de deux
paramètres réels a et b i.e θ = θ(a, b). Pour la suite, nous désignons respectivement par
M(a, b) et D(a, b) le mode Mθ et le paramètre de dispersion Dθ du type de noyau Kθ .
Il est important d’observer minutieusement les relations liant le mode et la moyenne
ainsi que les paramètres de dispersion autour de chacun.

48 Francial G. Libengué
2.1. Noyaux associés continus

Remarque 2.1.2 (i) Le mode M(a, b) d’un type de noyau Kθ(a,b) appartient toujours à son
support Sθ(a,b) .
(ii) Le mode a la meilleure probabilité que le point moyen.
(iii) Lorsque la dispersion autour du mode tend vers zéro alors celle autour de la moyenne tend
également vers zéro.

Signalons aussi qu’il existe plusieurs manières de définir le concept de “paramètre de


dispersion” qui est souvent lié à celui de la “mesure de dispersion”. Certains auteurs
déduisent le paramètre de dispersion après avoir exprimé la variance de la loi en
fonction de son espérance comme pour les lois appartenant à la famille exponentielle
naturelle. D’autres le définissent comme le paramètre d’échelle ou encore le paramètre
d’intensité de la loi (ce qui n’est autre que l’inverse de son paramètre d’échelle). Ce sont
ces deux dernières considérations que nous donnons à ce paramètre dans la plupart de
nos résultats. Nous conseillons au lecteur de se référer aux travaux de Jørgensen (1997),
Jørgensen & Lauritzen (2000), Jørgensen et al. (2010) et Jørgensen & Kokonendji (2011)
pour un approfondissement de cette notion. Donnons maintenant la définition précise
d’un noyau associé continu.

Définition 2.1.3 On considère x ∈ TI ⊆ R et h > 0 avec TI le support de la densité f , à


estimer. Une fdp paramétrée Kx,h de support Sx,h ⊆ R est appelée noyau associé continu
lorsque les conditions suivantes sont satisfaites :

x ∈ Sx,h , (2.4)
E(Zx,h ) = x + A(x, h), (2.5)
Var(Zx,h ) = B(x, h), (2.6)

où, Zx,h est une variable aléatoire de densité Kx,h sur Sx,h et A(x, h), B(x, h) qui tendent vers 0
quand h tend aussi vers 0.

Observons les aspects cachés de cette définition.

Remarque 2.1.4 1. Les conditions (2.5) et (2.6) montrent implicitement que la construction
du noyau associé n’est pas unique voir [Proposition 2.2.6, Section 2.2.2].
2. Le support Sx,h du noyau associé Kx,h n’est pas nécessairement symétrique par rapport à
0 ou x comme dans le cas classique. Il peut ne pas dépendre de x et/ou h (e.g. le support
Sx,h du noyau d’Epanechnikov dépend de x et h. Toutefois, celui du noyau de Pareto
dépend seulement de x, par contre, les supports des noyaux bêta, gamma et autres sont
indépendants de x et h).
3. La condition (2.4) peut être remplacée par ∪x∈TI Sx,h ⊇ TI . Elle sous-entend que le choix
du noyau associé doit se faire en tenant compte du support TI de la densité f , de sorte que
Sx,h = TI afin d’éviter les problèmes classiques des effets de bords.
4. La condition (2.5) montre que les noyaux associés sont de plus en plus concentrés sur
le point d’estimation x lorsque h tend vers 0. Ceci met en évidence la flexibilité de ces
derniers à changer de forme suivant la position du point d’estimation.

49 Francial G. Libengué
Chapitre 2. Méthode des noyaux associés continus

Dans la proposition suivante, nous montrons que tous les noyaux classiques sont des
noyaux associés. Nous y donnons aussi la forme de leurs supports en tant que noyaux
associés ainsi que leurs caractéristiques.

Proposition 2.1.5 Soit K un noyau classique (Voir Définition 1.1.1) de support S, de moyenne
µK = 0 et de variance σ2K < ∞. Pour un x ∈ T = R donné et h > 0, alors le noyau associé
classique est défini par (2.3) et son support est Sx,h = x − hS et de plus

E(Zx,h ) = x et Var(Zx,h ) = h2 σ2K . (2.7)

En d’autres termes, (2.7) montre que les caractéristiques A et B du noyau associé classique Kx,h
sont :
A(x, h) = 0 et B(x, h) = O(h2 ). (2.8)

Démonstration. A partir de (2.3), pour un x fixé dans T et pour tout t dans T, il existe
u dans S tel que u = (x − t)/h et donc t = x − uh. Puisque t ∈ T, il vient de (2.4) que Sx,h =
x − hS. Les deux derniers résultats s’obtiennent facilement en calculant les moyenne et
variance de Kx,h , grâce à l’utilisation du changement de variables u = (x − t)/h.
Nous allons maintenant montrer la technique de construction des noyaux associés
non-classiques à partir de n’importe quel type de noyau.

2.1.2 Méthode mode-dispersion

Principe de construction
Etant donné un type de noyau Kθ(a,b) sur Sθ(a,b) , uni-modal de mode M(a, b) et d’un
paramètre de dispersion D(a, b), la méthode Mode-Dispersion permet la construction
d’une fonction Kθ(x,h) , dépendant de x et h en résolvant en a et b le système :



 M(a, b) = x

 (2.9)
 D(a, b) = h.

Les solutions a = a(x, h) et b = b(x, h) du système (2.9) permettent d’exprimer θ(a, b)


en fonction de x et h. On obtient alors θ(a, b) = θ (a(x, h), b(x, h)) que nous désignons
simplement par θ(x, h). En remplaçant θ(a, b) par θ(x, h) puis a et b par leurs valeurs
a(x, h) et b(x, h) dans les expressions des moyenne et variance du type de noyau Kθ(a,b) ,
on aboutit à Kθ(x,h) avec ses caractéristiques données dans la Définition 2.1.3. Nous
présenterons des cas pratiques dans la Section 2.1.3.
Nous montrons dans la proposition suivante que la fonction noyau Kθ(x,h) issue
de la méthode mode-dispersion est bien un noyau associé. En d’autres termes, nous
montrons que Kθ(x,h) satisfait les différentes conditions de la Définition 2.1.3.

Proposition 2.1.6 Soit TI le support de la densité f , à estimer. Pour tout x ∈ TI et h >


0, la fonction noyau Kθ(x,h) construite par la méthode mode-dispersion, de support Sθ(x,h) =

50 Francial G. Libengué
2.1. Noyaux associés continus

Sθ(a(x,h),b(x,h)) , vérifie

x ∈ Sθ(x,h) , (2.10)
E(Zθ(x,h) ) − x = Aθ (x, h), (2.11)
Var(Zθ(x,h) ) = Bθ (x, h), (2.12)

où Zθ(x,h) est une variable aléatoire de densité Kθ(x,h) puis Aθ (x, h) et Bθ (x, h) tendent vers 0
quand h tend vers 0.

Démonstration. Tout d’abord, par la méthode mode-dispersion on a θ(x, h) = θ (a(x, h), b(x, h)),
ce qui permet d’avoir Sθ(x,h) = Sθ(a(x,h),b(x,h)) . Puisque Kθ(a,b) est unimodal et de mode
M(a, b) appartenant à Sθ(a,b) (grâce au point (i) de la Remarque 2.1.2), par la méthode
mode-dispersion on a le premier résultat (2.10) comme suit :

M(a, b) = x ∈ Sθ(a,b) = Sθ(a(x,h),b(x,h)) .

De plus, pour une variable aléatoire donnée Zθ(a,b) associée au type noyau uni-modal
Kθ(a,b) , on peut écrire E(Zθ(a,b) ) = M(a, b) + ε(a, b), où ε(a, b) est la différence entre le
mode et la moyenne de Kθ(a,b) . La méthode mode-dispersion conduit à M(a, b) = x et
ε(a, b) = ε(a(x, h), b(x, h)). On a par conséquent

E(Zθ(x,h) ) − x = ε(a(x, h), b(x, h)).

En prenant Aθ (x, h) = ε(a(x, h), b(x, h)) puis, en utilisant la définition du paramètre de
dispersion autour du mode, on obtient le deuxième résultat (2.11). Enfin, comme Kθ(a,b)
admet un moment de second ordre, alors la variance de Kθ(x,h) existe et est une fonction
de x et h. On peut l’écrire comme suit :

Var(Zθ(x,h) ) = Bθ(a(x,h),b(x,h)) ,

avec Bθ(a(x,h),b(x,h)) qui tend vers zéro quand h tend vers zéro d’après le point (iii) de la
Remarque 2.1.2. On obtient le dernier résultat (2.12) en prenant Bθ (x, h) = Bθ(a(x,h),b(x,h)) .
Remarquons cependant que certains types de noyaux ne satisfont pas le principe
mode-dispersion, car il y en a qui ont des modes explicites et d’autres n’en ont pas.
C’est notamment le cas du type de noyau Weibul, de paramètres a > 1 et b > 0
(respectivement
 paramètres de forme et d’échelle). Il est de moyenne et variance bΓ(1 +
1/a) et b2 Γ(1 + 2/a) − (2/a) log(2) , où Γ(a) représente la fonction gamma. Il est défini
sur ]0, +∞[ par :   a 
a a−1 x
Wθ(a,b) (u) = a u exp − 1[0,+∞[ (u).
b b
Son mode est égal à b(1 − 1/a)1/a et son paramètre de dispersion est b. Le système (2.9)
donne 


 (1 − 1/a)1/a = x/h


 b = h.
On constate par là que les solutions a(x, h) et b(x, h) du système précédent seront telles
que b(x, h) = h est indépendant de x mais a(x, h) dépend fortement de x et h d’une
manière non linéaire.

51 Francial G. Libengué
Chapitre 2. Méthode des noyaux associés continus

Un autre cas est celui du type de noyau Birnbaum-Saunders (proposé dans Birnbaum
& Saunders, 1969) de paramètres a > 0 et b > 0 et défini par :
! "1/2 ! "3/2  ! # %"
1[0,+∞) (u) 

 b b 

 −1 u b
BSθ(a,b) (u) = √ 
 + 
 exp + −2 .
2ab 2π  u u  2a2 b u

Ses moyenne et variance sont respectivement b(1 + a2 /2) et (ab)2 (1 + a2 /2). Le principe
mode-dispersion conduit à



 arg max BSθ(a,h) (u) = x


 u>0

 b = h.

Il y a lieu de remarquer ici que, le mode M(a, h) = arg max BSθ(a,h) (u) n’a pas une forme
u>0
explicite. On l’obtient en résolvant une équation non linéaire en a. Balakrishnan et al.
(2011) ont calculé quelques valeurs modales en faisant varier a de 0.5 à 5.0.

Donnons maintenant quelques exemples illustrant la construction des noyaux as-


sociés non-classique.

2.1.3 Noyaux associés non-classiques : bêta et son extension, gamma


et son inverse, gaussien inverse et sa réciproque, Pareto puis
log-normal
Nous utilisons dans cette section, la méthode mode-dispersion pour la construction
des différents noyaux associés continus non-classiques. Pour chacun des cas, nous pré-
sentons d’abord le type de noyau Kθ(a,b) avec ses paramètre de départ, y compris son
mode M(a, b) et son paramètre de dispersion D(a, b). Ensuite, nous appliquons la mé-
thode mode-dispersion pour obtenir la nouvelle paramétrisation θ(a(x, h), b(x, h)) =
θ(x, h) qui permet l’obtention de Kθ(x,h) . Enfin, nous rappelons les expressions des
moyennes et variances de Kθ(a,b) à partir desquels nous déduisons les caractéristiques
Aθ (x, h) et Bθ (x, h).

Noyau bêta

Le noyau associé bêta a été introduit par Chen (1999), mais dans ses travaux, celui-ci
n’a pas montré comment il l’a construit. Nous le construisons dans ce paragraphe par
la méthode mode-dispersion. Nous signalons à l’avance que les résultats obtenus sont
les mêmes que ceux de Chen (1999).
Considérons le type de noyau bêta noté BEθ(a,b) de paramètres a > 1 et b > 0 (a et b
sont tous des paramètres de forme) et défini sur SBE = [0, 1] par :

1
BEθ(a,b) (u) = ua−1 (1 − u)b−1 1[0,1] (u),
B(a, b)

52 Francial G. Libengué
2.1. Noyaux associés continus

où B(a, b) est la fonction bêta. Son mode et son paramètre de dispersion sont respecti-
vement (a − 1)/(a + b − 2) et 1/(a + b − 2). La résolution du système (2.9) donne
 
x 1−x
θ(x, h) = + 1, + 1 pour tout x ∈ [0, 1] et h > 0.
h h
Ce qui permet d’écrire le noyau associé bêta BEθ(x,h) comme suit :

1
BEθ(x,h) (u) =   ux/h (1 − u)(1−x)/h 1[0,1] (u).
x 1−x
B + 1, +1
h h
Son support est
SBEθ(x,h) = [0, 1] = SBE .
En injectant les composantes a(x, h) = (x/h) + 1 et b(x, h) = {(1 − x)/h} + 1 de θ(x, h), dans
les expressions
 des moyenne et variance de BEθ(a,b) définies respectivement par a/(a + b)
2
et ab/ (a + b) (a + b + 1) , on trouve

h(1 − 2x) h x(1 − x) + h + h2
Aθ (x, h) = et Bθ (x, h) = .
1 + 2h (1 + 3h)(1 + 2h)2

Noyau bêta étendu

Le noyau bêta étendu que nous introduisons ici est la généralisation du précédent.
Il est jusque-là inconnu en statistique non paramétrique mais il est souvent utilisé
en recherche opérationnelle (voir e.g. Grubbs, 1962). Il a deux paramètres de forme
a > 1, et b > 1 et est défini sur SEB = [t0 , t1 ], (t0 < t1 ≤ ∞) par :

1
EBθ(a,b;t0 ,t1 ) (u) = (u − t0 )a−1 (t1 − u)b−1 1[t0 ,t1 ] (u).
B(a, b)(t1 − t0 )a+b−1

Puisque son mode est {(a − 1)t1 + (b − 1)t0 } /(a + b − 2) et son paramètre de dispersion
1/(a + b − 2), la résolution du système (2.9) conduit à :
! "
x − t0 t1 − x
θ(x, h; t0 , t1 ) = + 1, + 1 pour tout x ∈ [t0 , t1 ] et h > 0.
(t1 − t0 )h (t1 − t0 )h

Le noyau associé bêta étendu construit est alors

(u − t0 )(x−t0 )/{(t1 −t0 )h} (t1 − u)(t1 −x)/{(t1 −t0 )h}


EBθ(x,h,t0 ,t1 ) (u) = 1[t0 ,t1 ] (u),
(t1 − t0 )1+h−1 ∆

avec ∆ = B ([{x − t0 }/{(t1 − t0 )h}] + 1, [{t1 − x}/{(t1 − t0 )h}] + 1). Il est de support

SEBθ(x,h,t0 ,t1 ) = [t0 , t1 ] = SEB .

En remplaçant a et b dans les expressions des moyenne et variance de BEθ(a,b;t0 ,t1 ) (i.e
dans t0 + (t1 − t0 )a/(a + b) et ab(t1 − t0 )2 /{(a + b)2 (a + b + 1)}), par les solutions a(x, h; t0 , t1 )

53 Francial G. Libengué
Chapitre 2. Méthode des noyaux associés continus

et b(x, h; t0 , t1 ) du système (2.9), on trouve :

h{(t0 + t1 ) − 2x}
Aθ (x, h; t0 , t1 ) = (2.13)
1 + 2h
h{x − t0 + h(t1 − t0 )}{(t1 − x) + h(t1 − t0 )}
Bθ (x, h; t0 , t1 ) = . (2.14)
(1 + 2h)2 (1 + 3h)

Les figures suivantes montrent la flexibilité du noyau associé bêta étendu. Plus préci-
sément, nous présentons dans la Figure 2.1 le type de noyau bêta étendu pour x ∈ [2, 5]
puis, dans les deux derniers, nous donnons les différentes formes de ce noyau associé
respectivement sous l’effet cible x et l’effet paramètre h.

Type de noyau bêta étendu

a=b=0.5
1.5

a=5,b=1
a=1,b=3
Beta(a,b;2,5)(y)

a=1.5,b=1.5
a=2,b=5
1.0

a=5,b=2
0.5

2.0 2.5 3.0 3.5 4.0 4.5 5.0


y

Figure 2.1 – Type de noyau bêta étendu sur [2, 5]

Noyau gamma

Ce noyau associé a été pour la première fois proposé par Chen (2000) dans le but
d’estimer les densités sur [0, +∞[ sans pourtant montrer comment il l’a construit. Nous
proposons ici sa construction par la méthode mode-dispersion. Une fois de plus nous
signalons d’avance que nos résultats coïncident avec ceux de Chen (2000).
Sans plus tarder notons GAθ(a,b) , le type de noyau gamma de paramètres a > 1 et
b > 0 (avec a paramètre de forme et b celui d’échelle) et défini sur SGA = [0, +∞[ par :
 
1 −a a−1 u
GAθ(a,b) (u) = b u exp − 1[0,+∞[ (u).
Γ(a) b

54 Francial G. Libengué
2.1. Noyaux associés continus

Noyau associé bêta étendu pour h=0.1

0.5
x=2.1
x=2.5
0.4

x=3.0
Beta(x,h;2,5)(y)

x=3.5
0.3

x=4.4
x=4.8
0.2
0.1
0.0

2.0 2.5 3.0 3.5 4.0 4.5 5.0


y

Figure 2.2 – Noyau associé bêta étendu avec h fixé

Noyau associé bêta étendu pour x=2.7


6000

h=0.09
h=0.1
Beta(x,h;2,5)

h=0.105
4000

h=0.11
h=0.115
h=0.12
2000
0

2.0 2.5 3.0 3.5 4.0 4.5 5.0


y

Figure 2.3 – Noyau associé bêta étendu avec x fixé

55 Francial G. Libengué
Chapitre 2. Méthode des noyaux associés continus

Son mode et son paramètre de dispersion étant respectivement (a − 1)b et b, en utilisant


la méthode mode-dispersion on a :
 
x
θ(x, h) = + 1, h pour tout x > 0 et h > 0.
h
Ainsi, le noyau associé gamma construit est :
 
ux/h u
GAθ(x,h) (u) =   exp − 1[0,+∞[ (u).
x h
Γ + 1 h(x/h)+1
h
Il est défini sur
SGAθ(x,h) = [0, +∞[= SGA .
En écrivant la moyenne et la variance de GAθ(a,b) en fonction des composantes de θ(x, h)
on obtient :
Aθ (x, h) = h et Bθ (x, h) = h(x + h).

Noyau gamma inverse

Nous introduisons maintenant le type de noyau gamma inverse, respectivement de


paramètres de forme et d’échelle a > 0 et b > 0, et défini sur SGI =]0, +∞[ par :
! "
1 a −(a+1) b
GIθ(a,b) (u) = bu exp − 1]0,+∞[ (u).
Γ(a) u

Partant de son mode et son paramètre de dispersion définis respectivement par b/(a+1)
et 1/b, on utilise le principe mode-dispersion pour obtenir :
 
1 1
θ(x, h) = − 1, pour tout h > 0 et x ∈]0, 1/h[.
xh h
Ce qui conduit au noyau associé gamma inverse noté GIθ(x,h) et défini par
 
h1−1/(xh) −1/(xh) 1
GIθ(x,h) (u) =  u exp − 1]0,+∞[ (u).
1 hu
Γ −1
xh
Son support est
SGIθ(x,h) =]0, +∞[= SGI .
De plus, en remplaçant a et b dans les expressions de moyenne et variance de GIθ(a,b)
(i.e b/(a − 1) et b2 /{(a − 1)2 (a − 2)}) par les composantes de θ(x, h), on trouve

2x2 h x3 h
Aθ (x, h) = et Bθ (x, h) = .
1 − 2xh (1 − 2xh)2 (1 − 3xh)

Notons ici que pour tout h > 0 fixé, θ(x, h) n’est défini que sur ]0, 1/h[. Ceci montre
que le noyau associé inverse gamma n’est pas approprié pour l’estimation des densités
sur la toute partie positive de la droite réelle.

56 Francial G. Libengué
2.1. Noyaux associés continus

Noyau gaussien inverse

Le noyau associé inverse gaussien ainsi que sa version réciproque ont été introduits
par Scaillet (2004) sans aucune précision sur leur construction. Le lecteur peut aussi
consulter l’ouvrage de Seshadri (1993) pour d’autres propriétés de ce type de noyau. Ici,
nous utilisons la méthode mode-dispersion pour construire le noyau associé gaussien
inverse. Nous précisons ici que la version proposée par Scaillet (2004) est celle modifiée
du noyau associée que nous construisons ici [voir section 2.2.3] pour plus de précision.
Désignons par IGθ(a,b) le type de noyau inverse gaussien de paramètres a > 0 et b > 0
(avec a paramètre de forme et b celui d’échelle). Il est défini sur SIG =]0, +∞[ par
√ (  )
b b u a
IGθ(a,b) (u) = √ exp − −2+ 1R+∗ (u).
2πt3 2a a u
n 1/2 o
A travers son mode a 1 + 9a2 b−2 /4 − 3ab−1 /2 et son paramètre de dispersion 1/b,
on obtient d’après la méthode mode-dispersion
! "
x 1
θ(x, h) = √ , pour tout h > 0 et x ∈]0, 1/3h[.
1 − 3xh h
Ainsi, le noyau associé gaussien inverse construit est,
( ! ")
1 ξ(x, h) uξ(x, h) x
IGθ(x,h) (u) = √ exp − −2+ 1R+∗ (u),
h 2πu3 2xh x uξ(x, h)

avec ξ(x, h) = (1 − 3xh)1/2 . Son support est

SIGθ(x,h) =]0, +∞[= SIG .

Sa moyenne et sa variance étant respectivement a et a3 /b, en y injectant les valeurs


issues du système (5), on obtient
( )
1 x3 h
Aθ (x, h) = x √ −1 et Bθ (x, h) = .
1 − 3xh (1 + 3xh)3/2
Il est important de noter que ce noyau associé n’est pas approprié pour estimer les
densités définies sur la partie positive de la droite réelle, parce que pour une valeur de
h fixée, θ(x, h) n’est pas défini en dehors de ]0, (3h)−1 [. Nous illustrons ce disfonctionne-
ment par la Figure 5.1

Noyau gaussien inverse réciproque

Considérons maintenant le type de noyau inverse gaussien réciproque noté RGθ(a,b)


avec a > 0 et b > 0 respectivement ses paramètres de forme et d’échelle. Il est défini sur
SRG =]0, +∞[ par :
√ (  )
b b 1
RGθ(a,b) (u) = √ exp − au − 2 + 1R+∗ (u).
2πu 2a au

57 Francial G. Libengué
Chapitre 2. Méthode des noyaux associés continus

n 1/2 o
A partir de son mode (1/a) 1 + a2 b−2 /4 − ab−1 /2 et de son paramètre de dispersion
1/b, on résout le système (5), puis on trouve
! "
1 1
θ(x, h) = √ , pour tout x ∈]0, +∞[ et h > 0.
x2 + xh h
Ce qui conduit au noyau associé gaussien inverse réciproque défini par :
( ! ")
1 ζ(x, h) u ζ(x, h)
RGθ(x,h) (u) = √ exp − −2+ 1R+∗ (u),
2πhu 2h ζ(x, h) u

avec ζ(x, h) = (x2 + xh)1/2 . Il est de support

SRGθ(x,h) =]0, +∞[= SRG .

En écrivant sa moyenne 1/a + 1/b puis sa variance 1/(ab) + 2/b2 en fonction des compo-
santes de θ(x, h) définies précédemment, on trouve

Aθ (x, h) = (x2 + xh)1/2 − x + h et Bθ (x, h) = h{(x2 + xh)1/2 + 2h}.

Noyau de Pareto

Nous introduisons ce noyau qu’on utilise dans les cas des valeurs extrêmes. Il est
de paramètres a > 0 et b > 0 respectivement paramètres de forme et d’échelle. Il a pour
support SPAθ(a,b) = [a, +∞[ et est défini par :

bab
PAθ(a,b) (u) = 1[a,+∞[ (u).
ub+1
Son mode et son paramètre de dispersion sont respectivement a et 1/b. En résolvant le
système (2.9), on obtient :
 
1
θ(x, h) = x, pour tout x ∈]0, +∞[ et h > 0.
h
On obtient finalement le noyau associé de Pareto défini par :
 
1 x 1/h
PAθ(x,h) (u) = 1[x,+∞[ (u).
hu u
Il est de support
SPAθ(x,h) = [x, ∞[, SPAθ(a,b) = [a, +∞[,
où a est le mode du type de noyau PAθ(a,b) . En exprimant sa moyenne ab/(b−1) pour b > 1
et sa variance a2 b/{(b − 1)2 (b − 2)} pour b > 2 en fonction des composantes de θ(x, h), on
obtient alors
xh (xh)2
Aθ (x, h) = et Bθ (x, h) = .
1−h (1 − h)2 (1 − 2h)

58 Francial G. Libengué
2.1. Noyaux associés continus

Noyau log-normal

Nous proposons dans ce paragraphe l’utilisation du noyau associé lognormal, de


moyenne a ∈ R et d’écart type b > 0, que nous notons LNθ(a,b) . Il est défini sur SLN =
[0, +∞[ par : 
 ! "2 

1 
 1 log(u) − a 

LNθ(a,b) (u) = √ exp  −  1 (u).
ub 2π

 2 b  [0,+∞[

En utilisant son mode exp(a − b2 ) et de son paramètre de dispersion b, on résout le


système(2.9) pour avoir :
 
θ(x, h) = log(x) + h2 , h pour tout x ∈]0, +∞[ et h > 0.

Ce qui conduit au noyau associé lognormal


(    2 )
1 1 1 u
LNθ(x,h) (u) = √ exp − log −h 1[0,+∞[ (u)
uh 2π 2 h x

défini sur
SLNθ(x,h) = [0, +∞[= SLN .
2
 2  2
Puis, en exprimant sa moyenne ea+b /2 ainsi que sa variance eb − 1 e2a+b en fonction
des solutions issues du système(2.9), on a :
 2  2
 2 
Aθ (x, h) = x e(3h )/2 − 1 et Bθ (x, h) = x2 e(3h ) eh − 1 .

Les constructions faites nous ont permis de savoir qu’en général le support du type
de noyau et celui du noyau associé construit par le principe mode-dispersion coïncident
sauf dans le cas des noyaux associés gamma inverse et gaussien inverse où le support
du type de noyau et celui des noyaux associés diffèrent. Ceci est issue des contraintes
liées à leurs paramétrisations x < 1/(3h) pour le noyau associé gaussien inverse puis
x < 1/h dans le cas de gamma inverse.
Nous signalons aussi qu’il existe d’autres méthodes de construction qu’utilisent
certains auteurs mais cela reste à leur discrétion. Nous pouvons pour cela citer les
travaux de Jin & Kawczak (2003) sur les noyaux Birnbaum-Sanders et lognormal.
Nous résumons, dans les tableaux suivants, les différents résultats obtenus dans
cette section.

59 Francial G. Libengué
Table 2.1 – Quelques types de noyaux (pour la suite voir Tableau 2.2)

Bêta étendu Bêta Gamma Gamma inverse

Chapitre 2. Méthode des noyaux associés continus


Sθ(a,b) [t1 , t2 ], 0 ≤ t1 < t 2 [0, 1] [0, ∞) (0, ∞)
! "
  b
−a a−1 u a −(a+1)
bu exp −
b u exp − u
(u − t1 )a−1 (t2 − u)b−1 ua−1 (1 − u)b−1 b
Kθ(a,b)
B(a, b)(t2 − t1 )a+b−1 B(a, b) Γ(a) Γ(a)

(a − 1)t2 + (b − 1)t1 a−1 b


M(a, b) (a − 1)b
a+b−2 a+b−2 a+1

D(a, b) (a + b − 2)−1 (a + b − 2)−1 b b−1


60

  a(t2 − t1 ) a b
E Zθ(a,b) t1 + ab
a+b a+b a−1
  ab(t2 − t1 )2 ab b2
Var Zθ(a,b) ab2
(a + b)2 (a + b + 1) (a + b) (a + b + 1)
2 (a − 1)2 (a − 2)
Francial G. Libengué
2.1. Noyaux associés continus
Table 2.2 – Quelques types de noyaux (suite du Tableau 2.1)

Gaussien inverse Gaussien inverse réciproque Pareto Lognormal

Sθ(a,b) (0, ∞) (0, ∞) [a, ∞) (0, ∞)


√ n  o √ n  o  ! "2 
b exp − 2ab ua − 2 + ua b exp − 2ab au − 2 + au1 bab 1 

 1 log(u) − a 


Kθ(a,b) √ √ √ exp 
− 

2πt3 2πu ub+1 ub 2π  2 b 
! "  ! " 

 9a 2 1/2
3a 
 1
 a 2 1/2
a 
  
M(a, b) a
 1 + −   1 + −  a exp(a − b2 )
 4b 2 2b 
 a 4b 2 2b 
1 
61

D(a, b) b−1 b−1 b−1 b

  ab 2
E Zθ(a,b) a a−1 + b−1 ea+b /2
b−1
Francial G. Libengué

  a2 b  2  2
Var Zθ(a,b) a3 /b 1/(ab) + 2/b2 eb − 1 e2a+b
(b − 1)2 (b − 2)
Chapitre 2. Méthode des noyaux associés continus

Table 2.3 – Noyaux associés bêta et sa version étendue

Kθ(x,h) Bêta étendu Bêta

Sθ(x,h) [t1 , t2 ], 0 ≤ t1 < t2 [0, 1]

! "  
x − t1 t2 − x x 1−x
θ(x, h) + 1, +1 + 1, +1
(t2 − t1 )h (t2 − t1 )h h h

h{(t1 + t2 ) − 2x} h(1 − 2x)


Aθ (x, h)
1 + 2h 1 + 2h


h{x − t1 + h(t2 − t1 )}{(t2 − x) + h(t2 − t1 )} h x(1 − x) + h + h2
Bθ (x, h)
(1 + 2h)2 (1 + 3h) (1 + 3h)(1 + 2h)2

62 Francial G. Libengué
2.1. Noyaux associés continus
Table 2.4 – Quelques noyaux associés non-classiques

Kθ(x,h) Gamma Gamma inv. Gaussien inv. Gaussien inv. Rec. Pareto Lognormal

Sθ(x,h) (0, ∞) (0, ∞) (0, ∞) (0, ∞) [x, ∞) (0, ∞)

    ! " ! "  
x 1 1 x 1 1 1 1 
θ(x, h) + 1, h − 1, √ , √ , x, log(x) + h2 , h
h xh h 1 − 3xh h x2 + xh h h

( )
63

2x2 h 1 √ xh  2 
Aθ (x, h) h x √ −1 x2 + xh − x + h x e(3h )/2 − 1
1 − 2xh 1 − 3xh 1−h

x3 h(1 − 3xh)−1 x3 h √ (xh)2 (1 − 2h)−1 2


 2 
Bθ (x, h) h(x + h) h{ x2 + xh + 2h} x2 e(3h ) eh − 1
(1 − 2xh)2 (1 + 3xh)3/2 (1 − h)2
Francial G. Libengué

r2 (x) 1/2 1/2 1/2 1/2 1/2 1/2 1 1


Chapitre 2. Méthode des noyaux associés continus

Maintenant que nous savons nettement construire les noyaux associés Kθ(x,h) , nous
sommes en mesure de définir avec précision l’estimateur à noyau associé continu pour
une densité f inconnue sur un compact TI . C’est l’objet de la section suivante.

2.2 Estimateurs à noyaux associés continus


Cette section se propose d’étudier finement les estimateurs à noyaux associés conti-
nus non-classiques. Elle s’organise de la manière suivante. Nous proposons d’abord
la définition des estimateurs à noyaux associés puis nous examinons point par point
leurs propriétés comparativement à celles des estimateurs présentés dans le chapitre
précédent. En commençant par les biais, variance et risque quadratique. Ensuite, nous
proposons une technique de réduction de biais (lorsque celui-ci n’est pas de même
ordre que dans le cas classique). Enfin, nous illustrons avec les noyaux associés précé-
demment construits.

2.2.1 Caractéristiques
Nous désignons tout au long de cette section par X1 , X2 , · · · , Xn une suite de variables
aléatoires iid de densité f inconnue sur TI ⊆ R, par Zθ(x,h) une variable aléatoire de loi
Kθ(x,h) (où Kθ(x,h) est un noyau associé construit par la méthode mode-dispersion).

Définition 2.2.1 Soit f la densité à estimer sur TI ⊆ R, h > 0 et Kθ(x,h) un noyau associé
continu. L’estimateur fbn de f issu de Kθ(x,h) est défini par :
n
1X
fbn (x) = Kθ(x,h) (Xi ). (2.15)
n i=1

Cet estimateur est similaire à celui défini en (2.2) sauf qu’ici Kθ(x,h) est construit par
la méthode mode-dispersion. Donnons maintenant les premières propriétés de cet
estimateur.

Proposition 2.2.2 L’estimateur défini en (2.15) vérifie les propriétés suivantes


n o n o
E fbn (x) = E f (Zθ(x,h) ) , (2.16)
fbn (x) > 0, (2.17)
Z
fbn (x)dx =: Λ(n, h, K) n’est pas toujours égale 1, (2.18)
TI

où Zθ(x,h) est une variable aléatoire de loi Kθ(x,h) .

La remarque suivante explicite la dernière propriété de cette Proposition.

64 Francial G. Libengué
2.2. Estimateurs à noyaux associés continus

Kernels on positive real line for h=x=0.5


1.5

Gamma
Inverse gamma
Inverse Gaussian
Reciprocal Inverse Gaussian
lognormal
1.0
K_(x,h)(u)

0.5
0.0

0 1 2 3 4

Figure 2.4 – Comportements de quelques noyaux associés non-classiques de la droite


réelle positive aux bords.

65 Francial G. Libengué
Chapitre 2. Méthode des noyaux associés continus

Kernels on positive real line for h=0.3 and x=1.5


1.5

Gamma
Inverse gamma
Inverse Gaussian
Reciprocal Inverse Gaussian
lognormal
1.0
K_(x,h)(u)

0.5
0.0

0 1 2 3 4

Figure 2.5 – Comportements de quelques noyaux associés non-classiques de la droite


réelle positive à l’intérieur.

66 Francial G. Libengué
2.2. Estimateurs à noyaux associés continus

Remarque 2.2.3 La troisième propriété de la Proposition 2.2.2 montre que l’estimateur à noyau
associé n’est pas forcément une densité de probabilité. Sa masse totale Λ(n, h, K) = Λ est positive
et finie i.e. Z
Kθ(x,h) (u)dx < ∞ pour tout u ∈ Sθ(x,h) ∩ TI .
TI
Cependant, on peut facilement vérifier que Λ = 1 dans le cas des noyaux classiques.

Démonstration nde lao Proposition 2.2.2. La première propriété s’obtient à partir de la


définition de E fˆn (x) pour tout x ∈ Sθ(x,h) ∩ TI et Zθ(x,h) une variable aléatoire de loi
Kθ(x,h) , comme suit :
n o Z Z n o
E fˆn (x) = Kθ(x,h) (t) f (t)dt = f (t)Kθ(x,h) (t)dt = E f (Zθ(x,h) ) .
Sθ(x,h) ∩TI Sθ(x,h) ∩TI

Pour la deuxième propriété, partant du fait que Kθ(x,h) est une densité de probabilité,  on

a Kθ(x,h) (Xi ) ∈ [0, 1], pour tout x ∈ Sθ(x,h) ∩ TI , Xi ∈ TI et h > 0. Puisque les Kθ(x,h) (Xi )
i
n
1X
sont aussi iid, alors Kθ(x,h) (Xi ) ∈ [0, 1]. Quant à la dernière propriété, elle se déduit
n i=1
de la Remarque 2.2.3 dans le cas des noyaux associés classiques, puis du Tableau 2.5
dans le cas non-classique.
Nous donnons dans le Tableau 2.5 les différentes valeurs de Λ dans des cas parti-
culiers des noyaux associés bêta, gamma, gamma inverse, lognormal, gaussien inverse
et sa réciproque. Dans chaque cas, nous calculons la masse totale de l’estimateur sur le
support TI correspondant en utilisant cinq échantillons de variables aléatoires de taille
n = 1000 suivant la loi normale tronquée sur TI . Signalons tout de même qu’une étude
similaire été menée par Gourieroux & Monfort (2006) dans le cas particulier de bêta et
ils ont abouti à la même conclusion.

Table 2.5 – Quelques valeurs de Λ(n, h, K) ≃ 1 de la Proposition 2.2.2 pour h = 0.05 et


n = 1000

Type de noyauu Echan 1 Echan 2 Echan 3 Echan 4 Echan 5

Bêta 1.028727 1.037655 1.042822 1.045671 1.046681

Gamma 0.978753 0.982778 1.009463 1.056642 0.912753

Gamma inverse 0.970302 0.922467 0.976362 0.978275 0.967052

Gaussien inverse 1.247213 0.978136 1.034702 1.003275 1.062435

Gaussien inv. Rec. 0.937992 0.998741 0.993740 0.990672 0.983422

Lognormal 1.056480 0.947233 0.887284 1.139463 0.874912

67 Francial G. Libengué
Chapitre 2. Méthode des noyaux associés continus

Nous présentons dans la proposition suivante les formes assez particulières des biais
et variance de l’estimateur à noyaux associés continus.

Proposition 2.2.4 Soit fbn l’estimateur à noyau associé (2.15) de f appartenent à C 2 (TI ). Pour
tout x dans TI et h = hn > 0, alors
n o 1n o
Biais fbn (x) = Aθ (x, h) f ′ (x) + A2θ (x, h) + Bθ (x, h) f ′′ (x) + o(h2 ). (2.19)
2
De plus, si f est bornée sur T alors
n o 1  
2 1
Var fbn (x) = f (x) Kθ(x,h) +o , (2.20)
n 2 nhr2
  Z
2 2
où r2 = r2 Kθ(x,h) > 0 est le plus grand réel tel que Kθ(x,h) 2
= Kθ(x,h) (u)du ≤ c2 (x)hn−r2
Sθ(x,h) ∩T
et 0 < c2 (x) < ∞.

Signalons que les estimateurs à noyaux associés continus sont aussi (comme dans le
cas classique), asymptotiquement sans biais (grâce à la Définition 2.1.3). Cependant,
l’expression du biais donné dans cette proposition diffère de celui introduit en (1.4)
par la présence du terme Aθ (x, h) f ′ (x) qui est visiblement non négligeable. Ceci peut
être interprété comme l’équivalent des effets de bords dans le cas classique. Pour y
remédier, un algorithme de réduction de biais est proposé dans la section 2.2.2.
Démonstration de la Proposition 2.2.4. Pour tout x ∈ TI et r > 0, on obtient le biais de
fbn en procédant de la manière suivante :
  (i)  
Biais fbn (x) = E f (Zθ(x,h) ) − f (x)
(ii) n o 1 n o
= f E(Zθ(x,h) ) + Var(Zθ(x,h) ) f ′′ E(Zθ(x,h) ) − f (x)
 n 2
o2 
+ o E Zθ(x,h) − E(Zθ(x,h) )
(iii) 1
= f {x + Aθ (x, h)} + Bθ (x, h) f ′′ {x + Aθ (x, h)} − f (x)
2
+ o {Bθ (x, h)}
(iv) 1n o
= Aθ (x, h) f ′ (x) + A2θ (x, h) + B(x, h) f ′′ (x) + o(h2 ).
2
L’égalité (i) vient de la Proposition 2.2.2. Le (ii) est obtenu après développement de
f (Zθ(x,h) ) en séries de Taylor au voisinage de E(Zθ(x,h) ) à l’ordre deux. Pour le (iii),
on remplace dans (ii) successivement, f (Zθ(x,h) ) par son approximation de Taylor, puis
E(Zθ(x,h) ) par son expression dans la Définition 2.1.3. Enfin, le (iv) s’obtient en approxi-
mant f (x + Aθ (x, h)) par les séries de Taylor au voisinage de x à l’ordre deux et en sous-
n o2 
2
trayant f (x) par la suite. En fait, le reste o(h ) vient de (2.8) et o E Zθ(x,h) − E(Zθ(x,h) ) =
 n o2 
E oP Zθ(x,h) − E(Zθ(x,h) ) où oP (·) est le taux de convergence en probabilité. Concer-

68 Francial G. Libengué
2.2. Estimateurs à noyaux associés continus

nant la variance on a
n o 1 n o 1h n oi2
Var fbn (x) = E Kθ(x,h)
2
(X1 ) − E Kθ(x,h) (X1 )
nZ n
1 2 1h n oi2
= Kθ(x,h) (u) f (u)du − E Kθ(x,h) (X1 )
n Sθ(x,h) ∩TI n
= I1 − I2 .
A partir de (2.16) et (2.19) le second terme se comporte de la manière suivante
h n oi2
I2 := (1/n) E Kθ(x,h) (X1 ) ≃ (1/n) f 2 (x) ≃ O(1/n) puisque f est bornée pour tout x ∈ TI .
En utilisant le développement de f en séries de Taylor aux voisinages de x, le premier
terme I1 donne
Z Z
1 2 1 2
I1 := Kθ(x,h) (u) f (u)du = f (x) Kθ(x,h) (u)du + R(x, h),
n Sx,h ∩TI n Sx,h ∩TI

avec
Z # %
1 2 ′ (u − x)2 ′′ 2
R(x, h) = Kθ(x,h) (u) (u − x) f (x) + f (x) + o{(u − x) } du.
n Sx,h ∩TI 2
2
Sous l’hypothèse que Kθ(x,h) 2 ≤ c2 (x)h−rn nous déduisons successivement
2

Z ( )
1 ′ (u − x)2 ′′
0 ≤ R(x, h) ≤ r c2 (x) (u − x) f (x) + f (x) du ≃ o(n−1 h−r2 ).
nh 2 Sx,h ∩TI 2

Le paragraphe suivant nous présente les erreurs quadratiques moyennes ponctuelles


et globales.

Erreurs quadratiques ponctuelles et globales

Comme nous l’avons dit dans le deuxième paragraphe de la Section 1.1 du chapitre
précédent, le critère naturel qui permet d’évaluer la similarité de l’estimateur fbn par
rapport à la vraie densité f à estimer est le MSE dans le cas ponctuel et le MISE dans
le cas global. Nous les utilisons une fois de plus dans ce paragraphe, pour mesurer
l’efficacité de l’estimateur fbn = fbn,h,K, f obtenu à l’aide des noyaux associés continus. Nous
rappelons ici que le MSE et le MISE de l’estimateur à noyaux associés continus sont
comme dans le cas des noyaux associés classiques (1.5) et (1.8), définis respectivement
par n o n o
MSE(x) = Var fbn (x) + Biais2 fbn (x) , (2.21)
et Z Z
n o n o
MISE(n, h, K, f ) = Var fbn (x) dx + Biais2 fbn (x) dx. (2.22)
TI TI

En remplaçant la variance et le biais par leurs valeurs asymptotiques on obtient respec-


tivement les expressions asymptotiques du MSE et de MISE données par
 2
1n o 1 2
AMSE = Aθ (x, h) f ′ (x) + A2θ (x, h) + Bθ (x, h) f ′′ (x) + f (x) Kθ(x,h) 2 , (2.23)
2 n

69 Francial G. Libengué
Chapitre 2. Méthode des noyaux associés continus

et
Z ! 2 "
1
AMISE( fbn,h,K, f ) = ′ 2 ′′
Aθ (x, h) f (x) + {Aθ (x, h) + Bθ (x, h)} f (x) dx
TI 2
Z
1 2
+ Kθ(x,h) 2 f (x)dx. (2.24)
TI n

La proposition suivante donne la vitesse de convergence de l’estimateur fbn au sens


de AMISE.

Proposition 2.2.5 Soit f ∈ C 2 (TI ), la densité à estimer. Si les dérivées premières et secondes
de f sont bornées alors la fenêtre optimale de lissage qui minimise le AMISE est

h = C(x)n−1/(r2 +2)
 
avec r2 = r2 Kθ(x,h) défini dans (2.20).

Démonstration. La Définition 2.1.3 et la Proposition 2.1.5 permettent de dire qu’il existe


deux constantes positives c∗1 (x) et c∗∗
1
(x) telles que Aθ (x, h) ≤ c∗1 (x)h et Bθ (x, h) ≤ c∗∗
1
(x)h2 .
D’après la Proposition 2.2.4, on a :
n o n o
Biais fbn (x) ≤ hc1 (x) et Var fbn (x) ≤ n−1 h−r2 c2 (x),

avec c1 (x) = supx∈T |c∗1 (x) f ′ (x) + c∗∗ ′′


1 (x) f (x)|. De (2.21), on déduit que

MSE(x) ≤ h2 c21 (x) + n−1 h−r2 c2 (x). (2.25)

En intégrant (2.25), on obtient

AMISE( fbn,h,K, f ) ≤ h2 C1 (x) + n−1 h−r2 C2 (x)

avec C1 (x) et C2 (x) les primitives respectivement de c21 (x) et c2 (x) sur TI . En prenant le
second membre égal à 0 on trouve le résultat.
La valeur de h ainsi obtenue, fournit la vitesse de convergence de l’estimateur à
noyau associé continu. Pour les noyaux classiques, cette notion a été aussi sujet des
travaux de beaucoup d’auteurs dont Sarda & Vieu (1988).
Il y a lieu ici de constater que la présence du terme Aθ (x, h) f ′ (x) avec Aθ (x, h) , 0 dans
l’expression du biais de fbn,h,K, f augmente les erreurs de ce dernier. D’où nécessité de
la réduction de biais, plus précisément l’annulation de Aθ (x, h). Ainsi, nous proposons
dans le prochain paragraphe un algorithme permettant d’annuler Aθ (x, h) dans la plus
grande partie du support TI ; cette procédure est inspirée de Chen (1999, 2000, 2010).

2.2.2 Réduction de biais et noyaux associés modifiés

Pour réduire le biais de fbn,h,K, f défini en (2.19), on procède en deux étapes. La première
étape consiste à définir les régions de bords et de l’intérieur et la seconde traite de la
modification du noyau associé qui conduit à un biais réduit.

70 Francial G. Libengué
2.2. Estimateurs à noyaux associés continus

Courbe comparative des estimateurs à noyaux associés


0.4

Gamma
Inverse gamma
Inverse gaussien
Inverse gaussien réciproque
0.3

Lognormal
f(x)
f_n(x)

0.2
0.1
0.0

2 4 6 8 10

Figure 2.6 – Comportements des estimateurs noyaux associés non-classiques de la


droite réelle positive.

71 Francial G. Libengué
Chapitre 2. Méthode des noyaux associés continus

Comportements de MSE pour h=0.5


1.2

Gamma
Inverse gamma
1.0

Inverse gaussien
Inverse gaussien réciproque
Lognormal
0.8
MSE(x)

0.6
0.4
0.2
0.0

0.2 0.4 0.6 0.8 1.0 1.2 1.4

Figure 2.7 – Comportements des MSE aux bords dans l’estmation de la densité normale
tronquée.

72 Francial G. Libengué
2.2. Estimateurs à noyaux associés continus

MSE dans l'estimation de la densité exponentielle pour h=0.5


1.0

Lognormal
Gamma
Inverse gamma
0.8

Inverse Gaussian
Reciprocal inverse Gaussian
0.6
MSE(x)

0.4
0.2
0.0

0.2 0.4 0.6 0.8 1.0 1.2 1.4

Figure 2.8 – Comportements des MSE aux bords dans l’estmation de la densité expo-
nentielle.

73 Francial G. Libengué
Chapitre 2. Méthode des noyaux associés continus

Algorithme de réduction du biais

Voici comment on peut réduire le biais ponctuel de fbn,h,K, f .

Première étape

On divise le support TI = [t1 , t2 ] en deux régions d’ordre α(h) > 0 avec α(h) → 0
quand h → 0 ;
(i) région intérieure (La plus grande région pouvant contenir 95% des observations)
notée Tα(h),0 et définie par l’intervalle

Tα(h),0 =]t1 + α(h), t2 − α(h)[,

(ii) régions de bords (pouvant être vide) représentées par les deux intervalles Tα(h),−1 et
Tα(h),+1 respectivement définis par

Tα(h),−1 = [t1 , t1 + α(h)] (à gauche),

et
Tα(h),+1 = [t2 − α(h), t2 ] (à droite).

Les régions de bords constituent le complémentaire de la région intérieure et on note :

Tcα(h),0 = Tα(h),−1 ∪ Tα(h),+1 .

Deuxième étape

On modifie le noyau associé Kθ (x, h) correspondant à Aθ (x, h) et Bθ (x, h) en une 


nouvelle fonction noyau Kθ(x,h) e correspondant à e
A(x, h) = e
A−1 (x, h), e
A0 (x, h), e
A+1 (x, h) et
 
e
B(x, h) = eB−1 (x, h), e
B0 (x, h), e
B+1 (x, h) de sorte que, pour un h fixé,


 e−1 (x, h)
θ si x ∈ Tα(h),−1
  

e h) = θ
θ(x, e−1 (x, h), θ e+1 (x, h) = 
e0 (x, h), θ  e0 (x, h) :
θ e0 (x, h) = 0 si x ∈ Tα(h),0
A (2.26)




 e+1 (x, h)
θ si x ∈ Tα(h),+1

soit continue sur TI et constant sur Tcα(h),0 voir Chen (2010). Nous présentons quelques
illustrations dans la Section 4.
La proposition suivante montre que la fonction noyau modifié Kθ(x,h)
e de support
Sθ(x,h)
e = S θ(x,h) est un noyau associé continu.

Proposition 2.2.6 La fonction Kθ(x,h)


e issue de (2.26) est un noyau associé de même type K =
Kθ(x,h) .

74 Francial G. Libengué
2.2. Estimateurs à noyaux associés continus

Démonstration. Nous montrons ici que Kθ(x,h) e satisfait les conditions de la Définition
2.1.3. En partant du fait que Kθ(x,h) est un noyau associé puis en utilisant la première
étape de l’algorithme de réduction de biais, on a pour tout j ∈ J = {−1, 0, +1},
x ∈ Tα(h), j ⇒ x ∈ TI ⇒ x ∈ Sθ(x,h) = Sθ(x,h)
e .
Les deux derniers résultats découlent de la Proposition 2.1.6. C’est-à-dire que pour
toute variable aléatoire Zθ(x,h)
e de densité Kθ(x,h)
e on a
E(Zθ(x,h)
e ) = x + Aθ(x,h)
e et Var(Zθ(x,h)
e ) = Bθ(x,h)
e

avec Aθ(x,h)
e et Bθ(x,h)
e qui tendent vers 0 quand h tend vers 0. En prenant A(x, e h) = Ae
θ(x,h)
e
et B(x, h) = Bθ(x,h)
e
e e
il vient que pour tout j ∈ J, A j (x, h) = Aθej (x,h) et B j (x, h) = Bθej (x,h) . En
particulier, à partir de (2.26) on obtient Aθe0 (x,h) = 0.
Ainsi, à partir de la Définition 2.2.1 puis en utilisant le noyau associé modifié Kθ(x,h)
e ,
on définit l’estimateur à noyau associé modifié fen de f par :
n
1X
fen (x) = Ke (Xi ) . (2.27)
n i=1 θ(x,h)

La proposition suivante donne les expressions du biais et la variance de fen .


Proposition 2.2.7 Soit TI = ∪ j∈J Tα(h), j (J = {−1, 0, +1}), le support de la densité f à estimer,
fbn et fen les estimateurs à noyaux associés continus de f donnés respectivement définis en (2.15)
et (2.27). Pour tout x ∈ Tα(h),0 on a
n o 1
Biais fen (x) = Bθe0 (x, h) f ′′ (x) + o(h2 ),
2
et n o n o
Var fen (x) ≃ Var fbn (x) quand h → 0.
Démonstration. On obtient le premier résultat en remplaçant dans (2.19) respective-
ment, fbn , Aθ et Bθ par fen , A
e0 et e
B0 . Pour le second résultat, il suffit de montrer que
2 2
Kθ(x,h) 2
≃ Kθ(x,h)
e quand h → 0.
2
En effet, puisque Kθ(x,h) et Kθ(x,h)
e sont des noyaux associés de même type K, r2 = r2 (Kθ(x,h) )
et e r2 (Kθ(x,h)
r2 = e e ), il existe un plus grand réel r = r(K) tel que
2 2
Kθ(x,h) 2
≤ c2 (x)h−r et Kθ(x,h)
e c2 (x)h−r ,
≤e
2
2
avec 0 < c2 (x),e
c2 (x) < ∞. En prenant c(x) = sup{c2 (x),e
c2 (x)} on a Kθ(x,h) 2
≤ c(x)h−2r et
2 2 2
Kθ(x,h)
e ≤ c(x)h−2r . Puisque c(x)/nh2r = o(n−1 h−2r ) alors Kθ(x,h)
e ≃ Kθ(x,h) 2 .
2 2
Contrairement aux cas classiques, le choix des noyaux associés non-classiques est
très important. D’abord, il dépend d’une connaissance a priori du support TI de la den-
sité à estimer, qui doit coïncider avec le support Sθ du noyau associé (non-classique). De
plus, ce choix doit tenir compte de comportement du noyau associé selon les différentes
positions de la cible x sur TI . Dans le prochain paragraphe, nous proposons un critère
pour le choix du noyau associé continu.

75 Francial G. Libengué
Chapitre 2. Méthode des noyaux associés continus

Choix du noyau

Nous proposons dans ce paragraphe, un critère pour le choix du noyau essentielle-


ment dans la partie la plus importante du support TI en l’occurrence Tα(h),0 . Ce critère est
basé sur la comparaison des erreurs quadratiques moyennes intégrées asymptotiques
i.e. le MISE. D’après la proposition précédente, nous pouvons écrire l’erreur quadra-
tique moyenne ponctuelle de fen sur Tα(h),0 notée AMSE0 , de la manière suivante :

1 1 2
AMSE0 (x) = B2e (x, h){ f ′′ (x)}2 + Ke f (x)
4 θ0 n θ(x,h) 2

par conséquent le AMISE0 est


Z  
e 1 2 1 2
AMISE0 ( fn,h,K, f ) = Be (x, h){ f ′′ (x)}2 + Ke f (x) dx.
Tα(h),0 4 θ0 n θ(x,h) 2

Ainsi, pour des noyaux associés de même support S, le noyau optimal (le noyau qui
estime mieux) noté Kθ opt dans la région intérieure de TI (i.e. sur Tα(h),0 ) est celui qui a le
plus petit AMISE0 pour tout h > 0. On écrit alors

Kθ opt = arg min AMISE0 ( fen,h,K ).


Kθ sur S

Remarque 2.2.8 Lorsque T = R, ceci coïncide avec le cas classique et le noyau optimal est
celui d’Epachnikov.

2.2.3 Illustration sur les noyaux associés non-classiques


Dans cette section, nous présentons dans chacun des cas, le calcul des biais et
variance ponctuels de l’estimateur à noyaux associés continus définis dans la Propo-
sition 2.2.4, avec application sur la réduction de biais en passant par la modification
du noyau associé construit par le principe mode-dispersion (voir Section 2.2.2). Pour
une meilleure compréhension, nous rappelons à chaque fois les ingrédients nécessaires
pour ces calculs.

Estimateurs de densités à noyau bêta étendu

Le noyau associé bêta étendu construit dans la Section 2.1.3 est approprié pour
l’estimation des densités f ayant pour support TI = SEB = [t0 , t1 ]. Considérons fbn;t0 ,t1 un
estimateur de f par le noyau associé bêta étendu. Par utilisation de la Proposition 2.2.4,
le calcul de son biais donne :
# %2
n o h{(t0 + t1 ) − 2x} 1 h{(t0 + t1 ) − 2x}
b
Biais fn;t0 ,t1 (x) = ′
f (x) + f ′′ (x)
1 + 2h 2 1 + 2h
{x − t0 + h(t1 − t0 )}{(t0 − x) + h(t1 − t0 )} ′′
+ f (x) + o(h2 ).
2(1 + 2h)2 (1 + 3h)

76 Francial G. Libengué
2.2. Estimateurs à noyaux associés continus

Ce biais est grand par la présence du terme non nul en f ′ et nous allons l’éliminer en
utilisant l’algorithme de réduction de biais proposé dans la Section 2.2.2. Premièrement,
nous divisons le support TI respectivement en Tα(h),−1 = [t0 , t0 + α(h)], Tα(h),0 =]t0 +
α(h), t1 − α(h)[ et Tα(h),+1 = [t1 − α(h), t1 ]. Dans un second temps, nous considérons la
fonction ψ : T → T définie par
ψ(z) = α(h){z − α(h) + 1} pour tout z ≥ 0, (2.28)

puis nous construisons θ(x, e h) = θ(x, e h; t1 , t2 ) comme suit :


 ! "

 ψ(x − t0 ) x − t0

 , si x ∈ [t0 , t0 + α(h)]



 (t1 − t0 )h (t1 − t0 )h
 !


"
e  x − t0 t1 − x
θ(x, h; t0 , t1 ) = 
 , si x ∈]t0 + α(h), t1 − α(h)[

 (t1 − t 0 )h (t1 − t 0 )h

 ! "

 t − x ψ(t1 − x)

 1

 (t − t )h , (t − t )h si x ∈ [t1 − α(h), t1 ].
1 0 1 0

En exprimant les moyenne et variance de EBθ(x,h,t


e
e h; t0 , t1 )
, on obtient des quantités A(x,
0 ,t1 )

et e
B(x, h; t0 , t1 ) données par :


 x(x − t0 ) + (1 − x)ψ(x − t0 )

 si x ∈ [t0 , t0 + α(h)]

 x − t0 + ψ(x − t0 )


e h, t0 ; t1 ) = 
A(x,  0 si x ∈]t0 + α(h), t1 − α(h)[



 x(t1 − x) + (1 − x)ψ(t1 − x)



 si x ∈ [t1 − α(h), t1 ],
t1 − x + ψ(t1 − x)
et 

 h(x − t0 )ψ(x − t0 ){x − t0 + ψ(x − t0 )}−2

 si x ∈ [t0 , t0 + α(h)]

 {x − t0 + ψ(x − t0 ) + h}




e  h(x − t0 )(t1 − x)
B(x, h) = 
 si x ∈]t0 + α(h), t1 − α(h)[

 1+h



 h(t 1 − x)ψ(t1 − x)}{(t1 − x) + ψ(t1 − x)}−2

 si x ∈ [t1 − α(h), t1 ].

{(t1 − x) + ψ(t1 − x) + h}

Ainsi, le biais réduit de fen;t0 ,t1 sur ]t0 + α(h), t1 − α(h)[ est donné par :
n o 1
Biais fen;t0 ,t1 (x) = h(x − t0 )(t1 − x) f ′′ (x) + o(h2 ).
2
2
Le calcul de la variance de fen;t0 ,t1 est réduit à la détermination de EBθ(x,h;t e 0 ,t1 ) 2
. En
partant de sa définition donnée dans la Proposition 2.2.4, on a
Z
2
EBθ(x,h;t
e 0 ,t1 ) 2
= EB2(x,h;t0 ,t1 ) (t)dt
[t ,t ]
Z 0 1
(u − t0 )2(x−t0 )/h (t1 − u)2(t1 −x)/h du
=
[t0 ,t1 ] {B (1 + (x − t0 )/(t1 − t0 )h, 1 + (t1 − x)/(t1 − t0 )h)}
2

B (1 + 2(x − t0 )/(t2 − t0 )h, 1 + 2(t1 − x)/(t1 − t0 )h)


= . (2.29)
{B (1 + (x − t0 )/(t1 − t0 )h, 1 + (t1 − x)/(t1 − t0 )h)}2

77 Francial G. Libengué
Chapitre 2. Méthode des noyaux associés continus

Donc, on peut écrire la variance de la forme :


! "
2(x − t0 ) 2(t1 − x)
B + 1, +1  
n o (t1 − t0 )h (t1 − t0 )h 1 1
b
Var fn;t0 ,t1 (x) = ( ! ")2 n f (x) + o nhr2 , (2.30)
(x − t0 ) (t1 − x)
B + 1, +1
(t1 − t0 )h (t1 − t0 )h
Nous allons maintenant approximer cette expression de la variance afin d’exhiber le
réel r2 . Considérons la fonction R introduite par Brown & Chen (1998). Elle est définie
pour tout z ≥ 0 comme suit :
 z √
1 z
R(z) = 2πz. (2.31)
Γ(z + 1) e
C’est une fonction positive, croissante et majorée par 1. En utilisant la relation entre les
fonctions bêta et gamma puis en injectant dans (2.29), on trouve


 Γ(2c + 1) x − t0 t1 − x

 si et →c
2 

 2 Γ (c + 1)
2c+1 2 (t1 − t0 )h (t1 − t0 )h
EBθ(x,h;t
e 0 ,t1 ) 2
= 


 (x − t0 )−1/2 (t1 − x)−1/2 x − t0 t1 − x

 √ si et → ∞.
 2 π(t1 − t0 )−1 h1/2 (t1 − t0 )h (t1 − t0 )h

On obtient alors la variance de fen;t1 ,t2 (x) pour tout x ∈ (t1 + α(h), t2 − α(h))
n o (x − t0 )−1/2 (t1 − x)−1/2  
e 1
Var fn;t1 ,t2 (x) = √ f (x) + o . (2.32)
2 π(t1 − t0 )−1 nh1/2 nh1/2
On en déduit que r2 = 1/2.
Le noyau bêta présenté dans Chen(1999) est un cas particulier de ce bêta étendu.
On l’obtient en prenant t0 = 0 et t1 = 1. Dans ce cas, son biais est
( )
n o h − 2xh 1 (h − 2xh)2 x(1 − x)h + h2 + h3 ′′
b
Biais fn (x) = ′
f (x) + + f (x) + o(h2 ).
1 + 2h 2 (1 + 2h)2 (1 + 3h)(1 + 2h)2
La première étape de réduction de biais donne : Tα(h),−1 = [0, α(h)], Tα(h),0 =]α(h), 1−α(h)[
et Tα(h),+1 = [1 − α(h), 1] (e.g. dans Chen(1999), α(h) = 2h). Le noyau bêta modifié est
e h) définie par :
obtenu à partir de θ(x,
 ! "

 ψ(x) x

 , si x ∈ [0, α(h)]

 h h

  


e  x 1−x
θ(x, h) = 
 , si x ∈]α(h), 1 − α(h)[

 ! h h "



 1 − x ψ(1 − x)

 , si x ∈ [1 − α(h), 1],
 h h
e h) et e
les calculs de A(x, B(x, h) donnent respectivement :


 (1 − x)ψ(x) + x2

 si x ∈ [0, α(h)]

 x + ψ(x)


e h) = 
A(x,  0 si x ∈]α(h), 1 − α(h)[



 (1 − x){x − ψ(1 − x)}



 si x ∈ [1 − α(h), 1],
1 − x + ψ(1 − x)

78 Francial G. Libengué
2.2. Estimateurs à noyaux associés continus

et 

 hxψ(x)


 si x ∈ [0, α(h)]

 {x + ψ(x)}2 {x + ψ(x) + h}



 hx(1 − x)
e
B(x, h) =  si x ∈]α(h), 1 − α(h)[

 1+h



 h(1 − x)ψ(1 − x){1 − x + ψ(1 − x)}−2



 si x ∈ [1 − α(h), 1].
{1 − x + ψ(1 − x) + h}
Donc le biais réduit à l’intérieur (i.e. pour x ∈]α(h), 1 − α(h)[) est :
n o 1 x(1 − x)h
Biais fen (x) = f ′′ (x) + o(h2 ).
2 1+h
Sa variance déduite de (2.30) est alors
n o B (1 + 2x/h, 1 + 2(1 − x)/h) 1  
b 1
Var fn (x) = f (x) + o .
{B (1 + x/h, 1 + (1 − x)/h)}2 n nh1/2

Sa valeur approchée à l’intérieur s’obtient de (2.32) en posant t0 = 0 et t1 = 1. Ceci


donne  
n o 1 n−1 h−1/2 1
Var fen (x) = √ f (x) + o .
2 π {x(1 − x)}1/2 nh1/2

Estimateurs de densités à noyau gamma

D’après la construction du noyau gamma en Section 2.1.3, on a A(x, h) = h et


B(x, h) = x + h. Par conséquent le biais de cet estimateur est :
n o 1n o
Biais fbn (x) = h f ′ (x) + xh + 2h2 f ′′ (x) + o(h2 ). (2.33)
2
Pour le réduire, on divise le support TI = [0, ∞) en Tα(h),−1 = [0, α(h)] et Tα(h),0 =]α(h), ∞[
(e.g. dans Chen(2000), α(h) = 2h). On modifie le noyau en utilisant la paramétrisation
e h) définie par :
θ(x,
 ! "


 x2
 2hα(h) + 1, h si x ∈ [0, α(h)]

e h) = 
θ(x,   

 x


 ,h si x ∈]α(h), +∞[.
h
e h) et
Ainsi, par les calculs de moyenne et variance on obtient les caractéristiques A(x,
e
B(x, h) données respectivement par :
 2

 x + 2α(h)(h − x)

 si x ∈ [0, α(h)]
e
A(x, h) =  2α(h)


 0 si x ∈ (α(h), ∞),
et 

 h{x2 + 2hα(h)}

 si x ∈ [0, α(h)]
e
B(x, h) =  2α(h)


 xh si x ∈]α(h), +∞[.

79 Francial G. Libengué
Chapitre 2. Méthode des noyaux associés continus

Ce qui conduit au biais réduit de fen sur ]α(h), ∞[ donné par


n o 1
Biais fen (x) = xh f ′′ (x) + o(h2 ).
2
2
Pour la variance, on calcule d’abord GAθ(x,h) 2 . Ceci donne
Z
2
GAθ(x,h) 2 = GA2θ(x,h) (u)du
R+
Z  2x/h
1 2u
= 2 e−2u/h du
Γ (1 + x/h) h2 22x/h R+ h
Γ (1 + 2x/h)
= 2
Γ (1 + x/h) 21+2x/h
Finalement, la variance de l’estimateur est
n o  
Γ (1 + 2x/h) 1 1
Var fbn (x) = f (x) + o .
Γ2 (1 + x/h) 21+2x/h nh nhr2
L’utilisation de la fonction R définie en (2.31) conduit à
n o x−1/2 1  
e 1
Var fn (x) = √ √ f (x) + o , ∀x ∈]α(h), ∞[.
2 πn h nh1/2
Par conséquent r2 = 1/2.

Estimateurs de densités à noyau gamma inverse

Considérons les ingrédients A(x, h) = 2x2 h/(1 − 2xh) et B(x, h) = x3 /(1 − 2xh)2 (1 − 3xh)
issus de la construction du noyau gamma inverse en Section 2.1.3. La première partie
de la Proposition 2.2.4 permet d’avoir :
( )
n o 2x2 h ′ 1 4x4 h2 x3 h
b
Biais fn (x) = f (x) + + f ′′ (x) + o(h2 ).
1 − 2xh 2 (1 − 2xh)2 (1 − 2xh)2 (1 − 3xh)
Suivant l’algorithme décrit en Section 2.2.2, on réduit ce biais en commençant par
diviser le support TI =]0, ∞[ en Tα(h),−1 = (0, α(h)] et Tα(h),0 = (α(h), ∞). Puis on modifie
e h) définie par :
le noyau par l’utilisation de la paramétrisation θ(x,
 ! "


 x 1
 1 + hα2 (h) , h
 si x ∈ (0, α(h)]
e h) = 
θ(x,   

 1 1


 1+ , si x ∈ (α(h), ∞).
xh h
En calculant respectivement les moyenne et variance du noyau gamma inverse modifié,
e h) et e
on déduit les expressions de A(x, B(x, h) qui sont :
 2


 α (h) − x2
e h) =   si x ∈]0, α(h)]
A(x,  x

 0 si x ∈]α(h), +∞[

80 Francial G. Libengué
2.2. Estimateurs à noyaux associés continus

et 


 hα6 (h)

 si x ∈]0, α(h)]
e  x2 (x − hα2 (h))
B(x, h) = 
 x3 h



 si x ∈]α(h), +∞[.
1 − xh
Le biais réduit sur ]α(h), +∞[ est finalement
n o x3 h
Biais fen (x) = f ′′ (x) + o(h2 ).
2(1 − xh)
2
Comme dans le cas précédent, la variance s’obtient à partir de GIθ(x,h) 2 . Par une
démarche similaire on a
2 hΓ(−1 + 2/xh)
GIθ(x,h) = 21−2/(xh) ,
2 Γ2 (−1 + 1/xh)

ce qui conduit à
n o  
b 1−2/(xh) hΓ(−1 + 2/xh) 1
Var fn (x) = 2 f (x) + o .
nΓ2 (−1 + 1/xh) nh1/2

Sa valeur approchée pour x ∈]α(h), +∞[ est alors :

n o  3/2  
h 1 1 1
Var fen (x) = √ −1 f (x) + o .
2 π xh n nh1/2

On en déduit que r2 = 1/2.

Estimateurs de densités à noyau gaussien inverse

Partant de la construction
n du noyau o gaussien inverse en−3/2 Section 2.1.3, on a les
3
ingrédients A(x, h) = x (1 − 3xh) −1/2
− 1 et B(x, h) = x (1 + 3xh) . En utilisant (2.19) il
vient :
! "
n o x
Biais fbn (x) = √ − x f ′ (x)
1− 3xh 
! "2
1
 x x3
h 

 ′′
+   √ − x + 
 f (x) + o(h2 )
2  1 − 3xh (1 − 3xh) 3/2 

Pour réduire ce biais conformément à l’algorithme décrit en Section 2.2.2, on divise le


support TI =]0, +∞[ en Tα(h),−1 =]0, α(h)] et Tα(h),0 =]α(h), +∞[. Ensuite, on considère la
e h) définie par :
nouvelle paramétrisation θ(x,
 ! 2 2
"


 2x − α (h) 1

 , si x ∈]0, α(h)]
e  α(h) h
θ(x, h) = 
  

 1

 x, si x ∈]α(h), +∞[
h

81 Francial G. Libengué
Chapitre 2. Méthode des noyaux associés continus

Par les calculs de biais et variance du noyau gaussien inverse modifié, on déduit les
e h) et e
caractéristiques A(x, B(x, h) données respectivement par


 2x2 − α(h){α(h) + x}

 si x ∈]0, α(h)]
e h) = 
A(x, α(h)


 0 si x ∈]α(h), +∞[
et 

 h{2x2 − α(h)}3

 si x ∈ (0, α(h)]
e
B(x, h) =  α3 (h)


 x3 si x ∈]α(h), +∞[.
Ainsi, le biais réduit sur ]α(h), +∞[ est alors
n o
Biais fen (x) = x3 f ′′ (x) + o(h2 ).
La variance de l’estimateur gaussien inverse se calcule de la même manière que dans
2
les exemples précédents. On détermine d’abord IGθ(x,h) 2
comme suit
2 1
IGθ(x,h) 2
= √ ,
2 πhx3
On en déduit que la variance de fbn est
n o  
b 1 1 1
Var fn (x) = √ f (x) + o ,
2 πhx3 n nh1/2
par conséquent on a à l’intérieur
n o  
11 1
Var fen (x) = √ f (x) + o
2 πhx3 n nh1/2
et donc r = 1/2.

Estimateurs de densités à noyau gaussien inverse réciproque

Les différents ingrédients issus de la construction du noyau gaussien inverse réci-


proque étant A(x, h) = (x2 + xh)1/2 − x + h et B(x, h) = (x2 + xh)1/2 + 2h alors d’après (2.19)
on a
n o
Biais fbn (x) = {(x2 + xh)1/2 − x + h} f ′ (x)
1h i
+ {(x2 + xh)1/2 − x + h}2 + (x2 + xh)1/2 + 2h f ′′ (x) + o(h2 ).
2
L’utilisation de l’algorithme de réduction de biais décrit en Section 2.2.2 conduit à
diviser le support ]0, +∞[ en Tα(h),−1 =]0, α(h)] et Tα(h),0 =]α(h), +∞[. Ensuite, on modifie
le noyau gaussien inverse réciproque en utilisant la nouvelle paramétrisation
 ! "


 α(h) 1

 , si x ∈]0, α(h)]
e  x2 − hα(h) h
θ(x, h) = 
  

 1 1

 , si x ∈]α(h), +∞[.
x−h h

82 Francial G. Libengué
2.2. Estimateurs à noyaux associés continus

Par les calculs de biais et variance du gaussien inverse réciproque et modifié, on déduit
e h) et e
les caractéristiques A(x, B(x, h) données respectivement par


 x(x − hα(h)
e h) = 

 si x ∈]0, α(h)]
A(x,  α(h)

 0 si x ∈]α(h), +∞[

et 


 h{x2 + hα(x)}

 si x ∈]0, α(h)]
e  α(h)
B(x, h) = 



 1
 + 2h si x ∈]α(h), +∞[.
x−h
Ceci permet d’obtenir le biais réduit dans ]α(h), +∞[ défini par
n o  1 
Biais fen (x) = + 2h f ′′ (x) + o(h2 ).
x−h
2
Le calcul de RGθ(x,h) 2
donne

2 1
RGθ(x,h) 2
= √ .
2 πhx
En utilisant la Proposition 2.2.7, on déduit pour tout x ∈]α(h), +∞[
n o n o  
1 1 1
Var fen (x) = Var fbn (x) = √ f (x) + o .
2 πhx n nh1/2

On a dans ce cas r2 = 1/2.

Estimateurs de densités à noyau de Pareto

La construction du noyau de Pareto dans la Section 2.1.3 a permis d’avoir A(x, h) =


xh/(1 − h) et B(x, h) = (xh)2 /(1 − h)2 (1 − 2h). Ceci permet d’écrire le biais de fbn d’après
(2.19) de la manière suivante
n o xh ′ (xh)2
Biais fbn (x) = f (x) + f ′′ (x) + o(h2 ).
1−h (1 − h)(1 − 2h)
Ce biais est nettement large par rapport aux cas des noyaux associés classiques. L’utili-
sation de l’algorithme donné dans la Section 2.2.2, permet de constater que les régions
de bords sont vides pour ce noyau. Et donc il ne reste qu’à modifier ce noyau en utilisant
la nouvelle paramétrisation suivante
 
e h) = x(1 − h), 1 .
θ(x,
h
Ceci conduit à
e h) = 0 et e (xh)2
A(x, B(x, h) =
(1 − 2h)

83 Francial G. Libengué
Chapitre 2. Méthode des noyaux associés continus

et donc le biais réduit est


n o (xh)2 ′′
Biais fen (x) = f (x) + o(h2 ).
(1 − 2h)
La variance de l’estimateur à noyau de Pareto est calculée de la même manière que
2
dans les cas précédents. Le calcul de PAθ(x,h) 2
donne

2 1
PAθ(x,h) = .
2 2xh
Ainsi, en utilisant la Proposition 2.2.7, on trouve
n o n o  
1 1
Var fen (x) = Var fbn (x) = f (x) + o
2xnh nh
et donc r2 = 1.

Estimateurs de densités à noyau lognormal

 Le2 noyau  lognormal construit en  Section


 2.1.3 a pour caractéristiques Aθ (x, h) =
(3h )/2 2 (3h2 ) h2
x e −1 et Bθ (x, h) = x e e − 1 . Ainsi, son biais peut être écrit de la forme
n o  2  1  2 
Biais fbn (x) = x e(3h )/2 − 1 f ′ (x) + {x e(3h )/2 − 1 +}2 f ′′ (x)
  2
2 (3h2 ) h2
+x e e − 1 f (x) + o(h2 ).
′′

L’application de l’algorithme décrit en Section 2.2.2 permet de diviser le support TI =


]0, +∞[ en Tα(h),−1 = [0, α(h)] et Tα(h),0 =]α(h), +∞[, respectivement. Ensuite, on modifie
le noyau en utilisant la nouvelle paramétrisation θ e définie par :
 ! 3  
"


 α (h) 2
 exp −3h /2 , h si x ∈]0, α(h)]
e h) = 
θ(x,  x2

    

 x exp −3h2 /2 , h si x ∈]α(h), +∞[.

e h) et e
Le calcul de A(x, B(x, h) donne respectivement
 3


 α (h) − x3
e h) =   si x ∈ (0, α(h)]
A(x,  x2

 0 si x ∈ (α(h), ∞)

et 

 α6 (h)  h2 

 e − 1 si x ∈ (0, α(h)]
e
B(x, h) =  x4


 x2 (eh − 1)
2
si x ∈ (α(h), ∞).
Ainsi, le biais de l’estimateur à noyau lognormal modifié est alors pour tout x ∈
]α(h), +∞[ n o 2
Biais fen (x) = x2 (eh − 1) f ′′ (x) + o(h2 ).

84 Francial G. Libengué
2.2. Estimateurs à noyaux associés continus

2
Le calcul de LNθ(x,h) 2
conduit à

2 1
LNθ(x,h) 2
= √ .
2xh π

En faisant usage de la Proposition 2.2.7, on déduit alors pour tout x ∈]α(h), +∞[
n o n o  
1 1
Var fen (x) = Var fbn (x) = √ f (x) + o ,
2xnh π nh

Ce qui prouve que r2 = 1. Nous récapitulons dans les Tableau 2.6 et Tableau 2.7 les
différents résultats présentés ci-dessus.

85 Francial G. Libengué
Table 2.6 – Quelques noyaux associés modifiés ( suite voir Tableau 2.7)

Kθ(x,h)
e Bêta : ψ(z) = {z − α(h) + 1}α(h) for all z ≥ 0. Pareto Lognormal

Chapitre 2. Méthode des noyaux associés continus


Tα(h),j [0, α(h)] (α(h), 1 − α(h)) [1 − α(h), 1] [x, ∞) [0, α(h)] (α(h), ∞)

! "   ! "   ! "


e h) ψ(x) x x 1−x 1 − x ψ(1 − x) 1 α3 (h) 2
  
θ(x, , , , x(1 − h), exp −3h /2 , h x exp −3h2 /2 , h
h h h h h h h x2

(1 − x)ψ(x) + x2 (1 − x){x − ψ(1 − x)} α3 (h) − x3


Aθe(x, h) 0 0 0
x + ψ(x) 1 − x + ψ(1 − x) x2

hxψ(x){x + ψ(x)}−2 hx(1 − x) h(1 − x){1 − x + ψ(1 − x)}−2 (xh)2 α6 (h)  h2  2


Bθe(x, h) e − 1 x2 (eh − 1)
{x + ψ(x) + h} 1+h {ψ(1 − x)}−1 {1 − x + ψ(1 − x) + h} (1 − 2h) x4
86

r2 (x)
e 1 1/2 1 1 r2 {α(h)}
e (??) 1
Francial G. Libengué
2.2. Estimateurs à noyaux associés continus
Table 2.7 – Quelques noyaux associés modifiés (suite du Tableau 2.6)

Kθ(x,h)
e Gamma Gamma inverse Gaussien inverse Gaussien inverse réciproque

Tα(h),j [0, α(h)] (α(h), ∞) [0, α(h)] (α(h), ∞) [0, α(h)] (α(h), ∞) [0, α(h)] (α(h), ∞)

! "   ! "   ! "   ! "  


e h) x2 x x 1 1 1 α(h) 1 1 α(h) 1 1 1
θ(x, + 1, h ,h 1+ , 1+ , , x, , ,
2hα(h) h hα (h) h
2 xh h x − hα(h) h
2 h x − hα(h) h
2 x−h h

x2 + 2α(h)(h − x) α2 (h) − x2 2x2 − α(h){α(h) + x} x(x − hα(h)


Aθe(x, h) 0 0 0 0
2α(h) x α(h) α(h)
87

h{x2 + 2hα(h)} hα6 (h) x3 h h{2x2 − α(h)}3 h{x2 + hα(x)} 1


Bθe(x, h) xh x3 + 2h
2α(h) x2 (x − hα2 (h)) 1 − xh α3 (h) α(h) x−h

r2 (x)
e 1 1/2 1 1/2 1 1/2 1 1/2
Francial G. Libengué
Chapitre 2. Méthode des noyaux associés continus

Nous procédons maintenant au choix de paramètre de lissage.

2.2.4 Problèmes de choix de fenêtre

Le paramètre optimal obtenu dans la Proposition 2.2.5 ne peut être utilisé en pratique
car il dépend encore de la densité inconnue. Il existe plusieurs méthodes pour le choix
pratique du paramètre h comme nous l’avons décrit dans le chapitre précédent. Dans
le cas présent, nous proposons l’utilisation de la méthode de validation croisée par les
moindres carrés pour le choix de ce paramètre.

Validation croisée par les moindres carrés

Comme décrit dans le deuxième paragraphe de la Section 1.1.3 du chapitre pré-


cédent, considérons Kθ(x,h) le noyau associé construit par la méthode mode-dispersion
avec x ∈ TI et h > 0. Le paramètre optimal hcv de h est obtenu par

hcv = arg min CV(h),


h>0


Z n
b
o2n 2Xb
CV(h) = fn (x) dx − fn,−i (Xi )
x∈TI n i=1
Z  2

 Xn 
 2Xb
n
1 
= 
 Kθ(x,h) (Xi )
 dx − fn,−i (Xi ),
x∈TI  n i=1  n i=1

X
et fbn,−i (u) = (n − 1)−1 Kθ(u,h) (X j ) est calculé à partir de fbn (u) sans l’observation Xi .
j,i

Etudes par simulation des estimateurs à noyaux lognormaux

Cette section se propose de présenter les résultats des études par simulation faites
sur trois estimateurs de densité à noyaux lognormaux notés respectivement fbn,LN , fen,LN et
fn,LN

qui sont issus des trois noyaux lognormaux LNθ , LNθe et LNθ∗ . Le noyau lognormal
LNθ est construit par la méthode mode-dispersion, LNθe est sa version modifiée et enfin
LNθ∗ est la version extraite des travaux de Jin & Kawczak (2003). Le noyau LNθ(x,h) est
défini par

  oi
1 −1 h n
LNθ(x,h) (u) = √ exp log u − log x exp h2 1u>0 , x > 0, h > 0. (2.34)
uh 2π 2h2

88 Francial G. Libengué
2.2. Estimateurs à noyaux associés continus

Pour α(h) > 0, on définit les deux régions de TI =]0, +∞[ par TI =]0, α(h)]∪]α(h), +∞[.
La version modifiée de LNθ(x,h) notée LNθ(x,h)
e
f θ(x,h) est donnée par
:= LN

LNθ(x,h)
e (u) = LNθe−1 (x,h) (u) + LNθe0 (x,h) (u)
 # ( 3 )%2 
1  1 α (h) exp (−h2 /2) 
= √ exp − 2 log(u) − log  1]0,α(h)] (u)

uh 2π 2h x2
 oi2 
1 1 h n
2
+ √ exp − 2 log(u) − log x exp (−h /2) 1]α(h),+∞[ (u), (2.35)
uh 2π 2h

e−1 (x, h) et θ
où θ e0 (x, h) sont respectivement les paramétrisations aux bords et à l’intérieur
données dans le Tableau 2.6. La troisième version de noyau lognormal LNθ∗ proposée
par Jin & Kawczak (2003) (sans montrer sa construction) est définie par :
( )
1 log2 (u/x)
LNθ∗ (x,h) (u) = p exp − 1(0,∞) (u). (2.36)
2u 2π log(1 + h) 8 log(1 + h)

Elle est liée à (2.34) par la relation

LNθ∗ (x,h) = LNθ(x exp (h2 ),2 √log(1+h)) , x > 0, h > 0;

Ces trois noyaux associés sont positifs et beaucoup plus flexibles que le noyau
gamma selon leur construction. Nous illustrons le comportement des trois estimateurs
lognormaux sur des échantillons à taille finie à travers les études par simulation. Nous
analysons les influences de paramètres de lissage sur les MISEs de ces estimateurs et
nous mesurons l’efficacité qui est acquise grâce à la réduction du biais. Ces études sont
faites aux bords et à l’intérieur sur deux modèles différents. Le premier modèle est
essentiellement constitué de la densité normale tronquée Nt (µ, σ; a, b) sur l’intervalle
[a, b]
Modèle 1 : X ∼ Nt (0.5, 0.15; a, b);
et le second modèle est un mélange des densités normale tronquée et l’exponentielle

Modèle 2 : X ∼ 0.25Nt (0.25, 0.15; a, b) + 0.25Exp(2).

Pour chaque Modèle, nous simulons 100 échantillons de taille n = 50, 100, 500 ou 1000,
en prenant a = 0.01 et b = 0.5 pour la région de bords puis a = 0.5 et b = 8.5 pour la
région intérieure.
Dans les Tableaux 2.8 et 2.9, nous rapportons les valeurs de fenêtres de lissage
optimales (dans le sens de MISE) avec les durées correspondantes. On voit que ces
valeurs diminuent en général (pour les deux modèles) lorsque l’on augmente la taille de
l’échantillon d’ailleurs, l’estimateur à noyau lognormal modifié fen,LN présente les plus
petites valeurs que les deux autres estimateurs fbn,LN et fn,LN

. Cependant, on constate
qu’il met plus de temps de calcul que les autres.

Les Tableaux 2.10 et 2.11 fournissent les valeurs des biais et variance de ces es-
timateurs en certains points sélectionnés, correspondant aux points de bords et de

89 Francial G. Libengué
Chapitre 2. Méthode des noyaux associés continus

Table 2.8 – Valeurs optimales de h obtenues aux bords par la validation croisée par les
moindres carrés
Model Size fn,LN

fbn,LN fen,LN
n hlscv Time/s hlscv Time/s hlscv Time/s
1 50 0.121 0.456 0.412 0.360 0.002 2.153
100 0.111 0.494 0.376 0.416 0.003 3.922
500 0.110 1.409 0.367 1.090 0.004 7.543
1000 0.104 2.893 0.351 2.458 0.003 2.829
2 50 0.374 0.554 0.089 0.579 0.088 0.572
100 0.366 0.553 0.087 0.772 0.087 0.906
500 0.364 1.976 0.056 2.734 0.055 2.846
1000 0.327 4.251 0.025 5.858 0.025 5.664

Table 2.9 – Valeurs optimales de h obtenues à l’intérieur par la validation croisée par
les moindres carrés
Model Size fn,LN

fbn,LN fen,LN
n hlscv Time/s hlscv Time/s hlscv Time/s
1 50 0.470 0.394 0.997 0.429 0.996 0.471
100 0.429 0.410 0.996 0.524 0.996 0.573
500 0.406 1.151 0.991 1.513 0.993 1.695
1000 0.400 2.605 0.991 3.456 0.991 3.718
2 50 0.456 0.639 0.997 0.630 0.996 0.622
100 0.429 0.582 0.996 0.812 996 0.849
500 0.410 2.021 0.994 2.570 993 2.951
1000 0.397 4.124 0.992 4.889 991 6.039

90 Francial G. Libengué
2.2. Estimateurs à noyaux associés continus

l’intérieur, respectivement pour le Modèle 1 et le Modèle 2. On voit que pour les échan-
tillons de petite taille, l’estimateur à noyau lognormal modifié fen,LN se comporte mieux
que fbn,LN et fn,LN

aux bords et il devient moins bon qu’eux lorsqu’on augmente la taille
de l’échantillon. Toutefois, en prenant en considération le compromis biais-variance,
nous voyons que l’estimateur fbn,LN à noyau lognormal construit par la méthode mode-
dispersion est meilleur par rapport à l’autre et ce, quelle que soit la taille de l’échantillon.
Cela consolide les résultats de la Proposition 2.2.7 de la Section 2.2.2, puisque les trois
noyaux lognormaux appartiennent à la même famille. De plus, en observant les biais
ponctuels de ces estimateurs, on voit que les biais des deux premiers estimateurs fbn,LN
et fn,LN

augmentent de plus en plus à l’intérieur. Cela est dû à la présence de terme
non nul A(x, h) f ′ (x) dans (2.19). Cette nette différence entre leur biais et ceux de fen,LN
montre l’intérêt de l’algorithme proposé pour la réduction du biais en Section 2.2.2.
Ainsi, l’estimateur à noyau lognormal modifié fen,LN reste sans aucun doute le meilleur
à l’intérieur.

Table 2.10 – Biais et variances des trois estimateurs à noyaux lognormaux suivant le
Modèle 1

Taille Cible fn,LN



fbn,LN fen,LN
n x Bias Variance Bias Variance Bias Variance
100 0.25 0.189 e+1 0.450 e-2 −0.207 e+1 0.248 e-2 −0.383 e+1 0.912 e-2
0.50 −0.111 e+1 0.683 e-2 −0.986 e+0 0.192 e-2 −0.330 e+1 0.820 e-2
2.50 −0.331 e+1 0.215 e-2 −0.329 e+1 0.533 e-2 −0.390 e+1 0.121 e-2
3.50 −0.381 e+1 0.265 e-2 −0.410 e+1 0.127 e-2 −0.396 e+1 0.368 e-2
500 0.25 0.126 e+1 0.781 e-2 −0.325 e+1 0.534 e-2 −0.168 e+1 0.091 e-2
0.50 −0.138 e+1 0.752 e-2 −0.519 e+1 0.186 e-2 −0.122 e+1 0.431 e-2
2.50 −0.374 e+1 0.504 e-2 −0.370 e+1 0.101 e-2 −0.481 e+1 0.136 e-2
3.50 −0.347 e+1 0.674 e-2 −0.529 e+1 0.307 e-2 −0.501 e+1 0.477 e-2
1000 0.25 0.123 e+1 0.912 e-2 −0.185 e+1 0.100 e-2 −0.124 e+1 0.081 e-2
0.50 −0.159 e+1 0.811 e-2 −0.208 e+1 0.487 e-2 −0.113 e+1 0.119 e-3
2.50 −0.376 e+1 0.785 e-2 −0.372 e+1 0.537 e-2 −0.584 e+1 0.652 e-2
3.50 −0.372 e+1 0.354 e-2 −0.641 e+1 0.154 e-2 −0.549 e+1 0.845 e-2

Enfin, nous donnons dans le Tableau 2.12 Les MISEs minimales de ces estimateurs.
Nous rappelons au lecteur que la fonction MISE théorique est bien approchée par la
moyenne des ISEs qui peuvent être définies pour N = 100 (nombre d’essais) par
X N Z n o2
d= 1
ISE fbn (x) − f (x) dx.
N n=1 TI

91 Francial G. Libengué
Chapitre 2. Méthode des noyaux associés continus

Table 2.11 – Biais et variances des trois estimateurs à noyaux lognormaux suivant le
Modèle 2
Taille Cible fn,LN

fbn,LN fen,LN
n x Bias Variance Bias Variance Bias Variance
100 0.25 0.265 e-1 0.137 e-3 0.207 e-1 0.248 e-3 0.191 e-1 0.721 e-3
0.50 0.273 e-1 0.176 e-3 0.212 e-1 0.292 e-3 0.217 e-1 0.714 e-3
2.50 0.230 e-1 0.148 e-3 0.195 e-1 0.283 e-3 0.183 e-1 0.698 e-3
3.50 0.237 e-1 0.132 e-3 0.173 e-1 0.257 e-3 0.162 e-1 0.672 e-3
500 0.25 0.125 e-1 0.342 e-3 0.121 e-1 0.434 e-3 0.258 e-1 0.575 e-3
0.50 0.141 e-1 0.364 e-3 0.109 e-1 0.486 e-3 0.262 e-1 0.562 e-3
2.50 0.143 e-1 0.219 e-3 0.108 e-1 0.367 e-3 0.103 e-1 0.740 e-3
3.50 0.113 e-1 0.205 e-3 0.095 e-1 0.326 e-3 0.091 e-1 0.725 e-3
1000 0.25 0.060 e-1 0.428 e-3 0.058 e-1 0.600 e-3 0.321 e-1 0.379 e-3
0.50 0.054 e-1 0.454 e-3 0.046 e-1 0.687 e-3 0.347 e-1 0.360 e-3
2.50 0.038 e-1 0.325 e-3 0.034 e-1 0.437 e-3 0.031 e-1 0.795 e-3
3.50 0.035 e-1 0.318 e-3 0.021 e-1 0.414 e-3 0.019 e-1 0.781 e-3

Table 2.12 – La moyenne des ISEs pour les trois estimateurs de densité à noyaux
lognormaux
Modèle Taille d aux bords
ISE d à intérieur
ISE
n fn,LN

fbn,LN fen,LN fbn,LN fn,LN

fen,LN
1 50 0.146 e-1 0.141 e-2 0.359 e-2 0.184 e-2 0.152 e-2 0.481 e-3
100 0.120 e-1 0.134 e-2 0.475 e-2 0.179 e-2 0.146 e-2 0.444 e-3
500 0.116 e-1 0.132 e-2 0.482 e-2 0.168 e-2 0.135 e-2 0.438 e-3
1000 0.828 e-2 0.121 e-2 0.485 e-2 0.165 e-2 0.132 e-2 0.416 e-3
2 50 0.124 e-2 0.340 e-3 0.277 e-3 0.312 e-3 0.396 e-3 0.808 e-4
100 0.917 e-3 0.305 e-3 0.288 e-3 0.302 e-3 0.311 e-3 0.786 e-4
500 0.891 e-3 0.287 e-3 0.308 e-3 0.298 e-3 0.287 e-3 0.751 e-4
1000 0.837 e-3 0.267 e-3 0.310 e-3 0.272 e-3 0.252 e-3 0.322 e-4

92 Francial G. Libengué
2.3. Conclusion

En comparant ces modèles, on peut apprécier que la densité correspondant au


premier est sous-estimée et celle correspondant au second est surestimée par ces trois
estimateurs. Ceci est dû au fait que nous avons des biais négatifs pour le premier
et positifs pour le second modèle, respectivement. Toutefois, selon le modèle 1, les
Mises de ces estimateurs sont les plus petits que ceux dans le modèle 2. Les meilleurs
estimateurs restent fen,LN à l’intérieur et fbn,LN aux bords.

2.3 Conclusion
Nous avons mis en œuvre dans ce chapitre une nouvelle famille d’estimateurs de
densité à support borné ou non. Dans cette famille, l’estimateur est basé sur les noyaux
associés qui dépendent intrinsèquement du point d’estimation x et du paramètre de
lissage h. Tous les estimateurs à noyaux associés sont sans effets de bord mais ils ont une
forme de biais légèrement différente de celle des noyaux dits classiques proposés par
Rosenblatt (1956) et Parzen (1962). Nous avons fourni une définition générale et une
méthode de construction de ces noyaux associés appelée "mode-dispersion“ ainsi qu’un
algorithme de la réduction des biais des estimateurs qui y sont issus. Nous avons illustré
cette méthode de construction et l’algorithme de réduction du biais sur les noyaux
associés non-classiques. Nous avons, en particulier, examiné les performances des trois
estimateurs de densités à noyaux lognormaux fbn,LN , fen,LN et fn,LN

(avec LNθ(x,h) construit
par la méthode mode-dispersion, LNθ(x,h) e sa version modifiée et LNθ∗ (x,h) celui proposé
par Jin & Kawczak (2003) sur des échantillons à tailles finies. Dans ces simulations, les
fenêtres optimales sont obtenues par la méthode de validation croisée par les moindres
carrés et nous avons constaté que l’estimateur de densités à noyau lognormal modifié
fen,LN possède les plus petites valeurs de h, mais avec beaucoup de temps de calcul. En
fait, nous avons constaté que l’estimateur de densités à noyau lognormal modifié fen,LN
est sans doute meilleur dans la région intérieure et sa première version fbn,LN issue de
la méthode mode-dispersion est aussi meilleure dans la région de bords. Cela nous
amène à recommander fortement l’utilisation de fbn,LN sur le bord et fen,LN dans la région
intérieure.

93 Francial G. Libengué
Chapitre 2. Méthode des noyaux associés continus

94 Francial G. Libengué
Chapitre 3

Convergence des estimateurs à noyaux


associés continus

L’étude de la similarité entre l’estimateur et la vraie densité à estimer fait l’objet


des travaux de nombreux auteurs ces dernières décennies. En ce qui concerne les
estimateurs à noyaux classiques, les auteurs comme Parzen (1962), Nadaraya (1965),
Devroye (1987) et Sylverman (1986) ont été les premiers à étudier la consistance de
ces estimateurs. Il faut noter que pour la plupart, ces auteurs supposent que le noyau
classique K est à variations bornées et que la densité f à estimer est uniformément
continue sur T = R, et ce, indépendamment de x et h.
Depuis les travaux de Chen (1999, 2000) puis Kokonendji & Senga Kiessé (2011),
d’autres auteurs comme Bouezmarni & Rolin (2003), Bertin & Klutchnikoff (2011),
Zhang (2010), Zhang & Karunamuni (2010) ainsi que Abdous & Kokonendji (2009)
ont (dans des cas particuliers) étudié les performances des estimateurs décrits dans le
chapitre précédent.
Rappelons que ces estimateurs sont généralement définis par
n
1X
fbn (x) = Kx,h (Xi ), x ∈ TI := support( f ), (3.1)
n i=1

où X1 , X2 , · · · , Xn est une suite de variables aléatoires continues indépendantes et iden-


tiquement distribuées (i.i.d.) de densité f de support TI (intervalle borné au moins d’un
côté), h = hn > 0 est une suite de paramètres de lissage vérifiant limn→∞ hn = 0, tandis
que Kx,h (·) est le noyau associé i.e une densité de probabilité paramétrée par x et h, de
support Sx,h ⊆ R et vérifiant les conditions suivantes :

x ∈ Sx,h , (3.2)
E(Zx,h ) = x + A(x, h), (3.3)
Var(Zx,h ) = B(x, h), (3.4)

où, Zx,h est une variable aléatoire de densité Kx,h sur Sx,h et A(x, h), B(x, h) qui tendent vers
0 quand h tend aussi 0. Signalons que la construction d’un noyau associé continu Kx,h se
fait à l’aide de la méthode mode-dispersion proposée dans la Section 2.1.2 du chapitre
précédent que nous résumons brièvement de la manière suivante. On considère tout

95
Chapitre 3. Convergence des estimateurs à noyaux associés continus

d’abord un type de noyau K := Kθ (qui est une densité de probabilité paramétrée et


de carré intégrable sur S = Sθ avec θ ∈ Θ ⊆ Rk pour k ≥ 2). En particulier on choisit
θ = θ(a, b) avec a et b deux réels positifs. Ensuite on résout les équations x = M(a, b)
et h = D(a, b) où M(a, b) et D(a, b) sont, respectivement, l’unique mode et le paramètre
de dispersion de Kθ(a,b) . Cela conduit au noyau associé Kθ(x,h) := Kθ(a(x,h),b(x,h)) de support
Sθ(x,h) = Sθ(a(x,h),b(x,h)) , où a(x, h) et b(x, h) sont les solutions des équations précédentes.
Aussi, il a été donné dans la Section 2.2.2 du chapitre précédent, un algorithme de
réduction de biais de l’estimateur (3.1). Ceci conduit à une seconde version fen de fbn ,
qui a la même variance ponctuelle que fbn , mais qui provient de la version modifiée de
Kθ(x,h) .
Dans ce chapitre, nous présentons une étude générale des propriétés asymptotiques
dans la famille des estimateurs à noyaux associés continus fbn ou fen , qui dépendent in-
trinsèquement du point d’estimation x et de paramètre de lissage h, pour les fonctions
de densité à support T = TI borné au moins d’un côté. Afin de souligner la sensibi-
lité des différents points de l’estimation (aux bords et à l’intérieur), nous proposons
d’utiliser des techniques simples, qui obtiennent les mêmes résultats mais avec des
hypothèses plus souples que dans le cas classique et qui dépendent fortement de la
situation du point d’estimation x et d’une certaine puissance du paramètre de lissage
h. L’hypothèse de la continuité uniforme de f sur T = R est relaxée à une simple conti-
nuité de f sur tout compact de TI . Ainsi, cela peut aider à décider de choix du noyau
associé (modifié ou non) approprié pour une zone donnée de l’estimation.
Nous organisons ce chapitre de la manière suivante. Dans la Section 3.1, nous
présentons les résultats concernant les consistances faible et forte ponctuelles et la
normalité asymptotique de ces estimateurs, en utilisant fbn . Ensuite, nous montrons
dans la Section 3.2 les consistances globales avec les normes uniforme et L1 . Nous
donnons également quelques remarques relatives à certaines situations fréquentes.
Enfin, nous clôturons ce chapitre avec la Section 3.3 qui illustre ces différents résultats
sur trois types d’estimateurs à noyaux lognormaux sur TI =]0, +∞[.

3.1 Consistance et normalité asymptotique ponctuelles

3.1.1 Consistance faible et forte


Nous présentons ici les deux premiers résultats concernant deux types de conver-
gences ponctuelles de fbn vers f : il s’agit de la convergence presque sûre (notée p.s) et
la convergence en probabilité (notée P). Nous signalons ici que le résultat de la conver-
gence en probabilité est déduite de celui de la convergence de l’erreur quadratique
moyenne (i.e. convergence ponctuelle en norme L2 ).

Théorème 3.1.1 Soit f ∈ C2 (TI ) la densité à estimer et fbn son estimateur à noyau associé
défini en (3.1). Pour chaque point x fixé dans T on a alors
p.s.
fbn (x) −→ f (x) quand n → +∞ ;

96 Francial G. Libengué
3.1. Consistance et normalité asymptotique ponctuelles

de plus, s’il existe un plus grand nombre réel r2 = r2 (Kx,hn ) > 0 tel que
2
hrn2 Kx,hn 2
≤ c2 (x) < +∞ et lim nhrn2 = +∞,
n→+∞

alors
2
fbn (x) −→ f (x) quand n → +∞.
L

Démonstration. Pour le premier résultat, considérons l’inégalité triangulaire



 
 
 n o
 
 n o 


 b 
 
 b b 
 
 b 
.
 fn (x) − f (x)
  fn (x) − E fn (x) 
6 E fn (x) − f (x)
+  (3.5)
Puisque le terme non-stochastique du second membre  n deo l’inégalité
 (3.5) représente le

 

biais de fbn alors d’après (2.19), (3.3) et (3.4), on a  b
E fn (x) − f (x)
  = O(hn ). Nous allons

montrer que le terme stochastique est majoré par une série de Riemann convergente
puis nous déduisons la convergence p.s. Nous savons que les Xi sont iid et donc Kx,h (Xi )
sont aussi iid. Comme les noyaux associés Kx,hn (·) sont uniformément continus en hn > 0
et x ∈ T, par l’inégalité de Hoeffding (1963) on a :
X 
  ! "




n
  



  2ε2

P  Kx,hn (Xi ) − E Kx,hn (Xi )  
 > ε 6 2 exp − ,

 
 n
 i=1 
par conséquent


 n o
  n o
P  fbn (x) − E fbn (x) 

 > ε 6 2 exp −2nε 2
.
 

 n o

b bn (x) 
En appliquant le lemme de Borel-Cantelli, on déduit que  
 f n (x) − E f 
 −→ 0.
 n→+∞
Le second résultat s’obtient à partir de la décomposition usuelle biais-variance du MSE
de fbn . D’après ce qui précède, on sait que le biais de fbn (x) est un O(hn ). Par les hypothèses
2
hrn2 Kx,hn 2 ≤ c2 (x) < +∞ et limn→+∞ nhrn2 = +∞, sa variance existe et est un O(n−1 h−r
n ).
2

Ce qui permet d’obtenir

2
fbn (x) −→ f (x) fbn (x) −→ f (x).
L P
=⇒

3.1.2 Normalité asymptotique


Avant de donner ce résultat, nous rappelons dans un lemme, les conditions de
Lindeberg pour le théorème de limites centrales dont la preuve est ici omise et que
le lecteur peut trouver dans les travaux de Ash & Doléeans-Dade (2000) ainsi que
Billingsley (1961).

Lemme 3.1.2 Soit Xn,i n≥1,i=1,··· ,n , un tableau triangulaire tel que pour tout n ≥ 1 et 1 ≤ i ≤ n,

E Xn,i = 0 (3.6)
Xn

Var Xn,i = 1 (3.7)
i=1

Xn,i sont iid.
n≥1,i=1···n (3.8)
n  o
2
∀ε > 0, max E Xn,i I{|Xn,i |>ε} → 0 lorsque n → +∞. (3.9)
i≤n

97 Francial G. Libengué
Chapitre 3. Convergence des estimateurs à noyaux associés continus

Alors
n
X L
Xn,i −→ N(0, 1) quand n → +∞.
i=1

Nous faisons usage de ce lemme dans la démonstration du théorème suivant qui fournit
les résultats de la normalité asymptotique.

Théorème 3.1.3 Soit f , la densité à estimer sur TI et fbn son estimateur à noyau associé défini
en (3.1). Pour chaque point x fixé dans TI tel que f (x) > 0, et (hn )n≥1 une suite de paramètres
de lissage telle que hn → 0 quand n → +∞, on a
n o
fbn (x) − E fbn (x) L
h n oi1/2 −→ N (0, 1) quand n → +∞,
b
Var fn (x)
L
où “−→” désigne la “convergence en loi”.

Démonstration. Pour x ∈ T tel que f (x) > 0 considérons la suite Un,i (x, hn ) définie par

Kx,hn (Xi ) − E Kx,hn (Xi )
Un,i (x, hn ) = p  .
nVar Kx,hn (X1 )
En sommant sur n on obtient
n o
n
X fbn (x) − E fbn (x)
Un,i (x, hn ) = h n oi1/2
i=1 Var fbn (x)

Il est facile de montrer que la suite Un,i (x, hn ) n≥1,i≤n vérifie les trois premières condi-
tions de Lemme 3.1.2  ; par conséquent
 nous ne montrons que la dernière condition.
 
Considérons A =  Un,i (x, hn )
 > ε . Puisque Kx,hn est un noyau associé (donc uni-
formément borné en x et h), alors il existe M > 0 tel que  pour
 tout u ∈ A on a
2 2
|Kx,hn (u) − E Kx,hn (u) | ≤ M. Il s’ensuit que Un,i (x, hn ) ≤ M / nVar Kx,hn (X1 ) . Enfin,
h n oi M2
2
max E Un,i (x, hn )1A ≤  → 0 quand n → +∞,
i≤n nVar Kx,hn (X1 )
ce qui conduit au résultat.

3.2 Nouvelles convergences globales


Dans cette section, notre idée de convergence globale est liée à la continuité de f
au lieu de sa continuité uniforme puisque la continuité sur TI notée C0 (TI ) implique
la continuité uniforme sur tout compact de TI . Nous montrons successivement, dans
les paragraphes suivants, les convergences faible et forte globales de fbn par la norme
uniforme, puis la convergence en norme L1 . Dans chacun des cas, nous montrons
prioritairement la convergence du biais de fbn .

98 Francial G. Libengué
3.2. Nouvelles convergences globales

3.2.1 Convergence uniforme

La proposition suivante montre la convergence du biais de fbn en norme uniforme.

Proposition 3.2.1 Soit f une densité continue et bornée sur TI , et fbn son estimateur à noyau
associé donné en (3.1). Pour tout sous ensemble compact I de TI , on a :

sup |E{ fbn (x)} − f (x)| → 0 quand n → +∞.


x∈I

Démonstration. A partir des équations (3.3) et (3.4) on peut trouver pour tout δ > 0,
deux nombres entiers naturels n0 et n1 tels que si on a : n > n0 alors |E Zx,h − x| < δ/2

et lorsque n > n1 on a |Var Zx,h | < δ/4. On peut majorer le biais de fbn comme suit
 n o  
 Z 


 
 
  


E b
f (x) − f (x) 
 = 
 f (u) − f (x) K (u)du 

 n    x,h n 

T
Z

 

≤ 
 f (u) − f (x)  Kx,hn (u)du
T
Z

 

≤  f (t) − f (x)
  Kx,hn (u)du
|E(Zx,hn )−x|≤δ/2
Z

 

+  f (u) − f (x)
  Kx,hn (u)du.
|E(Zx,hn )−x|>δ/2
= J1 + J2
 
Comme l’ensemble x ∈ T; |E Zx,h − x| 6 δ/2 ⊆ Sx,h et f est uniformément continue
sur I, on obtient pour tout n > n0
Z
J1 = f (u) − f (x) Kx,hn (u)du
|u−E(Zx,h )|6δ/2
Z
ε ε
6 Kx,hn (u)du 6 .
2 |u−E(Zx,h )|6δ/2 2

Par la suite, en utilisant l’inégalité de Bienaymé-Tchebychev, on obtient pour tout n > n1 ,


Z
J2 = f (u) − f (x) Kx,hn (u)du
|u−E(Zx,h )|>δ/2
Z
6 sup f (u) − f (x) Kx,hn (u)du
u∈I |u−E(Zx,h )|>δ/2
2ε  ε
6 2 |Var Zx,h | 6 .
δ 2
Par conséquent, en prenant n > max(n0 , n1 ), on obtient

sup |E{ fbn (x)} − f (x)| 6 ε.


x∈I

Nous montrons dans le théorème suivant, les résultats des convergences faible (P)
et forte (p.s.) en norme uniforme.

99 Francial G. Libengué
Chapitre 3. Convergence des estimateurs à noyaux associés continus

Théorème 3.2.2 Soit f une densité continue et bornée sur TI , et fbn son estimateur à noyau
associé donné en (3.1). On suppose qu’il existe un plus grand nombre réel r0 = r0 (K) > 0
dépendant du type de noyau K tel que, pour tout x ∈ TI ,
Z
r0
hn |dKx,hn (s)| 6 c0 (x)
Sx,h

avec c0 (x) bornée sur tout compact contenant x. Pour tout sous ensemble compact I de TI , on a :

sup fbn (x) − f (x) −→ 0


P
(i) si lim nh2r 0
n = +∞ alors quand n → ∞;
n→+∞ x∈I
p.s.
(ii) si lim nhn2r0 / log n = +∞ alors sup fbn (x) − f (x) −→ 0 quand n → +∞.
n→+∞ x∈I

Démonstration. En utilisant l’inégalité triangulaire définie en (3.5) et la Proposition


3.2.1 on a
sup fbn (x) − f (x) 6 sup fbn (x) − E{ fbn (x)} . (3.10)
x∈I x∈I

Nous allons dans ce qui suit montrer respectivement que



 n 
o
b bn (x) 
sup   P

 f n (x) − E f  −→0 quand n → +∞,

x∈I

 n o

b b  p.s.
sup  f
 n (x) − E f n (x) 
 −→0 quand n → +∞.

x∈I
P
Considérons F et Fn = (1/n) ni=1 δXI , respectivement les fonctions de répartitions théo-
riques et empiriques de Xi . A partir de F et Fn , on peut écrire
Z
fbn (x) = Kx,hn (u)dFn (u)
Sx,h ∩TI
Z
= Kx,hn (u)Fn (u) S ∩T − Fn (u)dKx,hn (u), (3.11)
x,h I
Sx,h ∩TI

et Z
E{ fbn (x)} = Kx,hn (u)F(u) S − F(u)dKx,hn (u). (3.12)
x,h ∩TI
Sx,h ∩TI

Puisque d’après Glivenko-Cantelli Fn converge presque sûrement vers F quand n tend


vers +∞, alors la différence de (3.11) et (3.12) conduit à
Z
b b
fn (x) − E{ fn (x)} 6 |Fn (u) − F(u)| dKx,hn (u).
Sx,h ∩TI
R
En utilisant (3.10) et l’hypothèse hrn0 Sx,h
|dKx,hn (s)| 6 c0 (x), on obtient
! "! Z "
sup fbn (x) − f (x) 6 sup |Fn (x) − F(x)| sup dKx,hn (u)
x∈I⊆TI x∈I⊆TI x∈I⊆TI Sx,h ∩TI

6 C0 h−r
n
0
sup |Fn (x) − F(x)|
x∈I⊆TI

100 Francial G. Libengué


3.2. Nouvelles convergences globales

avec C0 = supx∈I⊆TI c0 (x). Pour un hn > 0 donné, l’utilisation de l’inégalité de Massart


(1990) (qui est une extension de celle de Dvoretzky-Kiefer-Wolfowitz) donne, pour tout
ε > 0,  
P( sup |Fn (x) − F(x)| > ε) 6 2 exp −2ε2 nh2r 2
n /C0 → 0;
0

x∈I⊆TI

et le résultat (i) en découle.


Pour la convergence p.s., on a d’après (3.10) et l’inégalité précédente :
X ! " X  
b
P sup | fn (x) − f (x)| > ε 6 2 exp −2ε2 nhn2r0 /C20 .
n>1 x∈I⊆TI n>1
p
En prenant ε > C0 hrn0 (log n)/n et n assez grand, on obtient
X    
exp −2ε2 nh2rn
0
/C 2
0 ≃ o n −(1+δ)
, ∀δ > 0.
n>1

Ainsi, on a la convergence presque complète qui implique le résultat (ii).

3.2.2 Convergence en norme L1


Nous donnons maintenant les résultats de convergence en norme L1 par rapport à
la mesure de Lebesgue sur TI . Tout comme dans la section précédente, nous montrons
dans la proposition suivante que le biais de fbn converge en norme L1 . Ensuite, nous
montrons dans un théorème les convergences faible et forte en norme L1 .

Proposition 3.2.3 Soit f une densité continue et bornée sur TI , et fbn son estimateur à noyau
associé donné en (3.1). Alors :
Z
E{ fbn (x)} − f (x) dx → 0 quand n → +∞.
TI

Démonstration. D’une manière similaire à Devroye (1987), nous utilisons la décompo-


sition suivante
       
E fbn − f 6 E fbn − E fbn⋆ + E fbn⋆ − f ⋆ + f ⋆ − f 1 ,
1 1 1

où f ⋆ est continue et est telle que ( f − f ⋆ )1I 1 < ε, ∀ε > 0 et f ⋆ = 0 sur le complé-
mentaire de I défini par Ic := TI r I. Pour un événement A, nous désignons par 1A la
fonction indicatrice de A qui prend la valeur 1 si l’événement A est réalisé et 0 sinon.
En considérant fbn⋆ = 1I fbn on a d’une part
    Z Z

E fbn − E fbn⋆ = Kx,hn (u) f (u) − 1I (x) f (u) du dx
1 TI Sx,h ∩TI
Z
6Λ f (u) − f ⋆ (u) du 6 Λε
Sx,h ∩TI

101 Francial G. Libengué


Chapitre 3. Convergence des estimateurs à noyaux associés continus

R
où Λ := TI
Kx,hn (u)dx ≃ 1, ∀u, est la masse totale du noyau associé Kx,hn . D’autre part, on
a
  Z Z

E fbn⋆ − f ⋆ 6 Kx,hn (u) f ⋆ (u) − f ⋆ (x) du dx
1 I S ∩TI
Z Zx,h
6ε Kx,hn (u)dxdu 6 Λℓ(I)ε,
I Sx,h ∩TI

où ℓ(I) est la longueur de l’intervalle I. Puisque

f⋆ − f 1
= ( f − f ⋆ )1I 1
< ε,

on en déduit que
 
E fbn − f 6 [Λ{1 + ℓ(I)} + 1] ε.
1

Enfin, nous allons donner dans le théorème suivant les deux derniers résultats de
consistance, faible et forte de fbn en norme L1 .

Théorème 3.2.4 Soit f une densité continue et bornée sur TI , et fbn son estimateur à noyau
associé donné en (3.1). On suppose qu’il existe un plus grand nombre réel r1 = r1 (K) > 0
dépendant du type de noyau K tel que, pour tout x ∈ TI ,
Z
hrn1 |dKx,hn (s)| 6 c1 (x)
Sx,h

avec c1 (x) intégrable sur tout compact contenant x. Alors on a :


Z
fbn (x) − f (x) dx −→ 0 quand n → +∞ ;
P
(i) si lim nh2r
n
1
= +∞ alors
n→+∞ TI
Z
p.s.
(ii) si lim nh2r
n / log n = +∞
1
alors fbn (x) − f (x) dx −→ 0 quand n → +∞.
n→+∞ TI

Démonstration. Considérons l’inégalité triangulaire


   
fbn − f 6 fbn − E fbn + E fbn − f . (3.13)
1 1 1

D’après la proposition précédente, le second terme du deuxième membre de (3.13)


converge vers 0, autrement dit
 
E fbn − f −→ 0 quand n → +∞.
1

Donc, il nous suffit de montrer que le terme stochastique


Z peut être majoré par une série

 

de Riemann convergente. Puisque par hypothèse 
dKx,hn (u)
 6 c1 (x)h−r
n
1
avec
Sx,h ∩T

102 Francial G. Libengué


3.2. Nouvelles convergences globales

c1 (x) intégrable, on a :
  Z  n o

 

fbn − E fbn =  b b
 fn (u) − E fn (u) 
  dx

1 TI
Z Z

 

6 |Fn (u) − F(u)| 
dKx,hn (u)
 dx
TI Sx,h ∩TI
Z Z

 

6 sup |Fn (u) − F(u)| 
dKx,hn (u)  dx
u∈TI TI Sx,h ∩TI

6 C1 h−r
n
1
sup |Fn (u) − F(u)|
u∈TI
Z
avec C1 = c1 (x)dx , C0 . L’inégalité de Massart (1990) permet d’écrire
TI
  ! "
  hrn1 ε
P fbn − E fbn > ε 6 P sup |Fn (u) − F(u)| >
1 u∈TI C1
! "
ε2
6 2 exp −2 2 nh2r
n
1
;
C1
ce qui conduit à la consistance faible. Par la suite, en utilisant le résultat précédent puis
en sommant à l’infini on a
X   X ! "
  2ε2 2r1
b
P fn − E fnb >ε 62 exp − 2 nhn .
n>1
1
n>1
C1
r
C1 log n
En prenant ε > r et n assez grand on trouve
hn n
X ! "
2ε2 2r1
exp − 2 nhn ≃ o(n−(1+δ) ), ∀δ > 0.
n≥1
C1

Ce qui permet d’obtenir la convergence presque complète qui implique le résultat (ii).
La remarque suivante vient compléter notre idée de faire une étude avec des condi-
tions souples pour souligner la sensibilité des noyaux associés continus, qui dépendent
fortement du point d’estimation.

Remarque 3.2.5 Soit x ∈ TI .


(i) Si c0 (x) du Théorème 3.2.2 garantissant un type de “variation ponctuelle bornée” du
noyau associé continu est intégrable sur tout compact contenant x alors r1 = r0 , où r1 est
donné dans le Théorème 3.2.4.
(ii) La fonction c2 (x) dans le Théorème 3.1.1 traduit le fait que le noyau associé continu soit
ponctuellement de carré intégrable.
(iii) Pour les noyaux (associés) classiques K , on vérifie facilement que c j (x) = c j dans les
Théorèmes 3.1.1, 3.2.2 et 3.2.4, sont des constantes pour j = 0, 1, 2 ; Elles donnent
un même sens respectivement aux hypothèses de “carré intégrable de K ” pour j = 2,
“variations bornées de K ” pour j = 0, et “variation intégrable de K ” pour j = 1. En
outre on a r0 = r1 = r2 = 1.

103 Francial G. Libengué


Chapitre 3. Convergence des estimateurs à noyaux associés continus

3.3 Étude des estimateurs à noyaux lognormaux


Nous examinons ici trois familles d’estimateurs à noyaux associés lognormaux.
Tout d’abord, nous rappelons les propriétés de base des types de noyaux lognor-
maux dont nous avons besoin. La fonction de densité du noyau lognormal à deux
paramètres a ∈ R et b > 0 est définie comme suit :
 ! "2 
1 
 1 log u − a 

 
LNθ(a,b) (u) = √ exp −  1 (u).
ub 2π

 2 b  (0,∞)

D’après sa construction dans la Section 2.1.3, la méthode mode-dispersion conduit


d’une part à la paramétrisation
 
θ(x, h) = log x + h2 , h pour tout x ∈]0, +∞[ et h > 0.
Ce qui a permis de calculer les caractéristiques suivants
   
Aθ (x, h) = x exp(3h2 /2) − 1 et Bθ (x, h) = x2 exp(3h2 ) exp h2 − 1
pour tout x ∈ SLNθ(x,h) =]0, +∞[= SLNθ(a,b) .
Pour estimer une densité de probabilité inconnue f de support ]0, +∞[, on peut
utiliser le noyau associé lognormal LNθ(x,h) issu de la méthode mode-dispersion et qui
est défini par
  oi
1 −1 h n
LNθ(x,h) (u) = √ exp log u − log x exp h2 1u>0 , x > 0, h > 0.
uh 2π 2h 2

Suivant l’algorithme de réduction de biais, on peut d’après la première étape consi-


dérer α1 (h) > 0 et on définit les régions de bord et de l’intérieur par T =]0, +∞[=
]0, α1 (h)]∪]α1 (h), +∞[, puis on modifie le noyau LNθ(x,h) en LNθ(x,h) e
f θ(x,h) et défini
:= LN
par
LNθ(x,h)
e = LNθe−1 (x,h) + LNθe0 (x,h)
où la paramétrisation du bord gauche notée θ e−1 (x, h) est donnée par
   
e−1 (x, h) = θ x−2 α3 (h) exp −3h2 /2 , h pour x ∈]0, α1 (h)] =: T−1
θ 1

et celle de l’intérieur notée θe0 (x, h) est donnée par


   
e0 (x, h) = θ x exp −3h2 /2 , h pour x ∈]α1 (h), +∞[=: T0 .
θ
Cependant, une autre version du noyau lognormal donnée par
LNθ∗ (x,h) = LN  √ 
θ x exp h2 ,2 log(1+h)

avait été proposée par Jin & Kawczak (2003). En utilisant (3.1) nous obtenons les trois
estimateurs fbn , fen et fn∗ de f correspondant aux trois noyaux lognormaux LNθ , LNθe et
LNθ∗ , respectivement.
Dans ce qui suit, nous allons procéder à la détermination de : b r j = r j ( fbn ), e
r j = r j ( fen )
et r j = r j ( fn ), respectivement des estimateurs à noyaux lognormaux LNθ , LNθe et LNθ∗
∗ ∗

comme dans les Théorèmes 3.1.1, 3.2.2 et 3.2.4 avec j = 0, 1, 2.

104 Francial G. Libengué


3.3. Étude des estimateurs à noyaux lognormaux

Calcul de b
r0 et b
r1

Tout d’abord, signalons que les calculs de b r0 et b


r1 sont presque similaires et se font
à l’aide de la dérivée première du noyau associé utilisé. Pour le cas de l’estimateur à
noyau lognormal construit par la méthode mode-dispersion LNθ(x,h) (·) on procède de la
manière suivante. Partant du fait que LNθ(x,h) (·) puisse s’écrire sous la forme
 #  2
%2 
1  1 log (u) − log x exp(h ) 
LNθ(x,h) (u) = √ exp −  1[0,+∞[ (u),
uh 2π 2 h

on détermine sa fonction dérivée dLNθ(x,h) donnée par



 


 
 
 −1 


dLNθ(x,h) (u)
=
 log(u/x)LN (u) 
 .

 h2 u θ(x,h) 

En majorant son intégrale on a par conséquent


Z Z  


 
 
 −1 

dLNθ(x,h) (u)
 = 
 log(u/x)LN (u) 
 du

h u
2 θ(x,h) 

Z  

κ 
 2 

6 2 
 log(x)
 du
h 
u 

6 h−2 c0 (x)

avec c0 (x) = κ log2 (x) qui en une fonction bornée et intégrable sur tout compact I ∋ x.
D’après le point (i) de la Remarque 3.2.5, on a c0 (x) = c1 (x) et donc b r1 = 2.
r0 = b

Calcul de b r2 (x)
r2 = b

Le calcul deb
r2 se fait à partir de (2.20). Plus précisément en exprimant explicitement
la norme carrée du noyau associé en question. Dans le cas présent, nous procédons en
faisant le changement de variable v = u2 /x2 et on a
Z
2 2
LNθ(x,h) 2
= LNθ(x,h) (u)du
(v=u2 /x2 ) 1  
= √ E Y−1/2
2xh 2π
1
= √ exp(−h2 /8)
2xh 2π
1
6 √
2xh 2π

avec Y une variable aléatoire de loi LNθ(1,h/ √2) . On obtient alors r2 (x) = 1 car ew 6 1 pour
w 6 0.

105 Francial G. Libengué


Chapitre 3. Convergence des estimateurs à noyaux associés continus

Calcul de e
r0 et e
r1

Rappelons que le noyau lognormal modifié LNθ(x,h)


e est défini par

 # ( 3 )%2 
1  1 α (h) exp (−h2 /2) 
LNθ(x,h)
e (u) = √ exp − 2 log(u) − log  1]0,α(h)] (u)

uh 2π 2h x2
 
1 1 h n oi2
+ √ exp − 2 log(u) − log x exp (−h2 /2) 1]α(h),+∞[ (u). (3.14)
uh 2π 2h

Le calcul de sa fonction dérivée donne



 ( 2)   

1 
 1 ux 1 u 

dLNθ(x,h) (u) = 2 
 log LN (u) + log LN (u)
 .
e 
 e−1 (x,h) e0 (x,h) 

h u α(h) θ
u x θ

En calculant l’intégrale de dLNθ(x,h)


e puis en la majorant on a successivement

Z   Z  

( 2)   



 
 1 
 1 ux 1 u 


 dLN (u)
 = 
 log LN (u) + log LN (u) 
 du
e
θ(x,h)
h2 
u α(h) θe−1 (x,h)
u x θe0 (x,h) 

Z   

κ−1 
 2 1 

6 2 
 log(x) + log(u)  1 (u)du
h 
 u u 
 ]0,α(h)]
Z   

 
+ 2
κ0  2 log(x)

  1]α(h),+∞[ (u)du

h 
u 

−2
6h e c0 (x)

5κ−1
avec ec0 (x) = log2 (x)1]0,α(h)] (x) + κ0 log2 (x)1]α(h),+∞[ (x) qui est une fonction bornée et
2
intégrable sur tout compact I ∋ x et donc c0 (x) = c1 (x). Une fois de plus d’après le point
(i) de la Remarque 3.2.5, on a e r0 = e r1 = 2.

Calcul de e r2 (x)
r2 = e

Ici, nous allons déterminer le réel er2 seulement aux bords ]0, α(h)] noté e
r2,−1 puisque
c’est le cas délicat et le plus intéressant. Autrement dit, nous utilisons uniquement le
premier membre de l’équation (3.14) pour déterminer ce réel. Rappelons que la version
modifiée du noyau lognormal au bord est définie par

 # ( 3 )%2 
1  1 α (h) exp (−h2 /2) 
LNθe−1 (x,h) (u) = √ exp − 2 log(u) − log  1]0,α(h)] (u)

uh 2π 2h x2

Pour la détermination de e
r2,−1 , nous allons maintenant calculer explicitement la norme
2 √
2
carrée de LNθe−1 (x,h) en faisant le changement de variables v = u puis nous la
2

106 Francial G. Libengué


3.3. Étude des estimateurs à noyaux lognormaux

majorons. On obtient successivement


Z α(h) − √2/2    √ 2 
  
  

 3 2 
2 (v=u 2 ) v 
 1   α (h)
LNθe−1 (x,h) = √ exp − 2 log(v) − log   √ √   dv
2 0 vh2 π 8  2h  x2 2 e 2h2 /2 

1  √ 
6 √ E Y− 2/2
2h 2π
( 2 ) √2/2 !√ "
1 x 2+1 2
= √ exp h
2h 2π α (h) 4
3
√ h √ i
x2 2 1 + {( 2 + 1)/4}h2
6 √ √ ,
2h{α(h)}3 2/2 π
√ √ √
où Y est une variable aléatoire de loi LNθ(x∗ ,h) avec x∗ = x−2 2 {α(h)}3 2 exp (− 2h2 /2 − h2 ).
Ce calcul nous a permis de savoir qu’en fait e r2,−1 (x) = er2,−1 {x, α(h)} > 0 dépend à la fois
du point d’estimation √ et de la limitation de la région
√ bord. Par exemple pour α(h) = a1 hα1
r2,−1 (x) = (3α1 2 + 2)/2 > 0 pour α1 > − 2/3. Notons aussi que si α(h) est une
on a e
constante, alors e r2,−1 = 1.

Calcul de r∗0 et r∗1

Nous procédons ici au calcul des réels r∗0 et r∗1 en utilisant le noyau lognormal proposé
par Jin & Kawczak (2003). Ce noyau, comme nous l’avons dit un peu plus haut, est
défini par
( )
1 log2 (u/x)
LNθ∗ (x,h) (u) = p exp − 1[0,+∞[ (u)
2u 2π log(1 + h) 8 log(1 + h)
= LN 2
√ (u).
θ(x exp (h ),2 log(1+h))

Le calcul de sa fonction dérivée donne


( )
1 log(x) − log(u)
dLNθ∗ (x,h) (u) = − + LNθ∗ (x,h) (u)
u 32u log2 (1 + h)
Une majoration de l’intégrale de dLNθ∗ (x,h) permet d’avoir successivement
Z Z 
 ( ) 






 
 1 log(x) − log(u) 

dLNθ∗ (x,h) (u)
= 

 − + LN θ ∗ (x,h) (u)

 du

 u 32u log (1 + h) 2 

Z  

κ∗ 
 2 

6 
 log(x) 
 du
2 
 u 

32 log (1 + h)
1
6 2
c∗0 (x)
log (1 + h)
1
≃ 2 c∗0 (x)
h
κ∗
car aux voisinages de 0, on a log(1 + h) ≃ h. Ici, la quantité c∗0 (x) vaut c∗0 (x) = log2 (x)
32
et c’est une fonction bornée et intégrable sur tout compact I ∋ x, par conséquent
c∗0 (x) = c∗1 (x). Par le point (i) de la Remarque 3.2.5, on a r∗0 = r∗1 = 2.

107 Francial G. Libengué


Chapitre 3. Convergence des estimateurs à noyaux associés continus

Calcul de r∗2 = r∗2 (x)

Nous montrons dans ce paragraphe la détermination du réel r∗2 = r∗2 (x) dans l’esti-
mation de densité par le noyau lognormal LNθ∗ (x,h) proposé par Jin & Kawczak (2003).
Comme dans les cas précédents, nous allons exprimer√ explicitement

la norme carrée
2 2
de LNθ∗ (x,h) en faisant le changement de variables v = u /x . On obtient alors

2 (v=u
√ √
2 /x 2 ) 1  √ 
LNθ∗ (x,h) 2
= p E Y∗−1/ 2
4x 2π log(1 + h)
 
1 1
= p exp log(1 + h)
4x 2π log(1 + h) 2
1
= p exp{w∗ (h)}
4x 2π log(1 + h)
1
6 √
4x 2πh
où Y∗ est une variable aléatoire réelle de loi LNθ∗ (1,h) = LNθ(exp (h2 ),2 √log(1+h)) et w∗ (h)
√ √
définie par w∗ (h) = −h2 2/2 − (2 2 − 1) log(1 + h), par conséquent on a r∗2 (x) = 1/2.
Nous résumons dans le Tableau 3.1 les différentes valeurs de r0 , r1 , r2 , e r0 , e
r et e
r2
obtenues sur les estimateurs à noyaux associés non-classiques comme bêta et sa version
étendue, gamma et son inverse, gaussien inverse et sa réciproque, Pareto ainsi que le
lognormal. Nous signalons également que pour les estimateurs à noyaux associés
classiques nous avons obtenu ces différentes valeurs en utilisant la forme générale
Kx,h (·) = (1/h)K {(x−·)/h}. Aussi, nous avons donné les résultats avec le noyau lognormal
de Jin & Kawczak (2003) ainsi que ceux de Bouezmarni & Scaillet (2005) sur gaussien
inverse et sa réciproque.

108 Francial G. Libengué


3.3. Étude des estimateurs à noyaux lognormaux
Table 3.1 – Tableau récapitulatif des différents r dans les Théorème 3.1.1, Théorème 3.2.2 et Théorème 3.2.4.
K = Kθ(a,b) SK T r0 r0
e r1 r1
e r2 (x) r2,−1 (x)
e
Bêta [0, 1] [0, 1] 1 1 1 1 1/2 1
Bêta étendu [t1 , t2 ] [t1 , t2 ] 1 1 1 1 1/2 1
Gamma [0, +∞[ [0, +∞[ 1 1 1 1 1/2 1
Gamma inverse ]0, +∞[ ]0, 1/h[ 1 1 1/2
109

Gaussien inverse ]0, +∞[ ]0, 1/(3h)[ 1 1 1 1


Gaussien inverse réc. ]0, +∞[ ]0, +∞[ 1 1
Pareto ]a, +∞[ ]x, +∞[ 1 1 1 1 1 1
Log-normale ]0, +∞[ ]0, +∞[ 2 2 2 2 1 r2 (α)
e
Francial G. Libengué

Log-normale JK’03 ]0, +∞[ ]0, +∞[ 2 − 2 − 1/2 −


Classiques K x − hS R 1 − 1 − 1 −
Gauss. inv. BS’05 ]0, +∞[ ]0, +∞[ 5/2 − 5/2 − 1/2 −
Gauss. inv. réc. BS’05 ]0, +∞[ ]0, +∞[ 5/2 − 5/2 − 1/2 −
Chapitre 3. Convergence des estimateurs à noyaux associés continus

110 Francial G. Libengué


Chapitre 4

Propriétés minimax des estimateurs à


noyaux associés

Ce chapitre se propose d’étudier les propriétés minimax des estimateurs de densités


par les noyaux associés présentés dans le Chapitre 2. Nous rappelons ici que les noyaux
associés sont rigoureusement définis par une famille de fonctions de densités K =
{Kx,h }x∈T,h>0 , paramétrée par le point d’estimation x et le paramètre de dispersion h sur
un support Sx,h ⊆ R et qui vérifie les relations suivantes :

x ∈ Sx,h (4.1)

E Zx,h = x + A(x, h) (4.2)

Var Zx,h = B(x, h), (4.3)

où Zx,h est une variable aléatoire de loi Kx,h , et les deux caractéristiques A(x, h) et B(x, h)
de Kx,h tendent vers 0 quand h = hn tend vers 0 (quand n → +∞ par la suite). Notons
que :
• Le support T de la densité inconnue f , à estimer est considéré connu par le statisticien
et doit coïncider avec le support Sx,h du noyau associé afin d’éviter les effets de bords.
• x est un paramètre de position (le mode), et h est un paramètre de dispersion.
• Kx,h est de plus en plus concentré sur x quand h tend vers 0.
Dans le cas particulier où T = R, on a

Kx,h (·) = (1/h) K {(· − x) /h} , (4.4)

où la fonction noyau K de support S est le noyau classique présenté dans la Section 1.1
du premier chapitre de cette thèse. D’après (4.1) et l’expression (4.4) on a

Sx,h = x − hS, A(x, h) = 0 et B(x, h) = h2 σ2K , (4.5)

où σ2K > 0 est la variance de K . Par exemple pour les noyaux populaires comme le noyau
gaussien et celui d’Epanechnikov on a Sx,h = R et Sx,h = [x − h, x + h], respectivement.
Comme nous l’avons présenté dans le Chapitre 2, pour construire un noyau associé
Kx,h on considère un type de noyau K := Kθ (qui est une densité de probabilité para-
métrée et de carré intégrable) sur S = Sθ avec θ ∈ Θ ⊆ Rk pour k ≥ 2. En particulier,

111
Chapitre 4. Propriétés minimax des estimateurs à noyaux associés

on choisit θ = θ(a, b) avec a et b des réels positifs et K := Kθ un noyau uni-modal.


Ainsi, on utilise la méthode “mode-dispersion” incluant les cas particuliers de beta et
gamma. Cette méthode consiste à résoudre les deux équations : x = M(a, b) et h = D(a, b)
où M(a, b) et D(a, b) sont respectivement l’unique mode et le paramètre de dispersion
de Kθ(a,b) . Ce qui permet d’obtenir le noyau associé Kθ(x,h) := Kθ(a(x,h),b(x,h)) de support
Sθ(x,h) = Sθ(a(x,h),b(x,h)) , où a(x, h) et b(x, h) sont les solutions des équations précédentes.
Étant donnée la famille K des noyaux associés, un estimateur issu de ces noyaux
est défini par :
n
b 1X
fn,h (x) = Kx,h (Xk ), ∀x ∈ T, ∀h > 0. (4.6)
n
k=1

Rappelons que le but principal lorsqu’on fait de l’estimation d’une densité f , est
de choisir, parmi tous les estimateurs possibles fbn,h , celui qui est le plus proche de
f (le meilleur). Pour ceci, plusieurs approches s’offrent pour juger la qualité d’un
estimateur parmi lesquelles figure l’approche minimax. Dans cette approche, on fixe
prioritairement un espace fonctionnel sur lequel on définit un risque. Puis, on cherche
le meilleur estimateur autrement dit celui dont le risque est minimal. Cette approche
suppose une connaissance a priori assez forte sur la densité à estimer plus précisément
sur son support et sa régularité.
Ce chapitre s’organise de la manière suivante : dans la Section 4.1, nous présentons
le modèle sur lequel nous travaillons. Ensuite, nous donnons les hypothèses techniques
(tant sur le noyau que sur la densité) de notre travail. Par la suite, nous présentons nos
résultats résumés en quatre propositions et un théorème.

4.1 Description du modèle


Considérons une suite de variables aléatoires X1 , . . . , Xn iid et de densité de pro-
babilité f : T → R, où T ⊆ R est le support de la densité f . Notre objectif est de
construire une procédure d’estimation de f en supposant que son support T est connu
par le statisticien.
Plus précisément, nous voulons construire une procédure, utilisant les noyaux as-
sociés continus précédemment décrits, qui sélectionne automatiquement le paramètre
de lissage afin d’estimer f . Pour ce faire, considérons les notations suivantes.

4.1.1 Risque minimax

Soit F la classe des fonctions définies par


( Z )
F⊆ f : T → R : f ≥ 0, f = 1, k f k∞ ≤ f∞ , (4.7)
T

où f∞ est un nombre réel positif fixé.

112 Francial G. Libengué


4.1. Description du modèle

Puisque nous nous sommes intéressés à l’estimation de densité, nous allons nous
concentrer sur la perte L1 qui est étroitement liée à la distance où variation totale entre
les lois de probabilité sous-jacentes.
Si fbn,h est un estimateur arbitraire de f , nous définissons son risque par rapport à f
de la manière suivante
Rn ( fbn,h , f ) = Enf k fbn,h − f k1 (4.8)

où k · k1 est la norme standard sur L1 et Enf est la moyenne par rapport à la mesure de
probabilité sur T.
Ensuite, nous définissons le risque maximal sur la classe F de la manière suivante :

Rn ( fbn,h , F) = sup Rn ( fbn,h , f ). (4.9)


f ∈F

L’approche minimax consiste à trouver un estimateur (ou de manière équivalente


au choix de fenêtre de lissage) qui atteint asymptotiquement et à une constante multi-
plicative près, le taux de convergence théorique suivante :

rn (F) = inf Rn ( fbn,h , F), (4.10)


fbn,h

où l’infimum est pris sur tous les estimateurs.


Les inconvénients de l’approche minimax sont bien connus. En général, l’estimateur
qui atteint la vitesse de convergence minimax sur une boule d’un espace fonctionnel
classique (par exemple les espaces d’Hölder, de Sobolev ou Besov) dépend explicite-
ment des paramètres de régularité de cet espace. De plus, en situation pratique, ces
paramètres ne sont pas connus par le statisticien et, par conséquent, l’estimateur ne
peut pas être construit.
Il existe une autre approche dite “adaptive” qui propose une tentative de solution
pour remédier à cet inconvénient. Elle suppose que l’espace F est de la forme F = ∪κ Fκ
où les espaces Fκ sont tels que le taux rn (Fκ ) tend vers 0 plus vite que rn (F). L’idée
principale est de construire une seule procédure d’estimation qui permet d’obtenir le
taux de rn (Fκ ) simultanément sur chaque espace Fκ .
Plus précisément, une procédure d’estimation fn,h∗
est appelée adaptative sur l’espace
{Fκ }κ si les conditions suivantes sont vérifiées :

lim sup sup sup r−1 ∗


n (Fκ )Rn ( fn,h , Fκ ) < +∞.
n→∞ κ f ∈Fκ

Cette approche est très intéressante mais nous ne l’abordons pas dans ce travail. Le
lecteur peut se référer à Bertin & Klutchnikoff (2013) pour s’inspirer du cas particulier
des estimateurs à noyau bêta où les auteurs ont procédé au choix du paramètre de
lissage par la procédure de Lepski modifié.
Nous donnons dans le paragraphe suivant les différentes hypothèses techniques
avec lesquelles nous allons travailler.

113 Francial G. Libengué


Chapitre 4. Propriétés minimax des estimateurs à noyaux associés

4.1.2 Hypothèses techniques


Hypothèses sur la densité

Dans la suite on supposera que la densité inconnue f appartient à une boule de


l’espace de Hölder. Le paramètre de régularité de cet espace est désigné par s > 0 et le
rayon de la boule est désigné par L > 0.
Ici et par la suite, on suppose que T est un ensemble connexe de la droite réelle.
Soit ms = sup{ℓ ∈ N : ℓ < s}. On dit que g appartient à F(s, L) si g est une densité de
probabilité qui est ms fois différentiable et telle que :
∀(u, v) ∈ T2 , g(ms ) (u) − g(ms ) (v) ≤ L|u − v|s−ms
où les dérivées g(k) sont définies pour 1 ≤ k ≤ ms par :
g(k−1) (v) − g(k−1) (u)
g(k) (u) = lim .
v→u v−u
v∈T\{u}

Il est bien connu (voir [Tsybakov, 2004] par exemple) qu’en vertu de ces conditions,
la quantité suivante est bien définie et finie :
f∞ (s, L) = sup sup kg(k) k∞ .
1≤k≤ms g∈F(s,L)

Hypothèses sur le noyau associé



Maintenant, nous présentons quelques conditions que la famille K = Kx,h x∈T,h∈(0,1]
doit satisfaire afin d’obtenir les résultats minimax.
Condition H1(A) Nous supposons ici que pour tout noyau associé Kx,h appartenant à
la famille K il existe une fonction A : T → R+∗ vérifiant :

∀(x, h) ∈ T × (0, 1], E Zx,h − x 6 h2 A(x)
En d’autres termes, on dira que le “biais” de Kx,h est de l’ordre de h2 . Cette
condition va permettre de contrôler le biais de l’estimateur issu du noyau associé
Kx,h .
Condition H2(B) Pour tout noyau associé Kx,h appartenant à la famille K , il existe une
fonction B : T → R+∗ vérifiant

∀(x, h) ∈ T × (0, 1], Var Zx,h 6 h2 B(x),
Autrement dit, la “variance” de Kx,h est de l’ordre de h2 . Cette condition intervien-
dra dans le contrôle de la variance de l’estimateur à noyau Kx,h .
Condition H3(C) Enfin, pour tout noyau associé Kx,h appartenant à la famille K , il
existe une fonction C définie par C : T → R+∗ telle que :
∀(x, h) ∈ T × (0, 1], kKx,h k22 6 h−1 C(x)
Cette condition garantit que le noyau associé Kx,h appartienne à L2 (T). De plus,
sa norme L2 n’explose pas plus vite que h−1 .

114 Francial G. Libengué


4.2. Résultats

4.2 Résultats
Dans cette section, on suppose que s ∈]0, 1] et L > 0 sont deux nombres réels connus
par le statisticien. De plus, on suppose que la densité inconnue f appartient à F (s, L).

4.2.1 Contrôle du risque

Nous procédons ici à une étude plus large du risque de fbn pour des régularités
comprises entre 0 et 1 en utilisant la norme L1 . Soit f ∈ F (s, L) et h ∈ (0, 1] le risque de
l’estimateur fbn,h défini en (4.8) peut s’écrire sous la forme

Rn ( fbn,h , f ) = Enf k fbn,h − f k1


(Z 1 )
n
= Ef | fbn,h (u) − f (u)|du (4.11)
0
6 I1 (n, h) + I2 (n, h) (4.12)
où Z
I1 (n, h) = |Bh (x)| dx avec Bh (x) = Enf fbn,h (x) − f (x)
T
et Z
I2 (n, h) = Enf |Zh (x)| dx avec Zh (x) = fbn,h (x) − Enf fbn,h (x).
T

Le terme |Bh (x)| est appelé le biais ponctuel tandis que I1 (n, h) est le biais intégré.
De même, Enf |Zh (x)| est le terme stochastique ponctuel tandis que I2 (n, h) est le terme
stochastique intégré.
Considérons L : T → [0, +∞[, x 7→ L(x). Notre objectif est de contrôler les termes
précédents indépendamment de f ∈ F (s, L(x)) en vue de contrôler le risque maximal
sur cette classe de fonctions. Pour ce faire, nous allons décomposer ce travail en quatre
propositions et un théorème. Dans toute la suite, K = {Kx,h }x∈T,h∈(0,1] est une famille
donnée de noyaux associés continus et F (s, L(x)) est la classe F (s, L) d’Hölder dont la
constante de Lipschitz L dépend du point d’estimation x.
Avant de donner nos résultats nous allons énoncer le lemme suivant.

Lemme 4.2.1 Pour tout réel 0 < s < 1, a > 0 et x > 0 on a


(a + x)s 6 as + xs . (4.13)

Démonstration. Pour a = 0 ce résultat est évident. Supposons a > 0, pour 0 < s < 1,
considérons l’inégalité    s
x s x
1+ 61+ .
a a
Posons W la fonction définie par W(u) = (1 + u)s − us − 1. On vérifie facilement que W
est décroissante et admet pour limite 0 en 0. Ce qui montre que W < 0 d’où le résultat.
La proposition suivante montre que le biais ponctuel de fbn,h est majoré.

115 Francial G. Libengué


Chapitre 4. Propriétés minimax des estimateurs à noyaux associés

Proposition 4.2.2 (Majoration du biais ponctuel) Considérons f ∈ F {s, L(x)}, la densité


à estimer et Kx,h un noyau associé appartenant à K tel que les hypothèses H1(A) et H2(B)
soient vérifiées. Pour 0 < s ≤ 1, on a
n s o
|Bh (x)| ≤ hs L(x) B 2 (x) + hs As (x) . (4.14)

Démonstration. Tout d’abord, remarquons que



|Bh (x)| = E f (Zx,h ) − f (x)

6 E f (Zx,h ) − f (x)
 s
6 L(x)E Zx,h − x .

En utilisant l’inégalité de Jensen puis en intercalant E Zx,h dans le second membre de
l’inégalité précédente on a :

h    is
|Bh (x)| 6 L(x) E Zx,h − E Zx,h + E Zx,h − x
#q %s
2 
6 L(x) E Zx,h − E Zx,h + E Zx,h − x .

L’utilisation de l’inégalité de Markov et le résultat (4.13) du lemme précédent ainsi que


les hypothèses H1(A) et H2(B) implique que pour tout 0 < s ≤ 1 :
h n 1 ois
|Bh (x)| 6 h B 2 (x) + hA(x)
n s o
6 hs · B 2 (x) + hs As (x) .
La proposition suivante montre que le biais intégré est aussi majoré.

Proposition 4.2.3 (Majoration du biais intégré) On considère f ∈ F {s, L(x)}, la densité à


estimer et Kx,h un noyau associé appartenant à K tel que les hypothèses H1(A) et H2(B) soient
vérifiées. Supposons de plus que :
Z Z
s

B (s) = L(x)B (x)dx < +∞ et
2 L(x)As (x)dx < +∞. (4.15)
T T

Pour 0 < s ≤ 1, on a
I1 (n, h) 6 hs B∗ (s) · {1 + o(1)} .

Démonstration. D’après le résultat de la Proposition 4.2.2, on a


n s o
|Bh (x)| 6 hs L(x) B 2 (x) + hs As (x) .
En intégrant membre à membre l’inégalité précédente on obtient
Z h n s oi
I1 (n, h) 6 hs L(x) B 2 (x) + hs As (x) dx
T
Z ( )1/2
s s h2s A2s (x)
6h L(x)B (x) 1 +
2 dx.
T Bs (x)

116 Francial G. Libengué


4.2. Résultats

Par application du théorème de convergence dominée de Lebesgue et en utilisant les


hypothèses (4.15), on a le résultat.
Le résultat suivant concerne le terme stochastique ponctuel. On y montre que ce
dernier est majaoré.

Proposition 4.2.4 (Majoration du terme stochastique ponctuel) Soit f ∈ F {s, L(x)}, la


densité à estimer et Kx,h un noyau associé appartenant à K tel que l’hypothèse H3(C) soit
vérifiée. De plus notons
2
Kx,h (·)
e
Kx,h (·) = .
kKx,h k22

Considérons la famille L = {K ex,h }x∈T,h∈(0,1] . Cette famille contient des densités appartenant de
K et satisfait les hypothèses H1(A)e et H2(e B). On a alors :
# %1/2
C(x) 
Enf |Zh (x)| ≤ f (x) + hs µs,h (x) , (4.16)
nh

où n s o
µh,s (x) = L(x) e es (x) .
B 2 (x) + hs A (4.17)

Démonstration. Pour commencer, introduisons la notation suivante pour tout k ∈


{1, . . . , n} :
ηk (x) = Kx,h (Xk ) − Enf Kx,h (Xk ).
En utilisant cette notation, on peut écrire le terme Enf |Zh (x)| sous la forme

n
1X
Enf |Zh (x)| = Enf ηk (x)
n
k=1
s
Enf |η1 (x)|2
≤ .
n

La dernière inégalité est obtenue par l’inégalité de Cauchy et grâce au fait que les
variables aléatoires ηk (x) sont iid. Étudions maintenant le terme Enf |η1 (x)|2 . On a

Enf |η1 (x)|2 6 Enf Kx,h


2
(X1 )
Z
2
6 Kx,h (u) f (u)du
T∩Sx,h
Z
2
= kKx,h k2 Lx,h (u) f (u)du
T∩Sx,h
2
= kKx,h k2 E f (ζx,h ),

où ζx,h est une variable aléatoire de loi Lx,h . En utilisant l’hypothèse H3(C) on obtient :
n  o
Enf |η1 (x)|2 6 h− 1C(x) f (x) + E f (ζx,h ) − f (x) .

117 Francial G. Libengué


Chapitre 4. Propriétés minimax des estimateurs à noyaux associés

Comme L = {Lx,h }x∈T,h∈(0,1] satisfait H1(A) et H2(B), on applique la Proposition 4.2.2 au


terme E{ f (ζx,h )} − f (x) qui est inférieur à Lhs µs,h (x), et le résultat s’en déduit.
La proposition suivante va montrer la majoration du deuxième terme du second
membre de l’inégalité (4.8).

Proposition 4.2.5 (Majoration du terme stochastique intégré) Considérons les hypothèses


de la Proposition 4.2.4 ensuite supposons que similairement à la Proposition 4.2.3, on a
Z Z
e
A(x)dx < +∞, es (x)dx < +∞
A (4.18)
T T

et Z
s
(2s−1
∨ 1) e
B 2 (x)dx < +∞. (4.19)
T

De plus, en supposant que


 Z 1/2

 

 
C∗ {s, L(x)} = 
 sup C(x) f (x)dx 
 < +∞
 f ∈F(s,L) T 

et Z
C(x)µs,h (x)dx < +∞. (4.20)
T
on a :
C∗ {s, L(x)}
I2 (n, h) 6 √ · (1 + o(1)).
nh

Démonstration. Partant du résultat de la proposition précédente on a :


# %1/2
C(x) 
Enf |Zh (x)| 6 f (x) + hs µs,h (x)
nh

En intégrant membre à membre on a


Z Z
n 1   1/2
E f |Zh (x)|dx 6 √ C(x) f (x) + L(x)hs µs,h (x) dx
T nh T
#Z %1/2
1  s
6 √ C(x) f (x) + L(x)h µs,h (x) dx
nh T

En prenant le sup f ∈F(s,L) puis par application du théorème de convergence dominée de


Lebesgue en tenant compte des hypothèses (4.18), (4.19) et (4.20), on a le résultat.
En utilisant toutes les définitions et notations introduites précédemment, on est en
mesure d’énoncer maintenant le résultat minimax. Nous rappelons au lecteur que ceci
montre implicitement qu’il existe un choix optimal de paramètre h permettant à l’esti-
mateur à noyau associé correspondant d’atteindre la vitesse minimax de convergence
de F {s, L(x)}. Mais seulement ce choix de paramètre h dépend de L(x) et s.

118 Francial G. Libengué


4.2. Résultats

Théorème 4.2.6 Soit K = {Kx,h }x∈T,h∈(0,1] une famille de noyaux associés continus. Supposons
que les hypothèses des Propositions 4.2.2– 4.2.5 sont vérifiées. Alors il existe un paramètre
optimal de lissage hn {s, L(x)} tel que l’estimateur à noyau associé (issu de K ) construit avec
hn {s, L(x)} satisfait :
 
Rn fbn,hn (s,L(x)) , F {s, L(x)} 6 D {s, L(x)} L1/(2s+1) (x)n−s/(2s+1) · {1 + o(1)} ,

où D {s, L(x)} est une constante définie dans la démonstration. De plus l’expression de hn {s, L(x)}
est de la forme
# %1/(2s+1)
κ {s, L(x)}
hn {s, L(x)} = ,
nL2 (x)

où κ {s, L(x)} est explicitement donnée dans la démonstration.

Démonstration. En prenant ensemble les résultats des Propositions 4.2.3 et 4.2.5 on


obtient :
# %
  C∗ {s, L(x)}
b s ∗
Rn fn,hn (s,L(x)) , F {s, L(x)} ≤ h B (s) + √ {1 + o(1)} .
nh

La partie droite de cette inégalité peut être optimisée en choisissant h :


# %1/(2s+1)
κ {s, L(x)}
h = hn {s, L(x)} =
nL2 (x)

avec
# %2
C∗ {s, L(x)}
κ {s, L(x)} = .
2sB∗ (s)

Enfin, on peut facilement prouver le résultat escompté avec le h choisi et en prenant

D {s, L(x)} = B∗ (s) [κ {s, L(x)}]s/(2s+1) + C∗ {s, L(x)} [κ {s, L(x)}]−1/2(2s+1) .

Ceci achève la démonstration.

4.2.2 Illustrations

Dans ce paragraphe, nous examinons les propriétés minimax des estimateurs à


noyaux classiques d’une manière générale et les estimateurs à noyaux non-classiques
précisément dans le cas de bêta, pour des densités appartenant à la classe F {s, L(x)}
avec 0 < s 6 1. Dans chacun des cas, nous identifions à partir des caractéristiques du
noyau associé correspondant, les fonctions A(x), B(x) et C(x) données dans les hypo-
thèses techniques de la Section 4.1.2. Puis, nous procédons aux calculs des différents
ingrédients pouvant permettre le contrôle du risque minimax.

119 Francial G. Libengué


Chapitre 4. Propriétés minimax des estimateurs à noyaux associés

Estimateurs à noyau classique

Nous présentons dans ce paragraphe les résultats minimax des estimateurs à noyaux
associés classiques (en utilisant la forme générale du noyau associé classique). Rappe-
lons que les noyaux associés classiques sont définis par
 
1 x−·
Kx,h (·) = K . (4.21)
h h
où K (·) est un noyau classique vérifiant la Définition 1.1.1. Il a été démontré dans la
Proposition 2.1.5 de la Section 2.1 que

E Zx,h − x = 0 et Var(Zx,h ) = h2 σ2K . (4.22)

Ce qui permet de déduire les quantités A(x) et B(x) de l’hypothèse technique comme
suit :
s
A(x) = 1 et B(x) = σ2K ; ce qui implique que As (x) = 1 et B 2 (x) = σsK .

On remarque tout de suite qu’elles sont des constantes indépendantes de x. En remar-


s
quant que L(x), As (x) et B 2 (x) sont des quantités finies, on a
Z Z
s
∗ s
B (s) = L(x)B (x)dx = σK
2 L(x)dx < +∞
R R

et Z Z
s
L(x)A (x)dx = L(x)dx < +∞.
R R
Par application de la Proposition 4.2.3, on obtient une majoration du biais intégré issu
de la décomposition du risque minimax. On peut explicitement l’écrire sous la forme :
Z ( Z )
I1 (n, h) = Enf fbn,h (x) − f (x) dx 6 hs σsK L(x)dx {1 + o(1)} . (4.23)
[0,1] R

Pour ce qui est de la partie stochastique de la décomposition du risque minimax,


considérons le noyau associé
2
Kx,h (·)  
ex,h (·) = 1 2 x−·
K = K .
kKx,h k22 kK k22 h

Ce qui permet de constater que K ex,h est une densité de probabilité dans la même famille
que K ( par conséquent sa moyenne est nulle et sa variance est finie, voir Définition
1.1.1). Considérons Zg e
x,h la variable aléatoire de loi Kx,h , par changement de variables
t = (x − u)/h on a :
  Z  
g 1 2 x−u
E Zx,h = uK du
kK k22 R h
Z
1
= 2
(x − ht)K 2 (t) dt
kK k2 R
= x − hµKg
x,h
.

120 Francial G. Libengué


4.2. Résultats

Signalons ici que nous avons grossièrement simplifié le h issu de la différentielle du


g
avec celui q’on obtient dans le calcul de kK k22 . Puisque Kx,h est de même famille que K ,
on a
 
E Z g 2e e
x,h − x 6 h A(x) avec A(x) = 1. (4.24)

Le calcul de la variance donne successivement,


  n  o2
 g
2
g
Var Zx,h = E Zx,h − E Z x,h
Z
1
= 2
(x − ht)2 K 2 (t) dt − x2
kK k2 R
= h2 σKg
x,h
− 2xhµKg
x,h

6 h2 σ2g (4.25)
Kx,h

d’où e
B(x) = σ2g . Ainsi, on obtient :
Kx,h

n s o  
e s es s s
µh,s (x) = L(x) B (x) + h A (x) = L(x) σ g + h < +∞.
2
Kx,h

De plus, on sait d’après la condition H3(C) de la Section 4.1.2 que kKx,h k22 6 h−1 C(x).
Dans le cas présent C(x) = C est une constante indépendante de x. En considérant le
s
fait que As et B 2 et L(x) sont des quantités finies puis en remarquant que
 Z 1/2

 

 
C∗ {s, L(x)} = 
 sup C f (x)dx
 < +∞
 f ∈F(s,L) R 

et Z Z  
s s
C(x)µh,s (x)dx = L(x)σ g + h dx < +∞,
Kx,h
R R
une application de la Proposition 4.2.5, conduit à la majoration du terme stochastique
intégré. C’est à dire
Z
C∗ {s, L(x)}
I2 (n, h) = Enf fbn,h (x) − Enf fbn,h (x) dx ≤ √ (1 + o(1)). (4.26)
[0,1] nh
En utilisant (4.23), (4.26) et le Théorème 4.2.6, on peut trouver un paramètre optimal de
lissage
# %1/(2s+1)
κ {s, L(x)}
hn {s, L(x)} = ,
nL2 (x)
avec # ∗ %2
C {s, L(x)}
κ {s, L(x)} = .
2sB∗ (s)
pour lequel les estimateurs à noyaux associés classiques des densités f , appartenant à
la classe des fonctions F{s, L(x)} avec 0 < s 6 1, atteigne la vitesse minimax.

121 Francial G. Libengué


Chapitre 4. Propriétés minimax des estimateurs à noyaux associés

Estimateurs à noyau bêta

Tout d’abord, nous rappelons au lecteur que les propriétés minimax des estimateurs
à noyau bêta ont été l’objet des travaux de Bertin & Klutchnikoff (2011). Ces auteurs ont
étudié lesdites propriétés en utilisant la perte Lp et pour des régularités s appartenant à
]0, 2]. Nous allons dans ce travail utiliser la perte L1 et en particulier pour des régularités
0 < s 6 1.
Les caractéristiques du noyau associé bêta (construit par la méthode mode-dispersion)
définies dans la Section 2.1.3, donnent
 h(1 − 2x) h2
E Zx,h − x = 6 (1 − x) (4.27)
1 + 2h 2
et
 h{x(1 − x) + h + h2 h2
Var Zx,h = 6 x(1 − x). (4.28)
(1 + 3h)(1 + 2h)2 3
Par conséquent on a :
1 1
A(x) = (1 − x) et B(x) = x(1 − x).
2 3
s
Puisque 0 < L(x) < +∞ et de plus les fonctions B 2 (x) et As (x) sont bornées sur [0, 1]
alors on a
Z   2s Z  s
∗ 1 s 1
B (s) = L(x) {x(1 − x)} dx < +∞ et
2 L(x) (1 − x) dx < +∞.
[0,1] 3 [0,1] 2

Par application de la Proposition 4.2.3, on obtient une majoration du biais intégré


obtenu à partir de la décomposition du risque minimax. C’est à dire
Z
I1 (n, h) = Enf fbn,h (x) − f (x) dx 6 hs B∗ (s) {1 + o(1)} . (4.29)
[0,1]

Pour la majoration de la partie stochastique intégrée issue de la décomposition du risque


minimax, considérons le noyau associé BE f x,h défini par BE
f x,h (·) = BE2 (·)/kBEx,h k2 . En
x,h 2
calculant BE2x,h (·) on obtient

kBEx,h k22 2x 2(1−x)


BE2x,h (u) =  2(1−x)
 u h (1 − u) h
2x
B h
+ 1, h

où B(·, ·) est la fonction bêta d’Euler. Il s’ensuit que

f x,h (u) = 1 2x 2(1−x)


BE  2(1−x)
 u h (1 − u) h = BEx, h (u).
2x 2
B h
+ 1, h

On en déduit que
! " ! "
e h) = A x, h 1 h 1
A(x, 6 h A(x) et e
2
B(x, h) = B x, 6 h2 B(x),
2 4 2 4

122 Francial G. Libengué


4.2. Résultats

par conséquent
e = 1 A(x) et e
A(x)
1
B(x) = B(x)
4 4
et donc
  2s (   2s )
1 s 1 s s
µh,s (x) = B 2 (x) + h A (x) L(x)
4 4
  2s (  2s  s )
1 x 1 s s
= (1 − x) + h (1 − x) 2 L(x). (4.30)
4 3 4

De plus d’après la condition H3(C) de la Section 4.1.2, on a kBEx,h k22 6 h−1 C(x) avec
n p o−1 s
C(x) = 2 πx(1 − x) . Puisque les fonctions As et B 2 sont bornées sur [0, 1] et 0 <
L(x) < +∞ en remarquant que les quantités
 Z 1/2

 1 

 
C∗ {s, L(x)} = 
 sup p f (x)dx

 f ∈F(s,L) [0,1] 2 πx(1 + x) 

et Z (  s  s )
  s+1
1 2 1 1 s−1 x 2 1 s
√ √ (1 − x) 2 + (1 − x) 2 L(x) f (x)dx
4 π [0,1] 2 x 3 4
sont finies alors on obtient la majoration du terme stochastique intégré par application
de la Proposition 4.2.5. C’est-à-dire
Z
b nb C∗ {s, L(x)}
I2 (n, h) = Enf fn,h (x) − E f fn,h (x) dx ≤ √ (1 + o(1)). (4.31)
[0,1] nh
De (4.29), (4.31) et d’après le Théorème 4.2.6, il existe un paramètre optimal de
lissage
# %1/(2s+1)
κ {s, L(x)}
hn {s, L(x)} = ,
nL2 (x)
avec # ∗ %2
C {s, L(x)}
κ {s, L(x)} = .
2sB∗ (s)
pour lequel les estimateurs à noyaux bêta des densités f , appartenant à la classe des
fonctions F{s, L(x)} avec 0 < s 6 1, atteigne la vitesse minimax.

123 Francial G. Libengué


Chapitre 4. Propriétés minimax des estimateurs à noyaux associés

124 Francial G. Libengué


Chapitre 5

Estimateurs à noyaux associés mixtes et


applications

Nous nous intéressons à l’estimation non-paramétrique de densité gouvernant les


variables aléatoires réelles à support connu T ⊆ R constitué à la fois des intervalles et
des ensembles discrets deux à deux disjoints. Par exemple, si on étudie un processus
(fonction) de suivi d’un malade à p phases au cours desquelles le patient subit alter-
nativement des soins intensifs avec des prélèvements quasi-instantanés (i.e. continus)
correspondant à une période d’hospitalisation, et des soins externes où les prélèvements
sont périodiques ou séquentiels dans le temps (i.e. discrets). Ce type de fonctions est
généralement un modèle de mélange fini et s’écrit sous la forme :
p
X
f (x) = β j f j (x)1T j (x), (5.1)
j=1

où les f j sont des fonctions de densité ou masse de probabilité (f.d.m.p.) et les constantes
β j sont les proportions du mélange (supposées connues dans ce travail pour simplifier)
sur chaque composante T j partitions de T (La Figure 5.2 présente une représentation
graphique de f pour p = 2).

Figure 5.1 – Un exemple de T.

Ce type de support est généralement appelé échelle de temps (“time-scales” en an-


glais). Elle est constituée de réunions des connexes continus et discrets deux à deux
disjoints qu’on peut écrire de la manière suivante :
 [ 
T = ∪ j TI j ∪ j′ TN j′ , (5.2)

où les TI j sont des intervalles et les TN j′ sont des ensembles discrets au plus dénom-
brables. Sans perte de généralité, nous désignons par TI un intervalle de T et par TN

125
Chapitre 5. Estimateurs à noyaux associés mixtes et applications

Figure 5.2 – Exemple d’une densité mixte.

un sous ensemble discret de T au plus dénombrable. Nous rappelons au lecteur que les
échelles de temps sont des fermés de R. Pour simplifier, nous écrivons T de la manière
suivante :
T = TI ∪ TN = [t0 , t1 ] ∪ {t2 , t3 , ...}. (5.3)

Sur les échelles de temps, plusieurs outils d’analyse ont été proposés pour travailler à
la fois sur les intervalles et les ensembles discrets.
Ce chapitre se propose d’en faire usage dans le but d’estimer par les méthodes
non-paramétriques les fonctions de type (5.1) sur le support T défini en (5.3) tout en
respectant la structure topologique de ce dernier. La fonction définie en (5.1) est une
f.d.m.p. dite fonction mixte univariée. La mixité est due ici au fait que la densité f à estimer
est partiellement continue et discrète. La méthode appropriée pour ce type d’estimation
est celle des noyaux associés puisque ces derniers sont construits dans l’esprit du strict
respect de la nature topologique du support de f ; cependant, nous devrions rester
attentifs aux différents changements de structures de supports. Il faut noter que la force
des noyaux associés pour ce type d’estimation réside dans leur capacité à dépendre
intrinsèquement du point d’estimation x et de la fenêtre de lissage h interprétée comme
paramètre de dispersion et qui joue le même rôle tant dans le cas discret que continu ;
voir Jørgensen (1997) et Jørgensen et Kokonendji (2011, 2013). Enfin, l’une dernière des
raisons est leur flexibilité dans l’utilisation de l’analyse unifiant le discret et le continu
que nous détaillons dans la Section 5.1.
Rappelons au lecteur que lorsque T est homogène (i.e. restreint à TI ou à TN que
[j]
nous notons simplement T j ), le noyau associé (continu ou discret) est une f.d.m.p. Kx,h
[j]
paramétrée par le point d’estimation x et le paramètre de lissage h, sur le support Sx,h

126 Francial G. Libengué


et qui vérifie
[ j]
x ∈ Sx,h , (5.4)
E(Zx,h ) = x + A j (x, h), (5.5)
Var(Zx,h ) = B j (x, h), (5.6)

où A j (x, h) et B j (x, h) tendent vers 0 lorsque h tend 0 et Zx,h est une variable aléatoire de
[j]
loi Kx,h .
Pour une suite X1 , X2 , · · · , Xn de variables aléatoires indépendantes et identiquement
distribuées (i.i.d.) de densité inconnue f j sur le support T j , l’estimateur fbn j de f j ∈ C 2 (T j )
[j]
à noyau associé Kx,h est de la forme :

nj
b 1 X [j]
fn j (x) = K (Xi )1T j (x)1T j (X j ), (5.7)
n j i=1 x,h

où n j est le nombre d’observations tambant dans T j . Le lecteur peut consulter les articles
de Chen (1999, 2000), Kokonendji & Zocchi (2010), Kokonendji & Senga Kiessé (2011)
puis Kokonendji & Libengué (2013) pour une présentation détaillée avec des multiples
exemples. Le biais de cet estimateur est défini par
n o  1n o 
Biais fbn j (x) = A j (x, h) f j(1) (x) + A2j (x, h) + B j (x, h) f j(2) (x) 1T j (x) + o(h2 ), (5.8)
2

où f jk avec k ∈ {1, 2} sont les dérivées du premier/second ordre en x (lorsque T j est


un intervalle) ou bien les différences finies du premier/second ordre en x (lorsque T j
est un ensemble discret). La variance de fbn j est

n o 1  
[ j] 2 1
Var fbn j (x) = f j (x) Kx,h 1T j (x) + o (5.9)
nj 2 nhr2

avec  Z

 [j]2

 K (u)du si T j = TI
[j] 2 
 Sx ,h ∩T j x,h
Kx,h =
 j
2 
 P [j]2

 y∈Sx ,h ∩T j Kx,h (y) si T j = TN
j

[j] [ j]
et r2 = r2 (Kx,h ) est le plus grand réel dépendant du noyau associé Kx,h tel que nhr2 → +∞
lorsque n → +∞.
Nous organisons ce chapitre de la manière suivante. Nous rappelons dans la pre-
mière section les outils d’analyses sur les échelles de temps, essentiellement ceux qui
sont nécessaires pour la suite de ce travail. Puis, nous présentons dans la deuxième
section les noyaux associés mixtes ainsi que leurs estimateurs. Nous donnons les pro-
priétés de ces estimateurs en portant une attention particulière à l’étude des biais et
variance ainsi que les erreurs quadratiques moyennes ponctuelles et intégrées. Enfin,
nous terminons ce chapitre par des applications.

127 Francial G. Libengué


Chapitre 5. Estimateurs à noyaux associés mixtes et applications

5.1 Calculs sur des échelles de temps


A présent, nous allons présenter les outils d’analyse sur les échelles de temps. Le
lecteur peut se rapporter à Hilger (1988, 1990), Bohner & Peterson (2001, 2003) puis
Sanyal (2008) pour plus de détails.

5.1.1 Définitions et notations


Nous donnons ici la définition des opérateurs de saut proposé par Hilger (1988)
lesquels jouent un rôle très important lors de changement de structure en passant d’un
intervalle à un ensemble discret. Ensuite, nous faisons une classification de certains
points particuliers que nous auront à utiliser.

Définition 5.1.1 [Hilger, 1988] Soit T une échelle de temps.


(i) On appelle opérateur de saut en avant (“forward jump operator” en anglais) l’applica-
tion
σ : T → T, x 7→ σ(x) := inf{s ∈ T ; s > x}, ∀x ∈ T.
(ii) De même l’opérateur de saut en arrière (“backward jump operator” en anglais) est
défini par l’application

ρ : T → T, x 7→ ρ(x) := sup{s ∈ T ; s < x}, ∀x ∈ T.

Ce deux opérateurs nous permettent de procéder à la classification des points de T


comme dans le Tableau 5.1. Nous signalons au passage que cette nomenclature est
spécifique à ce travail. Le lecteur peut toutefois consulter l’article de Agarwal et Bohner
(1999) ainsi que les livres de Bohner & Peterson (2001, 2003) pour avoir une idée claire
de cette classification.

Table 5.1 – Classification des points de T


Type de points Formulation
Continu à gauche (càg) ρ(t) = t
Continu à droite (càd) σ(t) = t
Discret à gauche (dàg) ρ(t) < t
Discret à droite (dàd) σ(t) > t

Bien évidemment, lorsqu’un point t est à la fois continu à droite et gauche (i.e. càg
et càd) alors on a ρ(t) = t = σ(t) et on dit que t est une point continu. De même, un point
est dit discret lorsqu’il est discret à droite et à gauche (i.e. dàd et dàg) ce qui se formule
par ρ(t) < t < σ(t).
Nous présentons dans la définition suivante la nouvelle notion de l’ordre de discré-
tisation des points sur la partie TN de T.

128 Francial G. Libengué


5.1. Calculs sur des échelles de temps

Définition 5.1.2 On considère x ∈ TN et k ∈ N.


1− On dit que x est un point discret d’ordre k, s’il est situé à k-pas symétriques des bords
gauche et droit de TN .
2− Lorsqu’il est situé à k1 -pas de bord droit (respectivement k2 -pas de bord gauche) de TN , alors
il est dit discret d’ordre k1 à droite (respectivement discret d’ordre k2 à gauche).

Nous attirons ici l’attention du lecteur sur cette notion qui sera reprise dans le para-
graphe concernant la dérivabilité. Signalons également au passage que les échelles de
temps sont des espaces métriques complets. Elles sont dotées des notions de distance,
d’ouverts qui débouchent sur les concepts des limites et continuités que nous n’al-
lons pas détailler dans ce travail. Sinon, en ce qui concerne la continuité, une fonction
f : T j → R, est dite continue sur T j lorsqu’on a :

∀ε > 0, ∃Vx j : s ∈ Vx j ∩ T j ⇒ | f (s) − f (x j )| < ε

où Vx j est un voisinage de x j selon la topologie induite sur T j . Lorsque T j = TI (un


intervalle), cette notion se confond avec la continuité usuelle sur R et lorsque T j = TN
(un ensemble discret ) ceci coïncide avec la continuité des fonctions discrètes. Compte
tenu de la structure particulière des échelles de temps, la notion de dérivabilité est la
plus difficile à définir et fait appel aux différents opérateurs de la Définition 5.1.1. Nous
résumons dans le prochain paragraphe les différentes techniques de dérivabilité.

5.1.2 Dérivabilité unifiée


La définition suivante présente l’outil d’unification des notions de dérivées à gauche
ou à droite (respectivement notions de différences finies décentrées à gauche et à droite)
en un point x ∈ T.

Définition 5.1.3 Soit f : T → R, Tκ et Tκ des sous ensembles de T, respectivement semi


ouvert à droite et à gauche.
1-) On dit que f est ∆-dérivable au point x si : ∀ε > 0, ∃η > 0 : ∀s ∈ Vη (x) =]x − η, x +
η[∩T ⇒

   


 f {σ(x)} − f (s) − f △ (x) {σ(x) − s}
 < ε |σ(x) − s| , ∀x ∈ Tκ .

2-) De même, on dit que f est ∇-dérivable en x si : ∀ε > 0, ∃η′ > 0 : ∀s ∈ Vη′ (x) =
]x − η′ , x + η′ [∩T ⇒

     
 
 

  < ε
 f ρ(x) − f (s) − f ▽ (x) ρ(x) − s  ρ(x) − s
 , ∀x ∈ Tκ .

On note f ∆ et f ∇ les fonctions ∆-dérivée et ∇-dérivée de f .

Cette définition s’écrit aussi de la manière suivante :


f {σ(x)} − f (s) f (x) − f (s)
f ∆ (x) = = lim , (5.10)
σ(x) − s x→s
x>s
x−s

129 Francial G. Libengué


Chapitre 5. Estimateurs à noyaux associés mixtes et applications

et 

f ρ(x) − f (s) f (x) − f (s)
f (x) = = lim . (5.11)
ρ(x) − s x→s
x<s
x−s
Lorsque T = TI alors (5.10) et (5.11) représentent respectivement les notions usuelles
de dérivabilité à droite et à gauche de x. Cependant, lorsque T = TN alors (5.10) et
(5.11) sont similaires aux notions des différences finies décentrées à droite et à gauche
de x.
Ainsi, nous introduisons la nouvelle notion unifiant celles de dérivée première et de
différences finies de premier ordre de f en un point x de T dans la définition suivante.

Définition 5.1.4 Soient f : T → R et x ∈ Tκκ (où Tκκ est un ouvert de T). On dit que f est
dérivable en x si et seulement si elle est à la fois ∆-dérivable et ∇-dérivable en x et sa fonction
dérivée en x est de la forme :
1   
f (1) (x) = {σ(x) − x} f △ (x) + x − ρ(x) f ▽ (x) , ∀x ∈ T.
σ(x) − ρ(x)

On vérifie facilement que cette définition coïncide avec la dérivabilité classique en x


lorsque T = TI et elle est similaire aux notions des différences finies centrées en x
lorsque T = TN . Ce qui nous permet d’établir la formule de Taylor de la manière
suivante :
k
X (x − s) j (j)
f (x) = f (s) + o{(x − s)k }, (5.12)
j
j!
avec
1 h j  j
i
f (j) (x) = {σ(x) − x} f ∆ (x) + x − ρ(x) f ∇ (x) , (5.13)
σ(x) − ρ(x)
j j
où f ∆ (x) et f ∇ (x) sont respectivement ∆-dérivée et ∇-dérivée de f d’ordre j. Dans
(5.13), la quantité f (j) unifie les notions classiques de dérivée jeme sur TI et de différences
finies d’ordre j sur TN . Précisons que pour les points discrets d’ordres k1 à droite et k2
à gauche, (5.13) s’écrit de la forme :
1 h k  k
i
f (k1 ,k2 ) (x) = {σ(x) − x} f △ 1 (x) + x − ρ(x) f ▽ 2 (x) , ∀k1 , k2 . (5.14)
σ(x) − ρ(x)
Notons qu’en général f (j) (·) = f (j,j) (·) et en particulier pour x ∈ TN = N, on a :


 { f (x + 2) − 2 f (x + 1) + 2 f (x) − 2 f (x − 1) + f (x − 2)}/2 si x ∈ N r {0, 1}





f (2) (x) = 
 { f (3) − 2 f (2) + 2 f (1) − f (0)}/2 si x = 1 (5.15)




 { f (2) − 2 f (1) + f (0)}/2 si x = 0.

Ce qui est nettement différent du résultat de Kokonendji & Senga Kiessé (2011). Pour
ces auteurs, la quantité (5.15) est exprimée sous la forme :




 { f (x + 2) − 2 f (x) + f (x − 2)}/4 si x ∈ N r {0, 1}



f (2) (x) = 
 { f (3) − 3 f (1) + 2 f (0)}/2 si x = 1 (5.16)




 { f (2) − 2 f (1) + f (0)}/2 si x = 0.

130 Francial G. Libengué


5.1. Calculs sur des échelles de temps

On remarque par là que les différences finies centrées à deux pas sont appliquées
aux points x, discrets d’ordre supérieur ou égal à deux. Mais dans le cas des points
0 et 1, les différences finies décentrées à un pas vers la droite sont appliquées puis
exceptionnellement les décentrées à un pas vers la gauche sont appliquées au point 1.
Il faut noter que le calcul de la dérivée d’ordre k d’une fonction f en un point x
de TN nécessite une connaissance a priori de l’ordre de discrétisation de ce point. Par
exemple dans le cas précédent, on remarque que le point 2 est discret d’ordre 2 à gauche
et d’ordre infini à droite, cependant le point 1 est discret d’ordre 1 à gauche d’ordre
infini à droite tandis que le point 0 est seulement discret à droite.

Définition 5.1.5 Une fonction f est dite de classe C k (T) si et seulement si f (k) existe et est
continue.

Enfin, les échelles de temps sont munies de ∆-mesure et ∇-mesure qui tiennent compte
de leurs structures. Ces deux mesures sont similaires à la mesures de Lebesgue lorsque
T est un intervalle puis à une mesure de dénombrement si TN est un ensemble discret.
La définition suivante introduit l’outil d’unification de calcul intégral sur les échelles
de temps.

Définition 5.1.6 Une fonction F : T → R est appelée ∆-primitive de f : T → R si F∆ (x) =


f (x) pour tout x ∈ Tκ . Dans ce cas, on définit l’intégrale de f par
Z x
f (t)∆t = F(x) − F(a),
a

avec ∆t la ∆-mesure sur T.

On définit de même la ∇-primitive de f en utilisant l’une des relations :

F△ (x) = F▽ {σ(x)} (5.17)


F▽ (x) = F△ {ρ(x)}. (5.18)

Ainsi, on a le théorème suivant :

Théorème 5.1.7 (Hilger, 1988) Soient a et b des points de T tels que a < b et f une fonction
△-mesurable sur T. L’intégrale de f sur T satisfait les propriétés suivantes :
 Z b


Z b 
 f (t)dt si T = TI


 a
f (t) △ t = 
 Xb (5.19)
a 


 f (t) si T = TN .

a

Pour la démonstration, le lecteur peut se référer à Hilger (1988) ou Bohner & Peterson
(2001, pages 26-34). On obtient les même propriétés en ce qui concerne les fonctions
∇-mesurables en utilisant l’une des relations (5.17) et (5.18).
Nous présentons dans la section suivante les estimateurs à noyaux associés mixtes.

131 Francial G. Libengué


Chapitre 5. Estimateurs à noyaux associés mixtes et applications

5.2 Définitions et propriétés


Cette section fournit les définitions d’une densité mixte, d’un type de noyau mixte
ainsi que le noyau associé mixte proprement dit. Ensuite, elle présente les estimateurs
à noyaux associés mixtes suivis de leurs premières propriétés fondamentales.

Définition 5.2.1 Soit T = ∪ j T j un ensemble constitué d’intervalles et des parties discrètes.


Une fonction f de support T est dite densité mixte si pour tout x ∈ T on a :
X
f (x) = β j f j (x)1T j (x)
j

X
où les β j sont des réels positifs tels que β j = 1 et les f j sont des fonctions de densité et/ou
j
masse de probabilité.

Remarque 5.2.2 Une densité mixte peut être considérée comme un “modèle de mélange mixte”.
A travers le mot mixte, nous voulons insister sur le fait que le mélange contient à la fois des
données discrètes et continues. Lorsque les réels β j sont inconnus, l’estimation de f est alors
“semi-paramétrique”. Dans notre travail, nous les supposons connus. Ce qui nous permet
d’estimer f par la méthode non-paramétrique des noyaux associés.

5.2.1 Noyaux associés mixtes


La définition suivante va préciser ce qu’on appelle type de noyau mixte.

Définition 5.2.3 Un type de noyau mixte Kθ de support Sθ est une combinaison convexe des
[j] [j]
types de noyaux continus et discrets Kθ de supports Sθ . On écrit alors
X
[j]
Kθ (u) = β j Kθ (u)1S[j] (u),
θ
j

X
avec β j > 0, tels que β j = 1.
j

Nous précisons ici que le support Sθ du type de noyau mixte est la réunion des supports
[j]
Sθ des types de noyaux continus et discrets dont il est issu. On le note généralement
par : [
[ j]
Sθ = Sθ . (5.20)
j

Sans perte de généralité, nous désignerons par SθI le support d’un type de noyau
continu et par SθN celui d’un type de noyau discret. Par conséquent, le support Sθ de
Kθ sera la réunion de SθI et SθN .
Nous allons maintenant définir le noyau associé mixte.

132 Francial G. Libengué


5.2. Définitions et propriétés

Définition 5.2.4 Soit T = ∪ j T j le support de la densité mixte f , à estimer. Un noyau associé


mixte Kθ(x,h) est une densité de probabilité paramétrée par le point d’estimation x et le paramètre
de dispersion h, et constitué à la fois de noyaux associés continus et discrets. Il s’écrit :

p
X
[j]
Kθ(x,h) (·) = β j Kx,h (·)1S[ j] (x)1T j (·), (5.21)
x,h
j=1

X
où les β j sont des réels positifs tels que β j = 1.
j

Il a pour support Sθ(x,h) défini par

p
[
[j]
Sθ(x,h) = Sx,h (5.22)
j=1

[j] [j]
avec Sx,h supports de Kx,h (·)1S[j] (x)1T j (·).
x,h

On vérifie facilement que Kθ(x,h) (·) en (5.21) satisfait les conditions des noyaux associés
(5.4)–(5.6) que l’on peut récrire de la forme

x ∈ Sθ(x,h) , (5.23)
E(Zx,hβ ) = x + Aθ (x, h), (5.24)
Var(Zx,hβ ) = Bθ (x, h). (5.25)
Pp Pp
où Aθ (x, h) = j=1
A j (x, h)1S[ j] (x) et Bθ (x, h) = j=1
B j (x, h)1S[ j] (x) tendent vers 0 lorsque h
x,h x,h
tend 0 et Zθ(x,h) est une variable aléatoire de loi Kθ(x,h) .
Quelques observations méritent d’être faites avant de continuer.

Remarque 5.2.5 (i) La construction du noyau associé mixte Kθ(x,h) dépend de celle des
[j]
noyaux associés continus et discrets Kx,h qui le constituent.
(ii) Le paramètre de lissage h peut être choisi local (i.e. différemment sur chaque T j selon
le noyau associé utilisé tout comme il peut être choisi globalement en tenant seulement
compte de Kθ(x,h) .
(iii) Le noyau associé mixte Kθ(x,h) (·) est une densité de probabilité par rapport à la variable
aléatoire mais il ne l’est pas (nécessairement) par rapport à x. Aussi, il hérite la flexibilité
des noyaux associés issus desquels il provient.
(iv) Enfin, le support Sθ(x,h) doit être égale à T pour éviter les effets de bords. Ceci veut
[j]
implicitement dire que toutes les composantes Sx,h et T j respectivement de Sθ(x,h) et T sont
deux à deux égales.

Etudions maintenant les estimateurs à noyaux associés mixtes et quelques unes de


leurs propriétés fondamentales.

133 Francial G. Libengué


Chapitre 5. Estimateurs à noyaux associés mixtes et applications

5.2.2 Estimateur de densités mixtes


Soient X1 , X2 , · · · , Xn une suite de variables aléatoires i.i.d. à densité mixte inconnue
f en (5.1) et de support T = ∪ j T j . L’estimateur fbà noyau associé mixte Kθ(x,h) de f est
défini par
p nj
X β j X [j]
b
f (x) = Kx,h (Xi )1S[j] (x)1T j (Xi ), (5.26)
j=1
n j
i=1
x,h

[j]
où n j le nombre d’observations tombant dans T j et les Kx,h (·)1S[j] (x)1T j (·) sont des noyaux
x,h
[ j]
associés de support Sx,h .
Cet estimateur peut être écrit encore sous la forme :
p
X
fb(x) = β j fbj (x)1T j (x), (5.27)
j=1

[j] [ j]
où les fbj sont les estimateurs à noyaux associés Kx,h (·)1S[ j] (x)1T j (·) de support Sx,h , pon-
x,h
dérés par les poids β j (connus) sur les composantes T j de T.
Nous signalons ici que l’estimateur à noyaux associés mixtes hérite simultanément
quelques une des propriétés élémentaires des noyaux associés discrets et continus le
constituant. Nous allons dans la proposition suivante donner ces propriétés.

Proposition 5.2.6 Soit fb, l’estimateur à noyaux associés mixtes Kθ(x,h) de f en (5.1). Pour
toute variable aléatoire Zθ(x,h) de loi Kθ(x,hh) , fbvérifie les propriétés suivantes
n o n o
E fb(x) = E f (Zθ(x,h) ) , (5.28)
Z
fbn (x)∆x =: Λ(n, h, Kθ ) n’est pas toujours égale à 1. (5.29)
T

Démonstration Le premier résultat se démontre de la manière suivante. Supposons


que le support T est muni de la ∆-mesure et considérons Zθ(x,h) une variable aléatoire
de loi Kθ(x,hh) . Alors on a :
n o Z
E fb(x) = Kθ(x,h) (u) f (u)∆u
ZT
= f (u)Kθ(x,h) (u)∆u
T
n o
= E f (Zθ(x,h) ) .
Pour le second résultat, on a :
Z nj Z
b 1 X
f (x)∆x = Kθ(x,h) (u)∆x
T n j i=1 T
Z
= Kθ(x,h) (u)∆x
T

134 Francial G. Libengué


5.3. Etudes de biais et variances

D’après le point (iii) de la Remarque 5.2.5, le noyau associé mixte Kθ(x,h) (u) n’est pas
Rune densité de probabilité par rapport à la variable x. Par conséquent, l’intégrale
K
T θ(x,h)
(u)∆x est une constante positive dépendant simultanément de l’échantillon,
du paramètre de dispersion et du type de noyau associé mixte. Nous notons cette
constante Λ(n, h, Kθ ) et elle n’est pas toujours égale à 1.
Le lecteur peut se réferer à la Proposition 2.2.2 de ce travail pour plus de précision.
Signalons aussi que l’on peut retrouver le même résultat en utilisant la ∇-mesure.

5.3 Etudes de biais et variances

Nous présentons dans cette section, les biais et variances de l’estimateur à noyau
associé mixte. Puis, nous procédons au calcul des erreurs quadratiques moyennes
asymptotiques respectivement ponctuelles et globales.

Proposition 5.3.1 Soit f ∈ C 2 (T) une densité mixte du type défini en (5.1) et fbson estimateur
à noyau associé mixte en (5.26). Pour tout x dans T et h = hn > 0, on a

n o 1n o
Biais fb(x) = Aθ (x, h) f (1) (x) + A∗θ (x, h) + Bθ (x, h) f (2) (x) + o(h2 ). (5.30)
2

P P P
avec Aθ (x, h) = j β j A j (x, h), Bθ (x, h) = j β j B j (x, h) et A∗θ (x, h) = j β j A2j (x, h).
Si en plus, f est bornée sur T alors

n o X p
β2j  
b [j] 2 1
Var f (x) = f j (x) Kx,h 1T j (x) + o , (5.31)
j=1
n j 2 nhr2

où r2 = r2 (Kθ ) > 0 est le plus grand réel tel que kKθ k22 ≤ c2 (x)h−r
n
2
et 0 < c2 (x) < ∞.

Démonstration. Pour le premier résultat, considérons x ∈ T. En utilisant (5.26), on a :

 p nj
 p
n o 
X βj X 
 X
b  [j] 
Biais f (x) = E   K (Xi )1S[ j] (x)1T j (Xi )  − β j f j (x)1T j (x)

j=1
n j i=1 x,h x,h 
j=1
p
  nj
 
X  
1 X 

 
β j E  
[j]
=  Kx,h
(Xi )1 [ j] (x)1T (Xi ) − f j (x)1T (x)
 
 nj Sx,h j
 j
j=1 i=1

135 Francial G. Libengué


Chapitre 5. Estimateurs à noyaux associés mixtes et applications

[j]
Puisque les supports Sx,h et T j sont égaux (voir point iv de la Remarque 5.2.5), alors on
a

p
  nj
 
n o X  

 1 X 

 
β j E   1 (x)
[j]
Biais fb(x) =  K x,h
(X )1
i Tj (X )
i  − f j (x)  T j
 nj 
j=1 i=1
p
X h n o i
= β j E fbj (x) − f j (x) 1T j (x)
j=1
p
X p
1X n 2 o
= β j A j (x, h) f j(1) (x)1T j (x) + β j A j (x, h) + B j (x, h) f j(2) (x)1T j (x) + o(h2 )
j=1
2 j=1
1n ∗ o
= Aθ (x, h) f (1) (x) + Aθ (x, h) + Bθ (x, h) f (2) (x) + o(h2 )
2
P
où les f (j) pour j ∈ {1, 2} sont définies dans (5.13) puis Aθ (x, h) = j β j A j (x, h), Bθ (x, h) =
P P 2
j β j B j (x, h) et Aθ (x, h) = j β j A j (x, h). Montrons maintenant le second résultat. Partant

de la définition de fb, ona :


 p nj

n o 
 X βj X 

b  [j] 
Var f (x) = Var  K x,h
(X i )1 [j] (x)1T (Xi )


j=1
n j i=1 S x,h
j

p
 nj

X  
2  1 X [j]
 

= β j Var 
 K (X i )1 T (X i ) 
 1 (x)
 nj x,h j
 Tj
j=1 i=1
p
X n o
= β2j Var fbj (x) 1T j (x)
j=1

n o
En remplaçant Var fbj (x) par sa valeur donnée dans (5.9), on obtient le résultat. 
Nous voulons attirer l’attention du lecteur ici sur ce résultat. Comme démontré dans
la Proposition 2.2.4, l’obtention de la variance de fbj fait usage du développement en
[j] 2
série de Taylor. Ici, la formule utilisée est celle donnée en (5.12). Aussi, la norme Kx,h
2
se calcule en utilisant l’intégrale définie en (5.19).

Risque quadratique moyen asymptotique

Les deux résultats précédents nous permettent de procéder au calcul des erreurs
quadratiques moyennes asymptotiques ponctuelles et intégrées. En combinant (5.30)
et (5.31) on a :

1n ∗ o Xp
β2j [j] 2
(1) (2)
AMSE(x) = Aθ (x, h) f (x) + Aθ (x, h) + Bθ (x, h) f (x) + f j (x) Kx,h 1T j (x).
2 j=1
n j 2

136 Francial G. Libengué


5.3. Etudes de biais et variances

En intégrant par rapport à la ∆-mesure sur T on trouve :


Z  
(1) 1n ∗ o
(2)
AMISE(x) = Aθ (x, h) f (x) + Aθ (x, h) + Bθ (x, h) f (x) ∆x
T 2
p
X βj 2 Z
[ j] 2
+ f j (x) Kx,h ∆x. (5.32)
j=1
n j Tj 2

Problème du choix de fenêtre

Nous envisageons ici le choix de fenêtre de lissage par la méthode de validation croi-
sée. Nous précisons ici que ce choix peut se faire de deux manières. La première consiste
à choisir h globalement en utilisant directement le noyau associé mixte Kθ(x,h) dans la
validation croisée en prenant en compte l’ensemble des observations. La deuxième
manière consiste quant à elle à procéder au choix local de h sur chaque composante T j
de T. Ici, on fait intervenir uniquement les observations tombant dans T j . Dans tous
les cas, le statisticien est appelé à doubler de vigilance lorsqu’on se trouve aux points
limites i.e. au passage d’un intervalle TI à un ensemble TN discret en tenant compte des
informations du passé. Pour ce travail, nous proposons un choix global par la méthode
de validation croisée par les moindres carrés.
Telle que présentée dans la Section 1.1.3 du Chapitre 1, l’approche de validation
croisée par les moindres carrés nous amène à considérer le noyau associé mixte Kθ(x,h)
pour tout x ∈ T = ∪ j T j et h > 0. Le paramètre optimal hcv de h est obtenu par

hcv = arg min CV(h),


h>0


Z n n
b
o2 2Xb
CV(h) = f (x) ∆x − f−i (Xi )
T n i=1
Z   Xn
2
 n

1 
 2Xb
= 
 Kθ(x,h) (Xi ) ∆x − fn,−i (Xi )
T  n i=1  n i=1
Z  p nj
2
 
X β j
 X 
[j] 
= 
 K x,h
(X k )1 [j] (x)1T (Xk ) ∆x

∪ j T j  j=1 n j k=1
j
S x,h 
 p nj

2 X 
n
X β j X [ j]
 

− 
 K X
(X k )1 [ j] (x)1T (Xk )

n i=1  j=1 n j − 1 k ,h Sx,h
j

i,k=1
p Z X
 p 2  p 
X  
 2 Xn X
 

 b   b 
= 
 β f 1
j j Tj (x) 
 ∆x − 
 f j,−i (X )
i 
j=1 Tj 
j=1
 n i=1

j=1

Pn j [ j]
et fbj,−i (u) = (n j − 1)−1 i,k=1 Ku,h (Xk )1S[ j] (u)1T j (Xk ) est calculé à partir de fbj (u) sans l’ob-
x,h
servation Xi .

137 Francial G. Libengué


Chapitre 5. Estimateurs à noyaux associés mixtes et applications

5.4 Application au modèle de mélange non-paramétrique


Nous présentons dans cette section, une première application de cette méthode dans
le cadre d’estimation non-paramétrique d’un modèle de mélange mixte (i.e. partielle-
ment discret et continu). Considérons un modèle de mélange f (qui est bien-sur une
densité mixte de probabilité) défini par

f (x) = 0.65 f1 (x)1[2,5] (x) + 0.35 f2 (x)1{6,7,··· ,20} (x) (5.33)

où f1 et f2 sont respectivement des fonctions de densité et de masse de probabilité


inconnues de supports respectifs T1 = [2, 5] et T2 = {6, 7, · · · , 20}.
Compte tenu du manque d’informations générales sur sa forme et son appartenance
à une quelconque famille de lois paramétriques, l’estimation de f définie en (5.33) ne
nous a pas laissé un autre choix que de procéder par l’approche non-paramétrique et
plus précisément par la méthode des noyaux associés. Ainsi, nous proposons l’utili-
sation d’un noyau associé mixte constitué d’un mélange disproportionné des noyaux
bêta étendu et triangulaire général discret.
Rappelons que le noyau bêta étendu construit par la méthode mode-dispersion est
défini par

(u − t0 )(x−t0 )/{(t1 −t0 )h} (t1 − u)(t1 −x)/{(t1 −t0 )h}


EBx,h;t0 ,t1 (u) = 1[t0 ,t1 ] (u),
(t1 − t0 )1+h−1 ∆
avec ∆ = B ([{x − t0 }/{(t1 − t0 )h}] + 1, [{t1 − x}/{(t1 − t0 )h}] + 1). Il a pour support [t0 , t1 ].
En posant t0 = 2 et t1 = 5 on a le bêta étendu sur [2, 5] défini par

(u − 2)(x−2)/3h (5 − u)(5−x)/3h3
EBx,h;2,5 (u) = 1[2,5] (u),
31+1/h B ([{x − 2}/3h] + 1, [{5 − x}/3h] + 1)
Il a pour caractéristiques
2h(4 − x)
A1 (x, h; 2, 5) = (5.34)
1 + 2h
−x2 + 7x + 9h + 9h2 − 10
B1 (x, h; 2, 5) = . (5.35)
(1 + 2h)2 (1 + 3h)

L’estimateur de f1 par le noyau bêta étendu a respectivement pour biais


( ) ( )2
n o 2h(4 − x) (1) 1 2h(4 − x)
b
Biais f1 (x) = f1 (x) + f1(2) (x)
1 + 2h 2 1 + 2h
( 2 )
−x + 7x + 9h + 9h2 − 10 (2)
+ f1 (x) + o(h2 ),
2(1 + 2h) (1 + 3h)
2

et sa variance est donnée par



 Γ(2c + 1) 1 f (x)

si
x−5
et
5−x
→c
n o  2c+1 2

 2 Γ (c + 1) n 3h 3h
Var fb1 (x) = 
 3(x − 2)−1/2 (5 − x)−1/2 x−5 5−x



 √ f (x) si et → +∞.
2 πnh1/2 3h 3h

138 Francial G. Libengué


5.4. Application au modèle de mélange non-paramétrique

De même, le noyau triangulaire général d’ordre h et de bras a1 et a2 est défini par


(#  % #  % )
1 x−u h u−x h
DT (u; x, a1 , a2 , h) = 1− 1T∗a1 ,x (u) + 1 − 1Tx,a2 (u) ,
D(a1 , a2 , h) a1 + 1 a2 + 1
avec
a1
X a2
X
h
D(a1 , a2 , h) = (a1 + a2 + 1) − (a1 + 1) −h
k − (a2 + 1) −h
kh .
k=1 k=1

En l’adaptant au support de f2 (i.e. en posant a1 = 6 et a2 = 20) on a


(#  % #  % )
1 x−u h u−x h
DT (u; x, 6, 20, h) = 1− 1T∗6,x (u) + 1 − 1Tx,20 (u) ,
D(6, 20, h) 7 21
avec  6 
20
X X 
D(6, 20, h) = 27 − 7−h  kh − 3−h kh  .
k=1 k=1

Ses caractéristiques sont données par


  6 

  X X 20

A2 (x, h) := A(6, 20; h) =
1 
189 + 7 −h 

 k h+1
− 3−h
k 
h+1  
(5.36)
 
 
 ,
D(6, 20, h)  
k=1 k=1
  6 

 X X20

B2 (x, h) := B(6, 20; h) =
1 
2961 − 7−h   k h+2
+ 3 −h
k h+2 

 . (5.37)
 
 

D(6, 20, h)  
k=1 k=1

L’estimateur fb2 de la fonction de masse de probabilité f2 à noyau triangulaire général


discret a pour biais
n o 1n o
Biais fb2 (x) = A2 (x, h) f2(1) (x) + −A22 (x, h) + B2 (x, h) f2(2) + o(h2 )
2
et sa variance est donnée par
h i 1  
Var fb2 (x) = 2
f2 (x) 1 − f (x) + Rn (x; 6, 20, h)
n2 {D(6, 20, h)}
avec Rn (x; 6, 20, h) → 0 quand n → +∞ ( se référer à Kokonendji & Zocchi, 2010).
Enfin, le noyau associé mixte Kθ(x,h) constitué des noyaux associés bêta étendu et
triangulaire général est donné par

Kθ(x,h) (·) = 0.65EBx,h;2,5 (·)1[2,5] (x)1[2,5] (·) + 0.35DT x,6,20,h (·)1{6,7,··· ,20} (x)1{6,7,··· ,20} (·). (5.38)

Ses caractéristiques sont données par

Aθ (x, h) = 0.65A1 (x, h)1[2,5] (x) + 0.35A2 (x, h)1{6,7,··· ,20} (x) (5.39)
Bθ (x, h) = 0.65B1 (x, h)1[2,5] (x) + 0.35B2 (x, h)1{6,7,··· ,20} (x) (5.40)

où les quantités A1 (x, h), B1 (x, h), A2 (x, h) et B2 (x, h) sont respectivement donnés en (5.34),
(5.35), (5.36) et (5.37).

139 Francial G. Libengué


Chapitre 5. Estimateurs à noyaux associés mixtes et applications

L’estimateur fbde la densité mixte f définie en (5.33) à noyau associé mixte Kθ(x,h) en
(5.38) est donné par
n1 n2
0.65 X 0.35 X
fb(x) = EBx,h;2,5 (Xi )1[2,5] (x)1[2,5] (Xi ) + DT x,6,20,h (Xi )1{6,7,··· ,20} (x)1{6,7,··· ,20} (Xi ).
n1 i=1 n2 i=1
(5.41)
Son biais est défini par
n o 1n o
Biais fb(x) = Aθ (x, h) f (1) (x) + A∗θ (x, h) + Bθ (x, h) f (2) + o(h2 ) (5.42)
2

où les quantités Aθ et Bθ sont définies respectivement en (5.39) et (5.40), et la quantité


A∗θ (x, h) est donnée par A∗θ (x, h) = 0.65A21 (x, h)1[2,5] (x) + 0.35A21 (x, h)1{6,7,··· ,20} (x). De plus
f (1) et f (2) sont calculées à partir de (5.13).
La variance de fbest donnée par
n o 0.652  
b 2 0.352 2 1
Var f (x) = f1 (x) EBx,h;2,5 2 1[2,5] (x) + f2 (x) DT x,6,20,h 2 1{6,7,··· ,20} (x) + o
n1 n2 nhr2
1.2675(x − 2)−1/2 (5 − x)−1/2
= √ f1 (x)1[2,5] (x)
2 πn1 h1/2
 
0.1225   1
+ f2 (x) 1 − f 2 (x) 1{6,7,··· ,20} (x) + o (5.43)
n2 {D(6, 20, h)}2 nh1/2

Ici r2 = 1/2.
Nous présentons dans le Tableau 5.2, les différentes valeurs de biais, variance et
AMSE de fb. Ces résultats montrent que la variance de l’estimateur à noyau associé
mixte pour le modèle de mélange gaussien-Poisson diminue en général lorsque la taille
de l’échatillon augmente. Cependant, on note que son biais augmente aux bords de
la partie continue du support et diminue aux bords de la partie discrète quand la
taille de l’échantillon croît. Ceci peut s’expliquer d’une part par le fait que nous avons
travaillé avec un mélange utilisant la version du noyau associé bêta étendu construit
par la méthode mode-dispersion. D’autre part il peut être dû au choix du paramètre de
lissage h. Nous signalons ici que notre choix de h est fait localement par composante
de T en utilisant la méthode de validation croisée par les moindres carrés. Il est très
intéressant de comparer ce résultat en utilisant une valeur de h choisie globalement.

140 Francial G. Libengué


5.4. Application au modèle de mélange non-paramétrique

Table 5.2 – Biais et variances de l’estimateur à noyaux associés mixtes de la densité


définie en (5.33)
Taille Cible Biais Variance MSE
100 2.25 −0.4459 e-4 0.1016 e-4 0.1036 e-4
4.50 −0.4152 e-4 0.1126 e-4 0.1281 e-4
7.00 0.9213 e-3 0.3538 e-4 0.1150 e-3
19.00 0.9477 e-3 0.7963 e-4 0.1694 e-3
500 2.25 −0.3241 e-3 0.1621 e-5 0.1036 e-6
4.50 −0.3081 e-3 0.1012 e-5 0.1106 e-6
7.00 0.7210 e-2 0.0261 e-5 0.5224 e-6
19.00 0.7001 e-2 0.0198 e-5 0.4921 e-6
1000 2.25 −0.3014 e-3 0.1315 e-5 0.1406 e-7
4.50 −0.3009 e-3 0.1059 e-5 0.1149 e-7
7.00 0.7012 e-2 0.0197 e-5 0.4936 e-6
19.00 0.6982 e-2 0.0131 e-5 0.4887 e-6

141 Francial G. Libengué


Chapitre 5. Estimateurs à noyaux associés mixtes et applications

142 Francial G. Libengué


Conclusion et perspectives

Nous avons proposé dans cette thèse, une méthode non-paramétrique d’estimation
de densités partiellement discrètes et continues (dites densités mixtes).

Récapitulatif
Tout d’abord, nous avons brièvement fait l’état des méthodes existantes, plus pré-
cisément celles des estimateurs à noyaux continus (classiques) de Rosenblatt (1956) et
Parzen (1962), et des estimateurs à noyaux associés discrets de Kokonendji & Senga
Kiessé (2011). Ce faisant, nous avons essentiellement développé les notions que nous
améliorons dans notre travail en insistant plus précisément sur les notions, d’erreurs
quadratiques moyennes et intégrés, les consistances ponctuelles et globales ainsi les
différentes techniques de choix du paramètre de lissage h. il faut noter aussi que dans
ce travail de rappel, nous avons proposé une définition pour les noyaux continus (clas-
siques) qui jusqu’alors se déduit de celle de l’estimateur puis nous avons aussi amélioré
la définition des noyaux associés discrets.
Ensuite, nous avons présenté la méthode des noyaux associés continus. Cette nou-
velle méthode d’estimation englobe celle proposée par Rosenblatt (1956) puis améliorée
par Parzen (1962). Les noyaux associés continus sont en général des densités de probabi-
lité, paramétrées par le point d’estimation x et le paramètre de dispersion h. La méthode
" mode-dispersion" a été proposée pour leur construction qui consiste à résoudre les
équations x = M(a, b) et h = D(a, b) où M(a, b) et D(a, b) sont, respectivement, l’unique
mode et le paramètre de dispersion de Kθ(a,b) (qui est une densité de probabilité para-
métrée et de carré intégrable). Cela conduit au noyau associé Kθ(x,h) := Kθ(a(x,h),b(x,h)) de
support Sθ(x,h) = Sθ(a(x,h),b(x,h)) , où a(x, h) et b(x, h) sont solutions des équations précédentes.
Nous avons illustré ceci sur plusieurs noyaux associés non-classiques de la littérature.
Dans cette illustration, nous avons constaté que certains noyaux associés à l’exemple
des noyaux de Weibul et de Birnbaum-Sanders ne peuvent pas être construits par la
méthode mode-dispersion. Aussi, d’autres noyaux associés comme les noyaux gamma
inverse et gaussien inverse présentent des insuffisances lorsqu’on sort du domaine de
contraintes liées à leur construction.
Par la suite, nous avons défini les estimateurs à noyaux associés continus puis nous
avons montré qu’ils sont sans effet de bord mais possèdent un biais plus grand (en
nombre de termes) que les estimateurs à noyaux classiques. Ce problème peut être
interprété comme l’équivalent des effets de bord dans le cas classique. Pour y remédier,
nous avons développé un algorithme de réduction de biais qui consiste d’abord à

143
Chapitre 5. Estimateurs à noyaux associés mixtes et applications

partitionner le à T de la densité à estimer en deux régions (régions de bord et celle


de l’intérieur représentant la plus grande partie) puis à modifier le noyau associé de
départ de sorte que le biais de l’estimateur issu de ce noyau soit de même ordre que
celui de l’estimateur à noyau continu classique dans la région intérieure. Nous avons
par la suite appliqué cet algorithme dans des exemples sur plusieurs estimateurs à
noyaux associés non-classiques.
De là, nous avons procédé à des études par simulations à travers trois estimateurs
à noyaux lognormaux dont le premier est construit par la méthode mode-dispersion,
le deuxième est sa version modifiée et le dernier est celui proposé par Jin & Kawczak
(2003). Dans ces études, nous avons dans un premier temps mis en exergue le choix
du paramètre de lissage par la méthodes de validation croisée par les moindres carrés
et dans second temps, nous avons comparé les biais, variance et les MISEs de ces
trois estimateurs tant à l’intérieur qu’aux bords. Toutefois, nous avons constaté que
l’estimateur à noyau lognormal modifié est le meilleur que les deux autres dans la
région intérieure et aussi il a un bon comportement aux bords lorsque la taille de
l’échatillon est faible. Ce qui a finalement confirmé nos résultats théoriques.
Par ailleurs, nous avons étudié les consistances ponctuelles puis globales des es-
timateurs à noyaux associés continus en utilisant des différentes normes. Ces études
nous ont permis de savoir que le comportement de ces estimateurs dépend d’une part
du point d’estimation x, et d’autre part d’une certaine puissance du paramètre de lis-
sage h. Aussi, nous avons montré les propriétés minimax de ces estimateurs pour des
densités appartenant à la classe d’Hölder.
Enfin, nous avons combiné les noyaux associés discrets de Kokonendji & Senga
Kiessé (2011) et les noyaux associés continus nouvellement présentés, pour définir les
noyaux associés mixtes. Nous avons ensuite utilisé les outils d’analyse sur les échelles
de temps pour montrer les propriétés des estimateurs à noyaux associés mixtes.

Extension aux cas mixtes multivariés

L’idée ici est de considérer une densité mixte multivariée f à estimer de support
Td ⊆ Rd avec d ∈ {2, 3, . . .}. Nous signalons au passage que le support Td est une
échelle de temps multidimensionnelle. Il peut être alternativement discret et continu
dans chacune des directions, ou encore uniquement discret sur une direction et continu
sur une autre ainsi de suite. Ensuite on définit pour tout x = (x1 , . . . , xd )T ∈ Td et
Hd est une matrice de fenêtres symétrique et définie positive, le noyau associé mixte
multivarié comme étant une densité de probabilité Kθ(x,Hd ) , dépendant de paramètres
θ ∈ Θ ⊆ Rd(d+3)/2 et de support Sθ(x,Hd ) satisfaisant les conditions suivantes :

x ∈ Sθ(x,Hd ) ,
 
E Zθ(x,Hd ) = x + Aθ (x, Hd )
 
Cov Zθ(x,Hd ) = Bθ (x, Hd ),

où Zθ(x,Hd ) est un vecteur aléatoire de densité Kθ(x,Hd ) , Aθ (x, Hd ) → 0 et Bθ (x, Hd ) → 0d


lorsque Hd → 0d . Notons que Sθ(x,Hd ) doit nécessairement coïncider avec Td afin d’éviter

144 Francial G. Libengué


5.4. Application au modèle de mélange non-paramétrique

les effets de bord.


Ainsi, pour une suite X1 , . . . , Xn de vecteurs aléatoires i.i.d, de densité f inconnue
sur Td . L’estimateur à noyau mixte multivarié fbn de la densité mixte f est défini par :
n
1X
fbn (x) = Kθ(x,Hd ) (Xi ), ∀x ∈ Td . (5.44)
n i=1

De là on peut exprimer son biais et sa variance sous la forme de biais et variance dans
les cas univarié donnés respectivement en (5.30) et (5.31).

Remarques finales
Les travaux ainsi réalisés offrent de nombreuses perspectives intéressantes.
Tout d’abord concernant les noyaux associé non-classiques, Il serait intéressant
de comparer la performance de tous les estimateurs à noyaux associés de supports
]0, +∞[ tant aux bords qu’ à l’intérieur avec les densités vérifiant les conditions de
Schuster comme traité dans Zhang (2010). Puis déterminer un équivalent du noyau
d’Epanechnikov dans le cas associé non-classique.
Puisque la fenêtres h joue un rôle très important dans la performance des estima-
teurs de densités à noyaux associés, un sujet intéressant serait d’étudier ses sélecteurs
automatiques en utilisant les critères bayésien ou les méthodes adaptatives de Lepski
modifiées.
Un autre sujet intéressant est d’étendre la méthode mode-dispersion de construction
des noyaux associés aux cas des données multidimensionnelles à support bornés. Ici
l’aspect fondamental est la notion de dispersion mutivariée.
En ce qui concerne les noyaux associés mixtes, il est intéressant d’étudier prioritaire-
ment le cas où les coefficients β j sont inconnus puis examiner les différentes techniques
existantes pour le choix du paramètre de lissage. Ensuite étudier finement les différents
effets de bords tant au passage du continu au discret qu’aux extrémités. Enfin, traiter
le problème de choix de fenêtre avc d’autre méthodes de la littérature.

145 Francial G. Libengué


Chapitre 5. Estimateurs à noyaux associés mixtes et applications

146 Francial G. Libengué


Bibliographie

[1] Abdous, B. & Kokonendji, C.C. (2009). Consistency and asymptotic normality for
discrete associated-kernel estimator. African Diaspora Journal of Mathematics 8 (2),
63-70.
[2] Agarwal, R.P. & Bohner. M. (1999). Basic calculus on time scales and some of its
applications. Results Mathematics 35, 3-22.
[3] Aitchison, J. & Aitken, C.G.G. (1976). Multivariate binary discrimination by the
kernel method. Biometrika 63, 413-420.
[4] Ash, R.B. & Doléans-Dade, C.A. (2000). Probability and Measure Theory. Academic
Press, California.
[5] Balakrishnan, N., Gupta, R.C., Kundu, D., Leiva, V. & Sanhueza, A. (2011). On some
mixture models base on Birnbaum-Saunder distribution and associated inference.
Journal of Statistical Planning and Inference 141, 2175-2190.
[6] Berlinet, A. & Devroye, L. (1989). A comparison of kernel density estimates. Pu-
blications de l’Institut de Statistique de l’Université de Paris 38, 03-59.
[7] Bertin, K. & Klutchnikoff, N. (2011). Minimax properties of beta kernel estimators.
Journal of Statistical Planning and Inference 141, 2287-2297.
[8] Billingsley, P. (1961). The Lindeberg-Lévy theorem for martingales. Proceedings of
the American Mathematical Society 5, 788-792.
[9] Birnbaum, Z.W. & Saunders, S.C. (1969). A new family of life distributions. Journal
of Applied Probability 6, 319-327.
[10] Bohner, M. & Peterson, A. (2001). Dynamic Equations on Time Scales. Birkhäuser
Boston Inc., Boston.
[11] Bohner, M., & Peterson, A. (2003). Advances in Dynamic Equations on Time Scales.
Birkhäuser Boston Inc., Boston.
[12] Bouezmarni, T. & Rolin, J.M. (2003). Consistency of the beta kernel density function
estimator. The Canadian Journal of Statistics 31, 89-98.
[13] Bouezemarni, T. & Roumbots, J.V.K. (2010). Nonparametric density estimation for
multivariate bounded data. Journal of Statistical Planning and Inference 140, 139-152.
[14] Bouezemarni, T. & Scaillet, O. (2005). Consistency of Asymmetric kernel density
estimators and smoothed histograms with application to income data. Econometric
Theory 21, 390-412.
[15] Bouezemarni, T., Karunamuni, R.J. & Alberts, T. (2005). On boundary correction
in kernel density estimation. Statistical Methodology 2, 191-212.

147
Bibliographie

[16] Bowman, A. (1984). An alternative method of cross-validation for the smoothing


of density estimate. Biometrika 71, 352-360.
[17] Brewer, M.J. (1998). A modelling approach for bandwidth selection in kernel den-
sity estimation. In : Proceedings of COMPAST Physica Verlag, Heidelberg, 203-208.
[18] Brewer, M.J. (2000). A Baysian model for local smoothing in kernel density esti-
mation. Statistics and Computing 10, 299-309.
[19] Brown, B.M. & Chen, S.X. (1999). Beta Bernstein smoothing for regression curves
with compact support. Scandinavian Journal of Statistics 26, 47-59.
[20] Chen, S.X. (1999). Beta kernel estimators for density functions. Computational Sta-
tistics and Data Analysis 31, 131-145.
[21] Chen, S.X. (2000). Gamma kernel estimators for density functions. Annals of Insti-
tute for Statistics and Mathematics 52, 471-480.
[22] Chen, S.X. (2010). Personal communications.
[23] Cline, D.B.H. & Hart, J.D. (1991). Kernel estimation of densities with discontinuities
or discontinuous derivatives. Statistics 1 69-84.
[24] Cowling, A. & Hall, P. (1996). On pseudodata methods for removing boundary
effects in kernel density estimation. Journal of the Royal Statistical Society. Series B.
3, 551–563.
[25] Cuevas, A., Cao, R. & Gonzalez-Manteiga, W. (1994). A comparative study of
several smoothing methods in density estimation. Computational Statistics and Data
Analysis 17, 235-239.
[26] Devroye, L. (1987). A Course in Density Estimation. Birkhäuser, Boston.
[27] Epanechnikov, V. (1969). Nonparametric estimates of a multivariate probability
density. Theory of Probability and its Applications 14, 153–158.
[28] Gasser, T. & Müller, H.G. (1979). Kernel estimation of regression functions. Smoo-
thing techniques for curve estimation. Proceedings of Workshop, Heidelberg, April
2–4, 1979.
[29] Gasser, T., Müller, H.G. & Mammitzsch, V. (1985). Kernels for nonparametric curve
estimation. Journal of the Royal Statistical Society 2, 238-252.
[30] Gourieroux, C. & Montfort, A. (2006). (Non) consistency of the beta kernel esti-
mator for recovery rate distribution. Preprint of Centre de Recherche en Economie et
Statistique, N°2006-31.
[31] Grubbs, F.E. (1962). Attempts to validate certain PERT statistics or picking on
PERT. Operations Research 10, 912–915.
[32] Gustafson, J., Hagmann, M., Nielsen, J.P. & Scaillet, O. (2007). Local transformation
kernel density estimation of loss distributions. Journal of Business and Economic
Statistics.
[33] Habbema, J.D.F., Hermans, J. & Vanden Broee, K. (1974). A stepwise discriminant
analysis program using density estimation. In Compstat 1974, Ed. G. Bruckmnann,
101-110. Physica Verlag, Vienna.
[34] Hilger, S. (1998), Ein Maßkettenkalkül mit Anwendung auf Zentrumsmannigfal- tigkei-
ten. Ph.D. Thesis of the University of Würzburg : Würzburg.

148 Francial G. Libengué


Bibliographie

[35] Hilger, S. (1990). Analysis on measure chains — a unified approach to continuous


and discrete calculus. Results Math 18, 18–56.
[36] Hoeffding, W. (1963). Probability inequalities for sums of bounded random va-
riables. Journal of the American Statistical Association 58, 13-30.
[37] Jin, X. & Kawczak, J. (2003). Birnbaum-Saunders and lognormal kernel estimators
for modelling durations in high frequency financial data. Annals of Economics and
Finance. 4, 103-1024.
[38] Jones, M.C. & Foster, P.J. (1996). A simple nonnegative boundary correction method
for kernel density estimation. Statistics Sinica 4, 1005-1013.
[39] Jørgensen, B. (1997). The Theory of Dispersion Models. Chapman & Hall, London.
[40] Jørgensen, B. & Kokonendji, C.C. (2011). Dispersion models for geometric sums.
Brazilian Journal of Probability and Statistics 25, 263-293.
[41] Jørgensen, B. & Lauritzen, S.L. (2000). Multivariate dispersion models. Journal of
Multivariate Analysis 74, 267–281.
[42] Jørgensen, B., Goegebeur, Y. & Martnez, J. R. (2010). Dispersion models for ex-
tremes. Extremes 13, 399-437.
[43] Karunamuni, R.J. & Alberts, T. (2005). A generalized reflection method of boundary
correction in kernel density estimation. The Canadian Journal of Statistics 33, 497-509.
[44] Karunamuni, R.J & Alberts, T. (2006). A locally adaptive transformation method
of boundary correction in kernel density estimation. Journal of Statistical Planning
and Inference 136, 2936-2960.
[45] Karunamuni, R.J. & Zhang, S. (2008). Some improvements on a boundary corrected
kernel density estimator. Statistics and Probability Letters 78, 499-507.
[46] Karunamuni, R.J., Sriram, T.N. & Wu, J. (2006). Asymptotic normality of an adap-
tive kernel density estimator for finite mixture models. Statistics and Probability
Letters 76, 211-220.
[47] Karunamuni, R. J. & Zhang, S. (2008). Some improvements on a boundary corrected
kernel density estimator. Statistics and Probability Letters 5, 499-507.
[48] Kokonendji, C.C. & Libengué. F.G. (2011). Méthode des noyaux associés continus
et estimation de densité. Procedings du 43 ème Journée de Statistique de la SFdS, 86-91,
Tunis.
[49] Kokonendji, C.C. & Libengué. F.G. (2012). Covergences des estimateurs à noyaux
associés de densité. Journées de Statistique de la SFdS, 5 pages, Bruxelles. http ://-
[Link]/[Link] ?id=98
[50] Kokonendji, C.C. & Senga Kiessé, T. (2011). Discrete associated kernels method
and extensions. Statistical Methodology, 8, 497-516.
[51] Kokonendji, C.C., Senga Kiessé, T. & Balakrishnan, N. (2009). Semiparametric
estimation for count data through weighted distributions. Journal of Statistical
Planning and Inference 139, 3625-3638.
[52] Kokonendji, C.C., Senga Kiessé, T. & Zocchi, S.S. (2007). Discrete triangular dis-
tributions and non-parametric estimation for probability mass function. Journal of
Nonparametric Statistics 19, 241-254.

149 Francial G. Libengué


Bibliographie

[53] Kokonendji, C.C. & Zocchi, S.S. (2010). Extensions of discrete triangular distribu-
tion and boundary bias in kernel estimation for discrete functions. Statistics and
Probability Letters 80, 1655-1662.
[54] Kuruwita, C.N., Kulasekera, K.B. & Padgett, W.J. (2010). Density estimation using
asymmetric kernels and Bayes bandwidths with censored data. Journal of Statistical
Planning and Inference 140, 1765-1774.
[55] Markovich, N. (2007). Nonparametric Analysis of Univariate Heavy-Tailed Data : Re-
search and Practice. Wiley and sons, Moscow.
[56] Marron, J.S. (1987). A comparison of cross-validation techniques in density esti-
mation. The Annals of Statistics 15, 152–162.
[57] Marron, J.S. & Ruppert, D. (1994). Transformations to reduce boundary bias in
kernel density estimation. Journal of the Royal Statistical Society 4, 653-671.
[58] Marsh, L.C. & Mukhopadhyay, K. (1999). Discrete Poisson kernel density esti-
mation with an application to wildcat coal strikes. Applied Economics Letters 6,
393-396.
[59] Massart, P. (1990). The tight constant in Dvoretzky-Kiefer-Wolfowitz inequality.
Annals of Probability 18, 1269-1283.
[60] Monfort, A. (1997). Cours de Statistique Mathématique. Economica, Paris.
[61] Nadaraya, E.A. (1965). On nonparametric estimation of density function and re-
gression. Theoretical Probability for Applications 10, 186-190.
[62] Park, B.U., & Marron, J. S. (1992). On the use of pilot estimators in bandwidth
selection. Journal of Nonparametric Statistics 3, 231-240.
[63] Parzen, E. (1962). On estimation of a probability density function and mode. Annals
of Mathematical Statistics 33, 1065–1076.
[64] R Development Core Team, (2012). A language and environment for statisti-
cal computing. R Foundation for Statistical Computing, Vienna, Austria. URL
http ://[Link].
[65] Regneir, E. (2005). Activity completion time in PERT and scheduling network
simulation. Defense Resources Management Institute News Letters 2005.04.08, 9 pages.
[66] Rosenblatt, M. (1956). Remarks on some nonparametric estimates of a density
function. Annals of Mathematical Statistics 27, 832–837.
[67] Rudemo, M. (1982). Empirical choice of histograms and kernel density estimators.
Scandinavian Journal of Statistics 9, 65–78.
[68] Sanyal, S. (2008). Stochastic dynamic equations. PhD thesis, Missouri University
of Sciences and Technology.
[69] Sarda, P. & Vieu, P. (1986). Régression non paramétrique et prédiction d’un proces-
sus markovien. Cahiers du Centre d’Études de Recherche Opérationnelle, 1-3, 203–209.
[70] Sarda, P. & Vieu, P. (1988). Vitesses de convergence d’estimateurs non-
paramétriques d’une régression et de ses dérivées. Comptes Rendus de l’Académie
des Sciences. Série I. Mathématique, 2, 83–86.
[71] Sarda, P. & Vieu, P. (1991). Smoothing parameter selection in hazard estimation.
Statistics and Probability Letters 5, 429–434.

150 Francial G. Libengué


Bibliographie

[72] Scaillet, O. (2004). Density estimation using inverse and reciprocal inverse Gaus-
sian kernels. Journal of Nonparametric Statistics 16, 217–226.
[73] Schuster, E.F. (1985). Incorporating support constraints into nonparametric esti-
mators of densities. Communication in Statistics Theory and Methods 5, 1123-1136.
[74] Scott, D.W., Tapia, R.A. & Thompson, J.R. (1977). Kernel density estimation revi-
sited. Nonlinear Analysis 1, 339-372.
[75] Scott, D.W. (1992). Multivariate Density Estimation. John Willey & Sons, Texas.
[76] Senga Kiessé, T. (2009). Approche non-parametrique par noyaux associés discrets des
données de dénombrement. Thèse de Doctorat en Statistique, Université de Pau.
http ://[Link]/tel-00372180/fr/.
[77] Senga Kiessé, T., Libengué, F.G., Zocchi, S.S. & Kokonendji, C.C. (2010). The
R package for general discrete triangular distributions, http ://[Link].r-
[Link]/web/packages/TRIANGG/[Link].
[78] Senga Kiessé, T. & Rivoire, M. (2010). Discrete semiparametric regression models
with associated kernel and applications. Journal of Nonparametric Statistics 23, 927-
941.
[79] Seshadri, V. (1993). The Inverse Gaussian Distribution : A Case Study in Exponential
Families. Oxford University Press, New-York.
[80] Sheather, J. & Jones, M.C. (1991). A reliable data-based bandwidth selection me-
thod for kernel density estimation. Journal of the Royal Statistical Society Series B, 53,
683-690.
[81] Silverman, B.W. (1986). Density Estimation for Statistics and Data Analysis. Chapman
and Hall, London.
[82] Simonof, J.S. (1996). Smoothing Methods in Statistics. Springer, New York.
[83] Simonof, J.S. & Tutz, G. (2000). Smoothing methods for discrete data. In : smoothing
and regression : Approaches, computation, and application (ed. M.G. Shimek). pp. 193-
228. Wiley, New York.
[84] Stone, C. J. (1984). An asymptotically optimal window selection rule for kernel
density estimates. The Annals of Statistitics 12, 1285–1297.
[85] Tiago de Oliviera, J. (1963). Estatistica de densidades : resultados assintoticos
Revista de la Facultad de Ciencias, Universidad de Lisboa, A9, 111-206.
[86] Tsybakov, A.B. (2004). Introduction à l’Estimation Non-paramétrique. Springer, Paris.
[87] Youndjé, E., Sarda, P. & Vieu, P. (1996a). Optimal smooth hazard estimates. Test, 2,
379–394.
[88] Youndjé, E., Sarda, P. & Vieu,P. (1996b). Choix de paramètres de lissage en esti-
mation de densité conditionnelle. Publications de l’Institut de Statistique de Paris 38,
57-80.
[89] Zhang, S. (2010). A note on the performance of the gamma kernel estimators at the
boundary. Statistics and Probability Letters 7-8, 548-557
[90] Zhang, S. & Karunamuni, R.J. (2010). Boundary performance of the beta-kernal
estimator. Journal of Nonparametric Statistics 22, 81–104

151 Francial G. Libengué


Bibliographie

[91] Zhang, S., Karunamuni, R.J. & Jones, M.C. (1999). An improved estimator of the
density function at the boundary. Journal of the American Statistical Association 94,
1231-1241.
[92] Zougab, N., Adjabi, S. & Kokonendji, C.C. (2012). Binomial kernel and Bayes local
bandwidth in discrete functions estimation. Journal of Nonparametric Statistics 24,
783-795.
[93] Zougab, N., Adjabi, S. & Kokonendji, C.C. (2013a). A Bayesian approach to band-
width selection in univariate associate kernel estimation. Journal of Statistical Theory
and Practice 7, 8-23.
[94] Zougab, N., Adjabi, S. & Kokonendji, C.C. (2013b). Adaptive smoothing in as-
sociated kernel discrete functions estimation using Bayesian approach. Journal of
Statistical Computation and Simulation 83, DOI : 10.1080/00949655.2012.686615.
[95] Zougab, N., Adjabi, S. & Kokonendji, C.C. (2013c). Bayesian approach in nonpa-
rametric count regression with binomial kernel. Communications in Statistics -
Simulation and Computation 42, DOI : 10.1080/03610918.2012.725145.

152 Francial G. Libengué


Bibliographie

153
Bibliographie

154 Francial G. Libengué


Annexe A

Programme sous R

A.1 Noyaux associés continus classiques


Nous présentons ici le code R pour la représentation graphique des noyaux clas-
siques sur un même graphique.

################################## Epanechnikov
epa=function(y){
T=rep(0,length(y));

{for (j in 1:length(y))

{if (y[j]>=-1 & y[j]<=+1)

{T[j]= (1-(abs(y[j]))^2)*(3/4)

}
}
}

return(T)
}

################################## biweigh
biweigh=function(y){
T=rep(0,length(y));
{for (j in 1:length(y))
{if (y[j]>=-1 & y[j]<=+1)
{T[j]= (15/16)*(1-((y[j]))^2)^2
}
}
}

return(T)

155
Annexe A. Programme sous R

####################################gaussien
gaussian=function(y){
T=rep(0,length(y));
{for (j in 1:length(y))
{if (y[j]>=-1 & y[j]<=+1)
{T[j]= (1/(2*pi))*exp(((-1)/2)*(y[j])^2)

}
}
}

return(T)
}

##################################uniforme
unif=function(h,y){
T=rep(0,length(y));
{for (j in 1:length(y))
{if (y[j]>=-1 & y[j]<=1) #
{T[j]= 1/2

}
}
}

return(T)
}

######################################"Graphiques
u=epa(h,y)
w=gaussian(h,y)
l=unif(h,y)
s=biweigh(h,y)
plot(y,s,type="l",lwd=2,col="red",xlab="x", ylab="density")
lines(y,u,type="l",lwd=2,col="green")
lines(y,l,type="l",lwd=2,col="magenta")
lines(y,w,type="l",lwd=2,col="blue")
legend("topright",c("Epanechnikov ","Gaussien","Uniforme",
"Biweigh"),lwd=2,col=c("red","green","magenta","blue"),inset = .02)

156 Francial G. Libengué


A.2. Noyaux associés continus non-classiques : bêta étendu

A.2 Noyaux associés continus non-classiques : bêta étendu

Nous présentons ici nos programmes concernant les différents noyaux associés
continus non-classiques construit par la méthode mode-dispersion plus particulière-
ment le cas du noyau bêta étendu qui n’est pas prédéfini dans R. Ici, nous faisons varier
a et b et nous construisons le type de noyau bêta étendu correspondant de la manière
suivante :

x=seq(2,5,0.01)
a=0.5
b=0.5
BE_1=(1/((beta(a,b))*(3^{(a+b-1)})))*((x-2)^{(a-1)})*((5-x)^{(b-1)})
a=5
b=1
BE_2=(1/((beta(a,b))*(3^{(a+b-1)})))*((x-2)^(a-1))*((5-x)^(b-1))
plot(x,BE_1,xlab="y",ylab="Beta(a,b;2,5)(y)",main="Type de noyau bêta
étendu",[Link]=1.5,[Link]=1.5,pch=".",lty=1,lwd=2,col="red")
lines(x, BE_2, lwd=2,lty=2,col="green")
op <- par(bg="white")
legend(2.7,1.8,c( "a=b=0.5","a=5,b=1"),
pch=c(".","."), lty=c(1,2),col=c("red","green"),lwd=c(2,2),cex = 1.5)

Après la construction par la méthode mode-dispersion, la représentation graphique


pour un réel x fixé est donnée à partir du programme suivant

x=2.8 #on fixe x


Vb=seq(2,5,0.01) # On fait varier l'aléatoire
h=0.1 #pour un bien h choisi
BE_1=(1/((beta(((x-2)/(3*h))+1,((5-x)/(3*h))+1))*(3^(a+b-1))))
*((Vb-2)^((x-2)/(3*h)))*((5-Vb)^((5-x)/(3*h)))

h=0.09 #pour un autre h bien choisi


BE_2=(1/((beta(((x-2)/(3*h))+1,((5-x)/(3*h))+1))*(3^(a+b-1))))
*((Vb-2)^((x-2)/(3*h)))*((5-Vb)^((5-x)/(3*h)))

plot(Vb,BE_1,xlab="y",ylab="Beta(x,h;2,5)",main="Noyau associé bêta


étendu pour x=2.7",[Link]=1.5,[Link]=1.5,pch=".",lty=1,lwd=2,col="red")
lines(Vb, BE_2, lwd=2,lty=2,col="green")
op <- par(bg="white")
legend(3.8,6000,c( "h=0.09","h=0.1"),
pch=c(".","."), lty=c(1,2),col=c("red","green"),lwd=c(2,2),cex = 1.5)

Le lecteur peut éventuellement fixer h puis faire varier x.

157 Francial G. Libengué


Annexe A. Programme sous R

A.3 Estimateurs à noyaux associés continus

A.3.1 Programme général d’estimation


Nous donnons ici le cas particulier d’estimateur à noyau gamma. Le lecteur peut
remplacer le noyau gamma par n’importe quels autres noyaux associés non-classiques.

Estimeteurs à noyau gamma

Est_Gam=function(V,x,h){
out=(1/length(V))*sum(dgamma(V,(x/h)+1,1/h))
out
}
V=rgamma(100,1.5,2.6)
x=1.5
h=0.025
test=Est_Gam(V,x,h)
test
x=seq(0,18,0.05)
F_est=0
for (i in 1:length(x)){
F_est[i]=Est_Gam(V,x[i],h)
}
F_est
f=dgamma(x,1.5,2.6)
plot(x,f,type="l")
lines(x,F_est,type="l",col="red")

Calcul de la constante de normalisation

############ Calcul de la constante ###########


y=runif(1000,0,1)
F_Est1=0
for (i in 1:length(y)){
F_Est1[i]=Est_Gam(V,18*y[i],h)}
#################################
cal_cte=function(alp, bet){
V=rgamma(100,alp, bet)
h=0.5
y=runif(1000,0.1,1)
F_Est1=0
for (i in 1:length(y)){
F_Est1[i]=Est_Gam(V,18*y[i],h)}
F_Est1=sum(F_Est1)
C1=(18/length(y))*F_Est1

158 Francial G. Libengué


A.3. Estimateurs à noyaux associés continus

C1}
Cte=0
alpV=c(1.5,1.9,2.3,2.5,2.8,3.1,3.4,3.7,4.1,4.5)
betV=c(2.6,2.8,2.9,3.5,3.9,4.5,4.7,5.2,5.7,6)
for (i in 1:length(alpV)){
Cte[i]=cal_cte(alpV[i],betV[i])}
Cte

A.3.2 Calcul général de Biais, Variance et MSE


Ici, nous désignons la densité f à estimer par la densité normale tronquée.

########## densité normale tronquée entre a et b############


sim_gauss_trq=function(n,mu,sig, a,b){
vec_sim=qnorm(pnorm(a,mu,sig)+(pnorm(b,mu,sig)-pnorm(a,mu,sig))
*runif(n,0,1),mu,sig)}
V1=sim_gauss_trq(50000,0,1,0,1)
V1
plot(sort(V1), dnorm(sort(V1), 0, 1), type="l",col="red") # Rep. graph.

##################### Calcul de biais ############################


Bias=function(A,B,x,h){
out0=((-(2*x))/(sqrt(2*pi)))
out1=exp(-((x^2)/2))
out2=((-2*(x+1))/(sqrt(2*pi)))
f1=out0*out1
f2=out2*out1
out=(A*f1)+((A^2)+B)*((f2)/2)
out}

#################### Calcul de la variance ########################


Var=function(K1,x,h){
y=runif(1000,0,1)
m=length(y)
f=(2/(sqrt(2*pi)))*exp(-(x^2)/2)
out0=(alph)/m
out1=(f/m)
out2=sum((K1)^2)
out=out0*out1*out2
out}

####################### Calcul du MSE #############################


MSEE=function(A,B,K,x,h){
out0=((Bias(A,B,x,h))^2)+Var(K,x,h)
mse=out0
mse}

159 Francial G. Libengué


Annexe A. Programme sous R

MSE=((Bias(A,B,x,h))^2)+Var(V,K1,x,h)
MSE

A.3.3 Cas particuliers


############ Lognormal mode-dispersion ########################
LN1=function(V,x,h){
out0=(1/(V*h*sqrt(2*pi)))
out1=(1/2)*(((1/h)*(log(V/x))-h)^2)
out2=exp(-out1)
out=out0*out2
out}

A1=x*(exp(((3/2)*(h^2))-1))
B1=(x^2)*(exp((3*(h^2))))*(exp(h^2)-1)
K1=LN1(V,x,h)

####################### Lognormal modifié #####################


LN2=function(V,x,h){
out0=(1/(V*h*sqrt(2*pi)))
out1=(1/2)*((((1/(2*h))*(2*log(V)-h^2))-((1/(h*alph))*(x*log(alph))))^2)
out2=exp(-out1)
out=out0*out2
out}

A2=((alph)^(x/alph))-x
B2=(exp(h^2)-1)*(exp(((2*x*log(alph))/alph)+(h^2)/2))
K2=LN2(V,x,h)

On peut éventuellement déduire la cas de lognormale de Jin & Kawczk (2003) à


partir de première version de lognormal.

####################### Gamma mode-dispersion ####################


A3=h
B3=x*h+h^2
K3=dgamma(V,(x/h)+1,h)

########################## Gamma modifié ###########################


A4=(x^2+2*(alph)*(h-x))/(2*(alph))
B4=(h*((x^2)+2*h*(alph)))/(2*(alph))
K4=dgamma(V,(((x^2)/(2*h*alph))+1),h,log=FALSE)

160 Francial G. Libengué


A.3. Estimateurs à noyaux associés continus

######################## Inverse Gamma mode-dispersion ###########


GI1=function(V,x,h){
out0=(1/(gamma((1/(x*h))-1)))
out1=(h^(1-(1/(x*h))))
out2=(V^(-(1/(x*h))))
out3=exp(-(1/(h*V)))
out=out0*out1*out2*out3
out}
A5=(2*(x^2)*h)/(1-2*x*h)
B5=(h*x^3)/(((1-2*x*h)^2)*(1-3*x*h))
K5=GI1(V,x,h)

######################### Inverse Gamma modifié ####################


GI2=function(V,x,h){
out0=(1/(gamma((x/(h*alph))+1)))
out1=(h^(-(x/(h*alph))-1))
out2=(V^(-(2+(x/(h*(alph)^2)))))
out3=exp(-(1/(h*V)))
out=out0*out1*out2*out3
out}
A6=((((alph)^2)-x^2)/x)
B6=(h*((alph)^6))/((x^2)*(x-h*((alph)^2)))
K6=GI2(V,x,h)

###################### Inverse Gaussien mode-dispersion #############


IG1=function(V,x,h){
out0=sqrt(1-3*x*h)
out1=(1/((sqrt(2*pi*h*(V^3)))))
out2=((out0)/(2*x*h))
out3=(((V*out0)/x)-2+(x/(V*out0)))
out4=exp(-out2*out3)
out=out1*out4
out}

A7=x*((1/(sqrt(1-3*x*h)))-1)
B7=((x^3)*h)/((1-3*x*h)^(3/2))
K7=IG1(V,x,h)

################# Inverse Gaussien modifié ########################


IG2=function(V,x,h){
out0=(1/((sqrt(2*pi*h*(V^3)))))
out1=(alph)/(2*(x^2)-(alph)^2)
out2=(out0/(2*h))
out3=(V/out1-2+(out1/V))
out4=exp(-out2*out3)
out=out0*out4

161 Francial G. Libengué


Annexe A. Programme sous R

out}
A8=(2*(x^2)-alph*(alph+x))/(alph)
B8=h*(((2*x^2-(alph)^2)^3)/((alph)^3))
K8=IG2(V,x,h)

################ Inverse Gaussien Rec. mode-dispersion ##########


GIR1=function(V,x,h){
out0=sqrt(x^2+x*h)
out1=(V/out0)-2+(out0/V)
out=(1/(sqrt(2*pi*h*V)))*exp(-(out0/(2*h))* out1)
out}
A9=(((x^2+x*h)^(1/2))-x+h)
B9=h*((((x^2)+x*h)^(1/2))+2*h)
K9=GIR1(V,x,h)

################ Rec. Inverse Gaussien modifié ##################


GIR2=function(V,x,h){
out0=(1/(sqrt(2*pi*h*V)))
out1=(alph)/(x^2-(alph)*h)
out1=((V*out1)-2+(1/(V*out0)))
out2=(out1)/(2*h)
out3=exp(-out2*out1)
out=out0*out3
out}

A10=(x*(x-alph*h))/(alph)
B10=(h*(x^2+h*(alph)))/(alph)
K10=GIR2(V,x,h)

############ Repr. graph. de MSE version mode-dispersion #########


x=seq(0.1,alph,0.001)
mse1=0
mse3=0
mse5=0
mse7=0
mse9=0
for(i in 1:length(x)){
print(i)
mse1[i]=MSEE(A1,B1,K1,x[i],h)
mse3[i]=MSEE(A3,B3,K3,x[i],h)
mse5[i]=MSEE(A5,B5,K5,x[i],h)
mse7[i]=MSEE(A7,B7,K7,x[i],h)
mse9[i]=MSEE(A9,B9,K9,x[i],h)}
mse1
mse3
mse5

162 Francial G. Libengué


A.3. Estimateurs à noyaux associés continus

mse7
mse9

plot(x,mse1,xlab="x",ylab="MSE(x)",ylim=c(0,1),type="l",lwd=2)
lines(x,mse3,type="l",lwd=2,col="red")
lines(x,mse5,type="l",lwd=2,col="blue")
lines(x,mse7,type="l",lwd=2,col="green")
lines(x,mse9,type="l",lwd=2,col="yellow")

######## Représentation graphique de MSE de la version modi fiée #######


x=seq(0.1,alph,0.001)
mse2=0
mse4=0
mse6=0
mse8=0
mse10=0
for(i in 1:length(x)){
print(i)
mse2[i]=MSEE(A1,B1,K1,x[i],h)
mse4[i]=MSEE(A3,B3,K3,x[i],h)
mse6[i]=MSEE(A5,B5,K5,x[i],h)
mse8[i]=MSEE(A7,B7,K7,x[i],h)
mse10[i]=MSEE(A9,B9,K9,x[i],h)}
mse2
mse4
mse6
mse8
mse10

pdf('msee_1.pdf')
plot(x,mse3,xlab="x",ylab="MSE(x)",ylim=c(0,1.1),main="MSE behaviors for
h=0.5",type="l",lwd=2)
lines(x,mse5,type="l",lwd=2,col="grey",lty=2)
lines(x,mse7,type="l",lwd=2,col="black",lty=3)
lines(x,mse9,type="l",lwd=2,col="grey",lty=4)
lines(x,mse1,type="l",lwd=2,col="black",lty=5)
legend(0.6,1.1,c("Gamma","Inverse gamma","Inverse gaussien","Inverse gaussien
réciproque","Lognormal"),lwd=c(2,2,1,1,2),lty=c(1,2,3,4,5),
c("black","grey","black","grey","black"))
[Link]()

A.3.4 Choix de h par la validation croisée

Le programme donné ici est dans le cas particulier du noyau bêta. Le lecteur peut
toutefois remplacer le noyau bêta un noyau non-classique de son choix tout en faisant

163 Francial G. Libengué


Annexe A. Programme sous R

attention au support de la densité à estimer.

############## Programme de validation croisée ###################


alp=2
beta=1.5
V=rbeta(200,alp,beta,ncp=0)###########
h=0.1#################### pour test
####################calcul de CV0 ################################
CV_0=function(x,h){
out=(1/length(V))*sum(dbeta(V,(x/h)+1, ((1-x)/h)+1, ncp=0,log = FALSE))}
test=CV_0(0.9,0.5)
test

##################### CV1 ###########################


y=runif(1000,0,1)
m=length(y)
m
CV_1=function(h){
b=0
for(i in 1:m){
print(i)
b[i]=CV_0(y[i],h)}
out1=(1/m)*sum(b[i]^2)
}
test=CV_1(h)
test

################### CV2 ######################


CV_2=function(h){
n=length(V)
a=0
b=matrix(0,nrow=n, ncol=n)

for(i in 1:length(V)){
b[i,]=dbeta(V, (V[i]/h)+1, ((1-V[i])/h)+1, ncp=0,log = FALSE)
a[i]=sum(b[i,])-dbeta(V[i],(V[i]/h)+1, ((1-V[i])/h)+1, ncp=0,log = FALSE)}
out=(2/(n*(n-1)))*sum(a)}
a=CV_2(h)
a

####################### CV final ####################


CV_3=function(h){
out=CV_1(h)-CV_2(h)}

##############optimisation avec durée ##############


hcv=function(){

164 Francial G. Libengué


A.4. Programme de simulation avec réplication : Cas de ISE

h_cv=optimize(CV_3, c(0.001, 1), tol = 0.005, maximum = FALSE)


}
hcv()
[Link](hcv())

h_cv=hcv()

h_cv=h_cv\$minimum
h_cv

################# Repr. graph. de CV #####################


h=seq(0.001,1,by=0.01)
CV=0
for(j in 1:length(h)){
print(j)
CV[j]=CV_3(h[j])}
CV
plot(h,CV, type="l")

A.4 Programme de simulation avec réplication : Cas de


ISE
Ce programme est un cas particulier de simulation avec réplication utilisant le
noyau bêta. Selon le besoin on peut remplacer le noau bêta par le noyau approprié.

####################### simulation avce réplication ###################


replic=function(n,Nsim,alph,bet){
n=100######################Taille de l'échantillon
Nsim=50 ############Nombre de simulation
Vsim=matrix(0,nrow=Nsim,ncol=n)
for (j in 1:Nsim){
Vsim[j,]=rbeta(n,alph,bet)}
Vsim}
Vsim=replic(100,50,1.5,2.5)
Vsim

################### Simulation de ISE #####################


Est_Bet=function(V,x,h){
out=(1/length(V))*sum(dbeta(V,(x/h)+1,((1-x)/h)+1),ncp=0,log=FALSE)
out}

######################## ISE ###############################


ISE=function(V,h){
u=runif(1000,0,1)

165 Francial G. Libengué


Annexe A. Programme sous R

out0=0
for (i in 1:length(u)){
out0[i]=Est_Bet(V,u[i],h)}
out0
out1=dbeta(u,1.5,2.5,ncp=0,log=FALSE)
out=mean((out1-out0)^2)}
test=ISE(Vsim[1,],0.05)
test
ISEsim=0
for(j in 1:Nsim){
ISEsim[j]=ISE(Vsim[j,],0.05)}
ISEsim

A.5 Estimateurs à noyaux associés mixtes


####################Calcul de l'indicatrice################
Ind_1=function(x,a,b){ifelse(x>=a & x<=b,1,0)}
a=2
b=5
x1=1
x2=3
Ind_1(x1,a,b)
Ind_1(x2,a,b)

E=6:20
Ind_2=function(X,E){ifelse(X%in%E,1,0)}
x3=4
x4=7
Ind_2(x3,E)
Ind_2(x4,E)

############# Calcul du noyau associé beta etendu ###############


h=0.25
x=2
BE_1=function(V,x,h){
out1=(1/((beta(((x-2)/(3*h))+1,((5-x)/(3*h))+1))))
out2=(((3^(a+b-1))))*((V-2)^((x-2)/(3*h)))
out3=((5-V)^((5-x)/(3*h)))
out=out1*out2*out3}

####################### Calculs des caractéritiques ############


A1=(2*h*(4-x))/(1+2*h)
B1=((-x^2)+7*x+9*h+9*(h^2)-10)/(((1+2*h)^2)*((1+3*h)))

####### Calcul du noyau de poisson triangulaire general ##########

166 Francial G. Libengué


A.5. Estimateurs à noyaux associés mixtes

############ Calcul de la constante de normalisation #############


D=function(h)
{out0=0
for (i in 1:6)
{out0=sum(i^h)
}
out1=0
for (i in 1:20)
{out1=sum(i^h)
}
out=27-(7^(-h))*out0+(21^(-h))*out1
}
test=D(0.5)
test

######################Noyau associé triangulaire general#########


y=12
E1=6:y
Ind_3=function(X,E1){ifelse(X%in%E1,1,0)}
x3=4
x4=7
Ind_3(x3,E1)
Ind_3(x4,E1)

E2=y:20
Ind_4=function(X,E2){ifelse(X%in%E2,1,0)}
x5=4
x6=7
Ind_4(x3,E2)
Ind_4(x4,E2)

DT=function(V,x,h)
{out0=(1/D(h))
out1=(1-((x-V)/7)^h)*Ind_3(x,E1)
out2=(1-((V-x)/7)^h)*Ind_4(x,E2)
out=out0*(out1+out2)
}
V=6:20
x=7
y=x
h=0.5
test=DT(V,x,h)
test

#########################Calcul des caractéristiques ##########


A2=function(h)

167 Francial G. Libengué


Annexe A. Programme sous R

{out0=0
for (i in 1:6)
{out0=sum(i^(h+1))
}
out1=0
for (i in 1:20)
{out1=sum(i^(h+1))
}
out=(1/D(h))*(189+7^(-h)*out0-(21^(-h))*out1)
}
test=A2(h)
test

B2=function(h)
{out0=0
for (i in 1:6)
{out0=sum(i^(h+2))
}
out1=0
for (i in 1:20)
{out1=sum(i^(h+2))
}
out=(1/D(h))*(2961+7^(-h)*out0-(21^(-h))*out1)
}
test=B2(h)
test

######################## Calcul de A_theta ######################


Att=0.65*A1*Ind_1(x,2,5)+0.35*A2(h)*Ind_2(x,E)
Att

Btt=0.65*B1*Ind_1(x,2,5)+0.35*B2(h)*Ind_2(x,E)
Btt

Astt=0.65*(A1^2)*Ind_1(x,2,5)+0.35*((A2(h))^2)*Ind_2(x,E)
Astt
########################Calcul des dérivee #####################
f1=(1/(sqrt(2*pi)))*exp((-1/2)*(x^2))*Ind_1(x,2,5)
f1

f11=(-x/(sqrt(2*pi)))*exp((-1/2)*(x^2))*Ind_1(x,2,5)
f11

f12=(((x^2)-1)/(sqrt(2*pi)))*exp((-1/2)*(x^2))*Ind_1(x,2,5)
f12

f2=function(x)

168 Francial G. Libengué


A.5. Estimateurs à noyaux associés mixtes

{(((lda)^x)/factorial(x))*exp(-lda)}
lda=3
f21=(f2(x+1)-f2(x-1))*Ind_2(x,E)
f21

f22=(1/2)*(f2(x+2)-2*f2(x+1)+2*f2(x)-2*f2(x-1)+f2(x-2))
f22

f_1=0.65*f11+.035*f21
f_2=0.65*f12+.035*f22

##########################Calcul de biais ##########################

Biaisfn=Att*f_1+(1/2)*(Astt+Btt)*f_2
####################################################################
x=2.5
V=6:20
y=x
h=0.5

Att=0.65*A1*Ind_1(x,2,5)+0.35*A2(h)*Ind_2(x,E)
Att

Btt=0.65*B1*Ind_1(x,2,5)+0.35*B2(h)*Ind_2(x,E)
Btt

Astt=0.65*(A1^2)*Ind_1(x,2,5)+0.35*((A2(h))^2)*Ind_2(x,E)
Astt

Biaisfn=Att*f_1+(1/2)*(Astt+Btt)*f_2
Biaisfn

################################################################
x=4.5
V=6:20
y=x
h=0.5

Att=0.65*A1*Ind_1(x,2,5)+0.35*A2(h)*Ind_2(x,E)
Att

Btt=0.65*B1*Ind_1(x,2,5)+0.35*B2(h)*Ind_2(x,E)
Btt

Astt=0.65*(A1^2)*Ind_1(x,2,5)+0.35*((A2(h))^2)*Ind_2(x,E)
Astt

169 Francial G. Libengué


Annexe A. Programme sous R

Biaisfn=Att*f_1+(1/2)*(Astt+Btt)*f_2
Biaisfn

##################################################################
x=7
V=6:20
y=x
h=0.5

Att=0.65*A1*Ind_1(x,2,5)+0.35*A2(h)*Ind_2(x,E)
Att

Btt=0.65*B1*Ind_1(x,2,5)+0.35*B2(h)*Ind_2(x,E)
Btt

Astt=0.65*(A1^2)*Ind_1(x,2,5)+0.35*((A2(h))^2)*Ind_2(x,E)
Astt

Biaisfn=Att*f_1+(1/2)*(Astt+Btt)*f_2
Biaisfn

##################################################################
x=19
V=6:20
y=x
h=0.5

Att=0.65*A1*Ind_1(x,2,5)+0.35*A2(h)*Ind_2(x,E)
Att

Btt=0.65*B1*Ind_1(x,2,5)+0.35*B2(h)*Ind_2(x,E)
Btt

Astt=0.65*(A1^2)*Ind_1(x,2,5)+0.35*((A2(h))^2)*Ind_2(x,E
Astt

Biaisfn=Att*f_1+(1/2)*(Astt+Btt)*f_2
Biaisfn

########################## Calcul de variance #####################


lda=3
Varfn1=function(x,h,n1,n2)
{
out0=2*(sqrt((x-2)*(5-x)*(pi)*h*n1))
out1=(1.2675*f1)*Ind_1(x,2,5)
out=(out0/out1)
}

170 Francial G. Libengué


A.5. Estimateurs à noyaux associés mixtes

Varfn2=function(x,h,n1,n2)
{out2=(0.1225)*(1-f2(x))*f2(x)*Ind_2(x,E)
out3=((D(h))^2)*n2
out=(out2/out3)
}
Varfn=Varfn1(x,h,n1,n2)+varfn2(x,h,n1,n2)

########################## Calcul du AMSE ######################


AMSE=(Biaisfn)^2+Varfn

171 Francial G. Libengué


Résumé
Nous présentons dans cette thèse, l'approche non-paramétrique par noyaux associés mixtes, pour les densités à
supports partiellement continus et discrets. Nous commençons par rappeler d'abord les notions essentielles d'estimation
par noyaux continus (classiques) et noyaux associés discrets. Nous donnons la définition et les caractéristiques des
estimateurs à noyaux continus (classiques) puis discrets. Nous rappelons aussi les différentes techniques de choix de
paramètres de lissage et nous revisitons les problèmes de supports ainsi qu'une résolution des effets de bord dans le cas
discret. Ensuite, nous détaillons la nouvelle méthode d'estimation de densités par les noyaux associés continus, lesquels
englobent les noyaux continus (classiques). Nous définissons les noyaux associés continus et nous proposons la
méthode mode-dispersion pour leur construction puis nous illustrons ceci sur les noyaux associés non-classiques de la
littérature à savoir bêta et sa version étendue, gamma et son inverse, gaussien inverse et sa réciproque le noyau de
Pareto ainsi que le noyau lognormal. Nous examinons par la suite les propriétés des estimateurs qui en sont issus plus
précisément le biais, la variance et les erreurs quadratiques moyennes ponctuelles et intégrées. Puis, nous proposons un
algorithme de réduction de biais que nous illustrons sur ces mêmes noyaux associés non-classiques. Des études par
simulations sont faites sur trois types d’estimateurs à noyaux lognormaux. Par ailleurs, nous étudions les
comportements asymptotiques des estimateurs de densité à noyaux associés continus. Nous montrons d'abord les
consistances faibles et fortes ainsi que la normalité asymptotique ponctuelle. Ensuite nous présentons les résultats des
1
consistances faibles et fortes globales en utilisant les normes uniformes et L . Nous illustrons ceci sur trois types
d’estimateurs à noyaux lognormaux. Par la suite, nous étudions les propriétés minimax des estimateurs à noyaux
associés continus. Nous décrivons d'abord le modèle puis nous donnons les hypothèses techniques avec lesquelles nous
travaillons. Nous présentons ensuite nos résultats minimax tout en les appliquant sur les noyaux associés non-classiques
bêta, gamma et lognormal. Enfin, nous combinons les noyaux associés continus et discrets pour définir les noyaux
associés mixtes. De là, les outils d'unification d'analyses discrètes et continues sont utilisés, pour montrer les différentes
propriétés des estimateurs à noyaux associés mixtes. Une application sur un modèle de mélange des lois normales et de
Poisson tronquées est aussi donnée. Tout au long de ce travail, nous choisissons le paramètre de lissage uniquement
avec la méthode de validation croisée par les moindres carrés.
Mots clés : Convergence, Densité mixte, Échelles de temps, Effet de bords, Estimation non-paramétrique
par noyau, Modèle de mélange, noyau uni-modal, Paramètre de dispersion, Validation croisée

Abstract
We present in this thesis, the non-parametric approach using mixed associated kernels for densities with
supports being partially continuous and discrete. We first start by recalling the essential concepts of classical continuous
and discrete kernel density estimators. We give the definition and characteristics of these estimators. We also recall the
various technical for the choice of smoothing parameters and we revisit the problems of supports as well as a resolution
of the edge effects in the discrete case. Then, we describe a new method of continuous associated kernels for estimating
density with bounded support, which includes the classical continuous kernel method. We define the continuous
associated kernels and we propose the mode-dispersion for their construction. Moreover, we illustrate this on the non-
classical associated kernels of literature namely, beta and its extended version, gamma and its inverse, inverse Gaussian
and its reciprocal, the Pareto kernel and the kernel lognormal. We subsequently examine the properties of the estimators
which are derived, specifically, the bias, variance and the pointwise and integrated mean squared errors. Then, we
propose an algorithm for reducing bias that we illustrate on these non-classical associated kernels. Some simulations
studies are performed on three types of estimators lognormal kernels. Also, we study the asymptotic behavior of the
continuous associated kernel estimators for density. We first show the pointwise weak and strong consistencies as well
as the asymptotic normality. Then, we present the results of the global weak and strong consistencies using uniform and
L1 norms. We illustrate this on three types of lognormal kernels estimators. Subsequently, we study the minimax
properties of the continuous associated kernel estimators. We first describe the model and we give the technical
assumptions with which we work. Then we present our results that we apply on some non-classical associated kernels
more precisely beta, gamma and lognormal kernel estimators. Finally, we combine continuous and discrete associated
kernels for defining the mixed associated kernels. Using the tools of the unification of discrete and continuous analysis,
we show the different properties of the mixed associated kernel estimators. All through this work, we choose the
smoothing parameter using the least squares cross-validation method.
Keywords: Asymmetric kernel, Boundary effect, Convergence, Cross-validation, Dispersion parameter,
Mixed density, Mixture model, Nonparametric kernel estimation, Time-scales, Unimodal kernel

Mathematics Subject Classification: 62G07, 62G20, 62G99, 62E15

Vous aimerez peut-être aussi