0% ont trouvé ce document utile (0 vote)
78 vues94 pages

Ds Math Derrar Saliha

Transféré par

fatima.elzahraslimani
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
78 vues94 pages

Ds Math Derrar Saliha

Transféré par

fatima.elzahraslimani
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

REPUBLIQUE ALGERIENNE DEMOCRATIQUE ET POPULAIRE

MINISTERE DE L'ENSEIGNEMENT SUPERIEUR ET DE LA


RECHERCHE SCIENTIFIQUE

UNIVERSITÉ DJILLALI LYABES


Faculté des sciences

THÈSE DE DOCTORAT 3ÈME CYCLE


EN : MATHEMATIQUES
Spécialité : Probabilités et Statistiques

Par
Saliha DERRAR
Titre

Estimation Robuste De La
Fonction De Régression Pour Un
Modèle Tronqué Aléatoirement À
Gauche À Co-variables
Fonctionnelles

Soutenu publiquement le ../11/2016, devant le jury composé de :

M E. OULD SAÏD MCF-HDR Univ. Littoral, France Encadreur


M A. LAKSACI Professeur Univ. Sidi Bel-Abbès Co-Encadreur
M A. GHERIBALLAH Professeur Univ. Sidi Bel-Abbès Président
M A. TATACHAK Professeur U.S.T.H.B Examinateur
M M. ATTOUCH Maître de Conférence Univ. Sidi Bel-Abbès Examinateur
À mes parents, à mon époux

et à ma chère petite Tasnim.


Remerciements

Mes premiers remerciements vont naturellement à mes directeurs de thèse les Pro-
fesseurs Elies Oul Saïd et Ali Laksaci pour leur encadrement et leurs encou-
ragements durant toute la période de la réalisation de ce travail malgré toutes leurs
occupations. Merci pour leur disponibilité, leur grande patience et leur convivialité
tout au long de ces années.
Je remercie vivement Monsieur le Professeur Abdelkader Gheriballah de me faire
l'honneur de présider ce jury, malgré ses nombreuses responsabilités.
Je remercie chaleureusement Monsieur Abdelkader Tatachak de l'université d'Alger
(U.S.T.H.B) pour l'interêt qu'il a porté à mon travail en acceptant de faire partie du
jury.
Je tiens à exprimer ma sincère reconnaissance à Monsieur Mohammed Kadi Attouch
pour l'honneur qu'il m'a fait en acceptant d'être examinateur de mon travail.
A titre plus personnel, un grand merci aux membres de ma famille, plus particuliè-
rement mes parents qui ont toujours cru en moi, m'ont constamment encouragée et
soutenue tout au long de mes années d'études. Je ne saurai passer sous silence l'apport
inestimable des autres membres de ma famille (frères, beaux parents, etc.) qui m'ont
soutenue, de près ou de loin durant mes études doctorales.
Les mots me manquent pour remercier, à sa juste valeur mon époux, pour ses encou-
ragements et son soutien perpétuel et réconfortant, je ne pourrais nir mes remer-
ciements sans une pensée très personnelle à ma chère lle pour laquelle je dédie ce
travail. Merci ma famille, je n'aurais rien fait de tout cela sans votre amour.
Je ne citerai pas, mais ils se reconnaitront, tous mes amies et collègues, qui m'ont
soutenu. Je leur en suis reconnaissante.
Résumé

La régression robuste est une approche statistique sur la régression qui admet un
comportement insensible aux observations aberrantes (atypiques, données tronquées).
Nous nous intéressons plus particulièrement dans cette thèse à l'étude de l'estimation
robuste de la fonction de régression dans laquelle la variable réponse est tronquée à
gauche par une autre variable aléatoire tandis que la variable explicative est fonc-
tionnelle, c'est à dire à valeurs dans un espace de dimension innie. Notre étude
porte sur des données indépendantes identiquement distribuées (i.i.d.) ainsi que sur
des données fortement mélangeantes. Nous rappelons certains résultats établis sur le
comportement asymptotique de quelques estimateurs non paramétriques robustes de
la fonction de régression, dans le cas où les données sont complètement observées,
dans le cas de données incomplètes et dans le cas où les co-variables appartiennent à
un espace de dimension nie ou innie.
Dans un premier temps, nous supposons que les variables sont i.i.d., et nous présentons
des travaux sur la M-estimation de la fonction de régression dans le cas de données
tronquées aléatoirement à gauche et dans la présence de co-variables fonctionnelles.
Nous illustrons les résultats obtenus (consistance et normalité asymptotique) par des
simulations pour montrer les performances des estimateurs proposés.
Dans un second temps, nous supposons que les variables sont fortement mélangeantes
et nous établissons la convergence presque complète avec taux de convergence de notre
estimateur .
Autant que l'on sache le problème de l'estimation non paramétrique robuste de la
régression pour des données fonctionnelles dans la présence de données incomplètes
n'a jamais été abordé, d'où l'originalité et la nouveauté de l'étude menée dans cette
thèse.
Mots-clés : Normalité asymptotique , données fonctionnelles, estimateur à noyau,
estimateur de Lynden-Bell , estimation robuste, probabilités de petites boules, conver-
gence presque complète, données tronquées.
Abstract

The robust regression is a statistical approach of regression which admits an insensi-


tive behavior to outliers (atypical , trucated data). We are interested especially in this
thesis to study the robust estimate of the regression function in which the response
variable is left truncated by another random variable and the explanatory variable is
functional i.e. with values in an innite dimensional space.
Our study focuses on independent identically distributed data ( i.i.d. ) and on stron-
gly mixing data. We recall some results established on asymptotic propriety of some
robust nonparametric estimators of the regression function in the case of completely
observed data, and for incomplete data also in the case where the covariates are in a
nite-dimensional space or innite-dimensional space.

Firstly, we assume that the variables are i.i.d. , and we present our results on the
M- estimation of the regression function in the case of left-truncated random data
and in the presence of functional covariates. We illustrate the results (consistency
and asymptotic normality) by simulations to show the performance of the proposed
estimator.

Secondly , we suppose that the variables are strongly mixing and we establish the
almost complete convergence with rates of convergence of our estimator.
As far as we know the problem of nonparametric robust estimation of regression for
functional data in the presence of incomplete data was never been approached , hence
the originality and novelty of the study conducted in this thesis.
key-words : Asymptotic normality, functional data, Kernel estimator, Lynden-Bell
estimator, robust estimation, small balls probability, almost complete convergence ,
truncated data.
Liste des travaux

Publications

1. Derrar, S., A. Laksaci and Ould Saïd, E. (2015). On the nonparametric estima-
tion of the functional ψ -regression for a random left-truncation model. Journal
of statistical Theory and Practice, 9, 823-849.
2. Derrar, S., A. Laksaci and Ould Saïd, E. M -estimation of the regression func-
tion under random left truncation and functional time series model. Eletronic
Journal of statistics. Soumis
Communications internationales
1. Derrar, S., A. Laksaci and Ould Saïd, E. On the nonparametric estimation
of the functional ψ -regression for a random left-truncation model. Colloque
Internationale de statistiques et ses applications (ICSA2015) du 06 au 07 Mai
2015, Saida, Algérie.
2. Derrar, S., A. Laksaci and Ould Saïd, E. On the nonparametric estimation
of the functional ψ -regression for a random left-truncation model. Journée de
statistique, le 10 avril 2016, Biskra, Algérie.
3. Derrar, S., A. Laksaci and Ould Saïd, E. On the nonparametric estimation
of the functional ψ -regression for a random left-truncation model. Conférence
internationale de probabilité et Statistique (MICPS-2016) du 25 au 28 avril,
Merrakech, Maroc.
Table des matières

1 Introduction 8
1.1 Statistique non paramétrique fonctionnelle pour des données complètes 8
1.2 Données incomplètes . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.1 Durée de vie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.2 Censure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.3 troncature . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.4 Troncature à gauche . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.5 Troncature à droite . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3 la statistique non paramétrique robuste pour des données incomplètes :
Motivations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4 Estimation de la fonction de régression . . . . . . . . . . . . . . . . . 13
1.5 Description de la thèse . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.6 Présentation des résultats obtenus . . . . . . . . . . . . . . . . . . . . 15
1.6.1 Notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

2 Estimation nonparamétrique robuste 22


2.1 Les M−estimateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.2 Exemples de M−estimateurs . . . . . . . . . . . . . . . . . . . . . . . 23
2.2.1 Estimateur biweight . . . . . . . . . . . . . . . . . . . . . . . 23
2.2.2 Estimateur de Huber . . . . . . . . . . . . . . . . . . . . . . . 23
2.2.3 Estimateur de Andrew . . . . . . . . . . . . . . . . . . . . . . 23
2.2.4 Le choix de la fonction objective . . . . . . . . . . . . . . . . . 23
2.3 La régression robuste : Cas de dimension nie . . . . . . . . . . . . . 24
2.3.1 Pour des données complètes . . . . . . . . . . . . . . . . . . . 24
2.3.2 Pour des données incomplètes . . . . . . . . . . . . . . . . . . 24
2.4 La régression robuste : Cas de dimension innie . . . . . . . . . . . . 26
2.4.1 Pour des données complètes . . . . . . . . . . . . . . . . . . . 26
2.4.2 Pour des données incomplètes . . . . . . . . . . . . . . . . . . 28
TABLE DES MATIÈRES 7

3 Convergence presque complète et normalité asymptotique : Cas iid 29


3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.2 Presentation of model and estimators . . . . . . . . . . . . . . . . . . 32
3.3 Main results . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.3.1 Consistency . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.3.2 Asymptotic normality . . . . . . . . . . . . . . . . . . . . . . 36
3.4 Special cases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.4.1 Comeback to complete data . . . . . . . . . . . . . . . . . . . 37
3.4.2 Comeback to classical regression case . . . . . . . . . . . . . . 37
3.4.3 Comeback to real case . . . . . . . . . . . . . . . . . . . . . . 38
3.5 Simulation study . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.5.1 Consistency . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.5.2 Asymptotic normality . . . . . . . . . . . . . . . . . . . . . . 47
3.6 Appendix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

4 Convergence presque complète : Cas α-mélange 65


4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
4.2 Construction of the estimate and background for truncation model . . 69
4.3 Hypotheses and results . . . . . . . . . . . . . . . . . . . . . . . . . 70
4.4 Appendix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73

5 Conclusion et perspectives 89
5.1 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
5.2 Perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
Chapitre 1

Introduction

1.1 Statistique non paramétrique fonctionnelle pour


des données complètes
La statistique pour des données fonctionnelles complètes ou analyse des données fonc-
tionnelles étudie des observations qui sont des courbes aléatoires ou des surfaces.
L'utilisation de ce type de données est devenue trés fréquente avec l'automatisa-
tion et l'informatisation des procédures de mesure et leurs capacités de stockage. En
concéquence, la littérature consacrée à l'étude de données fonctionnelle s'est consi-
dérablement développée, les courbes de croissance, les enregistrements sonores, les
images satellites, les séries chronologiques, les courbes spectrométriques ne sont que
quelques exemples illustrant le grand nombre et la diversité des données de nature
fonctionnelle. Historiquement, les premières contributions sur la modélisation par la
régression ont été consacrées à l'étude des modèles paramétriques (voir les mono-
graphes de Ramsay et Silverman (1997, 2002, 2005) pour le cas i.i.d ou Bosq (2000)
pour le cas dépendant). Cardot et al... (1999) ont construit un estimateur pour le
modèle de régression linéaire Hilbertien en utilisant l'analyse en composantes princi-
pales fonctionnelles. Cet estimateur est construit à l'aide des propriétés spectrales de
la version empirique de l'opérateur de variance−covriance de la variable explicative
fonctionnelle. En ce qui concerne le cas non paramétrique et dans le cas des espaces
de Banach on peut citer Lecoutre (1990). par la suite, il y a les travaux de Ferraty
et Vieu (2000), étendus en (2002) au cas non standard de la régression telle la pré-
vision en séries chronologiques. En utilisant le développement récent de la théorie
des probabilités des petites boules, Ferraty et Vieu (2003) ont obtenu des résultats
très ns et qui orent une solution originale pour le problème de éau de la dimen-
sion. Niang et Rhomari (2004) ont utilisé cet estimateur de la régression pour établir
la convergence en norme Lp , une application à la discrimination des courbes a été
proposée par ces auteurs. Masry (2005), a étudié la normalité asymptotique de l'esti-
1.2 Données incomplètes 9

mateur de la régression dans le cas dépendant. L'ouvrage de Ferraty et Vieu (2006)


constitue une contribution de référence en la matière et fournit de plus amples détails
concernant le comportement asymptotique des estimateurs à noyau pour plusieurs
modèles fonctionnels à savoir la régression, le mode (avec ou sans conditionnement),
la médiane (avec ou sans conditionnement) ainsi que les quantiles conditionnels. No-
tons, que cet ouvrage contient aussi de nombreux exemples de problèmes concret
pour lesquels les données sont de nature fonctionnelle. Nous renvoyons à Ferraty et
al.. (2007) pour des résultats précurseurs sur la vitesse de convergence asymptotique
exacte en norme L2 . En utilisant ce résultat, Rachdi et Vieu (2007) construit un cri-
tère de choix automatique du paramètre de lissage pour l'estimateur à noyau de la
fonction de régression à co-variables fonctionnelles. Récemment, Delsol (2007) géné-
ralise au cas dépendant les résultats de Ferraty et al... (2007) en donnant les termes
asymptotiques dominants des moments centrés et des erreurs Lq de l'estimateur à
noyau de la fonction de régression. Benhenni et al... (2007) ont établi la consistance
de l'estimateur de la fonction de régression pour des co-variables fonctionnelles sous
conditions de longue mémoire. Tandis que Burba et al... (2008) se sont intéressés à
l'estimation de la régression via la méthode des k plus proches voisins (kNN), ils ont
obtenu la convergence presque complète de l'estimateur construit. Un des premiers
articles sur les modèles non paramétriques conditionnels avec variables explicatives
fonctionnelles fût celui de Ferraty et al... (2006). Nous renvoyons à Ferraty et al..
(2005) pour l'utilisation de ces modèles conditionnels fonctionnels à la prévision des
séries temporelles fonctionnelles. Ezzahrioui et Ould-Saïd (2006, 2008a, 2008b, 2008c)
et Niang et Laksaci (2007, 2008) ont une contribution déterminante dans ce domaine.
Le lecteur pourra également se rapporter au travail de Manteiga et Vieu ( 2007).Et la
contribution de Ferraty et al..(2014) pour une bibliographie récente et exhaustive en
la matière. Récemment, des estimateurs robustes ont été considérés pour des modèles
avec données fonctionnelles. nous développerons ce point dans le paragraphe 3.

1.2 Données incomplètes


1.2.1 Durée de vie

Un modèle de survie est un modèle basé sur des durées de vie. Une durée de vie est une
variable aléatoire (va) souvent positive, précisément c'est le temps nécessaire de passer
d'un état A à un état B. Le terme de durée de vie est employé de manière générale pour
désigner le temps qui s'écoule jusqu'à la survenue d'un événement particulier qui n'est
pas forcément la mort : par exemple, le délai de rémission d'une maladie (temps écoulé
entre le début du traitement et la rechute), le délai de guérison (temps qui sépare le
diagnostic de la guérison) ou encore le délai de panne (durée de fonctionnement d'une
machine, en abilité) etc...Lorsque les durées de vie sont observées dans leur totalité,
1.2 Données incomplètes 10

on parle de données complètes, dans le cas contraire, les données sont incomplètes et
nécessitent un traitement statistique particulier, si la durée de vie d'un individu n'est
observable que dans une période donnée, on parle de censure. Il s'agit de troncature,
si l'individu doit survivre longtemps pour être observé. La littérature est beaucoup
plus riche en ce qui concerne la censure que la troncature qui est plus récente. Dans
cette thèse, nous nous intéressons particulièrement, à la troncature gauche qui est le
cadre dans le quel nous avons apporté une certaine contribution.

1.2.2 Censure

Dénition 1.2.1 Soit Y la variable d'intérêt, si au lieu d'observer Y on observe une


constante C et si on sait que Y > C , on dira alors qu'il y a censure à droite.

Il arrive souvent que la constante de censure soit elle même une variable aléatoire,
dans ce cas, on parle de censure aléatoire à droite et on a :

Dénition 1.2.2 Etant donnée une variable aléatoire Y, on dit qu'il y a censure
aléatoire à droite s'il existe une variable aléatoire C, telle qu'au lieu d'observer Y on
observe :
{(Z, δ) où Z = min(Y, C), δ = 1IY ≤C }

1.2.3 troncature

Le modèle de troncature est apparu tout d'abord en astronomie, mais il est observé
dans plusieurs domaines comme la médecine, l'épidémiologie, la biométrie et l'éco-
nomie. La recherche d'objets cachés qui devront être assez grand pour être détectés,
comme les réserves de pétrole est un champ d'application pour les données tronquées.
De plus, les enquêtes de suivi médical où la troncature gauche peut apparaître si le
temps d'origine de la durée de vie précède le temps d'origine de l'étude.

Dénition 1.2.3 Soit Y la variable d'intérêt et T une autre variable aléatoire, si Y


et T sont observables seulement si Y > T , et sinon rien n 'est observable, on dira
que la variable Y est aléatoirement tronquée à gauche par la variable de troncature T.
Dans le cas contraire, on parle de troncature aléatoire à droite.

1.2.4 Troncature à gauche

En cas de troncature gauche, nous ne sommes capable d'observer que les durées de vie
Y pour les quelles Y ≥ T ; ici T est la variable de troncature. Un exemple de troncature
à gauche concerne la durée de vie des retraités. On enregistre l'âge au décès et l'âge
d'entrée au centre. Un individu donné, doit vivre susamment longtemps pour être
parmi la communauté du centre de retraite, et s'il décède avant, il y a troncature à
1.3 la statistique non paramétrique robuste pour des données
incomplètes : Motivations 11

gauche. La durée de vie d'une population est étudiée à partir d'une cohorte tirée au
sort dans cette population, seule la survie des sujets vivants à l'inclusion pourra être
étudiée (il y a troncature à gauche car seuls les sujets ayant survécu jusqu'à la date
d'inclusion dans la cohorte sont observables).
Dans ce cas, nous disposons d'un échantillon de taille n, dont la variable d'intérêt
Y est observable, cet échantillon est extrait d'un échantillon de plus grand taille N
inconnue.
La proportion de la population avec laquelle nous pouvons disposer d'une observa-
tion joue un rôle important en estimation sous troncature. Cette probabilité notée
τ = P (Y ≥ T ) pourrait être estimée par la quantité Nn mais malheureusement cet
estimateur ne peut pas être calculé, car N est inconnue et la taille n de l'échantillon
observé est elle-même une variable aléatoire de loi binomiale B(N, τ ). En utilisant des
estimateurs produit-limites de Lynden-Bell (1971), He et Yang (1998) donnent un es-
timateur calculable de τ . Ainsi que des résultats de convergence asymptotique dont
la normalité. Des résultats asymptotiques ont été obtenus pour certains estimateurs
et predicteurs pour des données incomplètes (sous troncature ou censure). Rappe-
lons les travaux de Ould Saïd et Lemdani (2006) pour la fonction de régression sous
troncature, Ould Saïd et Sadki (2008) concernant les quantiles conditionnels dans un
modèle de censure à droite, Ould Saïd et Tatachak (2009) pour le mode conditionnel
sous troncature à gauche et nalement Lemdani et al.. (2009) ont étudié la fonction
des quantiles conditionnels pour des données tronquées mais dans le cas de variables
indépendantes et identiquement distribués (i.i.d.).

1.2.5 Troncature à droite

seuls les individus avec une duré de vie inférieure à un certain seuil d'événement sont
inclus dans l'étude. A titre d'exemple , si vous demandez à un groupe de lycéens
fumeurs à quel âge ils ont commencé à fumer , vous avez nécessairement des données
tronquées , que les personnes qui commencent à fumer après avoir quitté l'école ne
sont pas inclus dans l'étude. Un autre exemple de troncature à droite survient dans
l'estimation de la distribution des étoiles à partir de la terre. Les étoiles très lointaines
ne sont pas visibles, et par conséquent, il y a troncature à droite.

1.3 la statistique non paramétrique robuste pour des


données incomplètes : Motivations
La robustesse traduit le plus souvent la résistance de l'estimation aux données aber-
rantes, on dénit les données aberrantes mathématiquement par le plus petit nombre
de données extrêmes qui modie la valeur de l'estimation ramené à la taille de l'échan-
tillon. Historiquement, le terme robuste a été pour la première fois introduit en sta-
1.3 la statistique non paramétrique robuste pour des données
incomplètes : Motivations 12

tistique par G.E.P. Box en 1953. L'estimation robuste de la fonction de régression a


connu un réel essor en statistique non paramétrique, il s'agit d'un domaine qui a été
popularisé par Huber (1964) dont il a obtenu la consistance et la normalité asympto-
tique d'une classe d'estimateurs pour cette fonction. Robinson (1984), Härdle (1984)
et Härdle et Tsybakov (1989) ont établi sous des conditions de mélange la normalité
asymptotique d'une famille d'estimateurs a pondération issue de la méthode du noyau
pour la fonction de régression. La convergence uniforme de l'estimateur robuste de la
fonction de régression a été obtenu par Collomb et Härdle (1986) en considérant des
observations α−mélangeantes. Laïb et Ould-Saïd (2000) ont adapté l'estimateur de
Collomb et Härdle (1986) pour le modèle d'auto-régression d'un processus stationnaire
ergodique. Cai et Ould-Saïd (2003) ont utilisé une version robuste de l'estimation par
la méthode des polynômes locaux pour la fonction de la régression. Durant ces der-
nières années, l'utilisation des données fonctionnelles est devenue très fréquente car
cela ore un énorme potentiel en terme d'applications, notamment, en imagerie, en
agro-alimentaire, en reconnaissance de formes, en géophysique, en économétrie, en
environnement. Grâce au progrès technologique, les techniques inni-dimensionnelles
sont maintenant plus puissantes, et la quantité des informations collectées devient
volumineuse, ce qui peut engendrer un risque de mauvaise spécication de la rela-
tion entre les observations. La régression robuste présente une approche alternative
aux méthodes de régression classiques qui sont sensibles à ce type d'erreurs qui pro-
viennent d'une mauvaise lecture ou lorsque qu'on ne peut observé qu'une partie de
données et non pas la totalité dans un modèle de survie pour des données incomplètes
ou d'un mauvais enregistrement ou de toute autre cause du à l'environnement expé-
rimental. La littérature sur la statistique fonctionnelle robuste pour des modèles de
survie est très restreinte. En eet, les premiers résultats conséquents dans le domaine
des données complètes ont été fournis par Cadre (2001). Ce dernier a étudié l'esti-
mation de la médiane de la distribution d'une variable aléatoire à valeurs dans un
espace de Banach. Azzedine et al.. (2008) ont étudié la convergence presque complète
d'une famille d'estimateurs robustes basée sur la méthode du noyau, en considérant
des observations indépendantes. La vitesse de convergence en norme Lp fait l'objet
d'un travail de Crambes et al. (2008) en considérant les deux types d'observations
indépendantes et α-mélangeantes, Attouch et al. . (2009, 2010, 2012)ont établie la
convergence presque complète ponctuelle et uniforme d'une famille d'estimateurs ro-
bustes basée sur la méthode du noyau, ainsi que la normalité asymptotique.
Une des caractéristiques des données de survie est l'existence d'observations incom-
plètes. En eet, les données sont souvent recueillies partiellement, notamment, à cause
des processus de censure et de troncature. Les données censurées ou tronquées pro-
viennent du fait qu'on n'a pas accès à toute l'information : au lieu d'observer des
réalisations indépendantes et identiquement distribuées (i.i.d.) de durées X, on ob-
serve la réalisation de la variable X soumise à diverses perturbations, indépendantes
ou non du phénomène étudié, ce type de problème est réglé par la robustesse ce qui
1.4 Estimation de la fonction de régression 13

motive notre travail. La littérature en ce domaine est très restreinte dans le cas inni
on peut citer Hellal et Ould said(2016) qui ont étudié l'estimateur à noyau du quantile
conditionnel pour des données tronquées à gauche pour des régresseurs fonctionnels,
dans le cas de régresseurs en dimension nie Wang et Liang (2012), ils ont construit un
M-estimateur de la fonction de régression pour un modèle tronqué à gauche quand les
données sont dépendantes et ont établi la convergence faible et forte de l'estimateur
ainsi la normalité asymptotique.

1.4 Estimation de la fonction de régression


Le problème de l'estimation en utilisant la régression a une longue histoire comme
l'atteste la littérature. Déjà en 1632, Galileo Galilei utilisa une procédure qui peut
être interprétée comme étant un ajustement linéaire de données contaminées. Un tel
ajustement d'un nuage de points par une droite est le principe du problème classique
de la régression linéaire. Une solution à ce problème est fournie par le célèbre principe
des moindres carrés, mis en oeuvre indépendamment par A. M. Legendre et C. F.
Gauss, et publié en (1805) et (1809), respectivement. Le premier estimateur de la
régression non paramétrique de type "local averaging" a été proposé par J. W. Tukey
(1947). Parmi les principaux estimateurs on rappelle l'estimateur de Nadaraya (1964)
et Watson (1964)  
Σni=1 Yi Kd x−X
hn
i

rbn (x) :=  
Σni=1 Kd x−X
hn
i

L'étude de modèles de régression adaptés à des données fonctionnelles est un do-


maine important de la statistique fonctionnelle, que certaines situations ont été plus
étudiées que d'autres et qu'il reste encore de nombreuses questions ouvertes. Au cours
des années, des modèles fonctionnels plus généraux ont été proposés. De nombreux
travaux se sont intéressés au modèle général dans lequel on ne fait pas d'hypothèse sur
la forme de l'opérateur de régression mais seulement sur sa régularité. Les premiers
résultats ont été obtenus à partir de l'étude d'un estimateur généralisé introduit par
Ferraty et Vieu (2000). Pour tout x de F il s'ecrit de la manière suivante
 
Σni=1 Yi K d(x,X
hn
i)

rbn (x) :=   .
Σni=1 K d(x,X
hn
i)

Diérents résultats ont déjà été obtenus pour cet estimateur en ce qui concerne la
convergence presque sûre dans le cas d'un échantillon indépendant (voir Ferraty et
Vieu, 2000, 2002) ou α-mélangeant (voir Ferraty et al.., 2002a, 2002b), la normalité
asymptotique dans le cas indépendant (voir Ferraty et al., 2007) ou dans le cas α-
1.5 Description de la thèse 14

mélangeant (voir Masry, 2005).


Cette estimation de r vu comme la moyenne conditionnelle de Y sachant X peut être
inadaptée dans certaines situations. Par exemple, la présence de données aberrantes
peut amener à des résultats non pertinents. La régression robuste a été introduite pour
résoudre ce genre de problèmes. Cadre (2001), ainsi que Cardot et al... (2005) sont les
principales références. Récemment, Azzedine et al... (2008) ont étudié la convergence
presque complète d'estimateurs robustes à noyau. Dans le même cadre, Attouch et
al... (2007) ont étudié la normalité asymptotique de ces estimateurs.
Le paramètre fonctionnel étudié dans ce travail, noté θx , est la solution (supposée
unique) de l'équation en t dénie par

Ψ(x, t) := IE [ψ(Y, t) | X = x] = 0.
Un estimateur à noyau de Ψ(x, t) est donné par
n
X
K(h−1 d(x, Xi ))ψx (Yi , t)
i=1
Ψ(x,
b t) =
n .
X
−1
K(h d(x, Xi ))
i=1

1.5 Description de la thèse


La modélisation statistique de données fonctionnelles considère des données sous
forme de courbes ou plus généralement des fonctions . Ce type de données se ren-
contre de plus en plus avec les récentes innovations réalisées sur les appareils de
mesure et les méthodes d'acquisition ainsi que l'utilisation intensive de moyens in-
formatiques qui permettent souvent de récolter ce type de données. Mais par fois les
données sont volumineuses ce qui peut causer des erreurs lors de la détermination de
la relation entre les observations. Le modèle de régression usuel est très sensible à ce
type d'erreurs, d'où l'intérêt d'étudier la régression robuste en statistique fonction-
nelle. Dans ce cadre, on se propose dans cette thèse d'étudier l'estimation robuste de
la fonction de régression, dans le cas où les observations sont de nature fonctionnelle
et la variable réponse est tronquée à gauche par une autre variable aléatoire. Cette
thèse est divisée en quatre chapitres. Le premier chapitre est une introduction géné-
rale, introduisant des concepts généraux utiles pour faciliter la lecture des chapitres
suivants. Dans le second chapitre, Nous rappelons certains résultats établis sur le
comportement asymptotique de quelques estimateurs non paramétriques robustes de
la fonction de régression, dans le cas où les données sont complètement observées et
dans le cas de données incomplètes que ce soit dans le cadre de dimension nie ou
innie.
1.6 Présentation des résultats obtenus 15

Dans le troisième chapitre, nous présentons des travaux sur la régression robuste dans
le cas de données i.i.d., tronquées aléatoirement à gauche. Nous illustrons les résultats
obtenus (consistance et normalité asymptotique) par des simulations pour montrer
les performances des estimateurs proposés.
le quatrième chapitre est une extension des résultats du troisième chapitre au cas
de données fortement mélangeantes. Seule la consistance est présentée, la normalité
asymptotique fait l'objet d'un travail en cours.
Dans le cinquième chapitre, une conclusion suivie de quelques perspectives permettant
d'étendre les résultats de cette thèse.

1.6 Présentation des résultats obtenus


Nous donnons dans cette partie une brève présentation des résultats obtenus dans la
thèse.

1.6.1 Notations

Soit (X, Y ) un couple de variables aléatoires à valeurs dans F × IR où F est un espace


semi-métrique.
On note d la semi-métrique sur F . D'après Ferraty et Vieu (2006) où les données sont
complètes, il est bien connu que l'estimateur à noyau classique m(·)
b , de m(·) est un
estimateur de moindres carrés, tel que
N
X
m(x)
b = arg min WN,i (x)(Yi − t)2 ,
t∈R
i=1


K h−1

N d(x, Xi )
WN,i (x) = PN −1
, (1.1)
i=1 K hN d(x, Xi )

sont les poids de Nadaraya-Watson (NW).


K est un noyau à valeur réelles et h := hN est une suite de nombres réels positifs qui
tend vers zero quand n tend vers l'inni.
Il est bien connu que la régression classique est non robuste. La ψ -régression méthode
est largement développée pour atténuer les eets des valeurs abérrantes.

On considère une fonction réelle, mesurable, notée ψx , pour tout x ∈ F . La fonction de


ψ -régression est le paramètre fonctionnel noté θx , est solution de l'équation suivante :

t ,→ Ψ(x, t) := IE [ψ(Y, t) | X = x]
1.6 Présentation des résultats obtenus 16

On a alors , Ψ(x, θx ) = 0.
On suppose que pour x ∈ F , θx existe et unique ( Boente et Fraiman, 1989 et Boente
et al..., 2009).
Soit (Ti )i=1,...N un ensemble de variables aléatoires i.i.d. de même loi que T , où N est
inconnu mais déterministe . En troncature à gauche, la variable aléatoire d'intérêt Y
et la variable aléatoire de troncature T , sont observable seulement si Y ≥ T aucune
n'est observé si Y < T . Dans ce cas, nous disposons d'un échantillon de taille (n ≤ N )
observé, dont la variable d'intérêt Y est observable, (Yi , Ti ), i = 1, 2, ..., n; avec n aléa-
toire mais connu. On note que si les données originales (Yi , Ti )i , i = 1, 2, ..., N sont
i.i.d., alors les données observées (Yi , Ti )i , i = 1, 2, ..., n sont aussi i.i.d. (voir Lem-
dani et Ould Saïd, 2007).
Comme conséquence de troncature, la taille de l'échantillion observé, n, est une va-
riable aléatoire de loi binomiale Bin(N, τ ) , avec τ := P(Y ≥ T ). C'est clair que si
τ = 0, aucune des données n'est observée alors, on suppose que τ 6= 0. On construit
notre estimateur à partir des variables observées (Xi , Yi , Ti )i=1,...n .
On suppose que la variable d'intérêt Y et la variable de troncature T sont indépen-
dentes et admettent des fonctions de répartition inconnues F et G, respectivement.
D'après Stute (1993) les fonctions de répartition de Y et T , sous la condition de
troncature à gauche , sont exprimées , respectivement , par
Z y Z ∞

F (y) := τ −1
G(v)dF (v) et ∗
G (t) := τ −1
G(t ∧ v)dF (v)
−∞ −∞

où t ∧ v = min(t, v) et elles sont estimées par leurs estimateurs empiriques.


Soit
R(y) = G∗ (y) − F ∗ (y) = τ −1 G(y)[1 − F (y)].
estimé par son estimateur empirique.
On rappelle que les fonctions de répartition F et G sont estimées par l'estimateur de
Lynden-Bell (1971) comme suit
Y Fn∗ (s) G∗n (s)
 Y 
Fn (y) = 1 − 1− and Gn (y) = 1− .
s≤y
Rn (s) s>y
Rn (s)

He et Wang (1998) ont montrés que τ peut être estimé par

Gn (y)F̄n (y)
τn = .
Rn (y)

et indépendant de y .
les propriétés asymptotiques de Fn et Gn ont été étudié par Woodroofe (1985), tandis
que He and Yang (1998) ont obtenu la convergence prèsque sure de τn . La consistance
1.6 Présentation des résultats obtenus 17

du modèle de troncature serait établie en considérant la probabilité conditionnelle P(·)


( de l'ensemble n) et non la mesure de probabilité P(·) (de l'ensemble N ). On note
que E(·) et E(·) (respectivement) les opérateurs d'espérence de P(·) et P(·). Finalle-
ment les propriétés asymptotiques de Fn , Gn et τn sont obtenues sous les conditions
d'identiabilité tels que aG ≤ aF , bG ≤ bF où aW et bW les points de bord du support
de la fonction de répartition W dénis

aW = inf{x : W (x) > 0} et bW = sup{x; W (x) < 1}.

Soit a, b deux réels positifs tel que [a, b] ⊂ [aF , bF ]. De plus on suppose que notre
paramètre est tel que θx ∈ (a, b).

Soit le triplet de variables aléatoires observées (X1 , Y1 , T1 ), . . . (Xn , Yn , Tn ), en combi-


nant les idées de Ferraty et Vieu (2006) et Ould Saïd et Lemdani (2006), l'estimateur
à noyau de la fonction ψ -régression θx noté θbx est solution par rapport à t de l'équation

Ψ(x,
b t) = 0, (1.2)

où n
X
G−1 −1
n (Yi )K(h d(x, Xi ))ψx (Yi , t)
i=1
Ψ(x,
b t) =
n
X
G−1 −1
n (Yi )K(h d(x, Xi ))
i=1

et h := hn .

[Link] Résultats : Cas i.i.d.


Dans cette partie les observations seront considérées indépendantes. Si la fonction ob-
jective ψx vérie certaine condition de régularité, et si, la propriété de concentration
de la mesure de probabilité de la variable fonctionnelle est telle que ∀r > 0, P(X ∈
B(x, r)) =: φx (r) > 0 avec B(x, r) := {x0 ∈ F/ d(x0 , x) < r}. Alors, sous des hy-
pothèses techniques assez générales on établit la convergence presque complète avec
taux de convergence de notre estimateur θbx de θx .

Théoreme 1.6.1 Sous des hypothèses de concentration de la mesure de probabilité


de la variable fonctionnelle et des conditions techniques standards sur le noyau et le
fenêtre, de plus θbx existe pour n susamment grand. On a

θbx − θx → 0 p.c.
1.6 Présentation des résultats obtenus 18

An de donner des résultats asymptotiques plus précis, on a obtenu le résultat suivant

Théoreme 1.6.2 Sous des hypothèses de concentration de la mesure de probabilité


de la variable fonctionnelle et des conditions techniques, θbx existe p.c., De plus, si
Ψ0 (x, θx ) 6= 0 on a
s !
log n
θbx − θx = O hb1 + O

p.c.
nφx (h)

La démonstration et les détails des conditions imposées pour aboutir à ces résultats
sont donnés dans le chapitre 3. Le deuxième résultat est sur la normalité asymptotique
de notre estimateur.

Théoreme 1.6.3 Sous des hypothèses de régularité de la fonction objective ainsi que
des conditions standards sur le noyau et la fenêtre, on a pour tout
x ∈ A,
 1/2 
nφx (h) 
D
θx − θx + Bn (x) → N (0, 1) pc n → ∞.
b
σ 2 (x, θx )

1
α2 Ψ2, G (x, θx )
Z
2 (avec αj = K(1) − (K j )0 (s)βx (s)ds, for, j = 1, 2),
2
σ (x, θx ) = τ

α1 ∂t Ψ(x, θx ) 0

 Z 1 
0
Bn (x) = hΦ (0, θx )α1−1 (K(1) − 0
(sK(s)) (s)βx (s)ds + o(h).
0


A = {x ∈ F, Ψ2, G (x, θx ) Ψ(x, θx ) 6= 0}
∂t
D
et → symbolise la convergence en loi.
La démonstration et les conditions imposées an d'obtenir ce théorème sont données
au chapitre 3.

[Link] Résultats : Cas α mélangeant


An de généraliser les résultats obtenus dans le chapitre précédent à des observations
fortement mélangeantes, nous renforçons les hypothèses précédentes, en ajoutant des
hypothèses supplémentaires sur la concentration de loi conjointe (Xi ; Xj ) et sur le
coecient de mélange, on montre le résultat suivant :
1.6 Présentation des résultats obtenus 19

Théoreme 1.6.4 Sous des hypothèses de régularité de la fonction robuste ainsi que
des conditions standards sur le noyau et la fenêtre et sur le coecient de mélange,
on a pour tout n susamment grand θbx existe, et on a

θbx − θx → 0 p.c.

An de donner des résultats asymptotiques plus préscis, on remplace quelques hypo-
thèse et on obtient le résultat suivant

Théoreme 1.6.5 pour tout n susement grand θbx existe p.s. Si Γ00 (x, ·)(x, θx ) 6= 0
on a s !
log n
θbx − θx = O hb + O

p.c.
nφx (h)

La démonstration de ce théorème ainsi que les hypothèses utilisées sont détaillées au


chapitre 4.
1.6 Présentation des résultats obtenus 20

Références
1. Attouch, M., Laksaci, A. and Ould Saïd, E. (2009). Asymptotic distribution of
robust estimator in nonparametric functional models, Comm. in Statist. Theory
and Methods, 38, 1317-1335.
2. Attouch, M., Laksaci, A. and Ould Saïd, E. (2010). Asymptotic normality of a
robust estimator of the regression function for functional time series, J. Korean
Statist. Soc, 39, 489-500.
3. Attouch, M., Laksaci, A. and Ould Saïd, E. (2012). Robust regression for func-
tional time series data. J. Japan Statist. Soc, 42 , 125-143.
4. Azzedine, N., Laksaci, A. and Ould Saïd, E. (2008). On the robust nonpara-
metric regression estimation for functional regressor, Statist. Probab. Lett, 78,
3216-3221.
5. Benhenni, K., Ferraty, F., Rachdi, M. et P. Vieu (2007). Local smoothing re-
gression with functional [Link]. Statistics, 22, 353-369.
6. Bosq, D. (2000). Linear Processes in Function Spaces : Theory and Applications
Lecture Notes in Statistics Springer-Verlag,149, New York.
7. Burba, F., Ferraty, F. et Vieu, P. (2008). Propriétés asymptotiques de l'estima-
teur kNN en régression fonctionnelle non-paramétrique. C. R. Math. Acad. Sci.
Ser, I 346, 339-342.
8. Bertrand , Retali Convergence uniforme de certains estimateurs de la densité
par la méthode du noyau. C.R.A.S. Série A, 279, 527-529.
9. Collomb, G. and Härdle, W. (1986). Strong uniform convergence rates in robust
nonparametric time series analysis and prediction : Kernel regression estimation
from dependent observations. Stoch. Proc. Appl, 23, 77-89.
10. Crambes C, Delsol L. and Laksaci A. (2008). Robust nonparametric estimation
for functional data. J. Nonparametric Statist, 20, 573-598.
11. Ferraty, F. et Vieu, P. (2002). The functional nonparametric model and appli-
cation to spectrometric data. Comput. Statist, 17 (4), 545-564.
12. Ferraty, F. and Vieu, P. (2003). Curves discrimination : a nonparametric func-
tional approach Computational Statistics and Data Analysis, 44 (1-2), 161-173.
13. Ferraty, F. and Vieu, P. (2006). Nonparametric Functional Data Analysis. Theory
and Practice. Springer-Verlag, New York.
14. Holmstrome, I. (1961. On method for parametric representation of the state of
the atmosphere. Tellus, 15, 127-149.
15. Huber, P.J. (1964). Robust estimation of a location parameter. Annals of the
Mathematical Statistics, 35, 73-101.
1.6 Présentation des résultats obtenus 21

16. González-Manteiga W. and Vieu P. (2007). Editorial Statistics for Functional


[Link]. Stat. Data Analysis, 51 (10), 4788-4792.
17. Lecoutre, J.P. (1990) Uniform consistency of a class of regression function es-
timators for Banach-space valued random variable. Statist. Probab. Lett. 10,
145-149.
18. Masry, E. (2005). Nonparametric regression estimation for dependent functional
data : asymptotic normality Stochastic Process. Appl, 115 (1), 155-177.
19. Ould Saïd, E. and Lemdani, M. (2006). Asymptotic properties of a nonpara-
metric regression function estimator with randomly truncated data. Ann. Inst.
Statist. Math., 58, 357-378.
20. Ramsay, J. and Silverman, B. (1997). Functional Data Analysis Springer-Verlag,
New York.
21. Ramsay, J. and Silverman, B. (2002). Applied functional data analysis : Methods
and case studies Spinger-Verlag, New York.
22. Ramsay, J. and Silverman, B. (2005). Functional Data Analysis (Second Edi-
tion) Spinger-Verlag, New York.
23. Wang, J., Liang, H.Y. and Fan, G. (2012). Asymptotic properties for an M-
estimator of the regression function with truncation and dependent data. Jour-
nal of the Korean Statistical Society, 41, 35-367.
24. Woodroofe, M. (1985). Estimating a distribution function with truncated data.
The Annals of Statistics, 13, 163-177.
Chapitre 2

Estimation nonparamétrique robuste

La robustesse permet d'avoir une certaine insensibilité aux quelques erreurs loca-
lisées qu'il peut y avoir dans les données. Une méthode robuste doit produire un
résultat qui ne changera que légererement si une petite partie des données est rem-
placée par de nouvelles valeurs qui peuvent être très diérentes des originales. Les
méthodes robustes doivent accorder une importance assez grande à la partie princi-
pale des données et laisser une part trés faible aux possibles "lointains". Par exemple,
la médiane est une statistique robuste tandis que la moyenne ne l'est pas. On trouve
dans la littérature trois types d'estimateurs robustes (M, L et R)-estimateurs qui
correspondent respectivement aux estimateurs de type maximum de vraisemblance,
combinaisons linéaires des statistiques d'ordre et estimateur dérive de test de rang.
Les M−estimateurs sont les plus utilisés.

2.1 Les M−estimateurs


Les M-estimateurs ont été introduits par Huber (1964), où il a proposé de généraliser
l'estimateur du maximum de vraisemblance en le considérant comme un problème de
minimisation d'une certaine fonction objectives. Plutôt que de prendre le carré de l'
écart entre chaque observation xi et l'estimateur t, il a utilisé une fonction
Pn ρ(x, t) et
former la fonction objective en faisant la somme sur tout l'échantillon i=1 ρ(x, t).
A noter que le choix de ρ(x, t) = − log f (x, θ) donne l'estimateur de maximum de
vraisemblance ordinaire. Cette fonction ρ(x, t) dépend souvent de x − t. Alors le
M−estimateur pour la fonction ρ(x, t) est la valeur de t qui minimise la fonction
objective, ainsi pour trouver notre estimateur, il sura de trouver la valeur de t qui
vérie :
ψ(x, t) = 0
tel que la fonction ψ est la dérivée par rapport à t de la fonction ρ
2.2 Exemples de M−estimateurs 23

2.2 Exemples de M−estimateurs


Dans ce paragraphe nous présentons des exemples de classes de M−estimateurs les
plus fréquemment utilisées :

2.2.1 Estimateur biweight

L'estimateur biweight souvent surnommé biweight de Tukey, est déni par



u(1 − u2 )2 |u| ≤ 1
ψ(u) =
0 |u| > 1.

2.2.2 Estimateur de Huber

L'estimateur de Huber est déni par



u |u| ≤ k
ψ(u) =
ksigne(u) |u| > k.

2.2.3 Estimateur de Andrew

L'estimateur de Andrew, souvent appelé vague de Andrew, est déni par


 1
π
sin πu |u| ≤ 1
ψ(u) =
k signe(u) |u| > 1.

2.2.4 Le choix de la fonction objective

Le choix de la fonction objective (appelée souvent fonction d'inuence dans la litté-


rature) est très important pour la régression robuste. En eet, cette fonction contrôle
la contribution de chaque observation dans l'erreur de l'estimation. Un des critères
judicieux sur la fonction ψ est qu'elle soit bornée, l'existence d'un estimateur robuste
unique impose la monotonie de la fonction objective. Chaai (1989) a fait une étude
comparative entre diérentes fonctions objectives, et il a constaté qu'en plus de la
fonction objective, la robustesse dépend aussi du paramètre d'échelle retenu. Il conclut
dans cette étude que la fonction objective de Fair en pratique est peu sensible a ce
paramètre. Cependant, de manière générale, le modèle de Huber est souvent considéré
comme l'un des meilleurs estimateurs car il associe une décroissance forte à une zone
de conance contrôlée par le paramètre k, tandis qu'à l'extérieur de cette zone il se
comporte comme une médiane, Attouch et al. (2009) ont fait une étude comparatives
entre plusieurs fonctions robustes dans la présence des données fonctionnelles en cal-
culant l'erreur absolue en moyenne et ils ont remarqué que les fonctions d'Andrew et
Tukey sont les meilleures.
2.3 La régression robuste : Cas de dimension nie 24

2.3 La régression robuste : Cas de dimension nie


2.3.1 Pour des données complètes

Dans la statistique non paramétrique la méthode la plus communément utilisée pour


étudier la relation entre deux variables X et Y est la régression, tels que Y une variable
de réponse et X un vecteur aléatoire de predicteurs (co-variables) prenant ses valeurs
dans Rd . La fonction de régression à un point x ∈ Rd est l'espérance conditionnelle
de Y sachant X = x
m(x) := E(Y X = x).
Il existes plusieurs méthodes pour estimer une fonction de régression comme l'esti-
mateur à noyau, les méthodes de spline de régression, etc. Cependant, ces méthodes
ne sont pas robuste, il sont sensibles aux valeurs aberrantes. Alors que les valeurs
aberrantes ou sont observées très souvent dans de nombreux domaines d'application
comme la nance, pour cela un traitement approprié des valeurs aberrantes est une
étape importante pour mettre en évidence les caractéristiques d'ensemble de don-
nées. An de surmonter l'inconvénient de robustesse, La régression robuste est une
approche statistique sur la régression qui admet un comportement stable ou résistant
lorsque le modèle est aecté par des données aberrantes(atypique, données tronquées).
Au cours des dernières décennies, il y a une vaste littérature consacrée à l'étude de
M -estimateurs de la fonction de régression non paramétrique qui ont été introduit
par Huber (1964). Par la suite Collomb et Härdle (1986) ont étudié la convergence
uniforme de l'estimateur robuste de la fonction de régression en considérant des ob-
servations φ−mélangeantes dans le cas réel (en dimension ni).

2.3.2 Pour des données incomplètes

La statistique non paramétrique robuste sur les données incomplète est un domaine
en plein essor, que certaines situations ont été étudiées et qu'il reste encore de nom-
breux problèmes à résoudre, dans le cas ni−dimensionnel beaucoup de résultats sont
données on citera quelques uns.
Wang et Liang (2012) ont construit un M-estimateur de la fonction de régression
pour un modèle tronqué à gauche avec des données dépendantes et ont établi la
convergence faible et forte. Ould Saïd et Lemdani (2006) ont construit un estimateur
de type Nadaraya-Watson (NW) pour un modèle tronqué à gauche comme suit
n
X x − Xi
G−1
n (Yi )K( )Yi
i=1
hn
mn (x) = n
X x − Xi
G−1
n (Yi )K( )
i=1
hn
2.3 La régression robuste : Cas de dimension nie 25

où K un noyau, hn un paramètre de lissage et


Y  nRn (Ti ) − 1 
Gn (y) =
T >y
nRn (Ti )
i

et n
1X
Rn (y) = I(Ti ≤ y ≤ Yi ).
n i=1
En se basant sur cet estimateur, Wang et Liang (2012) ont construit un M−estimateur
b n (x) qui est dénit comme solution par rapport à τ de l'équation
m
n  
X x − Xi
G−1
n (Yi )K ψ(Yi − τ ) = 0.
i=1
hn

Ils ont obtenu des résultats asymptotiques sous des conditions de mélange comme
suit :

Théoreme 2.3.1 Soit x ∈ Rd et α(n) = O(n−γ ) pour γ > 3. On suppose que m(x)
est une solution de l'equation E[ψ(Y1 − s) X1 = x] = 0. Sous des hypothèses sur le
noyau, la fenêtre et la fonction ψ
P
b n (x) → m(x).
m

Théoreme 2.3.2 Sous les hypothèses du théorème précédent, s'il existe une suite de
nombre réels An tel que An et α(l) satisfaisant
∞ ∞
nhdn An α([An ])
An → ∞, <∞, 2 → ∞, < ∞ alors
X X
A−r
n d
n=1
An log n n=1
hn

p.s.
b n (x) → m(x).
m

Lemdani et Ould Saïd (2015) se sont intéressés à un autre type de données incomplètes
qui est la censure. Ils ont considéré un estimateur robuste de la régression avec une
variable d'interêt censurée à droite et des covariables Xi iid dans Rd avec une densité
γ > 0. Ils ont adopté le modèle qui est solution m(x) de l' équation suivante
 
Ψ(x, θ) := E ψx (T1 − θ) X1 = x γ(x) = 0

qui est etimé par Ψ̂ donné par


n  
1 X x − Xi c∗
Ψ(x, θ) :=
b K ψ (Yi , θ),
nhd i=1 h
2.4 La régression robuste : Cas de dimension innie 26

avec
c∗ (Yi , θ) := δψx (T1 − θ) .
ψ
G¯n (T1 )
où Ḡ(·) est l'estimateur de Kaplan-Meier (1958) de la survie de la variable aléatoire
de la censure.
Alors l'estimateur de m(x) noté m(x)
b est la solution par rapport à θ de l'equation

Ψ(x,
b θ) = 0.

Sous des conditions classiques et en utilisant les VC-classes, les auteurs ont établi la
convergence uniforme avec vitesse sur un compact de Rd et la normalité asymptotique
de l'estimateur robuste.

Théoreme 2.3.3 Sous des hypothèses classiques.


p.s.
(i) sup | m(x)
b − m(x) | → 0.
x∈S

r !
log n
(ii) sup | m(x) − m(x) |= O(h2 ) + O p.s.
n1−2ζ hd
b
x∈S

Théoreme 2.3.4 Soit x ∈ S sous des hypothèses techniques. On a


√ D
nhd (m(x)
b − m(x)) → N (0, σ 2 (x))
R
2 Γ(x, x, m(x)) K 2 (v)dv
σ (x) =  ∂Ψ 2 .
∂θ
(x, m(x))
h i
ψx2 (T1 −θ)
Avec Γ(x, u, θ) := E G(T1 )/X1 =u
γ(u)

2.4 La régression robuste : Cas de dimension innie


2.4.1 Pour des données complètes

Dans cette partie on suppose que la variable à expliquer Y est à valeurs réelles et
la variable explicative X est à valeurs dans un espace de fonctions F muni d'une
semi−métrique d. Ce type de variables, connu sous le nom de variables fonction-
nelles dans la littérature, permet de considérer des variables aléatoires en tant que
fonctions (du temps par exemple), ce qui est adapté dans le cas où les observations
sont par nature fonctionnelles : on renvoie notamment à Ramsay et Silverman (2002,
2005) pour une vue d'ensemble sur les données fonctionnelles. Dans ce contexte, le
2.4 La régression robuste : Cas de dimension innie 27

modèle le plus général est le modèle de régression lorsque la variable explicative est
une courbe. Concernant la régression robuste pour ce type de données, la littérature
est beaucoup plus restreinte : Cadre (2001), ainsi que Cardot et al. (2005) sont les
principales références. Récemment, Azzedine et al. (2008) ont étudié la convergence
presque complète d'un estimateur robuste à noyau qui s' écrit comme suit :
n
X
K(h−1 d(x, Xi ))ψx (Yi , t)
i=1
Ψ(x,
b t) =
n .
X
−1
K(h d(x, Xi ))
i=1

Azzedine et al. (2008) ont étudié la convergence presque complète d'estimateurs ro-
bustes à noyau sous des hypothèses technique et standard sur le noyau et la fenêtre,
ils ont supposé que la fonction objective ψ est monotone, dierentiable et bornée et si
la propriété de concentration de la mesure de probabilité de la variable fonctionnelle.
Sous les hypothèses suivantes
 (H1)∀r > 0, P(X ∈ B(x, r)) =: φx (r) > 0, φx (r) −→ 0 as r −→ 0.
 (H2)∃C > 0 et b > 0 tel que ∀(x1 , x2 ) ∈ Nx , ∀t ∈ IR

| Ψ(t, x1 ) − Ψ(t, x2 ) |≤ Cdb (x1 , x2 ).

 (H3)La fonction ψ est strictement monotone, bornée, diérentiable et sa dérvivée


est tel que | ψ 0 (t) |> C1 .

Théoreme 2.4.1
s !
log n
θbn − θx = O(hbk ) + O [Link].
nφx (hk )

Attouch et al. (2009) ont obtenu des résultats pour des données indépendantes, sous
des hypothèses techniques assez générales sur le noyau et la fenêtre et sur la meme
propriété de concentration de la mesure de probabilité de la variable fonctionnelle
et les mêmes conditions sur la fonction objective et sous les hypothèses suivantes,
ces auteurs ont établi la normalité asymptotique sur l'ensemble des x appartenant à
l'ensemble
A = x ∈ F, g(x)λ2 (x)(x, θx ) 6= 0,
0
avec λ2 (x)(u, t) = E [ψx2 (Y, t)/X = u] , Γ1 (u, t) = E[ψx (Y, t)/X = u].
 (H1) La fonction λγ (., .) satisfait la condition de Lipschitz. Ils existent les constantes
strictement positives bγ tel que :

∀(u1 , u2 ) ∈ Nx × Nx , ∀t ∈ IR, | λγ (u1 , t) − λγ (u2 , t) |≤ C1 d(u1 , u2 )bγ


2.4 La régression robuste : Cas de dimension innie 28

 (H2) La fonction Γγ (., .) satisfait la condition de Lipschitz. Ils existent les constantes
strictement positives bγ tel que :

∀(u1 , u2 ) ∈ Nx × Nx , ∀t ∈ IR, | Γγ (u1 , t) − Γγ (u2 , t) |≤ C1 d(u1 , u2 )dγ

Théoreme 2.4.2
 1/2 
nφ(h) 
L
θbn − θx − Bn (x) → N (0, 1),
σ 2 (x, θx )

Z 1
h
où Bn (x) =
0
K(t)ϕ(th)φ (th)dt + o(1)
φ(h)α1 Γ1 (x, θx ) 0
avec (ϕ(s) = E[ψ(Y, θ)/d(X, x) = s]),
α2 λ2 (x, θx )
σ 2 (x, θx ) = 2 2
(avec
α 1 g(x)(Γ 1 (x, θx ))
αj = − 0 (K j )0 (s)β(s)ds, pour j=1, 2).
R1

Sous des observations fortement mélangeantes, en ajoutant des hypothèses supplémen-


taires sur la concentration de loi conjointe (Xi , Xj ) et sur le coecient de mélange.
Théoreme 2.4.3 Sous des hypothèses peu restrictives sur le coecient du mélange
et la mesure de concentration de de la variable fonctionnelle, on a
s !
log n
θbx − θx = O(hb1 ) + O [Link].
nφx (hk )

Théoreme 2.4.4 Sous des hypothèses de régularité de la fonction robuste ainsi que
des conditions standards sur le noyau et la fenêtre, on a pour tout x ∈ A.
 1/2 
nφ(h) 
L
θx − θx − Bn (x) → N (0, 1),
b
σ 2 (x, θ)

2.4.2 Pour des données incomplètes

La littérature est très restreinte en ce qui concerne la régression pour des données
fonctionnelle tronquée à gauche, le but de notre étude est d'étudier les propriétés
asymptotiques d'un estimateur robuste de la régression pour des co-variables fonc-
tionnelles dans la présence de données tronquées à gauche, qui sont cités dans le
troisième et quatrième chapitres.
Chapitre 3

Convergence presque complète et


normalité asymptotique : Cas iid

Ce chapitre traite la convergence presque complète et la normalité asymptotique d'un


estimateur robuste du regresseur fonctionnel tronquée à gauche, ce travail fait l'objet
d'une publication au Journal of Statistical Theory and Practice.
3.1 Introduction 30

On the nonparametric estimation of the functional


ψ -regression under random left-truncation model

Saliha Derrar,† Ali Laksaci,†



Laboratoire de Statistique et Processus Stochastiques,
Université de Sidi Bel Abbès,
BP 89 Sidi Bel Abbès 22000. Algeria.
derrarsaliha@[Link], alilak@[Link]
Elias Ould Saïd,††, ∗
††
Univ. Lille Nord de France,

ULCO, LMPA, Centre de la Mi-Voix,
CS : 80699, Calais, France.
ouldsaid@[Link] 1

Abstract
In this paper we study a family of the nonparametric estimation of the ψ -regression
model when the response variable is subject to left-truncation by an other random
variable. Under standard assumptions, we get the almost complete convergence rate as
well as asymptotic normality of a robust nonparametric estimators for the truncated
and functional regressors. Clearly this permit to get condence interval that is usable
in practice since it does not depend on any unknown quantity. Some special cases
have been studied to show how our work extend many results. Our results have been
conforted by simulation study for consistency as well as for probability coverage of a
condence interval.
AMS subject classications : 60G42, 62F12, 62G20, 62G05.
Key words : Asymptotic normality, Functional data, Kernel estimator, Lynden-Bell
estimator, Robust estimation, Small balls probabilities, Strong consistency, Trunca-
ted data.

3.1 Introduction
The regression analysis of incomplete data (censored and/or truncated data) has
gained a particular interest in the statistics literatures. Such kind of data occur in
many elds of applications such as in astronomy, economics, epidemiology, biometry
and medical studies (see, Woodroofe (1985), Andersen et al. (1993) or He and Yang
1. corresponding author
3.1 Introduction 31

(1994)). For example, in a retirement center, subjects are observed only if they live
long enough to enter the retirement house. The lifetime, say Y , is then left truncated
by the retirement house entry age, say T . People who enter the retirement house
earlier may get better medical attention and therefore live longer. On the other hand,
people with poor health and shorter expected lifetime may retire earlier.
In this paper, we are interested on the ψ -regression when the interest random variable
is subject to left-truncation and in the presence of functional covariable by using a
robust approach.
Recall that, for complete data and in nite dimensional spaces, the pioneer work is of
Huber (1964), where he studied an estimation of some location parameter. Collomb
and Hardle (1986), proved the uniform almost complete convergence with rates of the
robust nonparametric kernel estimator, when data satises a some of kind of depen-
dency. Later, Laïb and Ould Saïd (2000), improved this result when the data satisfy
an ergodicity condition.
The nonparametric modeling of functional data becomes a major topic of research in
the last decade (see Ferraty and Romain 2011, for recent advances and references). In
this context the robust estimation of the regression function is an interesting problem
in statistical inference. It is used as an alternative approach to classical methods, in
particular when the data are aected by the presence of outliers. This model was
rstly introduced, as far as we know, in nonparametric functional statistics by Az-
zedine et al. (2008). They obtained the almost complete convergence of a family of
robust estimators of the regression function in the independent and identically dis-
tributed (i.i.d.) case. Since this work, various advances on the nonparametric robust
functional regression have been provided. Without pretend to the exhaustivety, we
quote for instance, Crambes et al. (2008), Chen and Zhang (2009), Attouch et al.
(2009, 2010, 2012), Gheriballah et al. (2013) and the references therein. All these
results are obtained in the complete data. There are very few results in the nonpara-
metric functional statistic when the data are incomplete. At the best of our knowledge,
only the papers of Horrigue and Ould Saïd (2011, 2014) have paid attention to study
the conditional quantiles estimation for censorship model and functional regressors.
However, for the nite dimensional spaces, the nonparametric estimation of the re-
gression function with randomly truncated data has been widely considered by many
authors. For example, and to cite only a few, Ould Saïd and Lemdani (2006) studied
the asymptotic properties of the kernel estimator of the regression function in i.i.d.
case, however Wang et al. (2012a) used M-estimation method and Wang et al. (2012b)
for local M-estimation method under dependent condition.
The main goal of this paper is to generalize the results of Wang et al. (2012a) from the
real case to the functional case and those of Azzedine et al (2008) and Attouch et al
(2009) to incomplete data. More precisely, we establish the almost-complete conver-
gence, with rates as well as the asymptotic normality of the estimator constructed by
3.2 Presentation of model and estimators 32

combining the ideas of robustness with those of smoothed regression. This induces
a condence interval that which is useful for the practitioners. Finally, noting that
the main feature of our approach is to develop an alternative prediction model to the
classical regression that is not sensitive to outliers or heteroscedastic data. Our results
have been emphasized by simulation study for consistency as well as for probability
coverage of a condence interval.
The rest of the paper is organized as follows : Section 2 is devoted to the presentation
of the model and give the estimator of the parameter. The assumptions and main
results are given in Section 3. Some special cases have been made in Section 4. In
Section 5, we deal with simulations data where where we study the convergence part
and the coverage probability of a condence interval, whereas the proofs of the main
results are relegated to the Appendix.

3.2 Presentation of model and estimators


Consider N pairs of independent random variables (Xi , Yi ) for i = 1, . . . , N that we
assume drawn from the pair (X, Y ) which is valued in F × IR, where F is a semi-
metric space and d denoting the semi-metric.
Since Ferraty and Vieu (2006) and when there is no truncation, it is well-known that
the classical kernel smoothed estimator, say m(·)
b , of m(·) may be viewed as a local
least squares estimator, that is
N
X
m(x)
b = arg min WN,i (x)(Yi − t)2 ,
t∈R
i=1

where
K h−1

N d(x, Xi )
WN,i (x) = PN −1
, (3.1)
i=1 K hN d(x, Xi )

are the Nadaraya-Watson (NW) weights. Here K is a real-valued kernel function and
h := hN be a sequence of positive real numbers which decreases to zero as n tends to
innity. It is well-known that the classical regression suer from the not robustness.
As mentioned before, the ψ -regression method have largely developed to ease the
eects of the outliers values.
Recall that the ψ -regression function is the nonparametric parameter, denoted by θx ,
implicitly dened, for all x ∈ F , as a value which vanishes with respect to (w.r.t.)
t ∈ IR the function
t ,→ Ψ(x, t) := IE [ψ(Y, t) | X = x]
3.2 Presentation of model and estimators 33

where ψ is a real-valued Borel function satisfying some regularity conditions to be


stated below. Clearly we have, Ψ(x, θx ) = 0.
In what follows, we suppose that, for all x ∈ F , θx exists and is unique (see, for
instance, Boente and Fraiman, 1989 and Boente et al., 2009).
Let (Ti )i=1,...N be a sample of i.i.d. random variables which are distributed as T , where
N is unknown but deterministic. In the random left-truncation model, the random
variable (rv) of interest Y is interfered by the rv T , such that both quantities Y
and T are observable only if Y ≥ T whereas neither is observed if Y < T . Without
possible confusion, we still denote (Yi , Ti ), i = 1, 2, ..., n; (n ≤ N ) the actually ob-
served r.v., with n being random but known. We point out that if the original data
(Yi , Ti )i , i = 1, 2, ..., N is i.i.d., the observed data (Yi , Ti )i , i = 1, 2, ..., n are still
i.i.d. (see Lemdani and Ould Saïd, 2007).
As a consequence of truncation, the size of the actually observed sample, n, is a
Bin(N, τ ) r.v., with parameter τ := P(Y ≥ T ). It is clear that if τ = 0, no data can
be observed and therefore, we suppose through this paper that τ 6= 0. Thus, taking
into account the truncation's eect the practical estimator is constructed by the ob-
served variables (Xi , Yi , Ti )i=1,...n . To do that, we suppose that the variable of interest
Y and the truncating variable T are independent and have, respectively, an unknown
distribution function F and G. Following Stute (1993) the distribution functions of
Y and T , under the left-truncation condition, are expressed, respectively, by
Z y Z ∞

F (y) := τ −1
G(v)dF (v) and ∗
G (t) := τ −1
G(t ∧ v)dF (v)
−∞ −∞

where t ∧ v = min(t, v) and they are estimated by their empirical ones.


Let
R(y) = G∗ (y) − F ∗ (y) = τ −1 G(y)[1 − F (y)].
and also it is estimated by its empirical one.
Recall that the distribution function F and G are estimated by the Lynden-Bell (1971)
as follows
Y Fn∗ (s) G∗n (s)
 Y 
Fn (y) = 1 − 1− and Gn (y) = 1− .
s≤y
R n (s) s>y
Rn (s)

He and Wang (1998) showed that τ can be estimated by

Gn (y)F̄n (y)
τn = .
Rn (y)
and is independent of y .
The asymptotic properties of Fn and Gn were studied by Woodroofe (1985), while the
almost sure consistency of τn was obtained by He and Yang (1998). Noting that as N is
3.3 Main results 34

unknown and n is known (although random), the stochastic consistency in truncation


model would be stated with respect to the conditional probability P(·) (related to
the n-sample) and not the probability measure P(·) (related to the N -sample). We
denote E(·) and E(·) the respective expectation operators of P(·) and P(·). Finally
let's point out that the asymptotic proprieties of Fn , Gn and τn are obtained under an
identiability conditions that are aG ≤ aF , bG ≤ bF where aW and bW the endpoints
of the support of a distribution function W dened by

aW = inf{x : W (x) > 0} and bW = sup{x; W (x) < 1}.

Let a, b be two real numbers such that [a, b] ⊂ [aF , bF ]. We point out that we need
this assumption because we need the uniform consistency of the distribution law G(·)
of the truncated rv T , which stated over compact set (see Remark 6 in Woodroofe
(1985). Furthermore we suppose that our parameter is such that θx ∈ (a, b).
Given an observed triplet random variables (X1 , Y1 , T1 ), . . . (Xn , Yn , Tn ), and combi-
ning the ideas in Ferraty and Vieu (2006) and Ould Saïd and Lemdani (2006), the
kernel estimate of the ψ -regression function θx denoted θbx is a zero w.r.t. t of the
equation

Ψ(x,
b t) = 0, (3.2)

where n
X
G−1 −1
n (Yi )K(h d(x, Xi ))ψx (Yi , t)
i=1
Ψ(x,
b t) =
n
X
G−1 −1
n (Yi )K(h d(x, Xi ))
i=1

and h := hn .

3.3 Main results


From now on, x stand for a xed point in F , and all along the paper, when no
confusion is possible, we denote by C and/or C 0 any generic positive constant. For
r > 0, let B(x, r) := {x0 ∈ F/ d(x0 , x) < r}. In order to derive the almost complete
convergence (a. co.) of the kernel estimate θbx of θx , some conditions are necessary.
P a sequence Zn is said to converge a. co. to Z if and only if, for any
Recall that
 > 0, n P (|Zn − Z| > ) < ∞.
We start by establishing the almost complete consistency with rates of our estimator.
3.3 Main results 35

3.3.1 Consistency

Our result we will stated under some assumptions which are gathered together for
easy reference
(H1) ∀r > 0, P(X ∈ B(x, r)) =: φx (r) > 0. Moreover, φx (r) −→ 0 as r −→ 0.
(H2)
 The function Ψ is such that :
 (i) Ψ(x, ·) is of class C 1 on [θx − δ, θx + δ], δ > 0.
(ii) For each xed t ∈ [θx − δ, θx + δ], Ψ(·, t) is continuous at the point x.



 (iii) ∀(t1 , t2 ) ∈ [θx − δ, θx + δ] × [θx − δ, θx + δ], ∀(x1 , x2 ) ∈ Nx × Nx
|Ψ(x1 , t1 ) − Ψ(x2 , t2 )| ≤ Cdb1 (x1 , x2 ) + |t1 − t2 |b2 , b1 > 0, b2 > 0.

(H3) The function ψx is continuous monotone w.r.t. the second component and for
each xed t ∈ [θx − δ, θx + δ], ∀j ≥ 1, E [ψxj (Y, t)] < C < ∞.
(H4) K is a function with support (0, 1) such that
0 < C1I(0,1) < K(t) < C 0 1I(0,1) < ∞.
log n
(H5) limn→∞ h = 0 and lim = 0.
n→∞ nφx (h)

Remarks on the assumptions


Our conditions are very standard in this context. Indeed, the conditions (H1) is the
same as those used by Ferraty and Vieu (2006). Conditions (H2) and (H3) on the score
function is a quite lower than that considered in Crambes et al. (2008) or Attouch et
al. (2010) where ψ is assumed to be continuously dierentiable. Our robustication
condition is veried for the usual functions (Andrews, Huber, Hampel, Tuckey, . . . )
which gives more exibility in the practical choice. Furthermore, they are needed to
evaluate the bias term in the asymptotic properties. Assumption (H4) concerns the
kernel K(·) which is technical and imposed for sake of simplicity whereas (H5) is
classical for consistency results.
Théoreme 3.3.1 Assume that (H1), (H2)((i), (ii)) and (H3)-(H5) are satised, then
θbx exists for all suciently large n. Furthermore, we have

θbx − θx → 0 a.c.

In order to give a more accurate asymptotic result, we replace (H2) (ii) by H2(iii)
and we obtain the following result
Théoreme 3.3.2 Assume that (H1), (H2) ((i), (iii)) and (H3)-(H5) are satised,
then θbx exists a.s. for all suciently large n. Furthermore, if Ψ0 (x, θx ) 6= 0 we have
s !
log n
θbx − θx = O hb1 + O

a.c.
nφx (h)
3.3 Main results 36

3.3.2 Asymptotic normality

Now, we study the asymptotic normality of θbx . We replace (H1), (H2), (H4) and (H5)
by the following hypotheses, respectively.
(H10 ) The concentration property (H1) holds. Moreover, there exists a function βx (·)
such that
∀s ∈ [0, 1], lim φx (sr)/φx (r) = βx (s).
r→0

(H2 ) Conditions (H2(i)) and (H2(ii)) hold and the derivative function
0

Φ(s, t) = E [Ψ(X1 , t) − Ψ(x, t)|d(x, X1 ) = s] exists at s = 0 and is continuous


w.r.t.
h the second i component at a neighborhood of θx . The function Ψ (·, ·) =
2,G
2
E ψG(y)
(Y,·)
|X = · is continuous at the point (x, θx ).
(H4 ) The kernel K satises (H4) and is a dierentiable function on ]0, 1[ with deri-
0

vative K 0 such that −∞ < C < K 0 (·) < C 0 < 0.


(H50 ) nφx (h) −→ ∞ and nh2 φx (h) −→ C as n → ∞.

Théoreme 3.3.3 Assume that (H10 ))-(H50 )) hold. Then we have for any x ∈ A,
 1/2 
nφx (h) 
D
θbx − θx + Bn (x) → N (0, 1) as n → ∞.
σ 2 (x, θx )
where
1
α2 Ψ2, G (x, θx )
Z
2 (with αj = K(1) − (K j )0 (s)βx (s)ds, for, j = 1, 2),
2
σ (x, θx ) = τ

α1 ∂t Ψ(x, θx ) 0

 Z 1 
0
Bn (x) = hΦ (0, θx )α1−1 (K(1) − 0
(sK(s)) (s)βx (s)ds + o(h).
0


A = {x ∈ F, Ψ2, G (x, θx ) Ψ(x, θx ) 6= 0}
∂t
D
and → means the convergence in distribution.
Corollary 1 Under the assumptions of the Theorem 3.3.3 and if nh2 φx (h) −→ 0,
then
 1/2 
nφx (h) 
D
θbx − θx → N (0, 1) a.c n → ∞.
σ 2 (x, θx )

where σ 2 (x, θx ) is as before.


As it is well-known, the mean application for the asymptotic normality it to get
condence interval, which is given here after.
3.4 Special cases 37

Corollary 2 Based on Gn (·), θbx , αbj (j = 1, 2), Ψ


b 2, Gb (·, ·) and the derivative ∂Ψ
b
∂t
(x, θbx )
estimators of G(·), θx , αj (j = 1, 2), Ψ2, G (·, ·) and ∂Ψ(x,θ
∂t
x)
respectively, we easily get
a (consistent) plug-in estimator σb (x, θbx ) for σ (x, θx ) which, under the assumptions
2 2

of Theorem 3.3.3, gives a condence interval of asymptotic level 1 − ζ for θx given by


" #
u1−ζ/2 σ
b(x, θbx ) u1−ζ/2 σ
b(x, θbx )
θbx − p ; θbx + p
nφx (h) nφx (h)

where u1−ζ/2 denotes the (1 − ζ/2)-quantile of the standard normal distribution.

3.4 Special cases


3.4.1 Comeback to complete data

In absence of truncation (T = −∞) we have τ = 1 and the asymptotic variance


becomes

2 α2 E [ψ 2 (Y, θx )|X = x]
σ[Link]. (x, θx ) = 2

α1 ∂t Ψ(x, θx

So, for this case, we obtain the following Corollary.

Corollary 3 Under the assumptions of the Theorem 3.3.3 and if nh2 φx (h) −→ 0,
then
 1/2 
nφx (h) 
D
2
θx − θx → N (0, 1) as n → ∞.
b
σ[Link]. (x, θx )

This corollary is the same result obtained by Attouch et al. (2009).

3.4.2 Comeback to classical regression case

Clearly the classical regression dened by conditional expectation is a particular case


of our study with ψx (Y, t) = (Y − t). For this case
h 2 i h i
Y Y
α2 E G(y) |X = x − E2 G(y) |X = x
2
σ[Link]. (x) = τ .
α12

For this case, we obtain the following Corollary.


3.5 Simulation study 38

Corollary 4 Under the assumptions of the Theorem 3.3.3 and if nh2 φx (h) −→ 0,
then
!1/2
nφx (h)  
D
2
θx − θx → N (0, 1) a.c n → ∞.
b
σ[Link]. (x, θx )

It should be noted that the result of this corollary is also new in statistics functional.
Nevertheless, in non functional case, this asymptotic normality is comparable to the
results of Lemdani and Ould-Said (2006).

3.4.3 Comeback to real case

In the real case when F = R, and if the probability density of the random variable
X , denoted by f , is of C 1 class, then φx (h) = f (x)h + o(h) and βx (s) = s
2, G
R1 2
2 Ψ (x, θx ) 0
K (s)ds
σReal (x) = τ  2 .

R 1
∂t
Ψ(x, θx ) 0 K(s)ds

In the real case, we obtain the following Corollary.

Corollary 5 Under the assumptions of the Theorem 3.3.3 and if nh3 −→ 0, then
 1/2 
nhf (x) 
D
2
θbx − θx → N (0, 1) a.c n → ∞.
σReal (x, θx )

Observe that in this case we obtain the same convergence rate given by Wang et al.
(2012a). In the same context we obtain as almost complete convergence rate
r !
log n
O hb1 + a.c.
nh

Clearly, we attain the usual optimal rate in nonparametric statistic of Stone( 1981)
 −b1 /2b1 +1  −1/2b1 +1
that is logn n which corresponds the optimal h = C logn n

3.5 Simulation study


The aim of this part is to examine the performance of our estimator θbx for the consis-
tence as well as the the asymptotic normality by comparing it to the classical regres-
sion. More precisely, we compare the resistance to the presence of outliers for both
3.5 Simulation study 39

models in the two functional prediction problem's ( the pointwise predication control-
led by the mean absolute error (MAE) and the prediction bands controlled through
the coverage probabilities of the proposed condence intervals. Moreover, in order to
check the eect of the truncation in this practical study we vary the percentage of
truncation and we consider several dierent sample-size. Specically, we proceed with
the following algorithm :

We x the random size n.


 Step 1 :
We x the random size n and we generate a random variable T1 , X1 (t), t ∈ [0, 1]
in the following manner :
T1 ,→ N (µ, 1), and we adapt µ in such way to get a dierent rate of trunca-
tion, X1 (t) will be generate as X1 (t) = AS1 (t) + (1 − A)S2 (t) with A ,→ B(0.5),
S1 (t) = 2 − cos(πtW ), S2 (t) = cos(πtW ) and W ,→ U(0, 1). Furthermore we simu-
late ε1 ,→ N (0, 0.5).

 Step 2 : R1
We calculate Y1 = R(X1 (t)) + ε1 where R(X1 (t)) = 0 (X1 (t))2 dt.

 Step 3 : TEST
We begin by :
N=0,
j=0,
While j ≤ n :
We put N = N + 1 We test : if Y1 < T1 we reject the triplet (X1 (t), Y1 , T1 )
Otherwise we keep the triplet (X1 (t), Y1 , T1 ) and we put j = j + 1
at the end of this count we get the deterministic N ,
which permits to get the rate of truncation τ = Nn ).
More precisely, the rate of the observed triplet.
We get n random vectors (Xj (t), Yj , Tj ) j = 1, . . . n.

 Step 4 :
We calculate the Lynden-Bell estimator by the observed couple (Yj , Tj ) for i =
1, . . . , n
 Step 5 :

We calculate our estimator as the argument value (say θbx ) which is the upper
negative value of Ψ(x, t) with respect to t before Ψ(x, t) becoming positive. No-
ting that, we have used for the robust regression the score function dened by
ψ1 (y, t) = √ y−t
2
while for the classical case we have ψ2 (y, t) = y − t. It
(1+(((y−t) )/2))
3.5 Simulation study 40

should be noted that we simulate by a quadratic kernel dened by :


3
K(x) = (1 − x2 )1I[0,1] ,
2
and we choose the optimal bandwidth h by the cross-validation method. Clearly,
the regularity of the curves insures that the semi-metric dened by the L2-distance
between the rst derivatives of the curves is more adapted than functional PCA-
metric (see Ferraty and Vieu (2006) for more discussion in this subject).

Remark 1 Here we point our that unlike to complete and censored data, the ex-
planatory random function X(t) is not kept in each step but only if the interest
random variable Y is bigger than the truncated random variable T .

3.5.1 Consistency

Our main purpose in this part is to illustrate the consistency propriety of our estimate
by examining its accuracy as predictor in the following situations :
For the rst case. We x the percentage of truncation evaluated by µ = 2 and we
vary the sample-size n = 50, 100, 500. For each sample-size case, we split our data into
two subsets (learning sample and test sample). From the learning sample we compute
the predicted values θbx ( for the two score functions ψ1 and ψ2 ), corresponding to
the curves of the test sample. In the following gures we plot the predicted values
estimated by θbx versus the true values. The continuous line represents what would be
the perfect prediction. Typically, the eciency of the prediction method is quantied
by the closeness of the round point to this continuous line.
3.5 Simulation study 41

The robust regression, MAE=0.57 The classical regression, MAE=0.59


Figure 1. Case : n = 50
3.5 Simulation study 42

The robust regression, MAE=0.40 The classical regression, MAE=0.43


Figure 2. Case : n = 100
3.5 Simulation study 43

The robust regression, MAE=0.32 The classical regression, MAE=0.31


Figure 3. Case : n = 500

It can be seen that, the two methods are basically equivalent and both show the
good behavior of our functional procedure. This fact is conrmed by the MAE error
given for each cases. Moreover, although this error increase substantially with respect
the sample-size n the predict results admit suciently good performances even for
a small sample size n = 50. It should be noted that, our functional prediction pro-
cedure automatic selection method computes faster the results also for large sample
sizes n = 100 or n = 500.
For the seconde case. We x the sample-size n = 100 and we vary percentage of
truncation for three values of µ = 0, 4 and 8 giving 100%, 50% and 25% of observed
data. Similarly to the rst case, we split our data in two sub-samples (learning and
test sample) we plot the predicted values versus the true values
3.5 Simulation study 44

The observed curves ψ1 -Case, MAE=0.24 ψ2 -Case, MAE=0.27


Figure 4. Case : Complete data
3.5 Simulation study 45

The observed curves ψ1 -Case, MAE=0.66 ψ2 -Case, MAE=0.69


Figure 5. Case : 50% observed
3.5 Simulation study 46

The observed curves ψ1 -Case, MAE=0.82 ψ2 -Case, MAE=0.79


Figure 6. Case : 23% observed

The performance of both predictors seems to be less aected by the truncation per-
centage. The quality of prediction is dramatically destroyed in the strong truncated
case compared to complete date case. However, all in all the comparison of both scat-
terplots indicates that the two predictors are equivalent in the three case.

For the last case. We keep the same data of the previous case. However, in order to
compare the sensitivity to outliers between the robust method and the classical one
we introduced articial outliers. For this purpose, we multiple by a MF (multiplier
factor) same values of the response variable in the learning sample. The obtained
results are summarized in the following Table. It gives MAE error for both model for
various values of M F = 5, 10, 50, 100
3.5 Simulation study 47

µ M.F M.A.E.(Robust) M.A.E.(Claassic)


µ=0 1 0.27 0.24
P.T=0% 5 0.97 3.10
10 1.74 4.05
50 5.46 20.92
100 8.74 26.72
µ=4 1 0.69 0.66
P.T=49% 5 2.47 5.65
10 3.42 7.72
50 6.81 33.96
100 10.75 46.59
µ=8 1 0.79 0.82
P.T=77% 5 3.18 6.19
10 7.74 13.69
50 8.61 45.53
100 11.81 128.01
Table 1 M AE -Results.

We observe that in the presence of outliers, the robust regression is more stable than
the classical method, in sense that, even if the M AE value of the both methods
increases substantially relatively to the values of MF but its variability in the robust
method is not very important compared to the classical one.

3.5.2 Asymptotic normality

Our second illustration concerns the the asymptotic normality propriety of our es-
timate. More precisely, we examine the coverage probability (C.P.) of the proposed
condence intervals as direct consequence of the asymptotic normality. To do that,
we estimate empirically α1 and α2 by
n n
1 X 1 X 2 −1
α
c1 = K(h−1 d(x, Xi )) and α
c2 = K (h d(x, Xi )).
nφx (h) i=1 nφx (h) i=1

This last estimation is justied by the fact that,


1
IE[K1j ] → βj , j = 1, 2.
φx (h)
3.5 Simulation study 48

The functional operator Ψ2, G (x, θx ) and ∂


∂t
Ψ(x, θx ) are respectively estimated by
n
X
G−2 −1 2
n (Yi )K(h d(x, Xi ))ψx (Yi , t)
i=1
n
X
G−1 −1
n (Yi )K(h d(x, Xi ))
i=1

and n
X ∂
G−1 −1
n (Yi )K(h d(x, Xi )) ψx (Yi , t)
i=1
∂t
n
X
G−1 −1
n (Yi )K(h d(x, Xi ))
i=1
Thus, the functions φx (·) does not intervene in the calculation of the normalized
deviation. We use the same data and the same arguments as those used in the calcu-
lation of θbx to compute the of the normalized deviation. Finally, we test the eciency
of our asymptotic normality by comparing the C.P. of the two models. The latter
is evaluated by the percentage of the true values belong the estimated condence
intervals.

µ M.F C.P.(Robust) C.P.(Claassic)


µ=0 1 0.75 0.75
P.T=0% 5 0.65 0.35
10 0.55 0.25
50 0.55 0.1
100 0.45 0.05
µ=4 1 0.65 0.65
P.T=49% 5 0.5 0.15
10 0.45 0.05
50 0.4 0.05
100 0.4 0
µ=8 1 0.6 0.65
P.T=77% 5 0.5 0.1
10 0.4 0.05
50 0.4 0
100 0.35 0
Table 1 C.P. of a condence interval of asymptotic level 95%.

This Table presents the C.P values in both case (absence and presence of outliers).
It is clear that there is no outliers the two regression models give better results. But,
3.6 Appendix 49

in the presence of outliers the C.P. of the robust case is widely important compared
to the classical one.

3.6 Appendix
Proof Theorems 4.3.1 and 4.3.2.
Similarly to Azzedine et al. (2008), the proof of both Theorems 4.3.1 and 4.3.2 is
based in the fact that ψx is monotone w.r.t. the second component. Noting that,
the proofs of both cases increasing or decreasing case can be obtained by the same
manner. Thus, we give only the proof for the case of a increasing ψx (Y, .). For this
case we write, ∀ > 0

X   X   
P θbx − θx ≥  ≤ P θbx − θx 1I{| θbx −θx |≤δ} ≥ 
n n
X   
+ P θbx − θx 1I| θbx −θx |>δ ≥  .
n

Since ψx (Y, ·) is increasing, it follows that,

X    X  
P θbx − θx 1I{|θbx −θx |>δ} ≥  ≤ P θbx − θx > δ
n n
X  
≤ b θx + δ) − Ψ(x, θx + δ) ≥ Ψ(x, θx + δ)
P Ψ(x,
n
X  
+ P Ψ(x, θx − δ) − Ψ(x, θx − δ) ≥ −Ψ(x, θx − δ) .
b
n

Moreover, under ((H2) (i)), we have


  Ψ(x, θbx ) − Ψ(x,
b θbx )
θbx − θx 1I{|θbx −θx |≤δ} = ∂
∂t
Ψ(x, ξn )

where ξn is between θbx and θx .


Therefore, all what is left to do, is to study the convergence rate of

sup Ψ(x, t) − Ψ(x,


b t)
t∈[θx −δ, θx +δ]

and to show that



∃C > 0, Ψ(x, ξn ) > C almost surely. (3.3)
∂t
3.6 Appendix 50

Unlike to Azzedine et al. (2008) we must introduce the following pseudo-estimators


n  
τ X 1 d(x, Xi )
Ψe D (x) = K
nE[K1 ] i=1 G(Yi ) h

and
n  
τ X 1 d(x, Xi )
Ψ
e N (x, t) = K ψ(Yi , t).
nE[K1 ] i=1 G(Yi ) h

Moreover, we put
n  
τn X 1 d(x, Xi )
Ψ
b N (x, t) = K ψ(Yi , t)
nE[K1 ] i=1 Gn (Yi ) h

and
n  
b D (x) = τn
X 1 d(x, Xi )
Ψ K .
nE[K1 ] i=1 Gn (Yi ) h

Now, we consider the following decomposition

b t) = ΨN (x, t) − Ψ(x, t)
b
Ψ(x, t) − Ψ(x,
Ψ
b D (x)
Ψ
b N (x, t) Ψ(x, t) Ψ(x, t)
= − + − Ψ(x, t)
Ψ
b D (x) Ψ
b D (x) Ψb D (x)
1 b  Ψ(x, t)  
= ΨN (x, t) − Ψ(x, t) + −ΨD (x) + 1
b
Ψ
b D (x) Ψ
b D (x)
1 b e N (x, t) + 1
  h i
= ΨN (x, t) − Ψ e N (x, t) − E Ψ
Ψ e N (x, t)
Ψ
b D (x) Ψ
b D (x)
1  h i 
+ E ΨN (x, t) − Ψ(x, t)
e
Ψ
b D (x)
Ψ(x, t) n e   h i   h i o
+ ΨD (x) − Ψ b D (x) + E Ψ e D (x) − Ψ e D (x) + −E Ψ e D (x) + 1 .
Ψ
b D (x)

Thus, both Theorems are a consequence of the following intermediates results.

Lemma 3.6.1 Under Hypotheses (H1) and (H3)-(H5), we have,


s !
h
e N (x, t) − E Ψ
i log n
sup Ψ e N (x, t) = O [Link].
t∈[θx −δ,θx +δ] nφx (h)
3.6 Appendix 51

We rst state the following lemmas whi ch can be found in Ferraty and Vieu (2006).
They are needed for the strong convergence of our estimates. There proofs will then
be omitted.

Lemma 3.6.2 Let Zi a sequence of i.i.d centred random variables such that ∀m ≥
2, ∃Cm > 0, IE(| Z1m |) < Cm a2(m−1) then
m
!
ε2 n
X  
∀ε > 0, P Zi > εn ≤ 2 exp −
i=1
2a2 (1 + ε)

Lemma 3.6.3 Let Zi a sequence of i.i.d centred random variables such that |Zi | ≤ d
and E(| Z12 |) < Cδ 2 then
m
!  2 
2
X εn
∀ε ∈]0, δ /d[ P Zi > εn ≤ 2 exp − 2
i=1

Proof of Lemma 3.6.1 Sdn


For ln = n−1/2b2 we cover the compact by [θx − δ, θx + δ] ⊂ j=1 (tj − ln , tj + ln ) with
dn = O n1/2b2 . We use the monotony of ψx to show that


h i h i
sup e N (x, t) − E Ψ
Ψ e N (x, t) ≤ max max e N (x, t) − E Ψ
Ψ e N (x, t) +2b2 C2 lb2 .
n
t∈[θx −δ, θx +δ] 1≤j≤dn t∈{tj −ln ,tj +ln }

Since ln = n−1/2b2 then s !


log n
lnb2 =O .
nφx (h)
Therefore, all it remains to show that
s !
h i log n
max max ΨN (x, t) − E ΨN (x, t) = [Link].
e e . (3.4)
1≤j≤dn t∈{tj −ln ,tj +ln } nφx (h)

To do that, we denote by Gn the subset of the intervals extremities grid

Gn = {tj − ln , tj + ln , 1 ≤ j ≤ dn } . (3.5)

and we use the fact that


 h i  X  h i 
P max Ψ e N (x, t) − E Ψe N (x, z) > ε ≤ P Ψe N (x, t) − E Ψe N (x, t) > ε .
t∈Gn
t∈Gn
3.6 Appendix 52

Next, we apply
 the exponential
h inequality
i given in Lemma 3.6.3 to evaluate the
quantities P ΨN (x, t) − E ΨN (x, t) > ε . Indeed, for a xed t ∈ Gn , we write
e e

h i 1X n
ΨN (x, t) − E ΨN (x, t) =
e e Zi
n i=1

where
     
1 τ d(x, Xi ) τ 1 d(x, Xi )
Zi = K ψ(Yi , t) − E K ψ(Yi , t)
E[K1 ] G(Yi ) h G(Yi ) E[K1 ] h

The application of the mentioned inequality is based on evaluation of E(| Z1m |) for
all m ≥ 2. The latter is evaluated by the same arguments used by Ferraty and Vieu
(2006). Indeed, by Newton binomial expansion
m
τk
   
m 1 X
k k d(x, X1 ) k
E[| Z1 |] = C E K ψ (Y1 , t)
E[K1 ]m k=1 m Gk (Y1 ) h
    m−k
τ d(x, X1 )
× E K ψ(Y1 , t)
G(Y1 ) h
Observe that, under (H3) and (H4), we have, for all k > 0
k k
Cτ k
    
τ d(x, X1 ) τ d(x, X1 )
E K ψ(Y1 , t) ≤ CE K ≤ E[K1 ].
G(Y1 ) h G(Y1 ) h Gk (aF )
and
    m−k    m−k
τ d(x, X1 ) d(x, Xi )
≤ C E[K1 ]m−k .

E K ψ(Y1 , z) ≤C E K
G(Y1 ) h h
It follows that
E[| Z1m |] ≤ CE[K1 ]−m+1 .
Then, we can apply Lemma 3.6.2 with a = E[K1 ]−1 . Thus,
p

m
!
ε2 n
 h i  X  
P Ψ e N (x, t) − E Ψe N (x, t) > ε = P Zi > εn ≤ 2 exp − .
i=1
2E[K1 ](1 + ε)
q
Consequently, for ε = ε0 log n
nE[K1 ]
we get
 
log n
 h i  ε20 n nE[K ]
P e N (x, t) − E Ψ
Ψ e N (x, t) > ε ≤ 2 exp −  q1 
2 log n
E[K1 ]
1 + ε0 nE[K1 ]
3.6 Appendix 53

 
ε20
log n
≤ 2 exp −  q  .
log n
2 1 + ε0 nE[K1 ]

Furthermore, using the fact that E[K1 ] = O(φx (h)) we obtain


 h i 
e N (x, t) > ε ≤ 2 exp −Cε2 log nφx (h) ≤ 2n−Cε20 .

P Ψ e N (x, t) − E Ψ
0

It follows that
X  h i 
e N (x, t) − E Ψ
P Ψ e N (x, t) > ε ≤ 4dn n−Cε20 = Cn−Cε20 +1/2b2 .
t∈Gn

Finally, an appropriate choice of ε0 and Borel-Cantelli Lemma's give


s !
h
e N (x, t) − E Ψ
i log n
sup Ψ e N (x, t) = O [Link].
t∈[θx −δ,θx +δ] nφx (h)

which completes the proof.


Lemma 3.6.4 Under Hypotheses (H1), (H2)((i)-(ii)),(H4) and (H5), we have,
h i
sup E Ψe N (x, t) − τ Ψ(x, t) = o(1).
t∈[θx −δ,θx +δ]

Furthermore if we add (H2)(iii), we have


h i
e N (x, t) − τ Ψ(x, t) = O hb1 .

sup E Ψ
t∈[θx −δ,θx +δ]

Proof of Lamma 3.6.4.


By using truncation eect, we have for all t ∈ [θx − δ, θx + δ]
   
τ 1 d(x, X1 )
E[Ψ̃N (x, t)] = E K ψ(Y1 , t)
E[K1 ] G(Y1 )  h
Z Z K d(x,u) ψ(y, t)
τ h
= f ∗ (y|u) dy dPX x (u)
E[K1 ] G(y)
 
Z Z G(y)K d(x,u) ψ(y, t)
τ h
= f (y|u) dy dPX x (u)
E[K1 ] Z Z  τ G(y)

1 d(x, u)
= K ψ(y, t)f (y|u) dy dPX x (u)
E[K1 ]   h  
1 d(x, X1 )
= E K ψ(Y1 , t)
E[K1 ] h
3.6 Appendix 54

    
1 d(x, X1 )
= E E K 1IB(x,h) ψ(Y1 , t)|X1
E[K1 ]   h 
1 d(x, X1 )
= E K 1IB(x,h) E (ψ(Y1 , t)|X1 )
E[K1 ]   h  
1 d(x, X1 )
= E K 1IB(x,h) Ψ(X1 , t)| .
E[K1 ] h
Therefore, for all t ∈ [θx − δ, θx + δ], with (H2) (ii)

| E[Ψ̃N (x, t)] − Ψ(x, t) |= o(1).

On the other hand, if we added (H2) (iii), we have

   
τ d(x, Xi )
| E[Ψ̃N (x, t)] − Ψ(x, t) | ≤ E K1 1IB(x,h) | Ψ(X1 , t) − Ψ(x, t) |
E[K1 ]   h  
d(x, Xi )
≤ E K1 1IB(x,h) C1 d (X1 , x)
b
h
≤ C1 hb1 .

The proof of this Lemma is nished.

Lemma 3.6.5 Under Hypotheses (H1) and (H3)-(H5), we have,


r !
b N (x, t) − Ψ 1
sup Ψ e N (x, t) = O a.s.
t∈[θx −δ,θx +δ] n

Proof of Lemma 3.6.5.


We write for all t ∈ [θx − δ, θx + δ]

n  
b N (x, t) − Ψ τn X 1 d(x, Xi )
Ψ e N (x, t) = K ψ(Yi , t)
nE[K1 ] i=1 Gn (Yi ) h
n  
τ X 1 d(x, Xi )
− K ψ(Yi , t)
nE[K1 ] i=1 G(Yi ) h
n  
τn − τ X 1 d(x, Xi )
= K ψ(Yi , t)
nE[K1 ] i=1 Gn (Yi ) h
  n  
Gn (Y ) − G(Y ) 1 X d(x, Xi )
+τ K ψ(Yi , t)
Gn (Y )G(Y ) nE[K1 ] i=1 h
3.6 Appendix 55

supy∈[a, b] | Gn (y) − G(y) |


 
| τn − τ |
≤ +τ
Gn (aF ) G (a )G(a )
n  n F F
1 X d(x, Xi )
× K ψ(Yi , t).
nE[K1 ] i=1 h

Concerning the rst part of the last term we recall that, it is shown in Theorem 3.2
1
of He and Yang(1998) | τn − τ |= Oa.s. (n− 2 ), while remark 6 of Woodroofe(1985))
1
gives |Gn (aF ) − G(aF )| = Oa.s. (n− 2 ). Furthermore, for the second part we follow the
same line of the proof of Lemma 3.6.1 to show that
s !
n       
1 X d(x, Xi ) d(x, Xi ) log n
sup K ψ(Yi , t) − E K ψ(Yi , t) = O
t∈[θx −δ,θx +δ] nE[K1 ] i=1 h h nφx (h)

and we combine the latter with Lemma 3.1 in Azzedine et al. (2008) to get
n  
1 X d(x, Xi )
sup K ψ(Yi , t) = [Link]. (1).
t∈[θx −δ,θx +δ] nE[K1 ] i=1 h

So, we have
e N (x, t) = Oa.s. (n− 21 )
b N (x, t) − Ψ
Ψ
which is the claimed result
Lemma 3.6.6 Under Hypotheses (H1),(H2), (H4) and (H5), we have,
s !
h i log n
ΨD (x) − E ΨD (x) = O
e e [Link].
nφx (h)

Proof of Lemma 3.6.6.


The proof of this lemma is very close to Lemma3.6.1. It's based on the exponential
inequality given in Lemma 3.6.2 and the following consideration
h i 1X n
ΨD (x) − E ΨD (x) =
e e Li
n i=1

where
    
1 τ d(x, Xi ) 1 τ d(x, Xi )
Li = K − E K .
E[K1 ] G(Yi ) h E[K1 ] G(Yi ) h
Similarly to Lemma 3.6.1, we obtain by (H4)
C C0
and E L2i <
 
|Li | < .
E[K1 ] E[K1 ]
3.6 Appendix 56

So, we apply the exponential inequality of Lemma 3.6.2 to get for all η0 > 0
s !
h i log n 2
P Ψ e D (x) − E Ψe D (x) > η0 ≤ 2 exp{−0 n−Cη0 log n }.
n E(K1 )

Because of (H1) and (H4) we have E(K1 ) = O(φx (h)). Thus, there exist an η0 > 0
such that s !
X h
e D (x) − E Ψ
i log n
P Ψ e D (x) > η0 < ∞.
n
n φx (h)
The last result complete the proof of lemma.

Lemma 3.6.7 Under Hypotheses (H1),(H4) and (H5), we have,


h i
E Ψe D (x) = 1.

Proof of Lemma 7.
By the same fashion of Lemma 3.6.4, we write
d(x, X1 ) 1IY1 ≥T1
    
τ
E[ΨD (x)] =
e E E K |X1 , Y1
E[K1 ]   h  τ G(Y1 )
1 d(x, X1 )
= E K = 1.
E[K1 ] h

Lemma 3.6.8 Under Hypotheses (H1),(H4) and (H5), we have,


r !
b D (x) − Ψ 1
Ψ e D (x) = O a.s.
n

Proof of Lemma 3.6.8.


The proof of this lemma follows the same lines of Lemma 3.6.1. Indeed, it suces to
write,
n  
b D (x) − Ψ τ n
X 1 d(x, X i )
Ψ e D (x) = K
nE[K1 ] i=1 Gn (Yi ) h
n  
τ X 1 d(x, Xi )
− K
nE[K1 ] i=1 G(Yi ) h
supy∈[a, b] | Gn (y) − G(y) |
 
| τn − τ |
≤ +τ
Gn (aF ) Gn (aF )G(aF )
3.6 Appendix 57

n  
1 X d(x, Xi )
× K .
nE[K1 ] i=1 h

Once again we use the result of Theorem 3.2 of He and Yang(1998) and remark 6 of
1
Woodroofe(1985)) where we have, respectively, | τn − τ |= Oa.s. (n− 2 ) and |Gn (aF ) −
n  
− 21 1 X d(x, Xi )
G(aF )| = Oa.s. (n ). While the quantity K is bounded (it
nE[K1 ] i=1 h
can be proved by adding and substriting its expectation).
Finally, we have r !
b D (x) − Ψ 1
Ψ e D (x) = Oa.s.
n
which is the claimed result.

Corollary 6 Under Assumptions (H1), (H2) ((i)-(ii)), (H3)-(H5) and if Ψ0 (x, θx ) 6=


0, then θbx exists a.s. for all suciently large n such that

∃C > 0 Ψ(x, ξn ) > C.
∂t
Proof of Corollary 6.
It is clear that, if ψx (Y, .) is increasing, we have for all  > 0

Ψ(x, θx − ) ≤ Ψ(x, θx ) ≤ Ψ(x, θx + ).

The results of Lemmas 3.6.1-3.6.6 show that


b t) −→ Ψ(x, t) a. s.
Ψ(x,

for all real xed t ∈ [θx − δ, θx + δ]. So, for suciently large n and for all  ≤ δ

b θx + ) a. s..
b θx − ) ≤ 0 ≤ Ψ(x,
Ψ(x,

Since Ψ(x,
b t) is a continuous function of t, there exists a θbx ∈ [θx − , θx + ] such
that Ψ(x,
b θbx ) = 0. Concerning, the uniqueness of θbx , we point out that the latter is a
direct consequence of the strict monotonicity of ψx , w.r.t. the second component and
the positivity of K .
Finally, The second part of this corollary is a direct consequence of the regularity
assumption (H2) (i) on Ψ(x, ·)) and the convergence

θbx → θx n −→ ∞ a. s.
3.6 Appendix 58

Proof of Theorem 3.3.3


We give the proof for the case of a increasing ψx , decreasing case being obtained
by considering −ψx . In this case, we dene, for all u ∈ IR, z = θx − Bn (x) +
u [nφx (h)]−1/2 σ(x, θx ). Let us remark that, if Ψ
b D (x) is not equal to zero, the de-
nition of the estimator by (4.4) is equivalent to

Ψ
b N (x, θbx ) = 0.

Hence, if Ψ
b D (x) 6= 0 we can write
( 1/2  )
nφx (h) 
bx − θx + Bn (x) < u
n
bx < θx − Bn (x) + u [nφx (h)]−1/2 σ(x, θx )
o
P θ = P θ
σ 2 (x, θx )
n o
= P 0<Ψ b N (x, z)
n h i   h i o
= P E ΨN (x, z) − ΨN (x, z) < ΨN (x, z) + E ΨN (x, z) − ΨN (x, z) .
e e b e e

Therefore, Theorem 3.3.3 is a consequence of Lemma 3.6.1 and the following inter-
mediates results.

Lemma 3.6.9 Under Hypotheses (H1)-(H3) and (H5) , we have


n o
P Ψb D (x) = 0 −→ 0 as n −→ ∞.

Proof of Lemma 3.6.9.


Since the Xi 's are independent we get, under (H1), (H3) and (H40 )
n
!
n o \
P Ψ b D (x) = 0 = P {ω ∈ Ω such that Xi (ω) 6∈ B(x, h)}
i=1
= (1 − φx (h))n ≤ exp(−nφx (h)) → 0.

Lemma 3.6.10 Under the Hypotheses of Theorem 3.3.3, we have for any x ∈ A
!1/2
nφx (h)  h i
D
2 ΨN (x, z) − E ΨN (x, z)) → N (0, 1) as n → ∞.
e e

∂t
Ψ(x, θx ) σ 2 (x, θx )

Proof of Lemma 3.6.10


Firstly we show the following limit
 2
h i ∂
nφx (h)V ar ΨN (x, z) →
e Ψ(x, θ(x)) σ 2 (x, θ(x)). (3.6)
∂t
3.6 Appendix 59

Denition of Ψ
e N (x, z) allows to write that
2 n  
h i τ X K i ψ(Y i , t)
V ar Ψe N (x, t) = V ar
(n E[K1 ])2 i=1 G(Yi )
τ2
 
K1 ψ(Y1 , t)
= V ar
n E2 [K1 ] G(Y1 )
2
 2 2 2
τ2
  
τ K1 ψ (Y1 , t) K1 ψ(Y1 , t)
= E − E . (3.7)
n E2 [K1 ] G2 (Y1 ) n E2 [K1 ] G(Y1 )
Now, using the truncation eect to the rst term of (3.7), we have
 
 2 2  Z Z K 2 d(x,u) ψ 2 (y, t)
K1 ψ (Y1 , t) h
E 2
= 2
f ∗ (y|u)dy dPX x (u)
G (Y1 ) G (y)
 
Z Z G(y)K 2 d(x,u) ψ 2 (y, t)
h
= 2
f (y|u)dy dPXx (u)
τ G (y)
 2 2 
1 K1 ψ (Y1 , t)
= E .
τ G(Y1 )

2
τ E [K12 ] K1 ψ (Y1 , t)1IY1 ≥T1 K1 ψ(Y, t)1IY1 ≥T1
 2 2   
1
= E − E . (3.8)
n E2 [K1 ] G2 (Y1 )E [K12 ] n G(Y1 )E [K1 ]
So,
2
1
I
  2 2

h i φx (h)τ E [K 1 ] K 1 Y 1 ≥T1 (ψ(Y 1 , z))
nφx (h)V ar Ψ
b N (x, z) = E
E2 [K1 ] G2 (Y1 )E [K12 ]
2
K1 1IY1 ≥T1 ψ(Y1 , z)
 
− φx (h) E . (3.9)
G(Y1 )E [K1 ]
Noting that the limit of the second term of the right hand side of (3.9) has been
treated in Lemma 3.6.4 where we have shown
K1 1IY1 ≥T1 ψ(Y, t)
 
∀t ∈ IR, E −→ Ψ(x, t). (3.10)
G(Y1 )E [K1 ]
Then,
K1 1IY1 ≥T1 ψ(Y, t)
  
φx (h) E −→ 0.
G(Y1 )E [K1 ]
Now, we compute the limit of the rst term of the right hand side of (3.9). Clearly,
under (H2)
K1 1IY1 ≥T1 ψx2 (Y, t) d(x, X1 ) 1IY1 ≥T1 2
 2     
1 2
E = E K ψ (Y1 , t)
G2 (Y1 )E [K12 ] E[K12 ] h G2 (Y1 )
3.6 Appendix 60

d(x, X1 ) 1IY1 ≥T1 2


    
1 2
= E E K ψ (Y1 , t)|X1 , Y1
E[K12 ]   h G2 (Y1 ) 
1 2 d(x, X1 ) 1 2
= E K ψ (Y1 , t)
E[K12 ]   h  G(Y1 ) 
1 d(x, X1 )
= E K 1IB(x,h) Ψ (X1 , t) .
2, G
E[K12 ] h

The continuity of Ψ2, G (·, ·) ensure that

K1 1IY1 ≥T1 ψx2 (Y, t)


 2 
E = Ψ2, G (x, θx ) + o(1).
G2 (Y1 )E [K12 ]

We return to Ferraty et al. (2007) for the asymptotic expression of

1
E[K1j ] = αj + o(1); j = 1, 2. (3.11)
φx (h)

Therefore  2
h i ∂
nφx (h)V ar Ψe N (x, t) → Ψ(x, θ(x)) σ 2 (x, θ(x)).
∂t
Let's now prove the claimed result. The latter is based on the version of the central
limit Theorem given in Loève (1963, p. 275). To do that, we write
n
e N (x, t) = 1
h i X
e N (x, t) − E Ψ
Ψ Zi
n i=1

where
   
1 τ d(x, Xi ) τ 1 d(x, Xi )
Zi = K ψ(Yi , t) − E K ψ(Yi , t).
E[K1 ] G(Yi ) h G(Yi ) E[K1 ] h

It is enough to show that for some δ > 0


n
X
E |Zi − E [Zi ] |2+δ
 
i=1
n
!!(2+δ)/2 → 0.
X
V ar Zi
i=1

n
!
1X 2
Clearly, the above calculations show that nφx (h)V ar Zi converges to ∂t
∂
Ψ(x, θ(x)) σ 2 (x, θ(
n i=1
as n tends to innity. Therefore, to conclude the proof of this Lemma, it is enough
3.6 Appendix 61

to show that the numerator of the above expression converges to 0. For this, we use
the Cr -inequality (see Loève (1963), p. 155) we show that,
n  
X 2+δ
(1+δ/2)
(nφx (h)) E Zi − E [Zi ]
i=1
n
X
1+δ (2+δ)/2
E |Zi |2+δ
 
≤2 (nφx (h))
i=1

n
X
(2+δ)/2
+21+δ
(nφx (h)) |E [Zi ] |2+δ . (3.12)
i=1

Observe that, according to (3.11), we have, for all j > 0, E K1j = O(φ(h)), then,
 

because G−1 is bounded and E[ψ 2+δ (Y, t)|X] < ∞, we have
n
X  φ(h) 2+δ 
21+δ (nφx (h))(2+δ)/2 E |Zi |2+δ | = 21+δ n−δ/2 (φ(h))−1−δ/2 E K12+δ E[ψ 2+δ (Y, t)|X]
  
i=1
E[K1 ]
 φ(h) 2+δ   
≤ C(nφx (h))−δ/2 E K12+δ /φx (h) −→ 0.

E[K1 ]
0
The last limit is a consequence of Assumption (H5 ).
For the second term of (3.12) we use once again the fact that E[ψ(Y, t)|X] < ∞ to
get
n
X 2+δ
(2+δ)/2
21+δ
(n(φ(h))) |E [Zi ] |2+δ ≤ 21+δ n−δ/2 (φ(h))(2+δ)/2) E−2−δ [K1 ] E [K1 ψ(Y1 , t)]
i=1

≤ Cn−δ/2 (φ(h))(2+δ)/2) → 0,

which completes the proof.

Lemma 3.6.11 Under hypotheses (H10 ), (H3) and (H6) we have


!1/2
nφx (h) h i
e N (x, z) = u + o(1), as
2 E Ψ n → +∞.

∂t
Ψ(x, θ(x)) σ 2 (x, θx )

Proof of Lemma 3.6.11


Observe that in Lemma 3.6.4 we have shown that
h i 1
E Ψ e N (x, t) = E [K1 (x)ψx (Y, t)]
E[K1 (x)]
3.6 Appendix 62

and by a simple manipulations we have


h i 1
E Ψ e N (x, t) = E [K1 (x)ψx (Y, t)]
E[K1 (x)]
E {K1 (x) [E[ψx (Y, t)|X1 ] − E[ψx (Y, t)|X = x]]}
=
E[K1 (x)]
+ E[ψx (Y, t)|X = x] − E[ψx (Y, θ(x))|X = x]
=: I1 + I2 . (3.13)
For I1 (x) we use the same arguments as those used in Ferraty et al. (2007) and under
(H2) to write that
E [K1 (x) [E[ψx (Y, t)|X1 ] − E[ψx (Y, t)|X = x]]] = E [K1 (x) [E[Ψ(X1 , t) − Ψ(x, z)|d(x, X1 )]]]
= E [K1 (x) [E[Φ(d(x, X1 ), t)]]]
Z
= Φ(th, t)K(t)dPd(X,x)/h (t)
Z
0
= hΦ (0, t) tK(t)dPd(X,x)/h (t). (3.14)

Using the continuity of Φ0 (0, ·) and the fact that


Z Z 1
tK(t)dP d(X,x)/h
(t) = K(1) − (sK(s))0 βx (s)ds + o(1)
0

to obtain that
I1 = Bn (x) + o(h).
Concerning I2 we use a Taylor expansion to get, under (H10 ) and (H40 )

−1/2 ∂ 
−1/2

I2 = −Bn (x) + u [nφx (h)] σ(x, θ(x)) Ψ(x, θ(x)) + o [nφx (h)] .
∂t
The result is then a consequence of (3.13).

References
Andersen, P.K., Borgan, O., Gill, R.D. and Keiding, N. (1993). Statistical Models
Based on Counting Processes. Springer, New York.
Attouch, M., Laksaci, A. and Ould Saïd, E. (2009). Asymptotic distribution of ro-
bust estimator in nonparametric functional models, Comm. in Statist. Theory and
Methods, 38, 1317-1335.
Attouch, M., Laksaci, A. and Ould Saïd, E. (2010). Asymptotic normality of a robust
estimator of the regression function for functional time series, J. Korean Statist. Soc.,
39, 489500.
3.6 Appendix 63

Attouch, M., Laksaci, A. and Ould Saïd, E. (2012). Robust regression for functional
time series data. J. Japan Statist. Soc. , 42 , 125143.
Azzedine, N., Laksaci, A. and Ould Saïd, E. (2008). On the robust nonparametric
regression estimation for functional regressor, Statist. Probab. Lett. 78 :3216-3221.
Boente, G. and Fraiman, R. (1989). Nonparametric regression estimation. J. Multi-
variate Anal. 29, 180-198.
Boente, G., Gonzalez-Manteiga, W. & Pérez-Gonzalez, A. (2009). Robust nonpara-
metric estimation with missing data. J. Statist. Plann. Inference. 139, 571-592.
Collomb, G. and Härdle, W. (1986). Strong uniform convergence rates in robust non-
parametric time series analysis and prediction : Kernel regression estimation from
dependent observations. Stoch. Proc. Appl. 23, 77-89.
Chen, J. and Zhang, L. (2009). Asymptotic properties of nonparametric M-estimation
for mixing functional data, J. Statist. Plan. and Inference 139, 533-546.
Crambes C, Delsol L. and Laksaci A. (2008). Robust nonparametric estimation for
functional data, J. Nonparametric Statist. 20, 573-598.
Ferraty, F. and Vieu, P. Nonparametric Functional Data Analysis. Theory and Prac-
tice, Springer-Verlag, New York, 2006.
Ferraty, F. and Romain, Y. (2011). The Oxford Handbook of Functional Data Analysis.
Oxford University Press.
Gheriballah, A. Laksaci, A. and Sekkal, S. (2013) Nonparametric M -regression for
functional ergodic data. Statist. Probab. Lett. , 83, 902908.
He, S.,Yang, G. (1994). Estimating a lifetime distribution under dierent sampling
plan. In S.S. Gupta J.O. Berger (Eds.) Statistical decision theory and related topics
(Vol. 5. pp. 73-85) Berlin Heidelberg, NewYork : Springer.
He, S. and Yang, G. (1998). Estimation of the truncation probability in the random
truncation model. The Annals of Statistics, 26, 10111027.
Horrigue, W. and Ould Saïd, E. (2011). Strong uniform consistency of a nonparame-
tric estimator of a conditional quantile for censored dependent data and functional
regressors. Random Oper. Stoch. Equ., 19 , 131156.
Horrigue, W. and Ould Saïd, E. (2014). Nonparametric regression quantile esti-
mation for dependant functional data under random censorship : Asymptotic nor-
mality. To appear in Comm. in Statistics. Theory and Methods. DOI number :
10.1080/03610926.2013.784993.
Huber, P.J. (1964). Robust estimation of a location parameter. Annals of the Mathe-
matical Statistics, 35, 73-101.
Laïb, N. and Ould Saïd, E. (2000). A robust nonparametric estimation of the auto-
regression function under an ergodic hypothesis. Canadian Journal of Statistics, 28,
817-828.
Lemdani, M. and Ould Saïd, E. (2007). Asymptotic behavior of hazard rate kernel
estmator under truncated and censored data, Comm. in Statist. Theory and Methods,
37, 155173.
3.6 Appendix 64

Loève, M. Probability theory I. Springer-Verlag. New-York, 1977.


Lynden-Bell, D. (1971) Amethod of allowing for known observational selection in
small samples applied to 3CR quasars. Monthly Notices of the Royal Astronomical
Society, 155, 95118.
Ould Saïd, E. and Lemdani, M. (2006). Asymptotic properties of a nonparametric
regression function estimator with randomly truncated data. Ann. Inst. Statist. Math.,
58, 357378.
Stone, C. (1981). Optimal rates of convergence for nonparametric regression. Ann.
Statist., 9, 1348-1360.
Stute, W. (1993). Almost sure representations of the product-limit estimator for trun-
cated data. Ann. Statist., 21, 146156.
Wang, J., Liang, H.Y. and Fan, G. (2012a). Asymptotic properties for an M-estimator
of the regression function with truncation and dependent data. Journal of the Korean
Statistical Society, 41, 35367.
Wang, J., Liang, H.Y. and Fan, G. (2012b). Local M-estimation of nonparametric
regression with left-truncated and dependent data. Scientia Sinica Mathematica, 42,
9951015.
Woodroofe, M. (1985). Estimating a distribution function with truncated data. The
Annals of Statistics, 13, 163177.
Chapitre 4

Convergence presque complète : Cas


α-mélange

Ce chapitre traite la convergence presque complète d'un estimateur robuste du regres-


seur fonctionnel tronquée à gauche pour des données α-mélangeantes, ces résultats
font l'objet d'un article soumis dans le journal Eletronic Journal of statistics.
4.1 Introduction 66

M -estimation of the regression function under


random left truncation and functional time series
model

Saliha Derrar,† Ali Laksaci,†



Laboratoire de Statistique et Processus Stochastiques,
Université de Sidi Bel Abbès,
BP 89 Sidi Bel Abbès 22000. Algeria.
derrarsaliha@[Link], alilak@[Link]
Elias Ould Saïd,††, ∗
††
Univ. Lille Nord de France,

ULCO, LMPA, Centre de la Mi-Voix,
CS : 80699, Calais, France.
ouldsaid@[Link] 1

Abstract In this paper we study the M -estimation of the functional nonparametric


regression when the response variable is subject to left-truncation by an other random
variable. Under standard assumptions, we get the almost complete convergence rate
of this robust estimate when the sample is an α-mixing sequence. This approach can
be applied in time series analysis to the prediction problem. We point out that we
treat the general case where the derivative of the lost function is unbounded.
AMS subject classications : 60G42, 62F12, 62G20, 62G05.

Key words : Asymptotic normality, Functional data, Kernel estimator, Lynden-Bell


estimator, Robust estimation, Small balls probabilities, Strong consistency, Trunca-
ted data.

4.1 Introduction
Let (Yi )i=1,...,N be a sample of real random variables (rv) with common unknown
distribution function (df) F . Here the integer N is unknown but deterministic. Let
(Xi )i=1,...,N a corresponding sample which is valued in F , where F is a semi-metric
space and endowed with the semi-metric d. The Yi 's are regarded as the lifetimes
of the items under study and are supposed to be subject to left-truncation which
may occur if the time origin of the lifetime precedes the time origin of the study.
1. corresponding author
4.1 Introduction 67

Only subjects that fail after the start of the study are being followed, the others
being truncated. We denote by (Ti )i=1,...,N the sample of truncation rv with d.f. G.
The Ti 's are assumed to be independent of the Yi 's. Then (Yi , Ti ) are observed only
when (Yi ≥ Ti ). Clearly the initial sample is not completely observed and only n
observations (among N ) are obtained. We point out that n is random but known.
Such data, arises in many elds such as astronomy, economics and medical studies (see
e.g., Woodroofe (1985)). In what follows, we denote again (if there is no-confusion
for the index) {(Yi , Ti , Xi ), i = 1, · · · , n}, (n ∈ IN), the observed sample from the
original N -sample. As a consequence of truncation, the size of the actually observed
sample, n is a Bin(N, µ) random variable, with τ := IP(Y ≥ T ). It is clear that if
τ = 0, no data can be observed and therefore, we suppose throughout this paper that
τ > 0. By the strong law of large numbers (SLLN) we have, as N → ∞
n
τbn := −→ τ, IP − a.s. (4.1)
N
Since the N is unknown and the n is known (although random), our results would not
be stated with respect to the probability measure IP (related to the N -sample) but will
involve the conditional probability P(·) = IP(·|Y > T ) with respect to the actually
observed n-sample. Also E and IE will denote the expectation operators under P and
IP, respectively.
Considering this situation we model the co-variation between X and Y by the M -
regression function. Specically, for a given function ρ(., .) on IR with the unique
minimizer at the origin with respect to (w.r.t.) the second component, dene the
M -regression θx such that it minimizes w.r.t. t

Γ(x, t) = IE [ρ(Y, t) | X = x] (4.2)

that is

θx = arg min Γ(x, t). (4.3)


t∈IR

Noting that this denition covers and includes many important nonparametric mo-
dels, for example, ρ(y, t) = (y − t)2 yields the classical regression, ρ(y, t) = |y − t|
leads to the conditional median function m(x) = med(Y |X = x), the αth conditional
quantile is obtained by setting ρ(y, t) = |y − t| + (2α − 1)(y − t). The M -regression
function is an old model in nonparametric robust statistic. Precisely, this model has
introduced by Huber (1964). In general the nonparametric robust regression model
has received extensive attention in the literature when the data takes values in -
nite dimensional space. The key references on the nonparametric robust regression
estimation are Robinson (1984), Collomb and Härdle (1986), Boente and Fraiman
(1989 and 1990), Fan et al. (1994) Laïb and Ould Saïd (2000), Boente et al. (2009).
The nonparametric robust regression estimation was rstly introduced, as far as we
4.1 Introduction 68

know, in nonparametric functional statistics by Azzedine et al. (2008). They obtained


the almost complete convergence of a family of robust estimators of the regression
function in the independent and identically distributed (i.i.d.) case. Crambes et al.
(2008) stated the convergence in Lq norm in both cases (i.i.d and strong mixing). The
asymptotic normality of this last model has been established by Attouch et al. (2010),
under the concentration properties on small balls of the probability measure of the
underlying functional variable. We return to Chen and Zhang (2009), Attouch et al.
(2009, 2010, 2012), Gheriballah et al. (2013) for some asymptotic results in functional
time series data of the the nonparametric robust regression. While all these results are
obtained in the complete data. In this work we study the nonparametric robust re-
gression estimation the data are incomplete. For the censored case, Lemdani and Ould
Saïd (2015) introduced a robust estimate of the regression function and established
its uniform strong consistency with rate over a compact set as well as its asympto-
tic normality in iid case. Chaouch et al. (2014) extended the last results to ergodic
case. At the best of our knowledge, only the papers of Horrigue and Ould Saïd (2011,
2015), Helal and Ould Saïd (2016) and Derrar et al. (2015) have paid attention to the
nonparametric estimation with censored and truncated data and functional regressors
respectively. The rst authors have studied the conditional quantiles estimation for
censorship model and functional regressors in dependent case. While in the second
paper the authors study the conditional quantile in the truncated data and functional
regressors for the iid case. In the later paper, the authors introduced, for the same
model as in Helal and Ould Saïd (2016) a new family of the ψ -regression function
in the i.i.d case. We recall that in the nite dimensional case, the nonparametric es-
timation of the regression function with randomly truncated data has been widely
considered by many authors. For example, and to cite only a few, the pioneer work of
Ould Saïd and Lemdani (2006) where they studied the asymptotic properties of the
kernel estimator of the regression function in i.i.d. case, however Wang et al. (2012a)
extended the last results to and Wang et al. (2012b) studied M-estimation method
by using the local polynomial technique under dependent condition.
The main object of this paper is to generalize to dependent case the results obtained
by Derrar et al. (2015) in the i.i.d case. More precisely, we establish the almost-
complete convergence, with rates of an estimator constructed by combining the ideas
of robustness with those of smoothed regression. We point out that the main feature of
our approach is to develop an alternative prediction model to the classical regression
that is not sensitive to outliers or heteroscedastic data.
The paper is organized as follows : Section 2 is devoted to the presentation of our
estimate and some background for the truncated data with the estimation of their
distribution functions. Section 3 is dedicated to xing notations and hypotheses. We
state our main result in Section 4, whereas the proofs of the main results are relegated
to the Appendix.
4.2 Construction of the estimate and background for truncation model 69

4.2 Construction of the estimate and background for


truncation model
Consider (Ti )i=1,...N be a sample of i.i.d. random variables which are distributed as T ,
where N is unknown but deterministic. Without possible confusion, we still denote
(Yi , Ti ), i = 1, 2, ..., n; (n ≤ N ) the actually observed r.v., with n being random but
known. Thus, taking into account the truncation's eect the practical estimator is
constructed by the observed variables (Xi , Yi , Ti )i=1,...n . To do that, we suppose that
the variable of interest Y and the truncating variable T are independent and have,
respectively, an unknown distribution function F and G. Following Stute (1993) the
distribution functions of Y and T , under the left-truncation condition, are expressed,
respectively, by
Z y Z ∞

F (y) := τ −1
G(v)dF (v) and ∗
G (t) := τ −1
G(t ∧ v)dF (v)
−∞ −∞

where t ∧ v = min(t, v) and they are estimated by their empirical ones.


Let
R(y) = G∗ (y) − F ∗ (y) = τ −1 G(y)[1 − F (y)].
and also it is estimated by its empirical one.
Recall that the distribution function F and G are estimated by the Lynden-Bell (1971)
as follows
Y Fn∗ (s) G∗n (s)
 Y 
Fn (y) = 1 − 1− and Gn (y) = 1− .
s≤y
Rn (s) s>y
Rn (s)

He and Wang (1998) showed that τ can be estimated by

Gn (y)F̄n (y)
τn = .
Rn (y)
and is independent of y .
The asymptotic properties of Fn and Gn were studied by Woodroofe (1985), while
the almost sure consistency of τn was obtained by He and Yang (1998). Finally let's
point out that the asymptotic proprieties of Fn , Gn and τn are obtained under an
identiability conditions that are aG ≤ aF , bG ≤ bF where aW and bW the endpoints
of the support of a distribution function W dened by

aW = inf{x : W (x) > 0} and bW = sup{x; W (x) < 1}.

Let a, b be two real numbers such that [a, b] ⊂ [aF , bF ]. We point out that we need
this assumption because we need the uniform consistency of the distribution law G(·)
4.3 Hypotheses and results 70

of the truncated rv T , which stated over compact set (see Remark 6 in Woodroofe
(1985). Furthermore we suppose that our parameter is such that θx ∈ (a, b).
Given an observed triplet random variables (X1 , Y1 , T1 ), . . . (Xn , Yn , Tn ), and combi-
ning the ideas in Ferraty and Vieu (2006) and Ould Saïd and Lemdani (2006), the
kernel estimate of the M -regression function θx denoted θbx is
θbx = arg min Γ(x,
b t), (4.4)
t∈IR

where n
X
G−1 −1
n (Yi )K(h d(x, Xi ))ρ(Yi , t)
i=1
Γ(x,
b t) =
n
X
G−1 −1
n (Yi )K(h d(x, Xi ))
i=1
and h := hn .

Noting that, in nonparametric modeling, robust regression is a very important regres-


sion analysis tool because it is less sensitive to outliers in the data compared with the
classical regression. On the other hand the statistical analysis of innite dimensional
data has been the subject of several works in the recent statistical literature. We
cite for instance, Ramsay and Silverman (2005), Ferraty and Vieu (2006), Horvàth
and Kokozsca (2012) or Bongiorno et al. (2014) for general books). Moreover, the
regression analysis of incomplete data (censored and/or truncated data) has gained a
particular interest in the statistics literatures. Such kind of data occur in many elds
of applications such as in astronomy, economics, epidemiology, biometry and medical
studies (see, Woodroofe (1985), Andersen et al. (1993) or He and Yang (1994)). For
example, in a retirement center, subjects are observed only if they live long enough
to enter the retirement house. The lifetime, say Y , is then left truncated by the reti-
rement house entry age, say T . People who enter the retirement house earlier may get
better medical attention and therefore live longer. On the other hand, people with
poor health and shorter expected lifetime may retire earlier. The main aim of this
contribution is to bring together these three areas, namely, the robust analysis, the
functional data and the regression analysis of incomplete data. The main asymptotic
result of this contribution is the establishment of the almost complete consistency of
(3) with rates, under the the strong mixing conditions.

4.3 Hypotheses and results


We begin by recalling the denition of the strong mixing property. For this we
introduce the following notations. Let Fik (Z) denote the σ−algebra generated by
{Zj , i ≤ j ≤ k} .
4.3 Hypotheses and results 71

Denition 1. Let {Zi , i = 1, 2, ...} be a strictly stationary sequence of random va-


riables. Given a positive integer n, set
α(n) = sup { | P(A ∩ B) − P(A)P(B) | : A ∈ F1k (Z) and B ∈ Fk+n

(Z),
k is strictly positive integer } .

The sequence is said to be α-mixing (strong mixing) if the mixing coecient α(n) → 0
as n → ∞.
There exist many processes fullling the strong mixing property. We quote, here, the
usual ARMA processes (with innovations satisfying some existing moment conditions)
are geometrically strongly mixing, i.e., there exist υ ∈ (0, 1) and C > 0 such that,
for any n ≥ 1, α(n) ≤ C υ n (see, e.g., Jones (1978)). The threshold models, the
EXPAR models (see, Ozaki (1979)), the simple ARCH models (see Engle (1982)),
their GARCH extension (see Bollerslev (1986)) and the bilinear Markovian models
are geometrically strongly mixing under some general ergodicity conditions. For more
details we refer the reader to the monographs of Bradley (2007) or Dedecker et al.
(2007).
In the remainder of the paper, we suppose that (Xn , Yn )n≥1 is strongly mixing whose
coecient α(n) , x is a xed point in F and when no confusion is possible, we will
denote by C and C 0 some strictly positive generic constants.
We need the following hypotheses which gathered here together to easy references.
(H1) P(X ∈ B(x, r)) =: φx (r) > 0, ∀ r > 0, where B(x, r) = {x0 ∈ F : d(x0 , x) < r}.
(H2) The function Γ is such that :

(i) The function Γ(x, ·) is of class C 2 on [θx − δ, θx + δ], δ > 0.




(ii)∀t ∈ [θx − δ, θx + δ], ∀(x1 , x2 ) ∈ Nx × Nx , |Γ(x1 , t) − Γ(x2 , t)| ≤ Cdb (x1 , x2 ),


 whereNx is a xed neighborhood of x.
(iii) For each xed t ∈ [θx − δ, θx + δ], the function Γ(·, t) is continuous at the point x.


(H3) ρ is a strictly convex function, continuously dierentiable w.r.t. the second com-
∂ρ(y, t)
ponent, and its derivative, ψ(y, t) = , such that
∂t
IE |ψ(Y, t)|2 |X < C < ∞ and E [|ψ(Y, t)|p ] < C < ∞, p > 2.
 

(H4) The observed sequence (Xi , Yi )i∈IN satises : ∃a > 0, ∃c > 0 : ∀n ∈ IN, α(n) ≤
cn−a and

 ∀i 6= j, ∀t ∈ [θx − δ, θx + δ], j , t)|Xi , Xj ] ≤C < ∞,
E [ψ(Yi , t)ψ(Y
a/(a−1)
φx (h)
 P ((Xi , Xj ) ∈ B(x, r) × B(x, r)) = O n2/p
.

(H5) K is a function with support (0, 1) such that 0 < C1I(0,1) < K(t) < C 0 1I(0,1) < ∞.
4.3 Hypotheses and results 72

(H6) There exists η > 0, such that


(4−a) 2a
Cn (a+1) +η ≤ φx (h) ≤ n (2−a)p ,
 √ 
3p+1+ p2 +22p+1
where and a > max 4, p, p−2
.

Remarks on the assumptions


Our assumptions are standard in nonparametric functional statistics. Hypothesis (H1)
is checked for several continuous time processes (see for instance Bogachev (1999) for
a Gaussian measure and Li and Shao (2001) for a general Gaussian process). This
conditions is the same as those used by Ferraty and Vieu (2006). More precisely, even
if φx (r) depends strongly on the center ball x, but this function can be asymptoti-
cally explicated for several well-known continuous time processes. Indeed, in many
examples of continuous time processes, the function φx (r) can be written approxima-
tively as the product of two independent functions g(x) and φ(r). For instance, it is
shown in It is well known that, the latter can be quantied for several continuous
time processes such as a Gaussian processes, Diusion processes where the function
φ(r) has the following general form Corollary 4.7.8 in Bogachev (1999, page 186), that
the expression of the Onsager-Machlup function of the couple (x, z), for the Gaussian
measures on a semi-normed space (F, k · k), is given by :
 
P(X ∈ B(x, r)) 1 1
F (x, z) = log lim = kπ(z)k2H − kπ(x)k2H
r→0 P(X ∈ B(z, r)) 2 2
where k · kH is the Hilbert norm on the Cameron-Martin space of F associated to
a Gaussian measure, denoted by H , and π(·) is the orthogonal projection onto the
orthogonal complement of the set {a ∈ H, such that kak = 0}. So, in this case, the
small ball probability function φx (r) can be written as φx (r) = g(x)φ(r) + o(φ(r))
with  
1
g(x) = exp − kπ(x)kH 2
and φ(r) = P (X ∈ B(0, r)) .
2
Then
    
C C
γ
φ(r) = r exp − p + o r exp − pγ
for some γ > 0 and p > 0.
r r
Conditions (H2) and (H3) on the score function is a quite lower than that considered in
Crambes et al. (2008) or Attouch et al. (2010) where ψ is assumed to be continuously
dierentiable. The robustication condition (H3) is veried for the usual functions
(Andrews, Huber, Hampel, Tuckey, . . . ) which gives more exibility in the practical
choice of ρ. Condition (H4) controls the local dependency of the functional time series
data. Assumptions (H5) and (H6) are standard technical conditions in nonparametric
estimation. They are imposed for the sake of simplicity and brevity of the proofs.
4.4 Appendix 73

Théoreme 4.3.1 Assume that (H1), (H2)((i), (iii)) and (H3)-(H6) are satised,
then θbx exists for all suciently large n. Furthermore, we have

θbx − θx → 0 a.s.

In order to give a more accurate asymptotic result, we replace (H2) (iii) by H2(ii)
and we obtain the following result

Théoreme 4.3.2 Assume that (H1), (H2) ((i), (ii)) and (H3)-(H6) are satised,
then θbx exists a.s. for all suciently large n. Furthermore, if Γ00 (x, ·)(x, θx ) 6= 0 we
have s !
log n
θbx − θx = O hb + O

a.s.
nφx (h)

4.4 Appendix
For the proofs of the Theorem 4.3.1 and 4.3.2 we use the fact that ρ is a strictly
convex function and continuously dierentiable w.r.t. the second component, then ψ
is strictly monotone and continuous w.r.t. the second component. We give the proof
for the case of a increasing ψ(Y, ·), decreasing case being obtained by considering
−ψ(Y, ·). Therefore, we can write, under this consideration, for all  > 0

Γ0 (x, θx −) ≤ Γ0 (x, θx ) = 0 ≤ Γ0 (x, θx +) and Γ


b0 (x, θbx −) ≤ Γ
b0 (x, θbx ) = 0 ≤ Γ
b0 (x, θbx +).

Hence, for all  > 0, we have


   
0 0 0
P |θx − θx | ≥  ≤ P |Γ (x, θx + ) − Γ (x, θx + )| ≥ Γ (x, θx + )
b b
 
+ P |Γb0 (x, θx − ) − Γ0 (x, θx − )| ≥ −Γ0 (x, θx − ) .

So, it suces to show that


b0 (x, t) − Γ0 (x, t) → 0
Γ [Link]. for t := θx ± . (4.5)

Moreover, under ((H2) (i)), we get that

Γ0 (x, θbx ) − Γ
b0 (x, θbx )
θbx − θx =
Γ00 (x, ξn )
4.4 Appendix 74

where ξn is between θbx and θx . As long as we could be able to check that



X
∃τ > 0, P (Γ00 (x, ξn ) < τ ) < ∞, (4.6)
n=1

we would have
!
θbx − θx = [Link]. sup |Γ0 (x, t) − Γ
b0 (x, t)| .
t∈[θx −δ, θx +δ]

Therefore, all what is left to do, is to study the convergence rate of

sup |Γ0 (x, t) − Γ


b0 (x, t)|.
t∈[θx −δ, θx +δ]

To do that, we write

b0 (x, t) = ΨN (x, t)
b
Γ
Ψ
b D (x)

with n 

b N (x, t) = τn
X 1 d(x, Xi )
Ψ K ψ(Yi , t),
nE[K1 ] i=1 Gn (Yi ) h
n  
τn X 1 d(x, Xi )
ΨD (x) =
b K
nE[K1 ] i=1 Gn (Yi ) h
and we consider the following decomposition

b0 (x, t) − Γ0 (x, t) = 1
h h i  h i i
Γ b N (x, t) − E Ψ
Ψ b N (x, t) − Γ0 (x, t) − E Ψb N (x, t)
Ψ
b D (x)

Γ0 (x, t) h h b i i
+ E ΨD (x) − ΨD (x) .
b (4.7)
Ψ
b D (x)

Unlike to Attouch et al. (2012) we must introduce the following pseudo-estimators


n  
τ X 1 d(x, Xi )
Ψe D (x) = K
nE[K1 ] i=1 G(Yi ) h

and
n  
τ X 1 d(x, Xi )
Ψ
e N (x, t) = K ψ(Yi , t).
nE[K1 ] i=1 G(Yi ) h
4.4 Appendix 75

Moreover, we put
n  
τn X 1 d(x, Xi )
Ψ
b N (x, t) = K ψ(Yi , t)
nE[K1 ] i=1 Gn (Yi ) h

and
n  
b D (x) = τn
X 1 d(x, Xi )
Ψ K .
nE[K1 ] i=1 Gn (Yi ) h

Now, we consider the following decomposition

b0 (x, t) − Γ0 (x, t) = ΨN (x, t) − Ψ(x, t)


b
Γ
Ψ
b D (x)
b N (x, t) Ψ(x, t) Ψ(x, t)
Ψ
= − + − Ψ(x, t)
Ψ
b D (x) Ψ
b D (x) Ψb D (x)
1 b  Ψ(x, t)  
= ΨN (x, t) − Ψ(x, t) + −Ψb D (x) + 1
Ψ
b D (x) Ψ
b D (x)
1 
e N (x, t) + 1
b N (x, t) − Ψ
 
e N (x, t) − E Ψ
h i
= Ψ Ψ e N (x, t)
Ψ
b D (x) Ψ
b (x)
1  he i  D
+ E ΨN (x, t) − Ψ(x, t)
Ψ
b D (x)
Ψ(x, t) n e   h i   h i o
+ ΨD (x) − Ψb D (x) + E Ψ e D (x) − Ψ e D (x) + −E Ψ e D (x) + 1 .
Ψ
b D (x)

Thus, both Theorems are a consequence of the following intermediates results.


Lemma 1.
Under Hypotheses (H1), (H4)-(H6), we have,
s !
e D (x) − E Ψ
h i log n
Ψ e D (x) = O [Link].
nφx (h)

Proof. For all x ∈ F , for all i = 1, . . . , n, we put Ki (x) = K(h−1 d(x, Xi )) and
 
τ τ
∆i (x) = Ki (x) − E Ki (x) .
G(Yi ) G(Yi )
It follows that
n
e D (x) − E[Ψ 1 X
Ψ e D (x)] = ∆i (x).
nE [K1 (x)] i=1
4.4 Appendix 76

Now, we apply the Fuck-Nagaev exponential inequality (Rio, 2000 p. 87) to get for
all ` > 0 and ε > 0, we have
( n )
n o X
P Ψ e D (x) − E[Ψ
e D ](x) > ε = P ∆i (x) > εnE[K1 (x)]
i=1
≤ C(A1 + A2 ) (4.8)

where
−`/2 a+1
ε2 n2 (E[K1 (x)])2
 
`
A1 = 1+ and A2 = n` −1
Sn2 ` εnE[K1 (x)]

and n X
n
X
Sn2 = Cov(∆i (x), ∆j (x)) = Sn2∗ + nV ar[∆1 (x)]
i=1 j=1

with n X
X
Sn2∗ = Cov(∆i (x), ∆j (x)).
i=1 i6=j

Next, we evaluate the asymptotic behavior of Sn2∗ . Using the technique of Masry
(1986), we dene the sets

S1 = {(i, j) such that 1 ≤ i − j ≤ mn }

and
S2 = {(i, j) such that mn + 1 ≤ i − j ≤ n − 1}
where mn → ∞, as n → ∞. Thus,
X X
J1,n := |Cov(∆i (x), ∆j (x))| ≤ |E [Ki (x)Kj (x)] − E [Ki (x)] E [Kj (x)] |.
S1 S1

Because of (H1), (H5) and (H6) we can write


 a/(a−1)
φx (h)
J1,n ≤ Cnmn .
n2/p

For the summation over S2 , we use Davydov-Rio's inequality (Rio, 2000, p. 87) for
mixing processes. This leads, for all i 6= j , to

|Cov(Ki (x), Kj (x))| ≤ Cα(|i − j|).


4.4 Appendix 77

Therefore, under (H3) we have

X nm−a+1
J2,n := Cov [∆i (x, z), ∆j (x, z)] ≤ C n
. (4.9)
a−1
(i,j)∈S2

 2/(1−a) 
φx (h)
Putting mn = n2/p
we get

n
X
Cov(Ki (x), Kj (x)) = O(n(p−2)/p φx (h)).
i6=j

For the variance term, we deduce from (H1) that

V ar(∆1 (x)) ≤ C(φx (h) + (φx (h))2 ) ≤ Cφx (h).

Finally, as a > 2

Sn2 = O(nφx (h)). (4.10)



S 2 log n
Now, we apply (4.8) to ε = λ nE[K
n
1 (x)]
and ` = C(log n)2 . We show that at

A2 ≤ Cn1−(a+1)/2 φx (h)−(a+1)/2 (log n)(3a−1)/2 .

The left side of (H6) allows to write

A2 ≤ Cn−1−η(a+1)/2 (log n)(3a−1)/2 ≤ Cn−1−ν

for some real ν > 0.

Concerning the term A1 , from (4.10), we show that


−`/2
λ2 log n λ2 log n
   
A1 ≤ C 1 + = C exp −`/2 log 1 +
` `

using the fact that ` = C(log n)2 , to get


 
2 log n 2
A1 ≤ C exp −λ = Cn−λ /2 .
2

Thus, for λ large enough :


2 /2 0
∃ν 0 > 0, A1 ≤ Cn−λ ≤ Cn−1−ν .
4.4 Appendix 78

which complete the proof of Lemma 4.4. Lemma 2. [?]


Under Hypotheses (H1),(H4) and (H5), we have,
h i
E Ψ e D (x) = 1.

Lemma 3.
Under Hypotheses (H1),(H4) and (H5), we have,
r !
b D (x) − Ψ 1
Ψ e D (x) = Oa.s. .
n

Proof. Firstly, we write


n  
b D (x) − Ψ τn X 1 d(x, Xi )
Ψ e D (x) = K
nE[K1 ] i=1 Gn (Yi ) h
n  
τ X 1 d(x, Xi )
− K
nE[K1 ] i=1 G(Yi ) h
supy∈[a, b] | Gn (y) − G(y) |
 
| τn − τ |
≤ +τ
Gn (aF ) Gn (aF )G(aF )
n
X  d(x, Xi ) 
1
× K .
nE[K1 ] i=1 h

Secondly, the quantity | τn − τ | has been studied by Ould Saïd and Tatachak
1
(2009) where we show that | τn − τ |= Oa.s. (n− 2 ). Moreover, the remark 6 of Woo-
1
droofe(1985)) allows to write |Gn (aF ) − G(aF )| = Oa.s. (n− 2 ). Furthermore, we point
out it is shown in Attouch et al. (2012) that
n  
1 X d(x, Xi )
K = O(1).
nE[K1 ] i=1 h

Consequently, r !
b D (x) − Ψ 1
Ψ e D (x) = Oa.s.
n
which is the claimed result. Lemma 4.
Under Hypotheses (H1) and (H3)-(H6), we have,
s !
h
e N (x, t) − E Ψ
i log n
sup Ψ e N (x, t) = O [Link].
t∈[θx −δ,θx +δ] nφx (h)
4.4 Appendix 79

Proof. The compactness of [θx − δ, θx + δ], allows to write


dn
[
[θx − δ, θx + δ] ⊂ (yj − ln , yj + ln ) (4.11)
j=1

with ln = n−1/2 and dn = O n1/2 . We put




Gn = {yj − ln , yj + ln , 1 ≤ j ≤ dn } . (4.12)

We combine (H4) together with the monotony of E[Ψ


e N (x, ·)] and Ψ e N (x, ·) to write
h i h i
sup e N (x, t) − E Ψ
Ψ e N (x, t) ≤ max max Ψe N (x, z) − E Ψ e N (x, z)
t∈[θx −δ, θx +δ] 1≤j≤dn z∈{yj −ln ,yj +ln }

+ 2Cln . (4.13)

On the one hand condition (H6) implies that


s !
log n
ln = o . (4.14)
nφx (h)

On the other hand we have, for any ε > 0


 h
i  X  h i 
P max Ψ e N (x, z) > ε ≤
e N (x, z) − E Ψ P Ψe N (x, z) − E Ψe N (x, z) > ε .
z∈Gn
z∈Gn
(4.15)

Now, we use a truncation method to prove our result for general case where ψ is not
necessary bounded. Indeed, we consider the following random variable
n
e ∗ (x, t) = 1 X τ
Ψ N −1
K(h−1 d(x, Xi )) ψ ∗ (Yi , t)
nE[K(h d(x, X1 ))] i=1 G(Yi )

where ψ ∗ (·, t) = ψ(·, t)1I(ψ(·,t)<γn ) with γn = na/p . So, the claimed result is a conse-
quence of the three intermediates results.
s !
log n
max E[Ψ e ∗N (x, z)] − E[Ψb N (x, z)] = o , (4.16)
z∈Gn nφx (h)

s !!
X log n
dn max P e ∗ (x, z) − Ψ
Ψ N
e N (x, z) > 0 < ∞ for some 0 > 0
n
z∈Gn nφx (h)
4.4 Appendix 80

(4.17)

and
s !!
X log n
dn max P e ∗N (x, z) − E[Ψ
Ψ e ∗N (x, z)] > 0 < ∞. (4.18)
n
z∈Gn nφx (h)

Proof of (4.16)
It clear that, for all z ∈ Gn we can write

e ∗N (x, z)] − E[Ψ 1


E |ψ(Y, z)| 1I{ψ(Y,z)≥γn } K(h−1 d(x, X)) .
 
E[Ψ e N (x, z)] ≤ C
φx (h)
Applying Holder inequality, for κ = p2 with ζ such that κ1 + ζ1 = 1, to write that, for
all z ∈ Gn
E |ψ(Y, z)| 1I{ψ(Y,z)≥γn } K(h−1 d(x, X1 )) ≤ E1/κ |ψ κ (Y, z)| 1I{ψ(Y,z)≥γn } E1/ζ K ζ (h−1 d(x, X1 ))
     

≤ γn−1 E1/κ ψ 2κ (Y, z) E1/ζ K ζ (h−1 d(x, X1 ))


   

≤ Cγn−1 φ1/ζ
x (h).

Thus,
e ∗ (x, z) − E[Ψ
max Ψ e ∗ (x, z)] ≤ n−a/p φ(1−ζ)/ζ .
N N x
z∈Gn

Therefore, (4.16) is consequence of the fact that a > p > 2.


Proof of (4.17)
To do so, we use the Markov's inequality ∀z ∈ Gn , ∀ > 0
  n
X

P ψ(Yi , z) > na/p

P ΨN (x, z) − ΨN (x, z) >  ≤
e e
i=1
1−a
≤ n E [ψ p (Y, z)] .

q 
In particular, for  = 0 log n
nφx (h)
and thanks to a > 4, we have
s !!
e ∗N (x, z)| > 0 log n
dn max P |Ψ
e N (x, z) − Ψ ≤ n3/2−a < Cn−1−ν .
z∈Gn nφx (h)

Proof of (4.18)
The latter is based on the similar arguments as those used to proving Lemma 4.4.
Indeed, we dene, for all z ∈ Gn ,
 
∗ τ τ ∗
Λi (z) = Ki (x)ψ (Yi , z) − E K1 (x) ψ (Yi , z) .
G(Yi ) G(Yi )
4.4 Appendix 81

Therefore, for all  > 0


( n
)
n h i o X
P e ∗ (x, z) − E Ψ
Ψ e ∗ (x, z) > ε = P Λi (z) > εnE[K1 (x)] .
N N
i=1

As in Lemma 4.4, the evaluation of the las quantity is based on the asymptotic
behavior of the following quantity
n X
n n X
02
X X
Sn = Cov(Λi (z), Λj (z)) = Cov(Λi (z), Λj (z)) + nV ar[Λ1 (z)].
i=1 j=1 i=1 i6=j

For this term we use the same technique developed by Masry (1986) by spliting the
sum into two sets dened by

S10 = {(i, j) such that 1 ≤ i − j ≤ un }

and
S20 = {(i, j) such that un + 1 ≤ i − j ≤ n − 1}.
We note by J1,n 0
and J2,n
0
be the sum of covariance over S10 and S20 respectively. On
S10 , we have, under (H4)
X
0
J1,n ≤ C |E [Ki (x)Kj (x)]| + |E [Ki (x)] E [Kj (x)]| .
S10

Because of (H1), (H5) and (H6) we have


 a/(a−1)
0 φx (h)
J1,n ≤ Cnun .
n2/p

Concerning J2,n
0
, we use again Davydov-Rio's inequality in the L∞ cases and we obtain

|Cov(Λi (z), Λj (z))| ≤ Cγn2 α(|i − j|).

Therefore,
0
X nγn2 u−a+1
n
J2,n = |Cov(Λi (z), Λj (z))| ≤ .
a−1
S20
!1/a
2
γn
Taking un = 
φx (h) a/(a−1)
 , we prove that
n2/p

n X
X
Cov(Λi (z), Λj (z)) = O(nφx (h)).
i=1 i6=j
4.4 Appendix 82

On the other hand, under (H3), we have

V ar(Λ1 (z)) ≤ E [Ki (x)ψ ∗ (Yi , z)]2 ≤ E [Ki (x)ψ(Yi , z)]2 = O(φx (h)).

Under (H6) we have


0
Sn2 = O(nφx (h)). (4.19)

Now, we apply Fuck-Nagaev's inequality for Λi (z). We have, for all ` > 0 and
for all ε > 0,
( n )
n h i o X
P E Ψ b ∗ (x, z) − Ψ
N
b ∗ (x, z) > ε ≤ P
N Λi (z) > εnE[K1 (x)]
i=1
0
≤ C(A1 (x) + A02 (x))

where
−`/2 a+1
ε2 n2 (E[K1 (x)])2
 
`
A01
= 1+ and A2 = n`
0 −1
.
Sn0 2 ` εnE[K1 (x)]

n log nφx (h)
In particular, for ε = 0 nE[K1 (x)] and ` = C(log n)2 , we obtain by (H6)
0
dn A02 ≤ Cn3/2−(a+1)/2 φx (h)−(a+1)/2 (log n)(3a−1)/2 ≤ Cn−1−ν1 (4.20)

for some ν10 > 0 and


−`/2
20 log n

0
0
dn A1 ≤ C 1 + ≤ Cn−1−ν2 for some ν20 > 0. (4.21)
`
From (4.20) and (4.21) we obtain
s !!
X
e ∗ (x, z) e ∗ (x, z)] log n
dn max P Ψ N − E[Ψ N > 0 < ∞.
n
z∈Gn nφx (h)

Lemma 5 [?]
Under Hypotheses (H1), (H2)((i), (iii)) and (H5), we have,
h i
sup E ΨN (x, t) − τ Ψ(x, t) = o(1).
e
t∈[θx −δ,θx +δ]

Furthermore if we add (H2)(ii), we have


h i
E ΨN (x, t) − τ Ψ(x, t) = O hb1 .

sup e
t∈[θx −δ,θx +δ]
4.4 Appendix 83

Lemma 6
Under Hypotheses (H1) and (H3)-(H5), we have,
 
sup Ψ e N (x, t) = O n− 12
b N (x, t) − Ψ a.s.
t∈[θx −δ,θx +δ]

Proof. By a simple algebra we write for all t ∈ [θx − δ, θx + δ]


n  
b N (x, t) − Ψ τn − τ X 1 d(x, Xi )
Ψ e N (x, t) = K ψ(Yi , t)
nE[K1 ] i=1 Gn (Yi ) h
  n  
Gn (Y ) − G(Y ) 1 X d(x, Xi )
+ τ K ψ(Yi , t)
Gn (Y )G(Y ) nE[K1 ] i=1 h
supy∈[a, b] | Gn (y) − G(y) |
 
| τn − τ |
≤ +τ
Gn (aF ) Gn (aF )G(aF )
n  
1 X d(x, Xi )
× K ψ(Yi , t).
nE[K1 ] i=1 h

Similarly to Lemma 4.4 we use the result of Ould Saïd and Tatachak (2009) for which
1
we have | τn −τ |= Oa.s. (n− 2 ) and the remark 6 of Woodroofe(1985)) where we obtain
1
|Gn (aF ) − G(aF )| = Oa.s. (n− 2 ). Furthermore, for the second part, we recall that this
term has been studied by Attouch et al. (2012) where we show that
n       
1 X d(x, Xi ) d(x, Xi )
sup K ψ(Yi , t) − E K ψ(Yi , t) = o (1)
t∈[θx −δ,θx +δ] nE[K1 ] i=1 h h

It follows that
n  
1 X d(x, Xi )
sup K ψ(Yi , t) = Oa.s. (1).
t∈[θx −δ,θx +δ] nE[K1 ] i=1 h

Thus, we have  
e N (x, t) = Oa.s. n− 12
b N (x, t) − Ψ
Ψ
which completes the proof of Lemma 4.4. Corollary 1
Under Assumptions (H1), (H2) ((i)-(ii)), (H3)-(H5) and if Ψ0 (x, θx ) 6= 0, then θbx exists
a.s. for all suciently large n such that

∃C > 0 Ψ(x, ξn ) > C.
∂t
Proof. It is clear that, if ψx (Y, .) is increasing, we have for all  > 0
Ψ(x, θx − ) ≤ Ψ(x, θx ) ≤ Ψ(x, θx + ).
4.4 Appendix 84

The results of Lemmas 1-6 show that


b t) −→ Ψ(x, t) a. s.
Ψ(x,

for all real xed t ∈ [θx − δ, θx + δ]. So, for suciently large n and for all  ≤ δ

b θx + ) a. s..
b θx − ) ≤ 0 ≤ Ψ(x,
Ψ(x,

Since Ψ(x,
b t) is a continuous function of t, there exists a θbx ∈ [θx − , θx + ] such
that Ψ(x,
b θbx ) = 0. Concerning, the uniqueness of θbx , we point out that the latter is a
direct consequence of the strict monotonicity of ψx , w.r.t. the second component and
the positivity of K .
Finally, The second part of this corollary is a direct consequence of the regularity
assumption (H2) (i) on Ψ(x, ·) and the convergence

θbx → θx a.s. as n −→ ∞.
References
Andersen, P.K., Borgan, O., Gill, R.D. and Keiding, N. (1993). Statistical
Models Based on Counting Processes. Springer, New York.

Attouch, M., Laksaci, A. and Ould Saïd, E. (2009). Asymptotic distribution


of robust estimator in nonparametric functional models, Comm. in Statist. Theory
and Methods, 38, 1317-1335.

Attouch, M., Laksaci, A. and Ould Saïd, E. (2010). Asymptotic normality


of a robust estimator of the regression function for functional time series, J. Korean
Statist. Soc., 39, 489500.

Attouch, M., Laksaci, A. and Ould Saïd, E. (2012). Robust regression for
functional time series data. J. Japan Statist. Soc., 42 , 125143.

Azzedine , N., Laksaci, A. and Ould Saïd, E.(2008). On the robust nonparame-
tric regression estimation for functional regressor, Statist. Probab. Lett. 78, 3216-3221.

Boente, G. and Fraiman, R. (1989). Nonparametric regression estimation. J.


Multivariate Anal. 29, 180-198.

Boente, G. and Fraiman, R. (1990). Asymptotic distribution of robust estima-


tors for nonparametric models from mixing processes. Ann. Statist., 18, 891-906.
4.4 Appendix 85

Boente, G., Gonzalez-Manteiga, W. and Pérez-Gonzalez, A. (2009). Ro-


bust nonparametric estimation with missing data. J. Statist. Plann. Inference. 139,
571-592.

Bogachev, V.I. Gaussian Measures. Math surveys and monographs Amer. Math.
Soc. 62, 1999.

Bollerslev, T. (1986). General autoregressive conditional heteroskedasticity. J.


Econom., 31, 307-327.

Bongiorno, E.G., Salinelli, E., Goia, A. and Vieu, P. (Eds.) Contributions


in innite-dimensional statistics and related topics. Società editrice Esculapio. Bolo-
gna. 2014.

Bradley, R. C. (2007). Introduction to strong mixing conditions. Vol I-III, Ken-


drick Press, Utah.

Chaouch. M., Laïb, N. and Ould Saïd E. (2014). Nonparametric M-estimation


for right censored regression model with stationary ergodic data. Under revision.

Collomb, G. and Härdle, W. (1986). Strong uniform convergence rates in robust


nonparametric time series analysis and prediction : Kernel regression estimation from
dependent observations. Stochastic Proc.. and their Appl., 23, 77-89.

Chen, J. and Zhang, L. (2009). Asymptotic properties of nonparametric M-


estimation for mixing functional data, J. Statist. Plann. and Inference, 139, 533-546.

Crambes, C., Delsol, L. and Laksaci, A.(2008). Robust nonparametric esti-


mation for functional data, J. Nonparametric Statist., 20, 573-598.

Dedecker, J. Doukhan, P. Lang, G. Leon, JR. Louhichi, S. and Prieur,


C. (2007). Weak dependence : With examples and applications. Lecture Notes in Sta-
tistics, 190 Springer-Verlag, New York.

Derrar, S., A. Laksaci and Ould Saïd, E. (2015). On the nonparametric esti-
mation of the functional ψ -regression for a random left-truncation model. Journal of
statistical Theory and Practice, 9, 823-849.

Engle, R. F. (1982). Autoregressive conditional heteroskedasticity with estimates


of the variance of U.K. ination, Econometrica. 50, 987-1007.
4.4 Appendix 86

Fan, J. Hu, T. C. and Truong, Y. K. (1994). Robust nonparametric function


estimation. Scand. J. Statist. 21, 433-446.

Ferraty, F. and Vieu, P. Nonparametric Functional Data Analysis. Theory and


Practice, Springer-Verlag, New York, 2006.

Ferraty, F. and Romain, Y. (2011). The Oxford Handbook of Functional Data


Analysis. Oxford University Press.

Gheriballah, A. Laksaci, A. and Sekkal, S. (2013). Nonparametric M -


regression for functional ergodic data. Statist. Probab. Lett., 83, 902908.

He, S. and Yang, G. (1994). Estimating a lifetime distribution under dierent


sampling plan. In S.S. Gupta J.O. Berger (Eds.) Statistical decision theory and related
topics (Vol. 5. pp. 73-85) Berlin Heidelberg, NewYork : Springer.

He, S. and Yang, G. (1998). Estimation of the truncation probability in the ran-
dom truncation model. The Annals of Statistics, 26, 1011-1027.

Horrigue, W. and Ould Saïd, E. (2011). Strong uniform consistency of a non-


parametric estimator of a conditional quantile for censored dependent data and func-
tional regressors. Random Oper. Stoch. Equa., 19, 131156.

Horrigue, W. and Ould Saïd, E. (2015). Nonparametric regression quantile


estimation for dependent functional data under random censorship : Asymptotic nor-
mality. Comm. in Statistics. Theory and Methods, 44, 4307-4332.

Horváth, L. and Kokoszka, P. (2012). Inference for Functional Data with Ap-
plications. Springer-Verlag, New York. 200.

Huber, P.J. (1964). Robust estimation of a location parameter. Annals of the Ma-
thematical Statistics, 35, 73-101.

Laïb, N. and Ould Saïd, E. (2000). A robust nonparametric estimation of the


autoregression function under an ergodic [Link] Journal of Statistics,
28, 817-828.

Lemdani, M. and Ould Saïd, E. (2015). Nonparametric robust regression esti-


mation for censored data Statistical Papers, DOI : 10.1007/s00362-015-0709-8.

Li, W. V. and Shao, Q. M. (2001). Gaussian processes : inequalities, small ball


4.4 Appendix 87

probabilities and applications. In Stochastic processes : Theory and Methods, Ed. C.R.
Rao and D. Shanbhag. Hanbook of Statistics, 19 : North-Holland, Amsterdam.

Loève, M. Probability theory I. Springer-Verlag. New-York, 1977.

Lynden-Bell, D. (1971) A method of allowing for known observational selection


in small samples applied to 3CR quasars. Monthly Notices of the Royal Astronomical
Society, 155, 95118.

Masry, E. (1986). Recursive probability density estimation for weakly dependent


stationary processus. IEEE. Trans. Inform. Theory. 32, 254-267.

Ould Saïd, E. and Lemdani, M. (2006). Asymptotic properties of a nonparame-


tric regression function estimator with randomly truncated data. Ann. Inst. Statist.
Math., 58, 357378.

Ould Saïd, E. and Tatachak, A. (2009) Strong consistency rate for the kernel
mode estimator under strong mixing hypothesis and left truncation. Comm. Statist.
Theory Methods, 38. 11541169

Ozaki, T. (1979). Nonlinear time series models for nonlinear random vibrations.
Technical report, Univ. of Manchester.

Ramsay, J. O. and Silverman, B. W. (2005). Functional Data Analysis, 2nd


Edition, Springer, New-York.

Rio, E. Théorie asymptotique des processus aléatoires faiblement dépendants. Ma-


thématiques & Applications 31, Springer-Verlag, Berlin.

Stone, C. (1981). Optimal rates of convergence for nonparametric regression. Ann.


Statist., 9, 1348-1360.

Stute, W. (1993). Almost sure representations of the product-limit estimator for


truncated data. Ann. Statist., 21, 146156.

Wang, J., Liang, H.Y. and Fan, G. (2012a). Asymptotic properties for an M-
estimator of the regression function with truncation and dependent data. Journal of
the Korean Statistical Society, 41, 35367.

Wang, J., Liang, H.Y. and Fan, G. (2012b). Local M-estimation of nonparame-
tric regression with left-truncated and dependent data. Scientia Sinica Mathematica,
4.4 Appendix 88

42, 9951015.
Woodroofe, M. (1985). Estimating a distribution function with truncated data.
The Annals of Statistics, 13, 163177.
Chapitre 5

Conclusion et perspectives

5.1 Conclusion
Dans cette thèse, nous avons traité la ψ -estimation qui est un type de M-estimation
de la fonction de régression, lorsque le regrésseur est fonctionnel et la variable réponse
est tronquée aléatoirement à gauche par une autre variable aléatoire en utilisant la
méthode de noyau. Après avoir rappelé quelques résultats existant dans ce contexte,
on a établi la convergence forte et la normalité asymptotique de l'estimateur robuste
pour des données indépendantes puis pour des données α-mélangeantes.
Du point de vue théorique, notre modèle est une généralisation de la régression clas-
sique dans le sens que cette dernière est obtenue en prenant ψx (y, t) = (y − t). Ce-
pendant, d'un point de vue pratique, notre modèle fournit une estimation alternative
de la régression classique qui a plus d'avantage en sens de robustesse. La supériorité
de notre modèle par rapport à la régression classique dans la présence des valeurs
atypiques est conrmée par notre étude de simulation.
En outre, la méthode d'estimation robuste proposée peut être utilisée pour robustier
d'autres méthodes d'estimation de la régression comme : la méthode k-NN, le modèle
linéaire local, le modèle d'indice fonctionnel, le modèle linéaire partiel,...
Ainsi, on peut dire que notre contribution est trés importante dans la théorie comme
dans la pratique. Cet impact est évalué par la généralité et la robustesse du modèle
étudié, l'exactitude et l'utilité des résultats asymptotiques obtenus et aussi par les
nombreux problèmes ouverts en statistique nonparamétrique.
5.2 Perspectives 90

5.2 Perspectives
Le sujet que nous avons étudié dans cette thèse, nous permet d'envisager à entamer
plusieurs pistes de recherche :

 Les résultats établis au deuxième chapitre pour la normalité asymptotique peuvent


être étendus au cas où le modèle présente une certaine forme de dépendance(
α−mélange).
 Au meilleur de nos connaissances, il n'existe pas d'estimateurs récursifs pour des
données tronquées, que ce soit pour la densité ou la fonction de régression.
 il nous semble possible d'étendre les résultats obtenus pour d'autres type de va-
riable : censurées, associées, quasi-associées ou spatiales, ou le cas où la variable
réponse est fonctionnelle qui peut être un sujet de recherche très prometteur.
5.2 Perspectives 91

Bibliographie
1. Attouch, M., Laksaci, A. and Ould Saïd, E. (2009). Asymptotic distribution of
robust estimator in nonparametric functional models, Comm. in Statist. Theory
and Methods, 38, 1317-1335.
2. Attouch, M., Laksaci, A. and Ould Saïd, E. (2010). Asymptotic normality of a
robust estimator of the regression function for functional time series, J. Korean
Statist. Soc, 39, 489-500.
3. Attouch, M., Laksaci, A. and Ould Saïd, E. (2012). Robust regression for func-
tional time series data. J. Japan Statist. Soc, 42 , 125-143.
4. Azzedine, N., Laksaci, A. and Ould Saïd, E. (2008). On the robust nonpara-
metric regression estimation for functional regressor, Statist. Probab. Lett, 78,
3216-3221.
5. Benhenni, K., Ferraty, F., Rachdi, M. et P. Vieu (2007). Local smoothing re-
gression with functional [Link]. Statistics, 22, 353-369.
6. Boente, G. and Fraiman, R. (1989). Nonparametric regression estimation.J.
Multivariate Anal, 29, 180-198.
7. Bosq, D. (2000). Linear Processes in Function Spaces : Theory and Applications
Lecture Notes in Statistics Springer-Verlag,149, New York.
8. Burba, F., Ferraty, F. et Vieu, P. (2008). Propriétés asymptotiques de l'estima-
teur kNN en régression fonctionnelle non-paramétrique. C. R. Math. Acad. Sci.
Ser, I 346, 339-342.
9. Bertrand , Retali Convergence uniforme de certains estimateurs de la densité
par la méthode du noyau. C.R.A.S. Série A, 279, 527-529.
10. Cadre, B. (2001). Convergent estimators for the L1 -median of a Banach valued
random [Link], 35 (4), 509-521.
11. Chaai, M. E. (1989). Les estimateurs robustes sont-ils vraiment robustes en
pratique ?. Revue de Statistique Appliquée, 37, No.3, 57-73.
12. Collomb, G. and Härdle, W. (1986). Strong uniform convergence rates in robust
nonparametric time series analysis and prediction : Kernel regression estimation
from dependent observations. Stoch. Proc. Appl, 23, 77-89.
13. Crambes C, Delsol L. and Laksaci A. (2008). Robust nonparametric estimation
for functional data. J. Nonparametric Statist, 20, 573-598.
14. Derrar, S., A. Laksaci and Ould Saïd, E. (2015). On the nonparametric estima-
tion of the functional ψ -regression for a random left-truncation model. Journal
of statistical Theory and Practice, 9, 823-849.
5.2 Perspectives 92

15. Delsol, L. (2007a). CLT and Lq errors in nonparametric functional regression


C. R. Math. Acad. Sci, 345 (7), 411-414.
16. Ferraty, F. et Vieu, P. (2002). The functional nonparametric model and appli-
cation to spectrometric data. Comput. Statist, 17 (4), 545-564.
17. Ferraty, F. and Vieu, P. (2003). Curves discrimination : a nonparametric func-
tional approach Computational Statistics and Data Analysis, 44 (1-2), 161-173.
18. Ferraty, F. and Vieu, P. (2006). Nonparametric Functional Data Analysis. Theory
and Practice. Springer-Verlag, New York.
19. He, S. and Yang, G. (1998). Estimation of the truncation probability in the
random truncation model. The Annals of Statistics, 26, 1011-1027.
20. Huber, P.J. (1964). Robust estimation of a location parameter. Annals of the
Mathematical Statistics, 35, 73-101.
21. González-Manteiga W. and Vieu P. (2007). Editorial Statistics for Functional
[Link]. Stat. Data Analysis, 51 (10), 4788-4792.
22. Kaplan, E. L. and Meier, P. (1958) Nonparametric estimation from incomplete
observations. J. Amer. Statist. Assoc., 53, 457-481.
23. Lemdani, M. and Ould Saïd, E. (2015). Nonparametric robust regression esti-
mation for censored data Statistical Papers, DOI : 10.1007/s00362-015-0709-8.

24. Lecoutre, J.P. (1990) Uniform consistency of a class of regression function es-
timators for Banach-space valued random variable. Statist. Probab. Lett. 10,
145-149.
25. Masry, E. (2005). Nonparametric regression estimation for dependent functional
data : asymptotic normality Stochastic Process. Appl, 115 (1), 155-177.
26. Nadaraya, E.A (1964). On estimating [Link]. Prob. Appl, 10, 186-196.
27. Ould Saïd, E. and Lemdani, M. (2006). Asymptotic properties of a nonpara-
metric regression function estimator with randomly truncated data. Ann. Inst.
Statist. Math., 58, 357-378.
28. Ould Saïd, E. and Tatachak, A. (2009) Strong consistency rate for the kernel
mode estimator under strong mixing hypothesis and left truncation. Comm.
Statist. Theory Methods, 38. 11541169.
29. Ramsay, J. and Silverman, B. (1997). Functional Data Analysis Springer-Verlag,
New York.
30. Ramsay, J. and Silverman, B. (2002). Applied functional data analysis : Methods
and case studies Spinger-Verlag, New York.
31. Ramsay, J. and Silverman, B. (2005). Functional Data Analysis (Second Edi-
tion) Spinger-Verlag, New York.
5.2 Perspectives 93

32. Stute, W. (1993). Almost sure representations of the product-limit estimator


for truncated data. Ann. Statist, 21, 146-156.
33. Wang, J., Liang, H. Y. and Fan, G. (2012a). Asymptotic properties for an
M-estimator of the regression function with truncation and dependent data.
Journal of the Korean Statistical Society, 41, 35-367.
34. Wang, J., Liang, H. Y. and Fan, G. (2012b). Local M-estimation of nonpara-
metric regression with left-truncated and dependent data. Scientia Sinica Ma-
thematica, 42, 995-1015.
35. Watson, G.S. (1964). Smooth regression analysis. Sankhya Ser, A 26, 359-372.
36. Woodroofe, M. (1985). Estimating a distribution function with truncated data.
The Annals of Statistics, 13, 163-177.

Vous aimerez peut-être aussi