Ds Math Derrar Saliha
Ds Math Derrar Saliha
Par
Saliha DERRAR
Titre
Estimation Robuste De La
Fonction De Régression Pour Un
Modèle Tronqué Aléatoirement À
Gauche À Co-variables
Fonctionnelles
Mes premiers remerciements vont naturellement à mes directeurs de thèse les Pro-
fesseurs Elies Oul Saïd et Ali Laksaci pour leur encadrement et leurs encou-
ragements durant toute la période de la réalisation de ce travail malgré toutes leurs
occupations. Merci pour leur disponibilité, leur grande patience et leur convivialité
tout au long de ces années.
Je remercie vivement Monsieur le Professeur Abdelkader Gheriballah de me faire
l'honneur de présider ce jury, malgré ses nombreuses responsabilités.
Je remercie chaleureusement Monsieur Abdelkader Tatachak de l'université d'Alger
(U.S.T.H.B) pour l'interêt qu'il a porté à mon travail en acceptant de faire partie du
jury.
Je tiens à exprimer ma sincère reconnaissance à Monsieur Mohammed Kadi Attouch
pour l'honneur qu'il m'a fait en acceptant d'être examinateur de mon travail.
A titre plus personnel, un grand merci aux membres de ma famille, plus particuliè-
rement mes parents qui ont toujours cru en moi, m'ont constamment encouragée et
soutenue tout au long de mes années d'études. Je ne saurai passer sous silence l'apport
inestimable des autres membres de ma famille (frères, beaux parents, etc.) qui m'ont
soutenue, de près ou de loin durant mes études doctorales.
Les mots me manquent pour remercier, à sa juste valeur mon époux, pour ses encou-
ragements et son soutien perpétuel et réconfortant, je ne pourrais nir mes remer-
ciements sans une pensée très personnelle à ma chère lle pour laquelle je dédie ce
travail. Merci ma famille, je n'aurais rien fait de tout cela sans votre amour.
Je ne citerai pas, mais ils se reconnaitront, tous mes amies et collègues, qui m'ont
soutenu. Je leur en suis reconnaissante.
Résumé
La régression robuste est une approche statistique sur la régression qui admet un
comportement insensible aux observations aberrantes (atypiques, données tronquées).
Nous nous intéressons plus particulièrement dans cette thèse à l'étude de l'estimation
robuste de la fonction de régression dans laquelle la variable réponse est tronquée à
gauche par une autre variable aléatoire tandis que la variable explicative est fonc-
tionnelle, c'est à dire à valeurs dans un espace de dimension innie. Notre étude
porte sur des données indépendantes identiquement distribuées (i.i.d.) ainsi que sur
des données fortement mélangeantes. Nous rappelons certains résultats établis sur le
comportement asymptotique de quelques estimateurs non paramétriques robustes de
la fonction de régression, dans le cas où les données sont complètement observées,
dans le cas de données incomplètes et dans le cas où les co-variables appartiennent à
un espace de dimension nie ou innie.
Dans un premier temps, nous supposons que les variables sont i.i.d., et nous présentons
des travaux sur la M-estimation de la fonction de régression dans le cas de données
tronquées aléatoirement à gauche et dans la présence de co-variables fonctionnelles.
Nous illustrons les résultats obtenus (consistance et normalité asymptotique) par des
simulations pour montrer les performances des estimateurs proposés.
Dans un second temps, nous supposons que les variables sont fortement mélangeantes
et nous établissons la convergence presque complète avec taux de convergence de notre
estimateur .
Autant que l'on sache le problème de l'estimation non paramétrique robuste de la
régression pour des données fonctionnelles dans la présence de données incomplètes
n'a jamais été abordé, d'où l'originalité et la nouveauté de l'étude menée dans cette
thèse.
Mots-clés : Normalité asymptotique , données fonctionnelles, estimateur à noyau,
estimateur de Lynden-Bell , estimation robuste, probabilités de petites boules, conver-
gence presque complète, données tronquées.
Abstract
Firstly, we assume that the variables are i.i.d. , and we present our results on the
M- estimation of the regression function in the case of left-truncated random data
and in the presence of functional covariates. We illustrate the results (consistency
and asymptotic normality) by simulations to show the performance of the proposed
estimator.
Secondly , we suppose that the variables are strongly mixing and we establish the
almost complete convergence with rates of convergence of our estimator.
As far as we know the problem of nonparametric robust estimation of regression for
functional data in the presence of incomplete data was never been approached , hence
the originality and novelty of the study conducted in this thesis.
key-words : Asymptotic normality, functional data, Kernel estimator, Lynden-Bell
estimator, robust estimation, small balls probability, almost complete convergence ,
truncated data.
Liste des travaux
Publications
1. Derrar, S., A. Laksaci and Ould Saïd, E. (2015). On the nonparametric estima-
tion of the functional ψ -regression for a random left-truncation model. Journal
of statistical Theory and Practice, 9, 823-849.
2. Derrar, S., A. Laksaci and Ould Saïd, E. M -estimation of the regression func-
tion under random left truncation and functional time series model. Eletronic
Journal of statistics. Soumis
Communications internationales
1. Derrar, S., A. Laksaci and Ould Saïd, E. On the nonparametric estimation
of the functional ψ -regression for a random left-truncation model. Colloque
Internationale de statistiques et ses applications (ICSA2015) du 06 au 07 Mai
2015, Saida, Algérie.
2. Derrar, S., A. Laksaci and Ould Saïd, E. On the nonparametric estimation
of the functional ψ -regression for a random left-truncation model. Journée de
statistique, le 10 avril 2016, Biskra, Algérie.
3. Derrar, S., A. Laksaci and Ould Saïd, E. On the nonparametric estimation
of the functional ψ -regression for a random left-truncation model. Conférence
internationale de probabilité et Statistique (MICPS-2016) du 25 au 28 avril,
Merrakech, Maroc.
Table des matières
1 Introduction 8
1.1 Statistique non paramétrique fonctionnelle pour des données complètes 8
1.2 Données incomplètes . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.1 Durée de vie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.2 Censure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.3 troncature . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.4 Troncature à gauche . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.5 Troncature à droite . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3 la statistique non paramétrique robuste pour des données incomplètes :
Motivations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4 Estimation de la fonction de régression . . . . . . . . . . . . . . . . . 13
1.5 Description de la thèse . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.6 Présentation des résultats obtenus . . . . . . . . . . . . . . . . . . . . 15
1.6.1 Notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
5 Conclusion et perspectives 89
5.1 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
5.2 Perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
Chapitre 1
Introduction
Un modèle de survie est un modèle basé sur des durées de vie. Une durée de vie est une
variable aléatoire (va) souvent positive, précisément c'est le temps nécessaire de passer
d'un état A à un état B. Le terme de durée de vie est employé de manière générale pour
désigner le temps qui s'écoule jusqu'à la survenue d'un événement particulier qui n'est
pas forcément la mort : par exemple, le délai de rémission d'une maladie (temps écoulé
entre le début du traitement et la rechute), le délai de guérison (temps qui sépare le
diagnostic de la guérison) ou encore le délai de panne (durée de fonctionnement d'une
machine, en abilité) etc...Lorsque les durées de vie sont observées dans leur totalité,
1.2 Données incomplètes 10
on parle de données complètes, dans le cas contraire, les données sont incomplètes et
nécessitent un traitement statistique particulier, si la durée de vie d'un individu n'est
observable que dans une période donnée, on parle de censure. Il s'agit de troncature,
si l'individu doit survivre longtemps pour être observé. La littérature est beaucoup
plus riche en ce qui concerne la censure que la troncature qui est plus récente. Dans
cette thèse, nous nous intéressons particulièrement, à la troncature gauche qui est le
cadre dans le quel nous avons apporté une certaine contribution.
1.2.2 Censure
Il arrive souvent que la constante de censure soit elle même une variable aléatoire,
dans ce cas, on parle de censure aléatoire à droite et on a :
Dénition 1.2.2 Etant donnée une variable aléatoire Y, on dit qu'il y a censure
aléatoire à droite s'il existe une variable aléatoire C, telle qu'au lieu d'observer Y on
observe :
{(Z, δ) où Z = min(Y, C), δ = 1IY ≤C }
1.2.3 troncature
Le modèle de troncature est apparu tout d'abord en astronomie, mais il est observé
dans plusieurs domaines comme la médecine, l'épidémiologie, la biométrie et l'éco-
nomie. La recherche d'objets cachés qui devront être assez grand pour être détectés,
comme les réserves de pétrole est un champ d'application pour les données tronquées.
De plus, les enquêtes de suivi médical où la troncature gauche peut apparaître si le
temps d'origine de la durée de vie précède le temps d'origine de l'étude.
En cas de troncature gauche, nous ne sommes capable d'observer que les durées de vie
Y pour les quelles Y ≥ T ; ici T est la variable de troncature. Un exemple de troncature
à gauche concerne la durée de vie des retraités. On enregistre l'âge au décès et l'âge
d'entrée au centre. Un individu donné, doit vivre susamment longtemps pour être
parmi la communauté du centre de retraite, et s'il décède avant, il y a troncature à
1.3 la statistique non paramétrique robuste pour des données
incomplètes : Motivations 11
gauche. La durée de vie d'une population est étudiée à partir d'une cohorte tirée au
sort dans cette population, seule la survie des sujets vivants à l'inclusion pourra être
étudiée (il y a troncature à gauche car seuls les sujets ayant survécu jusqu'à la date
d'inclusion dans la cohorte sont observables).
Dans ce cas, nous disposons d'un échantillon de taille n, dont la variable d'intérêt
Y est observable, cet échantillon est extrait d'un échantillon de plus grand taille N
inconnue.
La proportion de la population avec laquelle nous pouvons disposer d'une observa-
tion joue un rôle important en estimation sous troncature. Cette probabilité notée
τ = P (Y ≥ T ) pourrait être estimée par la quantité Nn mais malheureusement cet
estimateur ne peut pas être calculé, car N est inconnue et la taille n de l'échantillon
observé est elle-même une variable aléatoire de loi binomiale B(N, τ ). En utilisant des
estimateurs produit-limites de Lynden-Bell (1971), He et Yang (1998) donnent un es-
timateur calculable de τ . Ainsi que des résultats de convergence asymptotique dont
la normalité. Des résultats asymptotiques ont été obtenus pour certains estimateurs
et predicteurs pour des données incomplètes (sous troncature ou censure). Rappe-
lons les travaux de Ould Saïd et Lemdani (2006) pour la fonction de régression sous
troncature, Ould Saïd et Sadki (2008) concernant les quantiles conditionnels dans un
modèle de censure à droite, Ould Saïd et Tatachak (2009) pour le mode conditionnel
sous troncature à gauche et nalement Lemdani et al.. (2009) ont étudié la fonction
des quantiles conditionnels pour des données tronquées mais dans le cas de variables
indépendantes et identiquement distribués (i.i.d.).
seuls les individus avec une duré de vie inférieure à un certain seuil d'événement sont
inclus dans l'étude. A titre d'exemple , si vous demandez à un groupe de lycéens
fumeurs à quel âge ils ont commencé à fumer , vous avez nécessairement des données
tronquées , que les personnes qui commencent à fumer après avoir quitté l'école ne
sont pas inclus dans l'étude. Un autre exemple de troncature à droite survient dans
l'estimation de la distribution des étoiles à partir de la terre. Les étoiles très lointaines
ne sont pas visibles, et par conséquent, il y a troncature à droite.
motive notre travail. La littérature en ce domaine est très restreinte dans le cas inni
on peut citer Hellal et Ould said(2016) qui ont étudié l'estimateur à noyau du quantile
conditionnel pour des données tronquées à gauche pour des régresseurs fonctionnels,
dans le cas de régresseurs en dimension nie Wang et Liang (2012), ils ont construit un
M-estimateur de la fonction de régression pour un modèle tronqué à gauche quand les
données sont dépendantes et ont établi la convergence faible et forte de l'estimateur
ainsi la normalité asymptotique.
rbn (x) :=
Σni=1 Kd x−X
hn
i
rbn (x) := .
Σni=1 K d(x,X
hn
i)
Diérents résultats ont déjà été obtenus pour cet estimateur en ce qui concerne la
convergence presque sûre dans le cas d'un échantillon indépendant (voir Ferraty et
Vieu, 2000, 2002) ou α-mélangeant (voir Ferraty et al.., 2002a, 2002b), la normalité
asymptotique dans le cas indépendant (voir Ferraty et al., 2007) ou dans le cas α-
1.5 Description de la thèse 14
Ψ(x, t) := IE [ψ(Y, t) | X = x] = 0.
Un estimateur à noyau de Ψ(x, t) est donné par
n
X
K(h−1 d(x, Xi ))ψx (Yi , t)
i=1
Ψ(x,
b t) =
n .
X
−1
K(h d(x, Xi ))
i=1
Dans le troisième chapitre, nous présentons des travaux sur la régression robuste dans
le cas de données i.i.d., tronquées aléatoirement à gauche. Nous illustrons les résultats
obtenus (consistance et normalité asymptotique) par des simulations pour montrer
les performances des estimateurs proposés.
le quatrième chapitre est une extension des résultats du troisième chapitre au cas
de données fortement mélangeantes. Seule la consistance est présentée, la normalité
asymptotique fait l'objet d'un travail en cours.
Dans le cinquième chapitre, une conclusion suivie de quelques perspectives permettant
d'étendre les résultats de cette thèse.
1.6.1 Notations
où
K h−1
N d(x, Xi )
WN,i (x) = PN −1
, (1.1)
i=1 K hN d(x, Xi )
t ,→ Ψ(x, t) := IE [ψ(Y, t) | X = x]
1.6 Présentation des résultats obtenus 16
On a alors , Ψ(x, θx ) = 0.
On suppose que pour x ∈ F , θx existe et unique ( Boente et Fraiman, 1989 et Boente
et al..., 2009).
Soit (Ti )i=1,...N un ensemble de variables aléatoires i.i.d. de même loi que T , où N est
inconnu mais déterministe . En troncature à gauche, la variable aléatoire d'intérêt Y
et la variable aléatoire de troncature T , sont observable seulement si Y ≥ T aucune
n'est observé si Y < T . Dans ce cas, nous disposons d'un échantillon de taille (n ≤ N )
observé, dont la variable d'intérêt Y est observable, (Yi , Ti ), i = 1, 2, ..., n; avec n aléa-
toire mais connu. On note que si les données originales (Yi , Ti )i , i = 1, 2, ..., N sont
i.i.d., alors les données observées (Yi , Ti )i , i = 1, 2, ..., n sont aussi i.i.d. (voir Lem-
dani et Ould Saïd, 2007).
Comme conséquence de troncature, la taille de l'échantillion observé, n, est une va-
riable aléatoire de loi binomiale Bin(N, τ ) , avec τ := P(Y ≥ T ). C'est clair que si
τ = 0, aucune des données n'est observée alors, on suppose que τ 6= 0. On construit
notre estimateur à partir des variables observées (Xi , Yi , Ti )i=1,...n .
On suppose que la variable d'intérêt Y et la variable de troncature T sont indépen-
dentes et admettent des fonctions de répartition inconnues F et G, respectivement.
D'après Stute (1993) les fonctions de répartition de Y et T , sous la condition de
troncature à gauche , sont exprimées , respectivement , par
Z y Z ∞
∗
F (y) := τ −1
G(v)dF (v) et ∗
G (t) := τ −1
G(t ∧ v)dF (v)
−∞ −∞
Gn (y)F̄n (y)
τn = .
Rn (y)
et indépendant de y .
les propriétés asymptotiques de Fn et Gn ont été étudié par Woodroofe (1985), tandis
que He and Yang (1998) ont obtenu la convergence prèsque sure de τn . La consistance
1.6 Présentation des résultats obtenus 17
Soit a, b deux réels positifs tel que [a, b] ⊂ [aF , bF ]. De plus on suppose que notre
paramètre est tel que θx ∈ (a, b).
Ψ(x,
b t) = 0, (1.2)
où n
X
G−1 −1
n (Yi )K(h d(x, Xi ))ψx (Yi , t)
i=1
Ψ(x,
b t) =
n
X
G−1 −1
n (Yi )K(h d(x, Xi ))
i=1
et h := hn .
θbx − θx → 0 p.c.
1.6 Présentation des résultats obtenus 18
An de donner des résultats asymptotiques plus précis, on a obtenu le résultat suivant
La démonstration et les détails des conditions imposées pour aboutir à ces résultats
sont donnés dans le chapitre 3. Le deuxième résultat est sur la normalité asymptotique
de notre estimateur.
Théoreme 1.6.3 Sous des hypothèses de régularité de la fonction objective ainsi que
des conditions standards sur le noyau et la fenêtre, on a pour tout
x ∈ A,
1/2
nφx (h)
D
θx − θx + Bn (x) → N (0, 1) pc n → ∞.
b
σ 2 (x, θx )
où
1
α2 Ψ2, G (x, θx )
Z
2 (avec αj = K(1) − (K j )0 (s)βx (s)ds, for, j = 1, 2),
2
σ (x, θx ) = τ
∂
α1 ∂t Ψ(x, θx ) 0
Z 1
0
Bn (x) = hΦ (0, θx )α1−1 (K(1) − 0
(sK(s)) (s)βx (s)ds + o(h).
0
∂
A = {x ∈ F, Ψ2, G (x, θx ) Ψ(x, θx ) 6= 0}
∂t
D
et → symbolise la convergence en loi.
La démonstration et les conditions imposées an d'obtenir ce théorème sont données
au chapitre 3.
Théoreme 1.6.4 Sous des hypothèses de régularité de la fonction robuste ainsi que
des conditions standards sur le noyau et la fenêtre et sur le coecient de mélange,
on a pour tout n susamment grand θbx existe, et on a
θbx − θx → 0 p.c.
An de donner des résultats asymptotiques plus préscis, on remplace quelques hypo-
thèse et on obtient le résultat suivant
Théoreme 1.6.5 pour tout n susement grand θbx existe p.s. Si Γ00 (x, ·)(x, θx ) 6= 0
on a s !
log n
θbx − θx = O hb + O
p.c.
nφx (h)
Références
1. Attouch, M., Laksaci, A. and Ould Saïd, E. (2009). Asymptotic distribution of
robust estimator in nonparametric functional models, Comm. in Statist. Theory
and Methods, 38, 1317-1335.
2. Attouch, M., Laksaci, A. and Ould Saïd, E. (2010). Asymptotic normality of a
robust estimator of the regression function for functional time series, J. Korean
Statist. Soc, 39, 489-500.
3. Attouch, M., Laksaci, A. and Ould Saïd, E. (2012). Robust regression for func-
tional time series data. J. Japan Statist. Soc, 42 , 125-143.
4. Azzedine, N., Laksaci, A. and Ould Saïd, E. (2008). On the robust nonpara-
metric regression estimation for functional regressor, Statist. Probab. Lett, 78,
3216-3221.
5. Benhenni, K., Ferraty, F., Rachdi, M. et P. Vieu (2007). Local smoothing re-
gression with functional [Link]. Statistics, 22, 353-369.
6. Bosq, D. (2000). Linear Processes in Function Spaces : Theory and Applications
Lecture Notes in Statistics Springer-Verlag,149, New York.
7. Burba, F., Ferraty, F. et Vieu, P. (2008). Propriétés asymptotiques de l'estima-
teur kNN en régression fonctionnelle non-paramétrique. C. R. Math. Acad. Sci.
Ser, I 346, 339-342.
8. Bertrand , Retali Convergence uniforme de certains estimateurs de la densité
par la méthode du noyau. C.R.A.S. Série A, 279, 527-529.
9. Collomb, G. and Härdle, W. (1986). Strong uniform convergence rates in robust
nonparametric time series analysis and prediction : Kernel regression estimation
from dependent observations. Stoch. Proc. Appl, 23, 77-89.
10. Crambes C, Delsol L. and Laksaci A. (2008). Robust nonparametric estimation
for functional data. J. Nonparametric Statist, 20, 573-598.
11. Ferraty, F. et Vieu, P. (2002). The functional nonparametric model and appli-
cation to spectrometric data. Comput. Statist, 17 (4), 545-564.
12. Ferraty, F. and Vieu, P. (2003). Curves discrimination : a nonparametric func-
tional approach Computational Statistics and Data Analysis, 44 (1-2), 161-173.
13. Ferraty, F. and Vieu, P. (2006). Nonparametric Functional Data Analysis. Theory
and Practice. Springer-Verlag, New York.
14. Holmstrome, I. (1961. On method for parametric representation of the state of
the atmosphere. Tellus, 15, 127-149.
15. Huber, P.J. (1964). Robust estimation of a location parameter. Annals of the
Mathematical Statistics, 35, 73-101.
1.6 Présentation des résultats obtenus 21
La robustesse permet d'avoir une certaine insensibilité aux quelques erreurs loca-
lisées qu'il peut y avoir dans les données. Une méthode robuste doit produire un
résultat qui ne changera que légererement si une petite partie des données est rem-
placée par de nouvelles valeurs qui peuvent être très diérentes des originales. Les
méthodes robustes doivent accorder une importance assez grande à la partie princi-
pale des données et laisser une part trés faible aux possibles "lointains". Par exemple,
la médiane est une statistique robuste tandis que la moyenne ne l'est pas. On trouve
dans la littérature trois types d'estimateurs robustes (M, L et R)-estimateurs qui
correspondent respectivement aux estimateurs de type maximum de vraisemblance,
combinaisons linéaires des statistiques d'ordre et estimateur dérive de test de rang.
Les M−estimateurs sont les plus utilisés.
La statistique non paramétrique robuste sur les données incomplète est un domaine
en plein essor, que certaines situations ont été étudiées et qu'il reste encore de nom-
breux problèmes à résoudre, dans le cas ni−dimensionnel beaucoup de résultats sont
données on citera quelques uns.
Wang et Liang (2012) ont construit un M-estimateur de la fonction de régression
pour un modèle tronqué à gauche avec des données dépendantes et ont établi la
convergence faible et forte. Ould Saïd et Lemdani (2006) ont construit un estimateur
de type Nadaraya-Watson (NW) pour un modèle tronqué à gauche comme suit
n
X x − Xi
G−1
n (Yi )K( )Yi
i=1
hn
mn (x) = n
X x − Xi
G−1
n (Yi )K( )
i=1
hn
2.3 La régression robuste : Cas de dimension nie 25
et n
1X
Rn (y) = I(Ti ≤ y ≤ Yi ).
n i=1
En se basant sur cet estimateur, Wang et Liang (2012) ont construit un M−estimateur
b n (x) qui est dénit comme solution par rapport à τ de l'équation
m
n
X x − Xi
G−1
n (Yi )K ψ(Yi − τ ) = 0.
i=1
hn
Ils ont obtenu des résultats asymptotiques sous des conditions de mélange comme
suit :
Théoreme 2.3.1 Soit x ∈ Rd et α(n) = O(n−γ ) pour γ > 3. On suppose que m(x)
est une solution de l'equation E[ψ(Y1 − s) X1 = x] = 0. Sous des hypothèses sur le
noyau, la fenêtre et la fonction ψ
P
b n (x) → m(x).
m
Théoreme 2.3.2 Sous les hypothèses du théorème précédent, s'il existe une suite de
nombre réels An tel que An et α(l) satisfaisant
∞ ∞
nhdn An α([An ])
An → ∞, <∞, 2 → ∞, < ∞ alors
X X
A−r
n d
n=1
An log n n=1
hn
p.s.
b n (x) → m(x).
m
Lemdani et Ould Saïd (2015) se sont intéressés à un autre type de données incomplètes
qui est la censure. Ils ont considéré un estimateur robuste de la régression avec une
variable d'interêt censurée à droite et des covariables Xi iid dans Rd avec une densité
γ > 0. Ils ont adopté le modèle qui est solution m(x) de l' équation suivante
Ψ(x, θ) := E ψx (T1 − θ) X1 = x γ(x) = 0
avec
c∗ (Yi , θ) := δψx (T1 − θ) .
ψ
G¯n (T1 )
où Ḡ(·) est l'estimateur de Kaplan-Meier (1958) de la survie de la variable aléatoire
de la censure.
Alors l'estimateur de m(x) noté m(x)
b est la solution par rapport à θ de l'equation
Ψ(x,
b θ) = 0.
Sous des conditions classiques et en utilisant les VC-classes, les auteurs ont établi la
convergence uniforme avec vitesse sur un compact de Rd et la normalité asymptotique
de l'estimateur robuste.
r !
log n
(ii) sup | m(x) − m(x) |= O(h2 ) + O p.s.
n1−2ζ hd
b
x∈S
Dans cette partie on suppose que la variable à expliquer Y est à valeurs réelles et
la variable explicative X est à valeurs dans un espace de fonctions F muni d'une
semi−métrique d. Ce type de variables, connu sous le nom de variables fonction-
nelles dans la littérature, permet de considérer des variables aléatoires en tant que
fonctions (du temps par exemple), ce qui est adapté dans le cas où les observations
sont par nature fonctionnelles : on renvoie notamment à Ramsay et Silverman (2002,
2005) pour une vue d'ensemble sur les données fonctionnelles. Dans ce contexte, le
2.4 La régression robuste : Cas de dimension innie 27
modèle le plus général est le modèle de régression lorsque la variable explicative est
une courbe. Concernant la régression robuste pour ce type de données, la littérature
est beaucoup plus restreinte : Cadre (2001), ainsi que Cardot et al. (2005) sont les
principales références. Récemment, Azzedine et al. (2008) ont étudié la convergence
presque complète d'un estimateur robuste à noyau qui s' écrit comme suit :
n
X
K(h−1 d(x, Xi ))ψx (Yi , t)
i=1
Ψ(x,
b t) =
n .
X
−1
K(h d(x, Xi ))
i=1
Azzedine et al. (2008) ont étudié la convergence presque complète d'estimateurs ro-
bustes à noyau sous des hypothèses technique et standard sur le noyau et la fenêtre,
ils ont supposé que la fonction objective ψ est monotone, dierentiable et bornée et si
la propriété de concentration de la mesure de probabilité de la variable fonctionnelle.
Sous les hypothèses suivantes
(H1)∀r > 0, P(X ∈ B(x, r)) =: φx (r) > 0, φx (r) −→ 0 as r −→ 0.
(H2)∃C > 0 et b > 0 tel que ∀(x1 , x2 ) ∈ Nx , ∀t ∈ IR
Théoreme 2.4.1
s !
log n
θbn − θx = O(hbk ) + O [Link].
nφx (hk )
Attouch et al. (2009) ont obtenu des résultats pour des données indépendantes, sous
des hypothèses techniques assez générales sur le noyau et la fenêtre et sur la meme
propriété de concentration de la mesure de probabilité de la variable fonctionnelle
et les mêmes conditions sur la fonction objective et sous les hypothèses suivantes,
ces auteurs ont établi la normalité asymptotique sur l'ensemble des x appartenant à
l'ensemble
A = x ∈ F, g(x)λ2 (x)(x, θx ) 6= 0,
0
avec λ2 (x)(u, t) = E [ψx2 (Y, t)/X = u] , Γ1 (u, t) = E[ψx (Y, t)/X = u].
(H1) La fonction λγ (., .) satisfait la condition de Lipschitz. Ils existent les constantes
strictement positives bγ tel que :
(H2) La fonction Γγ (., .) satisfait la condition de Lipschitz. Ils existent les constantes
strictement positives bγ tel que :
Théoreme 2.4.2
1/2
nφ(h)
L
θbn − θx − Bn (x) → N (0, 1),
σ 2 (x, θx )
Z 1
h
où Bn (x) =
0
K(t)ϕ(th)φ (th)dt + o(1)
φ(h)α1 Γ1 (x, θx ) 0
avec (ϕ(s) = E[ψ(Y, θ)/d(X, x) = s]),
α2 λ2 (x, θx )
σ 2 (x, θx ) = 2 2
(avec
α 1 g(x)(Γ 1 (x, θx ))
αj = − 0 (K j )0 (s)β(s)ds, pour j=1, 2).
R1
Théoreme 2.4.4 Sous des hypothèses de régularité de la fonction robuste ainsi que
des conditions standards sur le noyau et la fenêtre, on a pour tout x ∈ A.
1/2
nφ(h)
L
θx − θx − Bn (x) → N (0, 1),
b
σ 2 (x, θ)
La littérature est très restreinte en ce qui concerne la régression pour des données
fonctionnelle tronquée à gauche, le but de notre étude est d'étudier les propriétés
asymptotiques d'un estimateur robuste de la régression pour des co-variables fonc-
tionnelles dans la présence de données tronquées à gauche, qui sont cités dans le
troisième et quatrième chapitres.
Chapitre 3
Abstract
In this paper we study a family of the nonparametric estimation of the ψ -regression
model when the response variable is subject to left-truncation by an other random
variable. Under standard assumptions, we get the almost complete convergence rate as
well as asymptotic normality of a robust nonparametric estimators for the truncated
and functional regressors. Clearly this permit to get condence interval that is usable
in practice since it does not depend on any unknown quantity. Some special cases
have been studied to show how our work extend many results. Our results have been
conforted by simulation study for consistency as well as for probability coverage of a
condence interval.
AMS subject classications : 60G42, 62F12, 62G20, 62G05.
Key words : Asymptotic normality, Functional data, Kernel estimator, Lynden-Bell
estimator, Robust estimation, Small balls probabilities, Strong consistency, Trunca-
ted data.
3.1 Introduction
The regression analysis of incomplete data (censored and/or truncated data) has
gained a particular interest in the statistics literatures. Such kind of data occur in
many elds of applications such as in astronomy, economics, epidemiology, biometry
and medical studies (see, Woodroofe (1985), Andersen et al. (1993) or He and Yang
1. corresponding author
3.1 Introduction 31
(1994)). For example, in a retirement center, subjects are observed only if they live
long enough to enter the retirement house. The lifetime, say Y , is then left truncated
by the retirement house entry age, say T . People who enter the retirement house
earlier may get better medical attention and therefore live longer. On the other hand,
people with poor health and shorter expected lifetime may retire earlier.
In this paper, we are interested on the ψ -regression when the interest random variable
is subject to left-truncation and in the presence of functional covariable by using a
robust approach.
Recall that, for complete data and in nite dimensional spaces, the pioneer work is of
Huber (1964), where he studied an estimation of some location parameter. Collomb
and Hardle (1986), proved the uniform almost complete convergence with rates of the
robust nonparametric kernel estimator, when data satises a some of kind of depen-
dency. Later, Laïb and Ould Saïd (2000), improved this result when the data satisfy
an ergodicity condition.
The nonparametric modeling of functional data becomes a major topic of research in
the last decade (see Ferraty and Romain 2011, for recent advances and references). In
this context the robust estimation of the regression function is an interesting problem
in statistical inference. It is used as an alternative approach to classical methods, in
particular when the data are aected by the presence of outliers. This model was
rstly introduced, as far as we know, in nonparametric functional statistics by Az-
zedine et al. (2008). They obtained the almost complete convergence of a family of
robust estimators of the regression function in the independent and identically dis-
tributed (i.i.d.) case. Since this work, various advances on the nonparametric robust
functional regression have been provided. Without pretend to the exhaustivety, we
quote for instance, Crambes et al. (2008), Chen and Zhang (2009), Attouch et al.
(2009, 2010, 2012), Gheriballah et al. (2013) and the references therein. All these
results are obtained in the complete data. There are very few results in the nonpara-
metric functional statistic when the data are incomplete. At the best of our knowledge,
only the papers of Horrigue and Ould Saïd (2011, 2014) have paid attention to study
the conditional quantiles estimation for censorship model and functional regressors.
However, for the nite dimensional spaces, the nonparametric estimation of the re-
gression function with randomly truncated data has been widely considered by many
authors. For example, and to cite only a few, Ould Saïd and Lemdani (2006) studied
the asymptotic properties of the kernel estimator of the regression function in i.i.d.
case, however Wang et al. (2012a) used M-estimation method and Wang et al. (2012b)
for local M-estimation method under dependent condition.
The main goal of this paper is to generalize the results of Wang et al. (2012a) from the
real case to the functional case and those of Azzedine et al (2008) and Attouch et al
(2009) to incomplete data. More precisely, we establish the almost-complete conver-
gence, with rates as well as the asymptotic normality of the estimator constructed by
3.2 Presentation of model and estimators 32
combining the ideas of robustness with those of smoothed regression. This induces
a condence interval that which is useful for the practitioners. Finally, noting that
the main feature of our approach is to develop an alternative prediction model to the
classical regression that is not sensitive to outliers or heteroscedastic data. Our results
have been emphasized by simulation study for consistency as well as for probability
coverage of a condence interval.
The rest of the paper is organized as follows : Section 2 is devoted to the presentation
of the model and give the estimator of the parameter. The assumptions and main
results are given in Section 3. Some special cases have been made in Section 4. In
Section 5, we deal with simulations data where where we study the convergence part
and the coverage probability of a condence interval, whereas the proofs of the main
results are relegated to the Appendix.
where
K h−1
N d(x, Xi )
WN,i (x) = PN −1
, (3.1)
i=1 K hN d(x, Xi )
are the Nadaraya-Watson (NW) weights. Here K is a real-valued kernel function and
h := hN be a sequence of positive real numbers which decreases to zero as n tends to
innity. It is well-known that the classical regression suer from the not robustness.
As mentioned before, the ψ -regression method have largely developed to ease the
eects of the outliers values.
Recall that the ψ -regression function is the nonparametric parameter, denoted by θx ,
implicitly dened, for all x ∈ F , as a value which vanishes with respect to (w.r.t.)
t ∈ IR the function
t ,→ Ψ(x, t) := IE [ψ(Y, t) | X = x]
3.2 Presentation of model and estimators 33
Gn (y)F̄n (y)
τn = .
Rn (y)
and is independent of y .
The asymptotic properties of Fn and Gn were studied by Woodroofe (1985), while the
almost sure consistency of τn was obtained by He and Yang (1998). Noting that as N is
3.3 Main results 34
Let a, b be two real numbers such that [a, b] ⊂ [aF , bF ]. We point out that we need
this assumption because we need the uniform consistency of the distribution law G(·)
of the truncated rv T , which stated over compact set (see Remark 6 in Woodroofe
(1985). Furthermore we suppose that our parameter is such that θx ∈ (a, b).
Given an observed triplet random variables (X1 , Y1 , T1 ), . . . (Xn , Yn , Tn ), and combi-
ning the ideas in Ferraty and Vieu (2006) and Ould Saïd and Lemdani (2006), the
kernel estimate of the ψ -regression function θx denoted θbx is a zero w.r.t. t of the
equation
Ψ(x,
b t) = 0, (3.2)
where n
X
G−1 −1
n (Yi )K(h d(x, Xi ))ψx (Yi , t)
i=1
Ψ(x,
b t) =
n
X
G−1 −1
n (Yi )K(h d(x, Xi ))
i=1
and h := hn .
3.3.1 Consistency
Our result we will stated under some assumptions which are gathered together for
easy reference
(H1) ∀r > 0, P(X ∈ B(x, r)) =: φx (r) > 0. Moreover, φx (r) −→ 0 as r −→ 0.
(H2)
The function Ψ is such that :
(i) Ψ(x, ·) is of class C 1 on [θx − δ, θx + δ], δ > 0.
(ii) For each xed t ∈ [θx − δ, θx + δ], Ψ(·, t) is continuous at the point x.
(iii) ∀(t1 , t2 ) ∈ [θx − δ, θx + δ] × [θx − δ, θx + δ], ∀(x1 , x2 ) ∈ Nx × Nx
|Ψ(x1 , t1 ) − Ψ(x2 , t2 )| ≤ Cdb1 (x1 , x2 ) + |t1 − t2 |b2 , b1 > 0, b2 > 0.
(H3) The function ψx is continuous monotone w.r.t. the second component and for
each xed t ∈ [θx − δ, θx + δ], ∀j ≥ 1, E [ψxj (Y, t)] < C < ∞.
(H4) K is a function with support (0, 1) such that
0 < C1I(0,1) < K(t) < C 0 1I(0,1) < ∞.
log n
(H5) limn→∞ h = 0 and lim = 0.
n→∞ nφx (h)
θbx − θx → 0 a.c.
In order to give a more accurate asymptotic result, we replace (H2) (ii) by H2(iii)
and we obtain the following result
Théoreme 3.3.2 Assume that (H1), (H2) ((i), (iii)) and (H3)-(H5) are satised,
then θbx exists a.s. for all suciently large n. Furthermore, if Ψ0 (x, θx ) 6= 0 we have
s !
log n
θbx − θx = O hb1 + O
a.c.
nφx (h)
3.3 Main results 36
Now, we study the asymptotic normality of θbx . We replace (H1), (H2), (H4) and (H5)
by the following hypotheses, respectively.
(H10 ) The concentration property (H1) holds. Moreover, there exists a function βx (·)
such that
∀s ∈ [0, 1], lim φx (sr)/φx (r) = βx (s).
r→0
(H2 ) Conditions (H2(i)) and (H2(ii)) hold and the derivative function
0
Théoreme 3.3.3 Assume that (H10 ))-(H50 )) hold. Then we have for any x ∈ A,
1/2
nφx (h)
D
θbx − θx + Bn (x) → N (0, 1) as n → ∞.
σ 2 (x, θx )
where
1
α2 Ψ2, G (x, θx )
Z
2 (with αj = K(1) − (K j )0 (s)βx (s)ds, for, j = 1, 2),
2
σ (x, θx ) = τ
∂
α1 ∂t Ψ(x, θx ) 0
Z 1
0
Bn (x) = hΦ (0, θx )α1−1 (K(1) − 0
(sK(s)) (s)βx (s)ds + o(h).
0
∂
A = {x ∈ F, Ψ2, G (x, θx ) Ψ(x, θx ) 6= 0}
∂t
D
and → means the convergence in distribution.
Corollary 1 Under the assumptions of the Theorem 3.3.3 and if nh2 φx (h) −→ 0,
then
1/2
nφx (h)
D
θbx − θx → N (0, 1) a.c n → ∞.
σ 2 (x, θx )
2 α2 E [ψ 2 (Y, θx )|X = x]
σ[Link]. (x, θx ) = 2
∂
α1 ∂t Ψ(x, θx
Corollary 3 Under the assumptions of the Theorem 3.3.3 and if nh2 φx (h) −→ 0,
then
1/2
nφx (h)
D
2
θx − θx → N (0, 1) as n → ∞.
b
σ[Link]. (x, θx )
Corollary 4 Under the assumptions of the Theorem 3.3.3 and if nh2 φx (h) −→ 0,
then
!1/2
nφx (h)
D
2
θx − θx → N (0, 1) a.c n → ∞.
b
σ[Link]. (x, θx )
It should be noted that the result of this corollary is also new in statistics functional.
Nevertheless, in non functional case, this asymptotic normality is comparable to the
results of Lemdani and Ould-Said (2006).
In the real case when F = R, and if the probability density of the random variable
X , denoted by f , is of C 1 class, then φx (h) = f (x)h + o(h) and βx (s) = s
2, G
R1 2
2 Ψ (x, θx ) 0
K (s)ds
σReal (x) = τ 2 .
∂
R 1
∂t
Ψ(x, θx ) 0 K(s)ds
Corollary 5 Under the assumptions of the Theorem 3.3.3 and if nh3 −→ 0, then
1/2
nhf (x)
D
2
θbx − θx → N (0, 1) a.c n → ∞.
σReal (x, θx )
Observe that in this case we obtain the same convergence rate given by Wang et al.
(2012a). In the same context we obtain as almost complete convergence rate
r !
log n
O hb1 + a.c.
nh
Clearly, we attain the usual optimal rate in nonparametric statistic of Stone( 1981)
−b1 /2b1 +1 −1/2b1 +1
that is logn n which corresponds the optimal h = C logn n
models in the two functional prediction problem's ( the pointwise predication control-
led by the mean absolute error (MAE) and the prediction bands controlled through
the coverage probabilities of the proposed condence intervals. Moreover, in order to
check the eect of the truncation in this practical study we vary the percentage of
truncation and we consider several dierent sample-size. Specically, we proceed with
the following algorithm :
Step 2 : R1
We calculate Y1 = R(X1 (t)) + ε1 where R(X1 (t)) = 0 (X1 (t))2 dt.
Step 3 : TEST
We begin by :
N=0,
j=0,
While j ≤ n :
We put N = N + 1 We test : if Y1 < T1 we reject the triplet (X1 (t), Y1 , T1 )
Otherwise we keep the triplet (X1 (t), Y1 , T1 ) and we put j = j + 1
at the end of this count we get the deterministic N ,
which permits to get the rate of truncation τ = Nn ).
More precisely, the rate of the observed triplet.
We get n random vectors (Xj (t), Yj , Tj ) j = 1, . . . n.
Step 4 :
We calculate the Lynden-Bell estimator by the observed couple (Yj , Tj ) for i =
1, . . . , n
Step 5 :
We calculate our estimator as the argument value (say θbx ) which is the upper
negative value of Ψ(x, t) with respect to t before Ψ(x, t) becoming positive. No-
ting that, we have used for the robust regression the score function dened by
ψ1 (y, t) = √ y−t
2
while for the classical case we have ψ2 (y, t) = y − t. It
(1+(((y−t) )/2))
3.5 Simulation study 40
Remark 1 Here we point our that unlike to complete and censored data, the ex-
planatory random function X(t) is not kept in each step but only if the interest
random variable Y is bigger than the truncated random variable T .
3.5.1 Consistency
Our main purpose in this part is to illustrate the consistency propriety of our estimate
by examining its accuracy as predictor in the following situations :
For the rst case. We x the percentage of truncation evaluated by µ = 2 and we
vary the sample-size n = 50, 100, 500. For each sample-size case, we split our data into
two subsets (learning sample and test sample). From the learning sample we compute
the predicted values θbx ( for the two score functions ψ1 and ψ2 ), corresponding to
the curves of the test sample. In the following gures we plot the predicted values
estimated by θbx versus the true values. The continuous line represents what would be
the perfect prediction. Typically, the eciency of the prediction method is quantied
by the closeness of the round point to this continuous line.
3.5 Simulation study 41
It can be seen that, the two methods are basically equivalent and both show the
good behavior of our functional procedure. This fact is conrmed by the MAE error
given for each cases. Moreover, although this error increase substantially with respect
the sample-size n the predict results admit suciently good performances even for
a small sample size n = 50. It should be noted that, our functional prediction pro-
cedure automatic selection method computes faster the results also for large sample
sizes n = 100 or n = 500.
For the seconde case. We x the sample-size n = 100 and we vary percentage of
truncation for three values of µ = 0, 4 and 8 giving 100%, 50% and 25% of observed
data. Similarly to the rst case, we split our data in two sub-samples (learning and
test sample) we plot the predicted values versus the true values
3.5 Simulation study 44
The performance of both predictors seems to be less aected by the truncation per-
centage. The quality of prediction is dramatically destroyed in the strong truncated
case compared to complete date case. However, all in all the comparison of both scat-
terplots indicates that the two predictors are equivalent in the three case.
For the last case. We keep the same data of the previous case. However, in order to
compare the sensitivity to outliers between the robust method and the classical one
we introduced articial outliers. For this purpose, we multiple by a MF (multiplier
factor) same values of the response variable in the learning sample. The obtained
results are summarized in the following Table. It gives MAE error for both model for
various values of M F = 5, 10, 50, 100
3.5 Simulation study 47
We observe that in the presence of outliers, the robust regression is more stable than
the classical method, in sense that, even if the M AE value of the both methods
increases substantially relatively to the values of MF but its variability in the robust
method is not very important compared to the classical one.
Our second illustration concerns the the asymptotic normality propriety of our es-
timate. More precisely, we examine the coverage probability (C.P.) of the proposed
condence intervals as direct consequence of the asymptotic normality. To do that,
we estimate empirically α1 and α2 by
n n
1 X 1 X 2 −1
α
c1 = K(h−1 d(x, Xi )) and α
c2 = K (h d(x, Xi )).
nφx (h) i=1 nφx (h) i=1
and n
X ∂
G−1 −1
n (Yi )K(h d(x, Xi )) ψx (Yi , t)
i=1
∂t
n
X
G−1 −1
n (Yi )K(h d(x, Xi ))
i=1
Thus, the functions φx (·) does not intervene in the calculation of the normalized
deviation. We use the same data and the same arguments as those used in the calcu-
lation of θbx to compute the of the normalized deviation. Finally, we test the eciency
of our asymptotic normality by comparing the C.P. of the two models. The latter
is evaluated by the percentage of the true values belong the estimated condence
intervals.
This Table presents the C.P values in both case (absence and presence of outliers).
It is clear that there is no outliers the two regression models give better results. But,
3.6 Appendix 49
in the presence of outliers the C.P. of the robust case is widely important compared
to the classical one.
3.6 Appendix
Proof Theorems 4.3.1 and 4.3.2.
Similarly to Azzedine et al. (2008), the proof of both Theorems 4.3.1 and 4.3.2 is
based in the fact that ψx is monotone w.r.t. the second component. Noting that,
the proofs of both cases increasing or decreasing case can be obtained by the same
manner. Thus, we give only the proof for the case of a increasing ψx (Y, .). For this
case we write, ∀ > 0
X X
P θbx − θx ≥ ≤ P θbx − θx 1I{| θbx −θx |≤δ} ≥
n n
X
+ P θbx − θx 1I| θbx −θx |>δ ≥ .
n
X X
P θbx − θx 1I{|θbx −θx |>δ} ≥ ≤ P θbx − θx > δ
n n
X
≤ b θx + δ) − Ψ(x, θx + δ) ≥ Ψ(x, θx + δ)
P Ψ(x,
n
X
+ P Ψ(x, θx − δ) − Ψ(x, θx − δ) ≥ −Ψ(x, θx − δ) .
b
n
and
n
τ X 1 d(x, Xi )
Ψ
e N (x, t) = K ψ(Yi , t).
nE[K1 ] i=1 G(Yi ) h
Moreover, we put
n
τn X 1 d(x, Xi )
Ψ
b N (x, t) = K ψ(Yi , t)
nE[K1 ] i=1 Gn (Yi ) h
and
n
b D (x) = τn
X 1 d(x, Xi )
Ψ K .
nE[K1 ] i=1 Gn (Yi ) h
b t) = ΨN (x, t) − Ψ(x, t)
b
Ψ(x, t) − Ψ(x,
Ψ
b D (x)
Ψ
b N (x, t) Ψ(x, t) Ψ(x, t)
= − + − Ψ(x, t)
Ψ
b D (x) Ψ
b D (x) Ψb D (x)
1 b Ψ(x, t)
= ΨN (x, t) − Ψ(x, t) + −ΨD (x) + 1
b
Ψ
b D (x) Ψ
b D (x)
1 b e N (x, t) + 1
h i
= ΨN (x, t) − Ψ e N (x, t) − E Ψ
Ψ e N (x, t)
Ψ
b D (x) Ψ
b D (x)
1 h i
+ E ΨN (x, t) − Ψ(x, t)
e
Ψ
b D (x)
Ψ(x, t) n e h i h i o
+ ΨD (x) − Ψ b D (x) + E Ψ e D (x) − Ψ e D (x) + −E Ψ e D (x) + 1 .
Ψ
b D (x)
We rst state the following lemmas whi ch can be found in Ferraty and Vieu (2006).
They are needed for the strong convergence of our estimates. There proofs will then
be omitted.
Lemma 3.6.2 Let Zi a sequence of i.i.d centred random variables such that ∀m ≥
2, ∃Cm > 0, IE(| Z1m |) < Cm a2(m−1) then
m
!
ε2 n
X
∀ε > 0, P Zi > εn ≤ 2 exp −
i=1
2a2 (1 + ε)
Lemma 3.6.3 Let Zi a sequence of i.i.d centred random variables such that |Zi | ≤ d
and E(| Z12 |) < Cδ 2 then
m
! 2
2
X εn
∀ε ∈]0, δ /d[ P Zi > εn ≤ 2 exp − 2
i=1
4δ
h i h i
sup e N (x, t) − E Ψ
Ψ e N (x, t) ≤ max max e N (x, t) − E Ψ
Ψ e N (x, t) +2b2 C2 lb2 .
n
t∈[θx −δ, θx +δ] 1≤j≤dn t∈{tj −ln ,tj +ln }
Gn = {tj − ln , tj + ln , 1 ≤ j ≤ dn } . (3.5)
Next, we apply
the exponential
h inequality
i given in Lemma 3.6.3 to evaluate the
quantities P ΨN (x, t) − E ΨN (x, t) > ε . Indeed, for a xed t ∈ Gn , we write
e e
h i 1X n
ΨN (x, t) − E ΨN (x, t) =
e e Zi
n i=1
where
1 τ d(x, Xi ) τ 1 d(x, Xi )
Zi = K ψ(Yi , t) − E K ψ(Yi , t)
E[K1 ] G(Yi ) h G(Yi ) E[K1 ] h
The application of the mentioned inequality is based on evaluation of E(| Z1m |) for
all m ≥ 2. The latter is evaluated by the same arguments used by Ferraty and Vieu
(2006). Indeed, by Newton binomial expansion
m
τk
m 1 X
k k d(x, X1 ) k
E[| Z1 |] = C E K ψ (Y1 , t)
E[K1 ]m k=1 m Gk (Y1 ) h
m−k
τ d(x, X1 )
× E K ψ(Y1 , t)
G(Y1 ) h
Observe that, under (H3) and (H4), we have, for all k > 0
k k
Cτ k
τ d(x, X1 ) τ d(x, X1 )
E K ψ(Y1 , t) ≤ CE K ≤ E[K1 ].
G(Y1 ) h G(Y1 ) h Gk (aF )
and
m−k m−k
τ d(x, X1 ) d(x, Xi )
≤ C E[K1 ]m−k .
E K ψ(Y1 , z) ≤C E K
G(Y1 ) h h
It follows that
E[| Z1m |] ≤ CE[K1 ]−m+1 .
Then, we can apply Lemma 3.6.2 with a = E[K1 ]−1 . Thus,
p
m
!
ε2 n
h i X
P Ψ e N (x, t) − E Ψe N (x, t) > ε = P Zi > εn ≤ 2 exp − .
i=1
2E[K1 ](1 + ε)
q
Consequently, for ε = ε0 log n
nE[K1 ]
we get
log n
h i ε20 n nE[K ]
P e N (x, t) − E Ψ
Ψ e N (x, t) > ε ≤ 2 exp − q1
2 log n
E[K1 ]
1 + ε0 nE[K1 ]
3.6 Appendix 53
ε20
log n
≤ 2 exp − q .
log n
2 1 + ε0 nE[K1 ]
It follows that
X h i
e N (x, t) − E Ψ
P Ψ e N (x, t) > ε ≤ 4dn n−Cε20 = Cn−Cε20 +1/2b2 .
t∈Gn
1 d(x, X1 )
= E E K 1IB(x,h) ψ(Y1 , t)|X1
E[K1 ] h
1 d(x, X1 )
= E K 1IB(x,h) E (ψ(Y1 , t)|X1 )
E[K1 ] h
1 d(x, X1 )
= E K 1IB(x,h) Ψ(X1 , t)| .
E[K1 ] h
Therefore, for all t ∈ [θx − δ, θx + δ], with (H2) (ii)
τ d(x, Xi )
| E[Ψ̃N (x, t)] − Ψ(x, t) | ≤ E K1 1IB(x,h) | Ψ(X1 , t) − Ψ(x, t) |
E[K1 ] h
d(x, Xi )
≤ E K1 1IB(x,h) C1 d (X1 , x)
b
h
≤ C1 hb1 .
n
b N (x, t) − Ψ τn X 1 d(x, Xi )
Ψ e N (x, t) = K ψ(Yi , t)
nE[K1 ] i=1 Gn (Yi ) h
n
τ X 1 d(x, Xi )
− K ψ(Yi , t)
nE[K1 ] i=1 G(Yi ) h
n
τn − τ X 1 d(x, Xi )
= K ψ(Yi , t)
nE[K1 ] i=1 Gn (Yi ) h
n
Gn (Y ) − G(Y ) 1 X d(x, Xi )
+τ K ψ(Yi , t)
Gn (Y )G(Y ) nE[K1 ] i=1 h
3.6 Appendix 55
Concerning the rst part of the last term we recall that, it is shown in Theorem 3.2
1
of He and Yang(1998) | τn − τ |= Oa.s. (n− 2 ), while remark 6 of Woodroofe(1985))
1
gives |Gn (aF ) − G(aF )| = Oa.s. (n− 2 ). Furthermore, for the second part we follow the
same line of the proof of Lemma 3.6.1 to show that
s !
n
1 X d(x, Xi ) d(x, Xi ) log n
sup K ψ(Yi , t) − E K ψ(Yi , t) = O
t∈[θx −δ,θx +δ] nE[K1 ] i=1 h h nφx (h)
and we combine the latter with Lemma 3.1 in Azzedine et al. (2008) to get
n
1 X d(x, Xi )
sup K ψ(Yi , t) = [Link]. (1).
t∈[θx −δ,θx +δ] nE[K1 ] i=1 h
So, we have
e N (x, t) = Oa.s. (n− 21 )
b N (x, t) − Ψ
Ψ
which is the claimed result
Lemma 3.6.6 Under Hypotheses (H1),(H2), (H4) and (H5), we have,
s !
h i log n
ΨD (x) − E ΨD (x) = O
e e [Link].
nφx (h)
where
1 τ d(x, Xi ) 1 τ d(x, Xi )
Li = K − E K .
E[K1 ] G(Yi ) h E[K1 ] G(Yi ) h
Similarly to Lemma 3.6.1, we obtain by (H4)
C C0
and E L2i <
|Li | < .
E[K1 ] E[K1 ]
3.6 Appendix 56
So, we apply the exponential inequality of Lemma 3.6.2 to get for all η0 > 0
s !
h i log n 2
P Ψ e D (x) − E Ψe D (x) > η0 ≤ 2 exp{−0 n−Cη0 log n }.
n E(K1 )
Because of (H1) and (H4) we have E(K1 ) = O(φx (h)). Thus, there exist an η0 > 0
such that s !
X h
e D (x) − E Ψ
i log n
P Ψ e D (x) > η0 < ∞.
n
n φx (h)
The last result complete the proof of lemma.
Proof of Lemma 7.
By the same fashion of Lemma 3.6.4, we write
d(x, X1 ) 1IY1 ≥T1
τ
E[ΨD (x)] =
e E E K |X1 , Y1
E[K1 ] h τ G(Y1 )
1 d(x, X1 )
= E K = 1.
E[K1 ] h
n
1 X d(x, Xi )
× K .
nE[K1 ] i=1 h
Once again we use the result of Theorem 3.2 of He and Yang(1998) and remark 6 of
1
Woodroofe(1985)) where we have, respectively, | τn − τ |= Oa.s. (n− 2 ) and |Gn (aF ) −
n
− 21 1 X d(x, Xi )
G(aF )| = Oa.s. (n ). While the quantity K is bounded (it
nE[K1 ] i=1 h
can be proved by adding and substriting its expectation).
Finally, we have r !
b D (x) − Ψ 1
Ψ e D (x) = Oa.s.
n
which is the claimed result.
for all real xed t ∈ [θx − δ, θx + δ]. So, for suciently large n and for all ≤ δ
b θx + ) a. s..
b θx − ) ≤ 0 ≤ Ψ(x,
Ψ(x,
Since Ψ(x,
b t) is a continuous function of t, there exists a θbx ∈ [θx − , θx + ] such
that Ψ(x,
b θbx ) = 0. Concerning, the uniqueness of θbx , we point out that the latter is a
direct consequence of the strict monotonicity of ψx , w.r.t. the second component and
the positivity of K .
Finally, The second part of this corollary is a direct consequence of the regularity
assumption (H2) (i) on Ψ(x, ·)) and the convergence
θbx → θx n −→ ∞ a. s.
3.6 Appendix 58
Ψ
b N (x, θbx ) = 0.
Hence, if Ψ
b D (x) 6= 0 we can write
( 1/2 )
nφx (h)
bx − θx + Bn (x) < u
n
bx < θx − Bn (x) + u [nφx (h)]−1/2 σ(x, θx )
o
P θ = P θ
σ 2 (x, θx )
n o
= P 0<Ψ b N (x, z)
n h i h i o
= P E ΨN (x, z) − ΨN (x, z) < ΨN (x, z) + E ΨN (x, z) − ΨN (x, z) .
e e b e e
Therefore, Theorem 3.3.3 is a consequence of Lemma 3.6.1 and the following inter-
mediates results.
Lemma 3.6.10 Under the Hypotheses of Theorem 3.3.3, we have for any x ∈ A
!1/2
nφx (h) h i
D
2 ΨN (x, z) − E ΨN (x, z)) → N (0, 1) as n → ∞.
e e
∂
∂t
Ψ(x, θx ) σ 2 (x, θx )
Denition of Ψ
e N (x, z) allows to write that
2 n
h i τ X K i ψ(Y i , t)
V ar Ψe N (x, t) = V ar
(n E[K1 ])2 i=1 G(Yi )
τ2
K1 ψ(Y1 , t)
= V ar
n E2 [K1 ] G(Y1 )
2
2 2 2
τ2
τ K1 ψ (Y1 , t) K1 ψ(Y1 , t)
= E − E . (3.7)
n E2 [K1 ] G2 (Y1 ) n E2 [K1 ] G(Y1 )
Now, using the truncation eect to the rst term of (3.7), we have
2 2 Z Z K 2 d(x,u) ψ 2 (y, t)
K1 ψ (Y1 , t) h
E 2
= 2
f ∗ (y|u)dy dPX x (u)
G (Y1 ) G (y)
Z Z G(y)K 2 d(x,u) ψ 2 (y, t)
h
= 2
f (y|u)dy dPXx (u)
τ G (y)
2 2
1 K1 ψ (Y1 , t)
= E .
τ G(Y1 )
2
τ E [K12 ] K1 ψ (Y1 , t)1IY1 ≥T1 K1 ψ(Y, t)1IY1 ≥T1
2 2
1
= E − E . (3.8)
n E2 [K1 ] G2 (Y1 )E [K12 ] n G(Y1 )E [K1 ]
So,
2
1
I
2 2
h i φx (h)τ E [K 1 ] K 1 Y 1 ≥T1 (ψ(Y 1 , z))
nφx (h)V ar Ψ
b N (x, z) = E
E2 [K1 ] G2 (Y1 )E [K12 ]
2
K1 1IY1 ≥T1 ψ(Y1 , z)
− φx (h) E . (3.9)
G(Y1 )E [K1 ]
Noting that the limit of the second term of the right hand side of (3.9) has been
treated in Lemma 3.6.4 where we have shown
K1 1IY1 ≥T1 ψ(Y, t)
∀t ∈ IR, E −→ Ψ(x, t). (3.10)
G(Y1 )E [K1 ]
Then,
K1 1IY1 ≥T1 ψ(Y, t)
φx (h) E −→ 0.
G(Y1 )E [K1 ]
Now, we compute the limit of the rst term of the right hand side of (3.9). Clearly,
under (H2)
K1 1IY1 ≥T1 ψx2 (Y, t) d(x, X1 ) 1IY1 ≥T1 2
2
1 2
E = E K ψ (Y1 , t)
G2 (Y1 )E [K12 ] E[K12 ] h G2 (Y1 )
3.6 Appendix 60
1
E[K1j ] = αj + o(1); j = 1, 2. (3.11)
φx (h)
Therefore 2
h i ∂
nφx (h)V ar Ψe N (x, t) → Ψ(x, θ(x)) σ 2 (x, θ(x)).
∂t
Let's now prove the claimed result. The latter is based on the version of the central
limit Theorem given in Loève (1963, p. 275). To do that, we write
n
e N (x, t) = 1
h i X
e N (x, t) − E Ψ
Ψ Zi
n i=1
where
1 τ d(x, Xi ) τ 1 d(x, Xi )
Zi = K ψ(Yi , t) − E K ψ(Yi , t).
E[K1 ] G(Yi ) h G(Yi ) E[K1 ] h
n
!
1X 2
Clearly, the above calculations show that nφx (h)V ar Zi converges to ∂t
∂
Ψ(x, θ(x)) σ 2 (x, θ(
n i=1
as n tends to innity. Therefore, to conclude the proof of this Lemma, it is enough
3.6 Appendix 61
to show that the numerator of the above expression converges to 0. For this, we use
the Cr -inequality (see Loève (1963), p. 155) we show that,
n
X 2+δ
(1+δ/2)
(nφx (h)) E Zi − E [Zi ]
i=1
n
X
1+δ (2+δ)/2
E |Zi |2+δ
≤2 (nφx (h))
i=1
n
X
(2+δ)/2
+21+δ
(nφx (h)) |E [Zi ] |2+δ . (3.12)
i=1
Observe that, according to (3.11), we have, for all j > 0, E K1j = O(φ(h)), then,
because G−1 is bounded and E[ψ 2+δ (Y, t)|X] < ∞, we have
n
X φ(h) 2+δ
21+δ (nφx (h))(2+δ)/2 E |Zi |2+δ | = 21+δ n−δ/2 (φ(h))−1−δ/2 E K12+δ E[ψ 2+δ (Y, t)|X]
i=1
E[K1 ]
φ(h) 2+δ
≤ C(nφx (h))−δ/2 E K12+δ /φx (h) −→ 0.
E[K1 ]
0
The last limit is a consequence of Assumption (H5 ).
For the second term of (3.12) we use once again the fact that E[ψ(Y, t)|X] < ∞ to
get
n
X 2+δ
(2+δ)/2
21+δ
(n(φ(h))) |E [Zi ] |2+δ ≤ 21+δ n−δ/2 (φ(h))(2+δ)/2) E−2−δ [K1 ] E [K1 ψ(Y1 , t)]
i=1
≤ Cn−δ/2 (φ(h))(2+δ)/2) → 0,
to obtain that
I1 = Bn (x) + o(h).
Concerning I2 we use a Taylor expansion to get, under (H10 ) and (H40 )
−1/2 ∂
−1/2
I2 = −Bn (x) + u [nφx (h)] σ(x, θ(x)) Ψ(x, θ(x)) + o [nφx (h)] .
∂t
The result is then a consequence of (3.13).
References
Andersen, P.K., Borgan, O., Gill, R.D. and Keiding, N. (1993). Statistical Models
Based on Counting Processes. Springer, New York.
Attouch, M., Laksaci, A. and Ould Saïd, E. (2009). Asymptotic distribution of ro-
bust estimator in nonparametric functional models, Comm. in Statist. Theory and
Methods, 38, 1317-1335.
Attouch, M., Laksaci, A. and Ould Saïd, E. (2010). Asymptotic normality of a robust
estimator of the regression function for functional time series, J. Korean Statist. Soc.,
39, 489500.
3.6 Appendix 63
Attouch, M., Laksaci, A. and Ould Saïd, E. (2012). Robust regression for functional
time series data. J. Japan Statist. Soc. , 42 , 125143.
Azzedine, N., Laksaci, A. and Ould Saïd, E. (2008). On the robust nonparametric
regression estimation for functional regressor, Statist. Probab. Lett. 78 :3216-3221.
Boente, G. and Fraiman, R. (1989). Nonparametric regression estimation. J. Multi-
variate Anal. 29, 180-198.
Boente, G., Gonzalez-Manteiga, W. & Pérez-Gonzalez, A. (2009). Robust nonpara-
metric estimation with missing data. J. Statist. Plann. Inference. 139, 571-592.
Collomb, G. and Härdle, W. (1986). Strong uniform convergence rates in robust non-
parametric time series analysis and prediction : Kernel regression estimation from
dependent observations. Stoch. Proc. Appl. 23, 77-89.
Chen, J. and Zhang, L. (2009). Asymptotic properties of nonparametric M-estimation
for mixing functional data, J. Statist. Plan. and Inference 139, 533-546.
Crambes C, Delsol L. and Laksaci A. (2008). Robust nonparametric estimation for
functional data, J. Nonparametric Statist. 20, 573-598.
Ferraty, F. and Vieu, P. Nonparametric Functional Data Analysis. Theory and Prac-
tice, Springer-Verlag, New York, 2006.
Ferraty, F. and Romain, Y. (2011). The Oxford Handbook of Functional Data Analysis.
Oxford University Press.
Gheriballah, A. Laksaci, A. and Sekkal, S. (2013) Nonparametric M -regression for
functional ergodic data. Statist. Probab. Lett. , 83, 902908.
He, S.,Yang, G. (1994). Estimating a lifetime distribution under dierent sampling
plan. In S.S. Gupta J.O. Berger (Eds.) Statistical decision theory and related topics
(Vol. 5. pp. 73-85) Berlin Heidelberg, NewYork : Springer.
He, S. and Yang, G. (1998). Estimation of the truncation probability in the random
truncation model. The Annals of Statistics, 26, 10111027.
Horrigue, W. and Ould Saïd, E. (2011). Strong uniform consistency of a nonparame-
tric estimator of a conditional quantile for censored dependent data and functional
regressors. Random Oper. Stoch. Equ., 19 , 131156.
Horrigue, W. and Ould Saïd, E. (2014). Nonparametric regression quantile esti-
mation for dependant functional data under random censorship : Asymptotic nor-
mality. To appear in Comm. in Statistics. Theory and Methods. DOI number :
10.1080/03610926.2013.784993.
Huber, P.J. (1964). Robust estimation of a location parameter. Annals of the Mathe-
matical Statistics, 35, 73-101.
Laïb, N. and Ould Saïd, E. (2000). A robust nonparametric estimation of the auto-
regression function under an ergodic hypothesis. Canadian Journal of Statistics, 28,
817-828.
Lemdani, M. and Ould Saïd, E. (2007). Asymptotic behavior of hazard rate kernel
estmator under truncated and censored data, Comm. in Statist. Theory and Methods,
37, 155173.
3.6 Appendix 64
4.1 Introduction
Let (Yi )i=1,...,N be a sample of real random variables (rv) with common unknown
distribution function (df) F . Here the integer N is unknown but deterministic. Let
(Xi )i=1,...,N a corresponding sample which is valued in F , where F is a semi-metric
space and endowed with the semi-metric d. The Yi 's are regarded as the lifetimes
of the items under study and are supposed to be subject to left-truncation which
may occur if the time origin of the lifetime precedes the time origin of the study.
1. corresponding author
4.1 Introduction 67
Only subjects that fail after the start of the study are being followed, the others
being truncated. We denote by (Ti )i=1,...,N the sample of truncation rv with d.f. G.
The Ti 's are assumed to be independent of the Yi 's. Then (Yi , Ti ) are observed only
when (Yi ≥ Ti ). Clearly the initial sample is not completely observed and only n
observations (among N ) are obtained. We point out that n is random but known.
Such data, arises in many elds such as astronomy, economics and medical studies (see
e.g., Woodroofe (1985)). In what follows, we denote again (if there is no-confusion
for the index) {(Yi , Ti , Xi ), i = 1, · · · , n}, (n ∈ IN), the observed sample from the
original N -sample. As a consequence of truncation, the size of the actually observed
sample, n is a Bin(N, µ) random variable, with τ := IP(Y ≥ T ). It is clear that if
τ = 0, no data can be observed and therefore, we suppose throughout this paper that
τ > 0. By the strong law of large numbers (SLLN) we have, as N → ∞
n
τbn := −→ τ, IP − a.s. (4.1)
N
Since the N is unknown and the n is known (although random), our results would not
be stated with respect to the probability measure IP (related to the N -sample) but will
involve the conditional probability P(·) = IP(·|Y > T ) with respect to the actually
observed n-sample. Also E and IE will denote the expectation operators under P and
IP, respectively.
Considering this situation we model the co-variation between X and Y by the M -
regression function. Specically, for a given function ρ(., .) on IR with the unique
minimizer at the origin with respect to (w.r.t.) the second component, dene the
M -regression θx such that it minimizes w.r.t. t
that is
Noting that this denition covers and includes many important nonparametric mo-
dels, for example, ρ(y, t) = (y − t)2 yields the classical regression, ρ(y, t) = |y − t|
leads to the conditional median function m(x) = med(Y |X = x), the αth conditional
quantile is obtained by setting ρ(y, t) = |y − t| + (2α − 1)(y − t). The M -regression
function is an old model in nonparametric robust statistic. Precisely, this model has
introduced by Huber (1964). In general the nonparametric robust regression model
has received extensive attention in the literature when the data takes values in -
nite dimensional space. The key references on the nonparametric robust regression
estimation are Robinson (1984), Collomb and Härdle (1986), Boente and Fraiman
(1989 and 1990), Fan et al. (1994) Laïb and Ould Saïd (2000), Boente et al. (2009).
The nonparametric robust regression estimation was rstly introduced, as far as we
4.1 Introduction 68
Gn (y)F̄n (y)
τn = .
Rn (y)
and is independent of y .
The asymptotic properties of Fn and Gn were studied by Woodroofe (1985), while
the almost sure consistency of τn was obtained by He and Yang (1998). Finally let's
point out that the asymptotic proprieties of Fn , Gn and τn are obtained under an
identiability conditions that are aG ≤ aF , bG ≤ bF where aW and bW the endpoints
of the support of a distribution function W dened by
Let a, b be two real numbers such that [a, b] ⊂ [aF , bF ]. We point out that we need
this assumption because we need the uniform consistency of the distribution law G(·)
4.3 Hypotheses and results 70
of the truncated rv T , which stated over compact set (see Remark 6 in Woodroofe
(1985). Furthermore we suppose that our parameter is such that θx ∈ (a, b).
Given an observed triplet random variables (X1 , Y1 , T1 ), . . . (Xn , Yn , Tn ), and combi-
ning the ideas in Ferraty and Vieu (2006) and Ould Saïd and Lemdani (2006), the
kernel estimate of the M -regression function θx denoted θbx is
θbx = arg min Γ(x,
b t), (4.4)
t∈IR
where n
X
G−1 −1
n (Yi )K(h d(x, Xi ))ρ(Yi , t)
i=1
Γ(x,
b t) =
n
X
G−1 −1
n (Yi )K(h d(x, Xi ))
i=1
and h := hn .
The sequence is said to be α-mixing (strong mixing) if the mixing coecient α(n) → 0
as n → ∞.
There exist many processes fullling the strong mixing property. We quote, here, the
usual ARMA processes (with innovations satisfying some existing moment conditions)
are geometrically strongly mixing, i.e., there exist υ ∈ (0, 1) and C > 0 such that,
for any n ≥ 1, α(n) ≤ C υ n (see, e.g., Jones (1978)). The threshold models, the
EXPAR models (see, Ozaki (1979)), the simple ARCH models (see Engle (1982)),
their GARCH extension (see Bollerslev (1986)) and the bilinear Markovian models
are geometrically strongly mixing under some general ergodicity conditions. For more
details we refer the reader to the monographs of Bradley (2007) or Dedecker et al.
(2007).
In the remainder of the paper, we suppose that (Xn , Yn )n≥1 is strongly mixing whose
coecient α(n) , x is a xed point in F and when no confusion is possible, we will
denote by C and C 0 some strictly positive generic constants.
We need the following hypotheses which gathered here together to easy references.
(H1) P(X ∈ B(x, r)) =: φx (r) > 0, ∀ r > 0, where B(x, r) = {x0 ∈ F : d(x0 , x) < r}.
(H2) The function Γ is such that :
(H4) The observed sequence (Xi , Yi )i∈IN satises : ∃a > 0, ∃c > 0 : ∀n ∈ IN, α(n) ≤
cn−a and
∀i 6= j, ∀t ∈ [θx − δ, θx + δ], j , t)|Xi , Xj ] ≤C < ∞,
E [ψ(Yi , t)ψ(Y
a/(a−1)
φx (h)
P ((Xi , Xj ) ∈ B(x, r) × B(x, r)) = O n2/p
.
(H5) K is a function with support (0, 1) such that 0 < C1I(0,1) < K(t) < C 0 1I(0,1) < ∞.
4.3 Hypotheses and results 72
Théoreme 4.3.1 Assume that (H1), (H2)((i), (iii)) and (H3)-(H6) are satised,
then θbx exists for all suciently large n. Furthermore, we have
θbx − θx → 0 a.s.
In order to give a more accurate asymptotic result, we replace (H2) (iii) by H2(ii)
and we obtain the following result
Théoreme 4.3.2 Assume that (H1), (H2) ((i), (ii)) and (H3)-(H6) are satised,
then θbx exists a.s. for all suciently large n. Furthermore, if Γ00 (x, ·)(x, θx ) 6= 0 we
have s !
log n
θbx − θx = O hb + O
a.s.
nφx (h)
4.4 Appendix
For the proofs of the Theorem 4.3.1 and 4.3.2 we use the fact that ρ is a strictly
convex function and continuously dierentiable w.r.t. the second component, then ψ
is strictly monotone and continuous w.r.t. the second component. We give the proof
for the case of a increasing ψ(Y, ·), decreasing case being obtained by considering
−ψ(Y, ·). Therefore, we can write, under this consideration, for all > 0
Γ0 (x, θbx ) − Γ
b0 (x, θbx )
θbx − θx =
Γ00 (x, ξn )
4.4 Appendix 74
we would have
!
θbx − θx = [Link]. sup |Γ0 (x, t) − Γ
b0 (x, t)| .
t∈[θx −δ, θx +δ]
To do that, we write
b0 (x, t) = ΨN (x, t)
b
Γ
Ψ
b D (x)
with n
b N (x, t) = τn
X 1 d(x, Xi )
Ψ K ψ(Yi , t),
nE[K1 ] i=1 Gn (Yi ) h
n
τn X 1 d(x, Xi )
ΨD (x) =
b K
nE[K1 ] i=1 Gn (Yi ) h
and we consider the following decomposition
b0 (x, t) − Γ0 (x, t) = 1
h h i h i i
Γ b N (x, t) − E Ψ
Ψ b N (x, t) − Γ0 (x, t) − E Ψb N (x, t)
Ψ
b D (x)
Γ0 (x, t) h h b i i
+ E ΨD (x) − ΨD (x) .
b (4.7)
Ψ
b D (x)
and
n
τ X 1 d(x, Xi )
Ψ
e N (x, t) = K ψ(Yi , t).
nE[K1 ] i=1 G(Yi ) h
4.4 Appendix 75
Moreover, we put
n
τn X 1 d(x, Xi )
Ψ
b N (x, t) = K ψ(Yi , t)
nE[K1 ] i=1 Gn (Yi ) h
and
n
b D (x) = τn
X 1 d(x, Xi )
Ψ K .
nE[K1 ] i=1 Gn (Yi ) h
Proof. For all x ∈ F , for all i = 1, . . . , n, we put Ki (x) = K(h−1 d(x, Xi )) and
τ τ
∆i (x) = Ki (x) − E Ki (x) .
G(Yi ) G(Yi )
It follows that
n
e D (x) − E[Ψ 1 X
Ψ e D (x)] = ∆i (x).
nE [K1 (x)] i=1
4.4 Appendix 76
Now, we apply the Fuck-Nagaev exponential inequality (Rio, 2000 p. 87) to get for
all ` > 0 and ε > 0, we have
( n )
n o X
P Ψ e D (x) − E[Ψ
e D ](x) > ε = P ∆i (x) > εnE[K1 (x)]
i=1
≤ C(A1 + A2 ) (4.8)
where
−`/2 a+1
ε2 n2 (E[K1 (x)])2
`
A1 = 1+ and A2 = n` −1
Sn2 ` εnE[K1 (x)]
and n X
n
X
Sn2 = Cov(∆i (x), ∆j (x)) = Sn2∗ + nV ar[∆1 (x)]
i=1 j=1
with n X
X
Sn2∗ = Cov(∆i (x), ∆j (x)).
i=1 i6=j
Next, we evaluate the asymptotic behavior of Sn2∗ . Using the technique of Masry
(1986), we dene the sets
and
S2 = {(i, j) such that mn + 1 ≤ i − j ≤ n − 1}
where mn → ∞, as n → ∞. Thus,
X X
J1,n := |Cov(∆i (x), ∆j (x))| ≤ |E [Ki (x)Kj (x)] − E [Ki (x)] E [Kj (x)] |.
S1 S1
For the summation over S2 , we use Davydov-Rio's inequality (Rio, 2000, p. 87) for
mixing processes. This leads, for all i 6= j , to
X nm−a+1
J2,n := Cov [∆i (x, z), ∆j (x, z)] ≤ C n
. (4.9)
a−1
(i,j)∈S2
2/(1−a)
φx (h)
Putting mn = n2/p
we get
n
X
Cov(Ki (x), Kj (x)) = O(n(p−2)/p φx (h)).
i6=j
Finally, as a > 2
Lemma 3.
Under Hypotheses (H1),(H4) and (H5), we have,
r !
b D (x) − Ψ 1
Ψ e D (x) = Oa.s. .
n
Secondly, the quantity | τn − τ | has been studied by Ould Saïd and Tatachak
1
(2009) where we show that | τn − τ |= Oa.s. (n− 2 ). Moreover, the remark 6 of Woo-
1
droofe(1985)) allows to write |Gn (aF ) − G(aF )| = Oa.s. (n− 2 ). Furthermore, we point
out it is shown in Attouch et al. (2012) that
n
1 X d(x, Xi )
K = O(1).
nE[K1 ] i=1 h
Consequently, r !
b D (x) − Ψ 1
Ψ e D (x) = Oa.s.
n
which is the claimed result. Lemma 4.
Under Hypotheses (H1) and (H3)-(H6), we have,
s !
h
e N (x, t) − E Ψ
i log n
sup Ψ e N (x, t) = O [Link].
t∈[θx −δ,θx +δ] nφx (h)
4.4 Appendix 79
Gn = {yj − ln , yj + ln , 1 ≤ j ≤ dn } . (4.12)
+ 2Cln . (4.13)
Now, we use a truncation method to prove our result for general case where ψ is not
necessary bounded. Indeed, we consider the following random variable
n
e ∗ (x, t) = 1 X τ
Ψ N −1
K(h−1 d(x, Xi )) ψ ∗ (Yi , t)
nE[K(h d(x, X1 ))] i=1 G(Yi )
where ψ ∗ (·, t) = ψ(·, t)1I(ψ(·,t)<γn ) with γn = na/p . So, the claimed result is a conse-
quence of the three intermediates results.
s !
log n
max E[Ψ e ∗N (x, z)] − E[Ψb N (x, z)] = o , (4.16)
z∈Gn nφx (h)
s !!
X log n
dn max P e ∗ (x, z) − Ψ
Ψ N
e N (x, z) > 0 < ∞ for some 0 > 0
n
z∈Gn nφx (h)
4.4 Appendix 80
(4.17)
and
s !!
X log n
dn max P e ∗N (x, z) − E[Ψ
Ψ e ∗N (x, z)] > 0 < ∞. (4.18)
n
z∈Gn nφx (h)
Proof of (4.16)
It clear that, for all z ∈ Gn we can write
≤ Cγn−1 φ1/ζ
x (h).
Thus,
e ∗ (x, z) − E[Ψ
max Ψ e ∗ (x, z)] ≤ n−a/p φ(1−ζ)/ζ .
N N x
z∈Gn
q
In particular, for = 0 log n
nφx (h)
and thanks to a > 4, we have
s !!
e ∗N (x, z)| > 0 log n
dn max P |Ψ
e N (x, z) − Ψ ≤ n3/2−a < Cn−1−ν .
z∈Gn nφx (h)
Proof of (4.18)
The latter is based on the similar arguments as those used to proving Lemma 4.4.
Indeed, we dene, for all z ∈ Gn ,
∗ τ τ ∗
Λi (z) = Ki (x)ψ (Yi , z) − E K1 (x) ψ (Yi , z) .
G(Yi ) G(Yi )
4.4 Appendix 81
As in Lemma 4.4, the evaluation of the las quantity is based on the asymptotic
behavior of the following quantity
n X
n n X
02
X X
Sn = Cov(Λi (z), Λj (z)) = Cov(Λi (z), Λj (z)) + nV ar[Λ1 (z)].
i=1 j=1 i=1 i6=j
For this term we use the same technique developed by Masry (1986) by spliting the
sum into two sets dened by
and
S20 = {(i, j) such that un + 1 ≤ i − j ≤ n − 1}.
We note by J1,n 0
and J2,n
0
be the sum of covariance over S10 and S20 respectively. On
S10 , we have, under (H4)
X
0
J1,n ≤ C |E [Ki (x)Kj (x)]| + |E [Ki (x)] E [Kj (x)]| .
S10
Concerning J2,n
0
, we use again Davydov-Rio's inequality in the L∞ cases and we obtain
Therefore,
0
X nγn2 u−a+1
n
J2,n = |Cov(Λi (z), Λj (z))| ≤ .
a−1
S20
!1/a
2
γn
Taking un =
φx (h) a/(a−1)
, we prove that
n2/p
n X
X
Cov(Λi (z), Λj (z)) = O(nφx (h)).
i=1 i6=j
4.4 Appendix 82
V ar(Λ1 (z)) ≤ E [Ki (x)ψ ∗ (Yi , z)]2 ≤ E [Ki (x)ψ(Yi , z)]2 = O(φx (h)).
Now, we apply Fuck-Nagaev's inequality for Λi (z). We have, for all ` > 0 and
for all ε > 0,
( n )
n h i o X
P E Ψ b ∗ (x, z) − Ψ
N
b ∗ (x, z) > ε ≤ P
N Λi (z) > εnE[K1 (x)]
i=1
0
≤ C(A1 (x) + A02 (x))
where
−`/2 a+1
ε2 n2 (E[K1 (x)])2
`
A01
= 1+ and A2 = n`
0 −1
.
Sn0 2 ` εnE[K1 (x)]
√
n log nφx (h)
In particular, for ε = 0 nE[K1 (x)] and ` = C(log n)2 , we obtain by (H6)
0
dn A02 ≤ Cn3/2−(a+1)/2 φx (h)−(a+1)/2 (log n)(3a−1)/2 ≤ Cn−1−ν1 (4.20)
Lemma 5 [?]
Under Hypotheses (H1), (H2)((i), (iii)) and (H5), we have,
h i
sup E ΨN (x, t) − τ Ψ(x, t) = o(1).
e
t∈[θx −δ,θx +δ]
Lemma 6
Under Hypotheses (H1) and (H3)-(H5), we have,
sup Ψ e N (x, t) = O n− 12
b N (x, t) − Ψ a.s.
t∈[θx −δ,θx +δ]
Similarly to Lemma 4.4 we use the result of Ould Saïd and Tatachak (2009) for which
1
we have | τn −τ |= Oa.s. (n− 2 ) and the remark 6 of Woodroofe(1985)) where we obtain
1
|Gn (aF ) − G(aF )| = Oa.s. (n− 2 ). Furthermore, for the second part, we recall that this
term has been studied by Attouch et al. (2012) where we show that
n
1 X d(x, Xi ) d(x, Xi )
sup K ψ(Yi , t) − E K ψ(Yi , t) = o (1)
t∈[θx −δ,θx +δ] nE[K1 ] i=1 h h
It follows that
n
1 X d(x, Xi )
sup K ψ(Yi , t) = Oa.s. (1).
t∈[θx −δ,θx +δ] nE[K1 ] i=1 h
Thus, we have
e N (x, t) = Oa.s. n− 12
b N (x, t) − Ψ
Ψ
which completes the proof of Lemma 4.4. Corollary 1
Under Assumptions (H1), (H2) ((i)-(ii)), (H3)-(H5) and if Ψ0 (x, θx ) 6= 0, then θbx exists
a.s. for all suciently large n such that
∂
∃C > 0 Ψ(x, ξn ) > C.
∂t
Proof. It is clear that, if ψx (Y, .) is increasing, we have for all > 0
Ψ(x, θx − ) ≤ Ψ(x, θx ) ≤ Ψ(x, θx + ).
4.4 Appendix 84
for all real xed t ∈ [θx − δ, θx + δ]. So, for suciently large n and for all ≤ δ
b θx + ) a. s..
b θx − ) ≤ 0 ≤ Ψ(x,
Ψ(x,
Since Ψ(x,
b t) is a continuous function of t, there exists a θbx ∈ [θx − , θx + ] such
that Ψ(x,
b θbx ) = 0. Concerning, the uniqueness of θbx , we point out that the latter is a
direct consequence of the strict monotonicity of ψx , w.r.t. the second component and
the positivity of K .
Finally, The second part of this corollary is a direct consequence of the regularity
assumption (H2) (i) on Ψ(x, ·) and the convergence
θbx → θx a.s. as n −→ ∞.
References
Andersen, P.K., Borgan, O., Gill, R.D. and Keiding, N. (1993). Statistical
Models Based on Counting Processes. Springer, New York.
Attouch, M., Laksaci, A. and Ould Saïd, E. (2012). Robust regression for
functional time series data. J. Japan Statist. Soc., 42 , 125143.
Azzedine , N., Laksaci, A. and Ould Saïd, E.(2008). On the robust nonparame-
tric regression estimation for functional regressor, Statist. Probab. Lett. 78, 3216-3221.
Bogachev, V.I. Gaussian Measures. Math surveys and monographs Amer. Math.
Soc. 62, 1999.
Derrar, S., A. Laksaci and Ould Saïd, E. (2015). On the nonparametric esti-
mation of the functional ψ -regression for a random left-truncation model. Journal of
statistical Theory and Practice, 9, 823-849.
He, S. and Yang, G. (1998). Estimation of the truncation probability in the ran-
dom truncation model. The Annals of Statistics, 26, 1011-1027.
Horváth, L. and Kokoszka, P. (2012). Inference for Functional Data with Ap-
plications. Springer-Verlag, New York. 200.
Huber, P.J. (1964). Robust estimation of a location parameter. Annals of the Ma-
thematical Statistics, 35, 73-101.
probabilities and applications. In Stochastic processes : Theory and Methods, Ed. C.R.
Rao and D. Shanbhag. Hanbook of Statistics, 19 : North-Holland, Amsterdam.
Ould Saïd, E. and Tatachak, A. (2009) Strong consistency rate for the kernel
mode estimator under strong mixing hypothesis and left truncation. Comm. Statist.
Theory Methods, 38. 11541169
Ozaki, T. (1979). Nonlinear time series models for nonlinear random vibrations.
Technical report, Univ. of Manchester.
Wang, J., Liang, H.Y. and Fan, G. (2012a). Asymptotic properties for an M-
estimator of the regression function with truncation and dependent data. Journal of
the Korean Statistical Society, 41, 35367.
Wang, J., Liang, H.Y. and Fan, G. (2012b). Local M-estimation of nonparame-
tric regression with left-truncated and dependent data. Scientia Sinica Mathematica,
4.4 Appendix 88
42, 9951015.
Woodroofe, M. (1985). Estimating a distribution function with truncated data.
The Annals of Statistics, 13, 163177.
Chapitre 5
Conclusion et perspectives
5.1 Conclusion
Dans cette thèse, nous avons traité la ψ -estimation qui est un type de M-estimation
de la fonction de régression, lorsque le regrésseur est fonctionnel et la variable réponse
est tronquée aléatoirement à gauche par une autre variable aléatoire en utilisant la
méthode de noyau. Après avoir rappelé quelques résultats existant dans ce contexte,
on a établi la convergence forte et la normalité asymptotique de l'estimateur robuste
pour des données indépendantes puis pour des données α-mélangeantes.
Du point de vue théorique, notre modèle est une généralisation de la régression clas-
sique dans le sens que cette dernière est obtenue en prenant ψx (y, t) = (y − t). Ce-
pendant, d'un point de vue pratique, notre modèle fournit une estimation alternative
de la régression classique qui a plus d'avantage en sens de robustesse. La supériorité
de notre modèle par rapport à la régression classique dans la présence des valeurs
atypiques est conrmée par notre étude de simulation.
En outre, la méthode d'estimation robuste proposée peut être utilisée pour robustier
d'autres méthodes d'estimation de la régression comme : la méthode k-NN, le modèle
linéaire local, le modèle d'indice fonctionnel, le modèle linéaire partiel,...
Ainsi, on peut dire que notre contribution est trés importante dans la théorie comme
dans la pratique. Cet impact est évalué par la généralité et la robustesse du modèle
étudié, l'exactitude et l'utilité des résultats asymptotiques obtenus et aussi par les
nombreux problèmes ouverts en statistique nonparamétrique.
5.2 Perspectives 90
5.2 Perspectives
Le sujet que nous avons étudié dans cette thèse, nous permet d'envisager à entamer
plusieurs pistes de recherche :
Bibliographie
1. Attouch, M., Laksaci, A. and Ould Saïd, E. (2009). Asymptotic distribution of
robust estimator in nonparametric functional models, Comm. in Statist. Theory
and Methods, 38, 1317-1335.
2. Attouch, M., Laksaci, A. and Ould Saïd, E. (2010). Asymptotic normality of a
robust estimator of the regression function for functional time series, J. Korean
Statist. Soc, 39, 489-500.
3. Attouch, M., Laksaci, A. and Ould Saïd, E. (2012). Robust regression for func-
tional time series data. J. Japan Statist. Soc, 42 , 125-143.
4. Azzedine, N., Laksaci, A. and Ould Saïd, E. (2008). On the robust nonpara-
metric regression estimation for functional regressor, Statist. Probab. Lett, 78,
3216-3221.
5. Benhenni, K., Ferraty, F., Rachdi, M. et P. Vieu (2007). Local smoothing re-
gression with functional [Link]. Statistics, 22, 353-369.
6. Boente, G. and Fraiman, R. (1989). Nonparametric regression estimation.J.
Multivariate Anal, 29, 180-198.
7. Bosq, D. (2000). Linear Processes in Function Spaces : Theory and Applications
Lecture Notes in Statistics Springer-Verlag,149, New York.
8. Burba, F., Ferraty, F. et Vieu, P. (2008). Propriétés asymptotiques de l'estima-
teur kNN en régression fonctionnelle non-paramétrique. C. R. Math. Acad. Sci.
Ser, I 346, 339-342.
9. Bertrand , Retali Convergence uniforme de certains estimateurs de la densité
par la méthode du noyau. C.R.A.S. Série A, 279, 527-529.
10. Cadre, B. (2001). Convergent estimators for the L1 -median of a Banach valued
random [Link], 35 (4), 509-521.
11. Chaai, M. E. (1989). Les estimateurs robustes sont-ils vraiment robustes en
pratique ?. Revue de Statistique Appliquée, 37, No.3, 57-73.
12. Collomb, G. and Härdle, W. (1986). Strong uniform convergence rates in robust
nonparametric time series analysis and prediction : Kernel regression estimation
from dependent observations. Stoch. Proc. Appl, 23, 77-89.
13. Crambes C, Delsol L. and Laksaci A. (2008). Robust nonparametric estimation
for functional data. J. Nonparametric Statist, 20, 573-598.
14. Derrar, S., A. Laksaci and Ould Saïd, E. (2015). On the nonparametric estima-
tion of the functional ψ -regression for a random left-truncation model. Journal
of statistical Theory and Practice, 9, 823-849.
5.2 Perspectives 92
24. Lecoutre, J.P. (1990) Uniform consistency of a class of regression function es-
timators for Banach-space valued random variable. Statist. Probab. Lett. 10,
145-149.
25. Masry, E. (2005). Nonparametric regression estimation for dependent functional
data : asymptotic normality Stochastic Process. Appl, 115 (1), 155-177.
26. Nadaraya, E.A (1964). On estimating [Link]. Prob. Appl, 10, 186-196.
27. Ould Saïd, E. and Lemdani, M. (2006). Asymptotic properties of a nonpara-
metric regression function estimator with randomly truncated data. Ann. Inst.
Statist. Math., 58, 357-378.
28. Ould Saïd, E. and Tatachak, A. (2009) Strong consistency rate for the kernel
mode estimator under strong mixing hypothesis and left truncation. Comm.
Statist. Theory Methods, 38. 11541169.
29. Ramsay, J. and Silverman, B. (1997). Functional Data Analysis Springer-Verlag,
New York.
30. Ramsay, J. and Silverman, B. (2002). Applied functional data analysis : Methods
and case studies Spinger-Verlag, New York.
31. Ramsay, J. and Silverman, B. (2005). Functional Data Analysis (Second Edi-
tion) Spinger-Verlag, New York.
5.2 Perspectives 93