0% ont trouvé ce document utile (0 vote)
96 vues1 098 pages

Modélisation des valeurs extrêmes multivariées

Transféré par

kafando
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
96 vues1 098 pages

Modélisation des valeurs extrêmes multivariées

Transféré par

kafando
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Recherche du LANIBIO

DE 1997 AU 31 DECEMBRE 2021

Professeur SOME Blaise

Série C : Statistique
Sommaire

Partie 1
Contribution à la modélisation statistique des
valeurs extrêmes multivariées

Méthodes d’analyse géostatistiques avec des


Partie 2
applications à la prédiction en environnement et
aux changements climatiques

Partie 3
Modélisation des risques multivariées. Applications au
risque de changement climatique en Afrique de l'Ouest

Partie 4 Modélisation des risques de portefeuilles par l'approche


des copules multivariées

Partie 5
Approche stochastique dans l’épidémiologie des maladies
infectieuses émergentes.

Partie 6 Contribution à la modélisation géostatistique avec des


applications minières et modèles SEIRS.
Contribution à la modélisation
statistique des valeurs extrêmes
multivariées

Thèse présentée et soutenue par


Diakarya BARRO
Spécialité : Mathématiques Appliquées
Option : STATISTIQUE

16 décembre 2010
Université de Ouagadougou
Table des matières

Dédicaces vi

Remerciements vii

Résumé ix

1 Introduction générale 1

2 Modèles des extrêmes univariés 4

2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

2.2 Préliminaires . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

2.2.1 Quelques propriétés d’une distribution . . . . . . . . . 5

2.2.2 Distributions de même type . . . . . . . . . . . . . . . 6

2.3 Approche probabiliste des valeurs extrêmes . . . . . . . . . . 7

2.3.1 Statistiques d’ordre . . . . . . . . . . . . . . . . . . . 7

2.3.2 Lois de valeurs extrêmes . . . . . . . . . . . . . . . . . 12

2.3.3 Max-domaine d’attraction . . . . . . . . . . . . . . . . 21

3 Dépendance conditionnelle extrême multivariée 28

3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

i
TABLE DES MATIÈRES ii

3.2 Cadre de travail multivarié extrême . . . . . . . . . . . . . . . 30

3.2.1 Quelques propriétés des lois multivariées . . . . . . . . 31

3.2.2 Totale positivité multivariée . . . . . . . . . . . . . . . 35

3.2.3 Max-in…niment divisibilité et max-stabilité . . . . . . . 36

3.3 Dépendance extrême multivariée : modèles existants . . . . . . 37

3.3.1 Modèles paramétriques des extrêmes multivariés . . . . 38

3.3.2 Fonction de dépendance de Pickands . . . . . . . . . . 44

3.3.3 Modélisation de dépendance par la copule . . . . . . . 47

3.4 Approche conditionnelle de la dépendance extrême multivariée 52

3.4.1 Mesure conditionnelle de la dépendance multivariée . . 52

3.4.2 Une propriété de la discordance bivariée . . . . . . . . 57

3.4.3 Fonction de discordance d’une loi extrême . . . . . . . 59

3.4.4 Applications aux copules paramétriques extrêmes bi-


variées . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

4 Applications aux modèles généralisés de Pareto 74

4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74

4.2 Loi conditionnelle des excès univariés . . . . . . . . . . . . . . 75

4.3 Modèles généralisés de Pareto . . . . . . . . . . . . . . . . . . 78

4.3.1 Caractérisations et dé…nition . . . . . . . . . . . . . . . 79

4.3.2 Mesure exponentielle et fonction de queue stable . . . . 81

4.4 Applications aux modèles trivariés de Pareto . . . . . . . . . . 84

4.4.1 Discordance des modèles logistiques . . . . . . . . . . . 84

4.4.2 Discordance des modèles logistiques imbriqués . . . . . 87

4.4.3 Discordance des modèles logistiques asymétriques . . . 90


TABLE DES MATIÈRES iii

5 Conclusion générale 94

A Environnement des extrêmes univariés 96

A.1 Lois alpha-stables . . . . . . . . . . . . . . . . . . . . . . . . . 96

A.2 Fonctions à variation régulière . . . . . . . . . . . . . . . . . . 99

A.2.1 Distributions à queues épaisses . . . . . . . . . . . . . 99

A.2.2 Fonctions à variation régulière . . . . . . . . . . . . . . 101

B Quelques modèles extrêmes multivariés 104

B.1 Copules usuelles multivariées . . . . . . . . . . . . . . . . . . . 104

B.2 Copule et mesure de dépendance . . . . . . . . . . . . . . . . 108

B.3 Quelques distributions extrêmes multivariées . . . . . . . . . . 111

B.3.1 Distributions extrêmes bivariées usuelles . . . . . . . . 112

B.3.2 Modèles paramétriques multivariés usuels . . . . . . . . 113


Table des …gures

2.1 Evolution de la fonction Fn;n d’une loi gaussienne pour n=10,


50, 100 et 200 respectivement. . . . . . . . . . . . . . . . . . . 10

2.2 Evolution de la fonction fn;n d’une loi gaussienne pour n=10,


50, 100 et 200 respectivement. . . . . . . . . . . . . . . . . . . 10

2.3 Courbes des densités de trois lois extrêmes standard , et


respectivement. . . . . . . . . . . . . . . . . . . . . . . . . . 18

3.1 Dribution bivariée de Pareto = 2 . . . . . . . . . . . . . . . 44

3.2 Courbe de la discordance de Gumbel pour = 2: . . . . . . . 63

4.1 Discordance du modèle imbriqué pour 1 = 2 = 2 . . . . . . . 89

4.2 Dépendance du modèle imbriqué pour 1 = 2 = 2 . . . . . . . 89

4.3 Discordance du modèle asymétrique trivarié 1 = 2 = 2 . . . . 91

4.4 Dépendance du modèle asymétrique trivarié 1 = 2 = 2 . . . . 93

iv
Liste des tableaux

2.1 Récapitulatif des domaines d’attraction des lois extrêmes uni-


variées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

3.1 Fonctions de discordance des modèles logistiques de copules


bivariées et extensions . . . . . . . . . . . . . . . . . . . . . . 71

3.2 Discordance des modèles logistiques de copules bivariées et


extensions (suite) . . . . . . . . . . . . . . . . . . . . . . . . . 72

3.3 Fonction de discordance des modèles mixtes de copules biva-


riées et extensions . . . . . . . . . . . . . . . . . . . . . . . . . 73

A.1 Principales distributions à queues legères . . . . . . . . . . . 100

A.2 Principales distributions à queues épaisses . . . . . . . . . . . 101

B.1 Quelques familles de générateurs archimédiens . . . . . . . . . 108

B.2 Fonction de dépendance de Pickands de modèles usuels biva-


riés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113

v
Dédicaces

A mes enfants Yasmine et Fayçal Réda,

vi
Remerciements

C’est un immense plaisir pour moi de pouvoir remercier ici les personnes
qui, durant ce travail de recherche, m’ont soutenu et guidé statistiquement
ou non, de près ou de loin...

En premier lieu, je désire exprimer ma gratitude à mon directeur de re-


cherche, le professeur Simplice DOSSOU-GBETE de l’Université de Pau et
des Pays de l’Addour (UPPA, France), qui a bien voulu accepter de diri-
ger cette thèse. Je voudrais lui témoigner ma profonde reconnaissance aussi
pour m’avoir mis en contact avec d’autres chercheurs sur la thématique de
la statistique des valeurs extrêmes, chercheurs dont les contributions ont été
inestimables dans l’aboutissement de ce travail.

Je remercie très sincèrement le professeur Blaise SOME, directeur du


laboratoire LANIBIO, pour avoir accepté de codiriger cette thèse et pour tout
ce qu’il fait pour la promotion de la recherche en mathématiques appliquées
à l’Université de Ouagadougou.

Messieurs les professeurs Dembo GADIAGA , Ouateni DIALLO, Antoine


DE FALGUEROLLES et Gane Samb LÔ ont accepté d’être rapporteurs de
cette thèse ; je les remercie pour le soin avec lequel ils ont examiné ce travail
et pour l’intérêt qu’ils lui ont porté.

Je remercie également les professeurs Longin SOME, KABRE /Gene-


viève BARRO et Ousseni SO pour avoir accepté honorer de leur présence en
siégeant dans le jury et Gane Samb LÔ pour avoir accepté présider le jury.

vii
REMERCIEMENTS viii

Je voudrais également signi…er ma gratitude à des chercheurs et amis


de mon directeur de thèse, qui ont beaucoup contribué à l’aboutissement de
ce travail en m’envoyant des documents (livres, thèses et articles) sur les
statistiques des valeurs extrêmes. Il s’agit des professeurs Christian GENEST
de l’Université de Laval, Anne Laure FOUGÈRES de Paris X et Xavier
GUYON de Paris XI. Que chacun retrouve à travers ces lignes, l’expression
de ma reconnaissance.

Je désire également remercier les responsables du Campus Numérique


Francophone de Ouagadougou et le webmaster du cybercafé Yamba, pour leur
connexion internet haut débit lorsque, très fréquemment, des perturbations
survenaient dans la connexion au sein de l’Université de Ouagadougou.

Mes remerciements sont aussi adressés aux frères du monastère de Koubri


qui m’ont o¤ert, par trois fois, leur cadre agréable pour des séjours de travail.
Les responsables du service de météorologie de Ouagadougou ont bien voulu
accepter de fournir au laboratoire (LANIBIO) des données climatologiques
de leur institution ; qu’ils en soient sincèrement remerciés.

Je n’oublie pas mon frère jumeau de thèse, Soumaïla MOUSSA, pour ses
coups de main dans l’utilisation du logiciel R et aussi pour ses prêches reli-
gieuses dans l’intention de me rendre plus musulman que je ne l’étais.

Je ne saurai terminer sans remercier très sincèrement les membres de ma


famille, et plus particulièrement ma conjointe Mme BARRO Haoua et mon
cher ami KONATÉ Kiessoun, qui ont su m’encourager et me soutenir tout
au long de ce projet.
Résumé

Résumé

Cette thèse est une contribution à la modélisation statistique des valeurs


extrêmes multivariées. Les propriétés fondamentales des modèles des valeurs
extrêmes univariées on été rappélées. Ensuite, nous nous sommes intéressés
à l’étude de la dépendance extrême multivariée. Pour ce faire, une nouvelle
structure conditionnelle a été proposée pour décrire la dépendance conjointe
des distributions marginales en tenant compte des contraintes, des discor-
dances, subies par les supports de celles-ci. Par ailleurs, les moyennes des
valeurs médianes de cette discordance ont été calculées pour les principales
familles paramétriques des copules extrêmes bivariées. En…n, une fonction
dérivant de cette nouvelle mesure a permis de caractériser les principales
sous-familles des modèles trivariés généralisés de Pareto.

Dans une partie annexe les outils fondamentaux utilisés dans l’analyse
des valeurs extrêmes on été résumé. Les modèles paramétriques usuels de
copules et de distributions extrêmes multivariées sont donnés ainsi que les
liens entre les mesures classiques de la dépendance et ces modèles.

Mot-clés : copules, fonction de dépendance de Pickands, degré de dis-


cordance, dépendance de queue, fonction de discordance, degré médian de
discordance, distribution généralisée de Pareto.

ix
RÉSUMÉ x

Asbtract

This thesis is a contribution to statistical modelling of multivariate ex-


treme values. It mainly presents three chapters. The …rst chapter deals with
univariate extreme values models properties. We are interested, throughout
the second chapter,in the analys of multivariate extreme dependence. We pro-
pose a new conditional structure to describe the joint dependence of marginal
distributions and which takes into account some of contraints to be satisfyed
by the domains of margins. Furthermore, the averages of median values of
this discordance are computed for the main parametric families of bivariate
extreme values copulas. A function arising from the new structure allows
us to characterize the sub-families of trivariate generalized families of Pareto
distributions.

A last part (Appendix) summarizes the fondamental tools used in ex-


treme value study. The usual parametric and multivariate models of extreme
value copulas and distributions are given. The links between the classical
dependence measures and these models are also clari…ed.

Key words : Copulas, Pickands dependence function, discordance de-


gree, tail-dependence, discordance function, median discordance, generalized
Pareto distribution.
Chapitre 1

Introduction générale

Dans plusieurs domaines d’activités tels que l’hydrologie, l’étude de pro-


blèmes environnementaux, la …abilité etc., les événements auxquels on s’inté-
resse font intervenir des observations extrêmes, que ce soit des maxima ou des
minima. Par exemple, lors de la construction d’un barrage hydroélectrique
sur une rivière, il est nécessaire de s’intéresser à la hauteur maximale que
peut atteindre le cours d’eau. De la même façon, lorsqu’on étudie la …abilité
de certains appareils, les observations sur les pièces les plus fragiles sont des
données très importantes. Les modèles des valeurs extrêmes sont ainsi appli-
quées à une grande variété de problèmes tels que l’environnement et le climat
(pollution, vent, extrêmes pluviométriques, températures, ensoleillement,...),
l’hydrologie (crues des océans et des rivières), la …nance (marché …nancier,
assurance et réassurance, durée de vie actuarielle), la …abilité et même le
tra…c internet.

Il existe essentiellement deux approches dans la modélisation des ex-


trêmes : la méthode des blocs de maxima et celle de dépassement des excès.
L’approche des maxima univariés établit qu’une famille paramétrique géné-
ralisée résume le comportement asymptotique de la loi du maximum conve-
nablement normalisé. Dans la seconde approche, il est établi que seule la
distribution généralisée de Pareto modélise la loi de la variable excédentaire

1
CHAPITRE 1. INTRODUCTION GÉNÉRALE 2

au delà d’un certain seuil …xé et assez élevé.

Dans la théorie multivariée des valeurs extrêmes, l’étude de la dépendance


conjointe a fait l’objet de nombreuses études (citons par exemple Beirlant et
al.( [1]), Degen (voir [6]), Pickands (voir [18]), Tajvidi (voir [22]),...). Ces
travaux montrent que les modèles extrêmes multivariés ne peuvent pas être
représentés par une famille paramétrique unique comme dans le cas univarié.
Cependant, lorsque les distributions marginales univariées sont connues, il
existe une série de mesures équivalentes de caractérisation telles que la fonc-
tion de Pickands, la fonction de dépendance de queue stable ou la fonction
copule, permettant ainsi de décrire la dépendance conjointe.

Dans ce travail, nous nous intéressons plus précisément à la modélisa-


tion de la dépendance multivariée conjointe en tenant compte des di¤érentes
contraintes que peuvent subir les supports des variables marginales qui mo-
délisent les événements élémentaires d’un phénomène environnemental. En
e¤et, lorsque l’on modélise par exemple, la dépendance conjointe de cer-
tains phénomènes environnementaux dont la température, il faut élaborer
une structure de dépendance qui tient compte du fait que les valeurs ex-
trêmes de cette température sont connues dans une région donnée, c’est à
dire que le support de la variable qui modélise la température est borné.

L’objectif que nous nous …xons ici est de construire une mesure condition-
nelle de la dépendance en partant de la fonction de dépendance de Pickands
pour les modèles extrêmes multivariées. Dans le chapitre 1, nous rappelons
les résultats fondamentaux des distributions univariées qui modélisent les
phénomènes marginaux. Leurs di¤érents domaines d’attraction sont égale-
ment donnés. Nous introduisons dans le chapitre 2, la mesure de discordance
d’une distribution multivariée de façon générale. La propriété fondamentale
de cette mesure est donnée dans le cas bivarié. Pour le cas particulier des
modèles extrêmes multivariés, nous établissons que les distributions margi-
nales associées à une partition orientée sont aussi des modèles extrêmes. Une
CHAPITRE 1. INTRODUCTION GÉNÉRALE 3

fonction dérivant de cette mesure permet de caractériser les copules extrêmes


bivariées. Nous donnons dans le chapitre 3, une nouvelle caractérisation des
lois généralisées des excès multivariés. Les fonctions de discordance sont dé-
terminées particulièrement pour les modèles trivariés de Pareto.

Une partie annexe résume les outils fondamentaux utilisés dans l’analyse
des valeurs extrêmes (univariées et multivariées). Les familles usuelles de
copules multivariées sont données ainsi que quelques modèles des valeurs
extrêmes multivariées. Les liens entre les mesures classiques de la dépendance
et les copules sont donnés.
Chapitre 2

Modèles des extrêmes univariés

2.1 Introduction

La modélisation statistique des valeurs extrêmes revêt généralement deux


aspects : l’analyse de la structure de dépendance conjointe (en dimension su-
périeure à 1) et l’analyse des distributions marginales univariées. Les deux
dernières décennies ont vu le développement de la modélisation statistique
des valeurs extrêmes particulièrement univariées. En témoignent les nom-
breux ouvrages tels que Resnick [19] ; Joe H. [13]), Réiss et Thomas [12],
Kotz et Nadarajah ([14]), Beirlant et al. [1] et beaucoup de revues.

Lorsque les observations sont unidimensionnelles, la loi des valeurs ex-


trêmes est complètement dé…nie par trois paramètres réels. Les résultats uni-
variés sont plus complets et sont directement exploitables. Il faut distinguer
principalement deux approches dans la modélisation des extrêmes univariés :
l’approche des maxima et l’approche de renouvellement ou de dépassement
d’un seuil.

En particulier, l’approche des maxima s’intéresse à la statistique du maxi-


mum ou du minimum en établissant que les seules limites possibles d’une

4
CHAPITRE 2. MODÈLES DES EXTRÊMES UNIVARIÉS 5

normalisation linéaire de ces statistiques d’ordre sont des distributions résu-


mées par la loi Généralisée des Valeurs Extrêmes (GVE) ou distribution de
Von Mises dé…nie, pour tout x 2 R; par

8 ( 1
)
>
< exp (1 + x)+ si 6= 0
GV E (x) = G (x) = (2.1)
>
:
exp f exp ( x)g si = 0
avec x+ = max(o; x); le paramètre étant l’indice des valeurs extrêmes.

Dans ce chapitre, nous nous limitons à l’approche des maxima convena-


blement normalisés, l’approche des excès faisant l’objet de la section 1 du
chapitre 3. Dans la section 1.1, nous rappelons les propriétés essentielles des
fonctions de distributions utilisées dans l’analyse univariée des valeurs ex-
trêmes. Dans la section 1.2, nous donnons les propriétés et caractérisations
des lois des extrêmes univariés. La section 1.3 résume les di¤érents critères
que doivent véri…er une distribution quelconque pour converger asymptoti-
quement et éventuellement vers une loi extrême donnée.

2.2 Préliminaires

2.2.1 Quelques propriétés d’une distribution

Soit F la distribution ou la fonction de répartition d’une variable aléatoire


X dé…nie sur un espace de probabilité: Pour tout x 2 R ; on a F (x) =
P (X x) : De plus, la fonction F est croissante et continue à droite et véri…e
les relations : lim F (x) = 0 et lim F (x) = 1:
x ! 1 x !+1
1
L’inverse généralisé de la distribution F, noté F ; est la fonction crois-
sante, continue à gauche et dé…nie sur l’intervalle unité I = [0; 1] ;
par
(
1 x telle que F (x) = t si t 2 Im F
F (t) =
inf fx 2 R=F (x) tg = sup fx 2 R=F (x) tg ; si t 62 Im F:
CHAPITRE 2. MODÈLES DES EXTRÊMES UNIVARIÉS 6

La fonction quantile de F est dé…nie par

1
F (1 p) = sup fx 2 R=F (x) pg :

Les points terminaux droit xF et gauche xF de F sont donnés respectivement


par

xF = inf fx 2 R=F (x) > 0g 1 et xF = sup fx 2 R=F (x) < 1g +1:

La distribution de survie ou la queue droite de F, notée F̄, est dé…nie par

F (x) = 1 F (x) = P (X > x) ; x 2 R:

Si F est une distribution continue de fonction densité f, alors on dé…nit la


fonction de hasard (ou taux de défaillance ou encore taux de survie) h
de F, par :
f (x) f (x)
h(x) = =
F (x) 1 F (x)
où xF < x < xF ; xF et xF désignant respectivement les points termi-
naux gauche et droit de F.

2.2.2 Distributions de même type

La notion de lois de même type est fondamentale dans l’analyse des va-
leurs extrêmes.

Dé…nition 1.1 (lois de même type)

On dit que deux variables aléatoires X et Y sont de même type s’il existe
loi
des constantes réelles > 0 et 2 R telles que : Y = X + ; i.e. si
F et G sont les distributions respectives des variables X et Y, alors on a :
F ( x + ) = G (x) ; x 2 R:

Par conséquent, deux variables de même type ont la même distribution à


un facteur d’échelle et de translation près.
CHAPITRE 2. MODÈLES DES EXTRÊMES UNIVARIÉS 7

Exemple 1.1
2
Si N ( ; ) désigne la loi normale généralisée de moyenne et d’écart
type et dé…nie par sa fonction densité
( )
2
1 1 x
f (x) = p exp ; x 2 R; (2.2)
2 2

2 2
alors, on véri…e que N ( 1 ; 1) et N ( 2 ; 2) sont de même type.

Soit ( ; k) la loi gamma de paramètres > 0; k > 0 et dé…nie par sa


fonction densité
k
f (x) = xk 1 e x
;x > 0 (2.3)
(k)
Z +1
où (k) = e x xk 1 dx est l’intégrale récurrente dé…nissant la fonction
0
gamma. Alors on véri…e que

( ; 1) et ( ; 2) sont de même type

( 1; ) et ( 2; ) sont de même type.

La Théorie des Valeurs Extrêmes (TVE) univariée utilise beaucoup d’autres


propriétés des distributions telles que les fonctions alpha-stables, les fonctions
à variation régulière ou les fonctions à variation lente. Les propriétés fonda-
mentales de ces fonctions sont données dans l’annexe A.

2.3 Approche probabiliste des valeurs extrêmes

2.3.1 Statistiques d’ordre

Soit X1 ; :::; Xn une suite de n variables aléatoires réelles indépendantes et


identiquement distribuées (i.i.d) de loi commune F. Dans les applications les
Xi représentent généralement les valeurs d’un processus mesurées à intervalles
de temps réguliers ; par exemple les relevées journalières de la vitesse du vent
CHAPITRE 2. MODÈLES DES EXTRÊMES UNIVARIÉS 8

sur un site météorologique. On range ces variables par "ordre croissant de


grandeur". Pour cela, on dé…nit la statistique d’ordre i, notée Xi:n , telle que

X1:n ::: Xi 1:n Xi:n Xi+1:n ::: Xn 1:n Xn:n

Deux statistiques d’ordre sont particulièrement intéressantes dans l’étude


des valeurs extrêmes. Il s’agit de la plus grande statistique d’ordre

Mn = Xn:n = max (X1 ; :::; Xn ) ; la statistique du maximum

et de la plus petite statistique d’ordre

Wn = X1:n = min (X1 ; ::; Xn ) ; la statistique du minimum.

L’écart D = Mn Wn est la déviation extrême. On véri…e d’autre part la


relation de dualité suivante

min (X1 ; ::; Xn ) = max ( X1 ; :::; Xn ) (2.4)

Cette relation (1.4) permet de transférer les résultats d’une statistique


extrême à l’autre. Par conséquent, dans toute la suite, on pourra se limiter

à des caractérisations du maximum.

Remarque 1.1 Par dé…nition, les statistiques d’ordre ne sont pas indé-
pendantes même si les variables Xi sont i.i.d.

A partir de la distribution commune F des n variables Xi ; le résultat


suivant donne la loi de la statistique d’ordre Xi:n .

Proposition 1.1 (voir [20])

La fonction de répartition Fi:n de Xi:n est donnée pour tout x 2 R; par :


X
n
Fi:n (x) = P (Xi:n x) = Cni [F (x)]i [1 F (x)]n i
:
i=1
CHAPITRE 2. MODÈLES DES EXTRÊMES UNIVARIÉS 9

Et la densité fi:n de Xi:n est liée à la densité commune f des Xi par :


n!
fi:n (x) = [F (x)]i 1
[1 F (x)]n i
f (x) :
(i 1)! (n i)!

Les lois des statistiques extrêmes Mn et Wn s’en déduisent aisément, x 2 R


par :

FMn (x) = [F (x)]n ; la loi du maximum


FWn (x) = 1 [1 F (x)]n ; la loi du minimum:

Remarquons que les expressions ci-dessus de FMn et FWn peuvent s’obtenir


très facilement en considérant d’autres relations1 .

En considérant quelques exemples lorsque la fonction F est la loi normale


standard, les …gures suivantes montrent comment évolue la statistique d’ordre
du maximum lorsque n évolue.

1
En e¤et, si X1 ; :::; Xn est une suite de n variables aléatoires réelles i.i.d, on véri…e
aisément les relations suivantes :

n
fMn xg () fmax (X1 ; :::; Xn ) xg () \ fXi xg
i=1
n
fWn xg () fmin (X1 ; :::; Xn ) xg () \ fXi xg :
i=1
CHAPITRE 2. MODÈLES DES EXTRÊMES UNIVARIÉS 10

Fig. 2.1 –Evolution de la fonction Fn;n d’une loi gaussienne pour n=10, 50,
100 et 200 respectivement.

Fig. 2.2 –Evolution de la fonction fn;n d’une loi gaussienne pour n=10, 50,
100 et 200 respectivement.
CHAPITRE 2. MODÈLES DES EXTRÊMES UNIVARIÉS 11

1
Le résultat suivant découle de la croissance de la fonction F, F désignant
l’inverse généralisée de F.

Lemme 1.1
Soit X1 ; :::; Xn des variables aléatoires i.i.d de distribution commune F.
Alors, pour tout vecteur (U1 ; :::; Un ) de variables indépendantes de loi uni-
1 1
forme sur l’intervalle I, le vecteur (F (U1;n ) ; :::; F (Un;n )) a même loi
que (X1; :::; Xn ) :

Remarque 1.2
Le lemme (1.1) signi…e en particulier que si X1 et X2 sont deux variables
continues de lois respectives F1 et F2 , alors les transformations

X1 = G1 1 (F1 (X1 )) et X2 = G2 1 (F2 (X2 ))

permettent d’obtenir les distributions marginales "voulues" G1 et G2 .

L’étude des lois des valeurs extrêmes univariées est basée sur une ap-
proche parallèle à celle du théorème central limite, qui est le fondement de la
statistique inférentielle. Ce théorème établit que pour une suite de variables
2
aléatoires réelles i.i.d fXn ; n 0g, de variance et d’espérance mathéma-
tique …nies, alors
Sn n loi
p ! N (0; 1) ;
n n !+1

ou en termes de fonction de répartition :


p Xn E (X)
lim P n x = (x) ;
n !+1 X

où est la fonction de répartition de la loi normale standard N (0;


P 1) et
Xi
1 i n
Xn , la variable d’échantillonnage de la moyenne dé…nie par Xn = n
:

Ce théorème signi…e en particulier qu’il existe des suites de normalisation


p
f n = n 2 Rg et n = n>0 ;
CHAPITRE 2. MODÈLES DES EXTRÊMES UNIVARIÉS 12

de telle sorte que la suite de variables aléatoires centrées réduites Yn =


Sn n
converge vers la loi normale standard i.e
n

P (Yn y) = (y); pour tout y 2 R:

Parallèlement au théorème central limite, on peut se poser la question


naturelle suivante, pour la statistique du maximum : peut-on trouver des
suites de normalisation f n > 0g et f n 2 Rg et une loi non-dégénérée de
distribution G telles que
Mn n loi
! G i.e lim P (Mn nx + n) = G (x)? (2.5)
n n !+1 n !+1

Si la relation (1.5) est véri…ée, on dit que la variable correspondante est


max-stable.

Dé…nition 1.2 (Max-stabilité d’une distribution)


Une variable non-dégénérée X et sa fonction de distribution F sont dites
max-stables s’il existe des suites de coe¢ cients de normalisation f n > 0g
loi
et f n 2 Rg tels que Mn = nX + n pour un échantillon de variables i.i.d
(Xi ) ; i = 1; ::; n:

2.3.2 Lois de valeurs extrêmes

Les statisticiens Fisher et Tippett trouvent en 1928 une réponse à la


question posée par la relation (1.5) au moyen du théorème suivant qui porte
leurs noms et qui devient par la suite le fondement de l’analyse statistique des
valeurs extrêmes. Enonçons d’abord le lemme technique suivant démontré
dans [2].
Lemme 1.2 (Equations de Cauchy)
Soit h une fonction dé…nie sur R+ :

Si pour tous x; y > 0, on a : h (xy) = h (x) h (y) ; alors h est de la forme


h(x) = x avec 2 R:
CHAPITRE 2. MODÈLES DES EXTRÊMES UNIVARIÉS 13

Si pour tous x; y > 0, on a : h (xy) = h (x) + h (y) ; alors h est de la forme


h(x) = c log (x) avec c > 0:

Ce lemme intervient dans la démonstration du théorème de Fisher-Tippett.

Théorème 1.1 (Fisher-Tippett)

Soit (Xi ; i 1) une suite de variables aléatoires i.i.d. S’il existe des suites
de normalisation f n > 0g et f n 2 Rg et une distribution non-dégénérée G
véri…ant la relation (1.5); alors G est de la forme suivante :
9
x >
Gumbel, (x) = exp exp ; x2R >
>
8 >
>
( ) >
>
>
> x
1=
>
>
< exp >
>
1+ ,x > 0 >
>
Fréchet, (x) = + >
=
>
>
: 0 si x 0 (2.6)
8 8 9 >
>
< 1
= >
>
>
> x >
>
< exp ; x >
>
: ; >
>
Weibull, (x) = + >
>
>
> >
>
: ;
1 si x

ou f 2 Rg ; f > 0g et f 2 Rg sont les paramètres de la variable X.

Démonstration. La démonstration de ce théorème est longue et a été


formulée plusieurs fois. Une version plus moderne se trouve dans [19], propo-
sition 0.3. Néanmoins, nous le redémontrons ici mais suivant un autre rai-
sonnement qui, d’une part, permet d’introduire des quantités qui nous seront
utiles par la suite dans l’estimation des paramètres, et d’autre part, donne
la forme générale des lois limites formulée plus loin par le théorème1.3.

Supposons qu’il existe une suite de normalisation f( n; n) ; n 1g telle


1
que n > 0 et la suite de terme n (Mn n) converge en loi vers une loi
limite G non constante. Pour toute fonction g continue et bornée, on a

1
lim E g n (Mn n) = E (g (G))
n !+1
CHAPITRE 2. MODÈLES DES EXTRÊMES UNIVARIÉS 14

Supposons par simplicité que la loi X1 possède la densité f > 0: Alors, la


loi de Mn possède la densité nF (x)n 1
f (x) d’après la proposition 1.1. On a
donc
Z
x
In = E g n
1
(Mn n) = g n
nF (x)n 1
f (x) dx
R n

Comme f > 0, la fonction F est inversible et d’inverse connue. On pose


pour t > 1
1 1
U (t) = F 1 :
t
En particulier, on a
1 1
U (t) = x () 1 = F (x) () P (X > x) = :
t t
On e¤ectue le changement de variable
v n
F (x) = 1 ; i:e x = U :
n v
On obtient
Z !
n
U v n v n 1
In = g 1 1]0;n] (v) dv:
R n n

v n 1
Remarquons que 1 1]0;n] (v) converge en croissant vers e v 1fv>0g :
n
Comme par hypothèse In converge pour tout g, il est naturel, mais érroné à
priori, de penser que pour tout v > 0; la suite de terme
n
U n
Jn (v) = v
n

converge. Supposons malgré tout que cette convergence ait lieu. On déduit
1
en considérant Jn Jn (1) que pour tout w > 0,
w
U (wn) U (n)
! h (w) :
n n !+1

Comme la variable W est non triviale cela implique que la fonction h n’est
pas égale à une constante. Comme la fonction U est croissante, la fonction h
CHAPITRE 2. MODÈLES DES EXTRÊMES UNIVARIÉS 15

est également croissante. Supposons que plus généralement, on ait pour tout
w > 0;
U (wx) U (x)
! h (w) ;
(x) x!+1

où (x) = [x] pour x 1; [x] désignant la partie entière de x. Soit


w1 ; w2 > 0; on a

U (w1 w2 x) U (x) U (w1 w2 x) U (xw1 ) (xw1 ) U (w1 x) U (x)


= + :
(x) (w1 x) (x) (x)

(xw1 )
En faisant tendre x vers l’in…ni dans l’égalité ci-dessus, on obtient que
(xw1 )
converge pour tout w1 > 0: En notant l (w1 ) la limite, il vient que

h (w1 w2 ) = h (w2 ) l (w1 ) + h (w1 ) (2.7)

Par ailleurs, la fonction l est mesurable et localement bornée. Comme la


fonction h est croissante et non constante, on en déduit que l est strictement
positive. De plus en posant yw0 = x; on a pour w0 > 0

(xw) (yw0 w) (y) l (w0 w)


l (w) = lim = lim = :
x !+1 (x) y !+1 (y) (yw0 ) l (w0 )

Ainsi, pour tous w; w0 > 0; on a

l (w0 w) = l (w) l (w0 ) ;

où l est une fonction strictement positive mesurable localement bornée.


Le lemme précédent garantit qu’il existe 2 R tel que l (w) = w ; et donc
de (1.7) on a

h (w1 w2 ) = h (w2 ) w1 + h (w1 ) pour tous w1 ; w2 > 0:

On peut alors distinguer les cas suivants :


Si = 0 on obtient l’équation fonctionnelle

h (w1 w2 ) = h (w2 ) + h (w1 ) :


CHAPITRE 2. MODÈLES DES EXTRÊMES UNIVARIÉS 16

Et donc h (w) = c log (w) ; c > 0:

Si 6= 0; par symétrie , on a

h (w1 w2 ) = h (w2 ) w1 + h (w1 ) = h (w1 ) w2 + h (w2 ) :

En particulier, on a

h (w1 ) 1 w2 = h (w2 ) 1 w1 :

h (w)
Cela implique que h (w) = 0 si w = 1, et sinon est constant.
1 w
Par conséquent, on obtient h (w) = c w 1 : À un changement d’échelle
1
près, on peut choisir c = et à une translation près, on peut choisir U (n) =
bn :

En dé…nitive, il vient que


8
U n
1 < v 1
si 6= 0
v n
lim =h =
n !+1 n v :
log (v) si =0

1
On peut maintenant calculer la limite de In = E [g ( n (Mn n ))] : Il
vient par le théorème de la
gence dominée
Z Z
v 1 v (1+ y) 1=
lim In = g e 1fv>0g dv = g (y) 1f1+ y>0g d e ;
n !+1

v 1
où on a posé y = si 6= 0 et y = log (v) si = 0:
1=
(1+ x)
Ainsi, la distribution de la loi limite est H (x) = e : C’est la
forme standard de la distribution dé…nie plus loin par la relation (1.10)

Les trois lois ; et sont dites distributions de valeurs extrêmes. Leurs


formes réduites sont obtenues en les standardisant i.e en posant = 0 et
CHAPITRE 2. MODÈLES DES EXTRÊMES UNIVARIÉS 17

= 1: 9
(x) = exp f e x g avec x 2 R >
>
>
>
>
>
( >
>
>
>
exp x si x > 0 >
>
(x) = ; >0 =
0 si x 0 (2.8)
>
>
>
>
( >
>
>
>
1 si x > 0 >
>
(x) = ; >0 >
>
;
exp x si x 0

Une distribution de valeurs extrêmes est donc, à une translation et un


changement d’échelle près, une distribution de Gumbel, Fréchet ou de Wei-
bull.

La …gure suivante présente les courbes des densités de trois lois extrêmes
standard.
CHAPITRE 2. MODÈLES DES EXTRÊMES UNIVARIÉS 18

Fig. 2.3 – Courbes des densités de trois lois extrêmes standard , et


respectivement.

Remarque 1.3
Les trois types de distributions de valeurs extrêmes sont di¤érents d’un
point de vue modélisation. Cependant, chacune peut s’obtenir par une trans-
formation fonctionnelle de l’autre. Plus précisément si X > 0 est une variable
aléatoire, on véri…e aisément les relations suivantes :
1
X () ln X () : (2.9)
X

Dans le résultat suivant (voir [19]) fait le lien entre une loi extrême et une
max-stable.

Théorème 1.2
La classe des lois max-stables coïncide avec la classe des limites possibles
non dégénérées pour les maxima normalisées variables aléatoires i.i.d.

Démonstration. Voir [19]

Les trois types extrêmes ont des comportements asymptotiques di¤érents.


En e¤et, la densité de probabilité décroît exponentiellement pour la distribu-
CHAPITRE 2. MODÈLES DES EXTRÊMES UNIVARIÉS 19

tion de Gumbel et polynômialement pour celle de Fréchet. Par conséquent, il


n’est pas commode de travailler avec les trois types en même temps dans la
modélisation des phénomènes extrêmes. Pour ce faire, Von Mises en 1954 et
Jenkinson en 1955 proposent une famille paramétrique, la distribution Gé-
néralisée des Valeurs Extrêmes (GVE), qui permet d’uni…er les trois types
extrêmes d’après le résultat suivant (voir [9])

Théorème 1.3 (Uni…cation des trois types)


S’il existe des suites de constantes de normalisation f n > 0 g et f n 2 Rg
et une distribution limite non dégénérée G véri…ant (1.6), alors G est de la
forme

8 ( )
1
>
>
< exp1+ x
+ si 6= 0
GV E (x) = G ; ; (x) = n h io (2.10)
>
>
: exp exp x
si =0
+

où f 2 Rg ; f > 0g et f 2 Rg sont respectivement des paramètres de


localisation, d’échelle et forme de la variable.

Démonstration. La distribution GVE dé…nie par la relation (1.10) est la


forme généralisée de la distribution paramétrique H dans la démonstration
du théorème 1.2 ci-dessus.

Remarquons que les paramètres et sont en fait les limites des suites
normalisantes f n > 0g et f n 2 Rg. On véri…e aisément que la forme géné-
ralisée de la fonction densité de probabilité correspondante est dé…nie sur le
même domaine, pour tout x 2 R par
1+
8 1
9
1 x < x =
g ; ; (x) = 1+ exp 1+ :
: ;

Le paramètre de forme ou indice des valeurs extrêmes donne, à travers


ses di¤érentes valeurs possibles, une grande ‡exibilité à la distribution GVE,
CHAPITRE 2. MODÈLES DES EXTRÊMES UNIVARIÉS 20

lui permettant ainsi de décrire les trois types de comportements asympto-


tiques représentés par les distributions extrêmes. En e¤et :

Si = 0, alors G ; ;0 (x) = (x); loi de Gumbel

Si > 0, alors G ; ; (x) = 1 (x); loi de Fréchet

Si < 0, alors H ; ; (x) = 1 (x) , loi de Weibull

Cette uni…cation a beaucoup simpli…é l’implémentation statistique des


distributions des valeurs extrêmes car une inférence e¤ectuée sur le para-
mètre de forme ; les données montrent elles-mêmes le type de comportement
asymptotique le plus approprié, évitant ainsi tout choix subjectif du modèle.
On range les données en blocs de maxima Mn;1 ; Mn;2 ; :::; Mn;m auxquels on
ajuste la distribution GVE.

Remarque 1.4
Une conséquence de la remarque 1.3 précédente est le fait que l’on peut,
sans perdre de généralité, se limiter à une quelconque de ces lois extrêmes
pour une caractérisation. Le choix d’une loi extrême comme marge est donc
une question de pragmatisme. Par exemple, Pickands [18] utilise des marges
exponentielles (loi de Gumbel) tandis que Resnick [19] et Tajvidi ( [22]) pré-
fèrent une marge de Fréchet unitaire. Dans notre cas nous travaillerons avec
la marge paramétrique généralisée (GVE).

Si dans beaucoup de problèmes traitant des données environnementales


on utilise les observations extrêmement grandes, certaines applications se
basent plutôt sur les plus petites valeurs. Par exemple, la durée de vie d’un
système peut être considérée comme la durée de vie minimale d’un certain
nombre n de composantes individuelles de durée de vie. Pour ces applications,
en utilisant la relation de dualité (1.4) le théorème suivant permet de dé…-
nir de façon analogue, une distribution GVE associée au minimum (voir [9])).
CHAPITRE 2. MODÈLES DES EXTRÊMES UNIVARIÉS 21

Théorème 1.4 (Loi extrême du minimum)

S’il existe des suites de normalisation f n > 0g et f n 2 Rg et une


distribution limite non-dégénérée G~ telle que

Wn n ~
lim P x = G(x);
n !+1 n

~ est de la forme
alors la distribution G
8 9
1
< x ~ ~=
~
G(x) = 1 exp 1 ~ où ~ > 0; ~ ; ~ 2 R:
: ~ +
;

On en déduit les formes réduites des trois distributions extrêmes du mi-


nimum.

(x) = 1 exp f exp(x)g ; x 2 R

(x) = 1 exp ( x) ; x > 0; > 0

(x) = 1 exp x ; x 0; > 0

Ainsi, une distribution de valeurs extrêmes est donc la limite d’une suite
convenablement normalisée de la loi du maximun ou du minimum.

2.3.3 Max-domaine d’attraction

La recherche du domaine d’attraction d’une distribution extrême G consiste


à déterminer les distributions F pour lesquelles la loi du maximum renor-
malisé converge vers une loi max-stable G. On dit alors que la distribu-
tion F appartient au Max-Domaine d’Attraction (MDA) de G et on note
F 2 M DA (G) : Les notions de fonctions alpha-stables, de fonctions à varia-
tion lente ou de fonctions à variation régulière utilisées dans ce paragraphe
CHAPITRE 2. MODÈLES DES EXTRÊMES UNIVARIÉS 22

sont explicitées dans l’annexe A. Pour une loi stable, on a la caractérisa-


tion générale suivante.

Dé…nition 1.3
Une variable aléatoire appartient au domaine d’attraction d’une loi
stable G s’il existe des constantes de normalisation f n > 0g et f n 2 Rg
telles que
Sn n loi
! G ie lim P (Sn nx + n) = G (x) (2.11)
n n !+1 n !+1

Les résultats suivants caractérisent les domaines d’attraction de la loi


normale et des lois alpha-stables. Pour la démonstration, voir [2].

Théorème 1.5 (voir [2])

(i) La distribution F appartient au domaine d’attraction de la loi normale


R
si et seulement si fjyj xg y 2 f (x) dx est à variation lente.
(ii) La distribution F appartient au domaine d’attraction d’une loi
stable pour < 2 si et seulement si
q + o (1) p + o (1)
F ( x) = L (x) et lim F (x) = :
x x !+1 x
où L est à variation lente et, p,q des entiers positifs tels que p + q > 0.

Plus généralement le théorème suivant, démontré dans [9], caractérise le


MDA d’une loi extrême quelconque.

Théorème 1.6 (voir [20])


Soit F une distribution quelconque. Les propriétés suivantes sont équiva-
lentes.

i) F 2 M DA(G)

Il existe des suites de constantes n > 0 et n 2 R telles que, 8x 2 R:


CHAPITRE 2. MODÈLES DES EXTRÊMES UNIVARIÉS 23

ii) lim F n ( nx + n) = G(x):


n !+1
Mn n
iii) lim P x = G (x) :
n !+1 n
iv) lim nF ( nx + n) = log G(x) avec lim G (x) = 0:
n !+1 n !+1

Le résultat suivant permet de construire les suites normalisantes éven-


tuellement associées à une loi quelconque (voir [19]).

Proposition 1.2 (Suites normalisantes)

Si pour une distribution F il existe une distribution extrême G telle que


F 2 M DA(G), alors les suites associées à cette normalisation f n > 0g et
f n 2 Rg sont données par
1 1
n =F (1 ) et n = h( n )
n

où h est la fonction de hasard de F.

Plus généralement connaissant la distribution F, comment déterminer la


distribution extrême dont le MDA contiendrait F ? La réponse à cette ques-
tion est relativement complexe et dépend de la forme de la fonction F. Tou-
tefois, les résultats suivants donnent les critères les plus utilisés. Pour les
notions de fonctions à variation régulière (RV) ou de variation lente utilisées
dans les résultats qui suivent, on se référera à l’annexe A.

a. Max-domaine d’attraction de Fréchet

La distribution de Fréchet de paramètre > 0 est telle que


1 1
(x) = exp( x ); x > 0 i:e (x) x au voisinage +1:

Par conséquent, les distributions appartenant au MDA de Fréchet sont ca-


ractérisées par une queue décroissante comme une puissance de x lorsque
x ! +1: On obtient le résultat suivant (voir [19])
CHAPITRE 2. MODÈLES DES EXTRÊMES UNIVARIÉS 24

Théorème 1.7 (Domaine de Fréchet)

Une distribution F appartient M DA( ) si et seulement si

F (tx)
(1 F) 2 V R( ) i:e: lim = x ; x > 0:
t !+1 F (t)

1 1
Dans ce cas n =F (1 ) et n = 0:
n
Par conséquent F 2 M DA( ) s’il existe une fonction à variation lente
L telle que F (x) = x L(x): Les distributions du M DA( ) sont à queue
épaisse. L’exemple suivant établit que la Pareto appartient au M DA( ):

Exemple 1.2 (MDA des lois de Pareto)


x
Soit X P areto (x0 ; ) avec x0 > 0 et > 0, i.e. FX (x) = :
x0
1
Pour x x0 ; on a FX 1 (x) = (1 x) x0 et par suite

n = FX 1 (1 1
n
) = n1= x0 : Ainsi, pour x x0 et lorsque n ! +1;
n
1= n1= x0 x
P (Mn n x) = P Mn n x0 x = FXn n 1=
x0 x = 1 x0

h in x
n
= 1 n1= x = 1 ! exp x :
n

On conclut que les lois de Pareto appartiennent au M DA( ):

Le tableau ci-dessous donne les autres lois du M DA( ):

b. Max-domaine d’attraction de Weibull

Le MDA de Weibull est formé par les lois à queues …nies, i.e F (x) = 0 si
x > xF où xF est le point terminal droit de F. Resnick (dans [19]) caractérise
le domaine de Weibull au moyen du résultat suivant.

Théorème 1.8 (Domaine de Weibull)


CHAPITRE 2. MODÈLES DES EXTRÊMES UNIVARIÉS 25

Une distribution F appartient au MDA( ) si et seulement si

1 F xF 1
x
2 RV ( ) ou si F xF 1
x
2 M DA( )

où xF est le point terminal droit de F avec xF < +1. Alors, il existe une
fonction à variation lente L(x) telle que

1 F xF 1
x
= x L(x) avec n = xF F 1
1 1
n
et n = xF :

Démonstration. Voir dans [19] p. 59-62

L’exemple suivant montre que la loi uniforme unitaire appartient au


M DA( ):

Exemple 1.3

Soit X une variable aléatoire de loi uniforme sur [0; 1] : On a F (x) =


1 x et xF = 1:

Ainsi,
1 1 1 1
n =F (1 )=1 (1 )= :
n n n

De plus,
x x
P (Mn nx + n) = P Mn + 1 = FXn 1 +
8 n n
< 1 si x > 0
= x n
: 1+ ! exp (x) si x 0
n

On conclut que la loi uniforme appartient au M DA( 1) car exp (x) =


1
exp ( x) :
CHAPITRE 2. MODÈLES DES EXTRÊMES UNIVARIÉS 26

c. Max-domaine d’attraction de Gumbel

Le MDA de Gumbel est formé par les lois à queue légère i.e F (x) ! 0
exponentiellement plus vite lorsque x ! +1: Il est di¢ cile de caractériser
explicitement ce domaine du fait qu’il n’existe pas de condition nécessaire
et su¢ sante relativement simple. Mais si la fonction F est de classe C 2 ; une
condition su¢ sante est la suivante :
[1 F (x)] @ 2 F (x)
lim = 1:
x !+1 (@F (x))2

Le résultat suivant établit une relation entre deux fonctions appartenant au


M DA( ), voir [19] :

Propriété 1.3 (MDA( ))


Soit F 2 M DA( ) où F admet des coe¢ cients de normalisation
f n > 0g et f n 2 Rg i.e pour tout x 2 R ;

lim F n [ nx + n] = (x):
x !1

Alors,

F (x)
lim Gn [ nx + n] = (x + ) () lim = exp( ):
x !1 x !1 G(x)

Le tableau suivant résume les MDA des trois lois extrêmes.


CHAPITRE 2. MODÈLES DES EXTRÊMES UNIVARIÉS 27

MDA(Fréchet) MDA(Weibull) MDA(Gumbel)


1 1 1 1
Suites n = F (1 ) n = xF F 1 n n =1
n
normalisantes n = 0 n = xF n = log n
loi de Cauchy
loi exponentielle
loi de Pareto
loi gamma
Loi de Burr loi uniforme unitaire
Lois loi normale
lois stables loi bêta
loi log-normale
loi log-gamma
loi de Weibull
Loi de Student

Tab. 2.1 –Récapitulatif des domaines d’attraction des lois extrêmes univa-
riées

Conclusion

Ce chapitre a permis de rappeler les propriétés fondamentales des mo-


dèles univariés de valeurs extrêmes. Il y a été établi en particulier que la
distribution paramétrique GVE permet de résumer trois types de compor-
tements asymptotiques de la loi convenablement normalisée du maximum.
Le paramètre de forme permet à cette famille, à travers son signe, de re-
trouver chacune de lois extrêmes univariées. Des critères sont dé…nis pour
caractériser le max-domaine d’attraction de chacune des trois lois extrêmes
univariées.
Chapitre 3

Dépendance conditionnelle
extrême multivariée

3.1 Introduction

Beaucoup de problèmes statistiques comportant des événements extrêmes


sont multivariés. Par exemple, on peut citer l’étude des extrêmes annuels du
débit d’une rivière dans plusieurs stations, l’analyse spatiale de la pluvio-
métrie quotidienne d’une région, l’impact de la vitesse du vent sur plusieurs
sites, l’estimation des risques de sécheresse hydrologiques (réservoirs, débits,
systèmes de drainage) etc. Ces exemples et beaucoup d’autres dans le do-
maine de modélisation …nancière tel que la gestion du risque considéré dans
plusieurs directions témoignent de la nécessité de méthodes statistiques dans
l’analyse des extrêmes des données multivariées.

Dans l’analyse des phénomènes extrêmes, on a un contexte multivarié


lorsque

- le phénomène étudié comporte plusieurs composantes modélisées chacune


par une variable statistique ;
- une variable est estimée sur plusieurs sites ;

28
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE29

- une variable est estimée en di¤érentes périodes, le plus souvent régulière-


ment.

Il faut noter cependant que lorsque l’on tente de résoudre ces genres de
problèmes multivariés, on est confronté à quelques di¢ cultés formulées par
les questions suivantes :

- quels sont les critères d’extrémité d’une observation multivariée ?


- quels sens donner aux concepts fondamentaux et clairement dé…nis dans
l’analyse univariée tels que : les statistiques d’ordre, les queues de dis-
tributions, les quantiles extrêmes, le maximum de l’échantillon ?

La réponse à ces questions dépend de la situation en présence. Néanmoins,


une structure spéci…que apparaît dans le cas multivarié : la dépendance. En
e¤et, lorsque l’on étudie les valeurs extrêmes de deux ou de plusieurs phéno-
mènes qui peuvent être modélisés individuellement par des modèles extrêmes
univariés, il existe très souvent des raisons valables d’étudier également les
extrêmes de la structure qui modélise leur dépendance conjointe. En e¤et,
il peut arriver, dans un premier temps, que l’intérêt d’une combinaison de
certains de ces phénomènes soit plus important que ceux des processus pris
individuellement. Par exemple, le comportement du climat - synthèse de plu-
viométrie, de température, de vitesse du vent - peut avoir plus d’impact sur
la vie des habitants d’une région que celui de chacune des composantes consi-
dérées individuellement. Ensuite, dans un modèle multivarié, il arrive que les
données portant sur chaque variable marginale expliquent les inférences sur
chacune des autres variables.
Pour modéliser cette dépendance multivariée, plusieurs structures ont été
développées ces dernières années Pickands utilise une fonction convexe pour
caractériser la dépendance des distributions extrêmes avec des marges ex-
ponentielles. D’autres mesures équivalentes ont été élaborées telles que la
fonction copule ([21]), la mesure exponentielle ou la fonction de queue stable
(voir [6]).
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE30

Cependant, malgré cette diversité de structures de dépendance un pro-


blème se pose lorsque l’on modélise certains phénomènes environnementaux :
ces structures ne prennent pas en compte les contraintes que véri…ent géné-
ralement les supports de distributions univariées décrivant les composantes
élémentaires du phénomène conjoint. Par exemple, dans une région donnée les
variables modélisant la température sont de supports bornés car les tempéra-
tures extrêmes (maximale et minimale) sont connues. C’est cette insu¢ sance
de ces mesures de dépendance qui justi…e dans ce travail, l’introduction d’une
nouvelle approche de la modélisation de la dépendance. Les modèles issus de
cette approche prennent en compte ces éventuelles contraintes et donnent
ainsi une nouvelle caractérisation des modèles des extrêmes multivariés.

Dans la section 1, nous résumons les principaux outils préliminaires à


l’analyse des Valeurs Extrêmes Multivariés (VEM).

Dans la section 2, nous rappelons les propriétés essentielles des structures


déjà existantes sur la modélisation de la dépendance extrême multivariée.

Dans la section 3, nous proposons une nouvelle approche de la caractérisa-


tion de la dépendance conjointe. Cette approche tient compte des di¤érentes
contraintes, notamment les discordances, que doivent véri…er généralement
les supports des marges univariées. Une nouvelle mesure et fonction condi-
tionnelles sont construites pour décrire ces contraintes. .Cette caractérisation
est appliquée aux principales familles des copules extrêmes bivariées et aux
modèles trivariés généralisés de Pareto.

3.2 Cadre de travail multivarié extrême

Dans cette section nous rappelons quelques notions liées aux lois mul-
tivariées et leurs propriétés fondamentales qui sont beaucoup utilisées dans
l’analyse des extrêmes multivariés.
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE31

3.2.1 Quelques propriétés des lois multivariées

a. Distributions multivariées

Une distribution ou fonction de répartition m-dimensionnelle est une


fonction F : Rm ! I = [0; 1] telle qu’il existe un espace de probabilité
et un vecteur aléatoire X = (X1 ; :::; Xm ) tels que, pour toute réalisation
x = (x1 ; :::; xm ) 2 Rm de X, on a

F (x) = F (x1 ; :::; xm ) = P (X x) = P (X1 x1 ; :::; Xm xm ) :

Le résultat suivant, démontré dans [13], résume les propriétés d’une dis-
tribution multivariée.

Théorème 2.1 (Distribution multivariée)


Une fonction F : Rm ! I est une distribution m-dimensionnelle si et
seulement si
(i) Pour tout xi ; i = 1; :::; m; on a
8
< lim F (x1 ; :::; xi 1 ; t; xi+1 ; :::; xm ) = 0
t! 1
: et lim ::: lim F (t1 ; :::; tm ) = 1
t1 !+1 tm !+1

(ii) Pour tout (x1 ; :::; xm ) 2 Rm et (y1 ; :::; ym ) 2 Rm ; on a

(1) (1)
x1 ;y1 ::: xm ;ym F (y1 ; :::; ym ) 0 (3.1)

(i)
où l’opérateur xi ;yi est dé…ni pour tout t2 Rm par :

(i)
xi ;yi F (t) = F (t1 ; :::; ti 1 ; yi ; ti+1 ; :::; tm ) F (t1 ; :::; ti 1 ; xi ; ti+1; :::; tm )

Remarques 2.1
La propriété (ii) signi…e en particulier que F est croissante par rapport
à chaque variable
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE32

Dans le cas bidimensionnel la relation (2.1) équivaut à l’inégalité du


rectangle que doit véri…er toute fonction de répartition bivariée F i.e

F (x01 ; x02 ) F (x01 ; x2 ) F (x1 ; x02 ) + F (x1 ; x2 ) 0 (3.2)

sous l’hypothèse

(x1 ; x2 ) 2 R2 ; (x01 ; x02 ) 2 R2 tels que x1 x01 et x2 x02 : (3.3)

Lorsque les variables X1 ; :::; Xm sont mutuellement indépendantes, alors


on a
m m
F (x) = P (Xi xi ) = Fi (xi ) ;
i=1 i=1

où Fi est la distribution marginale univariée de la composante Xi ; i =


1; :::; m:

Si en particulier X est un vecteur continu, alors pour tout x = (x1 ; :::xm ) 2


Rm ; on a
Z x Z xm Z x1
F (x) = f (x) dx = ::: f (t1 ; :::; tm ) dtm :::dt1 ;
1 1 1

où la fonction positive f est la densité de probabilité conjointe de X,


dé…nie par

@ m F (x1 ; :::; xm )
f (x) = ; x = (x1 ; :::; xm ) 2 Rm :
@x1 :::::@xm

Les fonctions densités marginales univariées fi de f sont données par


Z +1 Z +1
fi (xi ) = ::: f (u1 ; :::; ui 1 ; xi ; ui+1 ; :::; um ) dum :::dui+1 dui 1 :::du1:
1 1

De façon similaire, on a par exemple

Z +1 Z +1
f1;2 (x1 ; x2 ) = ::: f (x1 ; x2 ; u3 ; :::; um ) dum :::du4 du3
1 1
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE33

Comme dans l’analyse des distributions univariées, il existe des familles


standard de distributions de probabilité pour les vecteurs aléatoires. En parti-
culier, un vecteur aléatoire X = (X1 ; :::; Xm ) suit une distribution gaussienne
(ou normale) multivariée de vecteur moyen = ( 1 ; :::; m) si sa fonction
n
densité conjointe est donnée, pour tout x = (x1 ; :::; xn ) 2 R ; par
1 1
fX; (x) = p n
exp (x )t 1
(x ) ; (3.4)
(2 ) det 2

où est la matrice de covariance de X dé…nie telle que


2 3
1;1 ... 1;n
6 .. 7
6 . 7
6 7
6 . . .. 7
6
=6 . . . . 7
. j;i 7;
6 .. 7
6 . 7
4 i;j 5
n;1 ... n;n

avec i;i = V (Xi ) et i;j = cov (Xi ; Xj ) si i 6= j: On note X N ( ; ):

Une matrice de corrélation R est une matrice de covariance dont les élé-
ments diagonaux sont égaux à 1. On véri…e par ailleurs que si les éléments dia-
gonaux 1;1 ; :::; m;m de la matrice de covariance sont tous non nuls, alors la
1
matrice de corrélation associée à est la matrice R = diag ( 1;1 ; :::; m;m ) :
1 1
Dans ce cas R dé…nit la matrice de covariances du vecteur 1;1 X1 ; :::; m;m Xm :

b. Fonction de survie d’une loi multivariée

Comme dans le cas univarié, l’utilisation de la fonction de survie d’une


distribution est fréquente dans l’analyse des extrêmes multivariés. Si F est la
distribution associée à une vecteur aléatoire X, alors la fonction de survie de
F est donnée, en tout point x = (x1 ; :::xm ) 2 Rm ; par

F (x) = P (X > x) = P (X1 > x1 ; :::; Xm > xm ) :


CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE34

Et si le vecteur X est continu de densité conjointe f, alors on a

Z +1 Z +1 Z +1
F (x) = f (x) dx = ::: f (x1 ; :::; xm ) dx1 :::dxm :
x xm x1

Remarque 2.2
Il faut noter que dans l’analyse multivariée, le sens de fonction de survie
requiert une attention particulière. En e¤et, on a

F (x) = P (X > x) 6= 1 F (x) = P (X 6 x) ; x = (x1 ; :::xm ) 2 Rm :

Par exemple, pour tout (x1 ; x2 ) 2 R2 , on a

F (x1 ; x2 ) = P [X1 > x1 ; X2 > x2 ] = 1 F1 (x1 ) F2 (x2 ) + F (x1 ; x2 )

i.e
1 F (x1 ; x2 ) = F1 (x1 ) + F2 (x2 ) F (x1 ; x2 ) :

Plus généralement, pour tout x = (x1 ; :::xm ) 2 Rm ; on a


X
F (x) = P [X1 > x1 ; :::; Xm > xm ] = 1 + ( 1)jsj Fs (xk; k 2 S)
s2S

où S est l’ensemble des sous-ensembles non vides de f1; 2; :::; mg et fFs ; s 2 Sg


désignant l’ensemble des distributions marginales de F.

c. Points terminaux d’une distribution multivariée

Pour une distribution multivariée F, on dé…nit les points terminaux infé-


rieur xF et supérieur xF respectivement par

xF = x1;F ; :::; xm;F tel que xi;F = inf fFi > 0g 1

et
xF = xF1 ; :::; xFm tel que xFi = sup fFi < 1g +1
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE35

3.2.2 Totale positivité multivariée

Soit X = f(X1 ; :::; Xm ) ; m 2g un vecteur aléatoire continu de fonction


densité de probabilité f. On dit que la fonction f est Multivariée Totalement
Positive d’ordre 2 (MTP2 ) si, pour tout x = (x1 ; :::; xm ) 2 Rm et pour tout
y = (y1 ; :::; ym ) 2 Rm ; on a

f (x _ y) f (x ^ y) f (x) f (y) (3.5)


(x _ y) = (max (x1 ; y1 ) ; :::; max (xm ; ym ))

et
(x ^ y) = (min (x1 ; y1 ) ; :::; min (xm ; ym ))

Joe (dans [13])) énonce la propriété suivante.

Proposition 2.1

Si une densité de probabilité f est MTP 2 , alors il en est de même pour


toutes ses densités marginales d’ordre supérieur ou égal à deux.

Cas particulier bivarié

En dimension deux, la propriété (2.5) équivaut à

f (x1 ; x2 ) f (x01 ; x02 ) f (x01 ; x2 ) f (x1 ; x02 )

pour tous (x1 ; x2 ) 2 R2 et (x01 ; x02 ) 2 R2 véri…ant (2.3): Dans ce cas on dit
que f est Totalement Positive d’ordre deux (TP2 ) et Joe établit dans [13] les
propriétés suivantes.

Proposition 2.2

Pour toute distribution bivariée F de fonction densité f et de fonction de


survie F̄, les propriétés suivantes sont équivalentes :
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE36

i) f est TP 2 :
ii) F est TP 2 :
iii) F̄ est TP 2 :

3.2.3 Max-in…niment divisibilité et max-stabilité

L’ordre d’une distribution multivariée F est la valeur maximale k 1


k
telle que F est toujours une distribution. En particulier, si k ! +1; alors
F est dite max-in…niment divisible (Max-id) i.e pour tout t > 0; F t est une
distribution.

Considérons un vecteur aléatoire fXn ; n 1g = f(Xi;1 ; :::; Xi;m ) ; 1 i ng,


de loi conjointe F. Soient Mn ; le vecteur des maxima associé à Xn et FMn sa
distribution. Alors,

Mn = (Mn;1 ; :::; Mn;m ) = max (Xi;1 ) ; :::; max (Xi;m ) ;


1 i n 1 i n

et pour toute réalisation (x1 ; :::; xn ) de Xn on a :

P (Mn;1 x1 ; :::; Mn;m xn ) = FMn (x1 ; :::; xn )

D’après Resnick [19], l’étude du comportement stochastique des lois des


maxima et des records multivariés établit que, pour tous entiers positifs t1 <
t2 < ::: < tn ; on a

FMn (x1 ; :::; xn ) = F t1 min (xi ) F t2 t1


min (xi ) :::F tn tn 1
(xn ) :
1 i n 2 i n

En particulier, si les composantes du vecteurs aléatoires (Xn ) sont i.i.d


de distribution commune F, alors,

FMn (x1 ; :::; xn ) = F n (x1 ; :::; xn ): (3.6)

Cependant, l’égalité (2.6) requiert que pour tout t > 0, la fonction F t soit
une distribution, i.e F est max-id.
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE37

Les notions de fonctions max-id et de fonctions max-stables sont beaucoup


utilisées dans l’analyse multivariée des valeurs extrêmes.

Dé…nition 2.1 (max-stabilité multivariée)


Une distribution multivariée G est max-stable si, pour tout t > 0; il existe
des fonctions multivariées (t) > 0 et (t) 2 R telles que

Gt (x) = G [ (t)x + (t)] = G [ 1 (t)x1 + 1 (t); :::; m (t)xm + m (t)] :

3.3 Dépendance extrême multivariée : mo-


dèles existants

Dans cette section les opérations sur les vecteurs sont e¤ectuées compo-
sante par composante. Par exemple :

Si x = (x1 ; x2 ) 2 R2 et 2 R; alors x = ( x1 ; x2 ) et +x =
( + x1 ; + x2 ) :
Si x = (x1 ; x2 ) et y = (y1 ; y2 ) 2 R2 ; alors xy = (x1 y1 ; x2 y2 ) et x + y =
(x1 + y1 ; x2 + y2 ) :
Pour tous x = (x1 ; :::; xm ) 2 Rm et y = (y1 ; :::; ym ) 2 Rm ; alors x < y
(respectivement x y) signi…e que xi < yi (respectivement xi yi ),
pour tout 1 i m:
max (x ; y) = (max (x1 ; y1 ) ; :::; max (xm ; ym )) ;
Un rectangle est noté ]a; b] tel que

]a; b] = fx 2 Rm =a < x bg = f(x1; :::; xm ) =ai < xi bi g :

La relation de dualité : min (Xi ) = max ( Xi ) reste valable en dimension


m.

Dans la sous-section 1 suivante, nous rappelons les principaux modèles ex-


trêmes multivariés. Ces modèles sont obtenus comme des lois asymptotiques
des lois des maxima convenablement normalisées de vecteurs aléatoires.
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE38

Dans la sous-section 2, nous faisons un survol des propriétés fondamen-


tales des di¤érentes mesures existantes, qui modélisent la dépendance conjointe,
en particulier pour la fonction de dépendance de Pickands et la fonction co-
pule. Ces deux structures, jouent en e¤et un grand rôle dans la nouvelle
approche de la modélisation de la dépendance.

Dans la section 3, nous introduisons une nouvelle approche dans la mo-


délisation de la dépendance conjointe. La particularité des structures issues
de cette approche est le fait qu’elles prennent en compte les éventuelles
contraintes imposées sur les supports de lois marginales.

3.3.1 Modèles paramétriques des extrêmes multivariés

L’analyse des VEM n’est pas une extension immédiate du cas univarié.
En e¤et, l’absence de norme naturelle et d’ordre total dans Rn ne permettent
pas de faire une comparaison systématique. Aussi, plusieurs approches ont
été considérées pour comparer les vecteurs. L’approche la plus partagée a
consisté à comparer les vecteurs, composante par composante.
Dans la pratique, on considère les valeurs extrêmes de données multiva-
riées de phénomènes climatiques ou de l’environnement. Par exemple, on fait
la collecte des données sur plusieurs sites et l’on s’intéresse au maximum de
vitesse de vent, de pluviométrie et de température sur chaque site.

a. Lois des extrêmes multivariés

Dans l’analyse des extrêmes multivariés, il est usuel d’étudier les vecteurs
des maxima et des minima pris composante par composante. On considère
un échantillon d’observations à m dimension f(Xn ) ; n 1g ou une famille de
n vecteurs aléatoires i.i.d fXk ; k = 1; 2; ::; mg tels que Xk = (Xk;1 ; :::; Xk;m )
2 Rm de distribution F. Dans ce cas, le vecteur du maximum est donné par :

Mn = (M1;n ; :::; Mm;n ) = max (Xj;1 ) ; :::; max (Xj;n ) :


1 j m 1 j m
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE39

De façon similaire, le vecteur des minima est dé…ni par :

Wn = (W1;n ; :::; Wm;n ) = min (Xj;1 ) ; :::; min (Xj;n ) .


1 j m 1 j m

Dé…nition 2.2 (Loi extrême multivariée)


Une fonction multivariée G est dite distribution des valeurs extrêmes as-
sociée à un échantillon, s’il existe des suites de vecteurs de normalisation

n = f( 1;n ; :::; m;n ) ; j;n > 0g et n = 1;n ; :::; m;n ; j;n 2R

telles que

M1;n Mm;n
9
G(x1 ; :::; xm ) = lim P 1;n
x1 ; :::; m;n
xm =
n7 !+1 1;n m;n
(3.7)
= lim F ( n
1;n x1 + 1;n ; :::; m;n xm + m;n )
;
n7 !+1

où les distributions marginales de la loi limite G sont non-dégénérées:

On dit que F appartient au max-domaine d’attraction multivarié de G.


De façon analogue, la loi extrême du minimum est représentée par
9
W1;n ~ 1;n Wm;n ~ m;n >
=
G(x1 ; :::; xm ) = lim P x1 ; :::; xm
n7 !+1 ~ 1;n ~ m;n
n >
;
= lim F (~ 1;n x1 + ~ 1;n ; :::; ~ m;n xm + ~ m;n )
n7 !+1

où f~ j;n > 0g et ~ n;j 2 R sont des coe¢ cients de normalisation appropriés,


les notations Ḡ et F̄ indiquant la fonction de survie des distributions G et F
respectivement.

Exemple 2.1
Soit X = f(X1 ; :::; Xm ) ; m 2g ; un vecteur aléatoire distribué suivant le
modèle multivarié de Pareto tel que, pour tous 1 et x = (x1 ; :::; xm ) > 0
P
tel que xi 1
1 i m
" #1
X
F (x) = 1 xi ; 1:
1 i m
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE40

Les coe¢ cients de normalisation sont tels que

1 1 1
i = Fi 1 = et i = h ( i ) = 0:
n n

On a :
0 0" # 1 11n
x 1@ X
P (Mn n x) = Fn = @1 xi AA :
n n 1 i m

Par suite, la loi extrême G associée est telle que


8 " #19
< X 1
=
G (x) = lim P (Mn n x) = exp x ; x 2 R:
n !+1 : i
; i
1 i m

C’est la loi logistique multivariée, avec pour paramètre ; le coe¢ cient de


corrélation entre les variables marginales Xi :

Remarques 2.3

1. Le maximum de chacune des m di¤érentes marges peut ne pas se pro-


duire avec di¤érents indices xi;1 ; :::; xi;m : Par conséquent, Mn n’est pas
nécessairement la valeur extrême d’un échantillon de la série.
2. Dans la pratique tous les vecteurs sont pris à taille égale au plus grand
vecteur, d’où le recyclage des plus courts suivant le besoin.

b. Propriétés des modèles extrêmes multivariés

Les deux résultats suivants démontrés respectivement dans voir [9]) et


dans [19] résument les propriétés essentielles des distributions des VEM

Proposition 2.3 (Propriétés d’une loi extrême)

i) Toute distribution des VEM est continue (car toutes les marges le sont).
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE41

ii) Les distributions marginales de G sont supposées non-dégénérées i.e

lim Fin ( n;i xi + n;i ) = Gi (xi ) ; 1 i m:


n7 !+1

iii) Toutes les marges d’une distribution des VEM sont du type extrême i.e.
8 8
> > 19 >
>
> < xi =
>
> i
< exp 1+ i i si i 6= 0
>
: i >
;
Gi (xi ) = + :
>
>
>
> xi
>
: exp exp i
si i = 0
i +

De plus si F 2 M DA (H) alors Fi 2 M DA (Hi ) :


iv) Toute distribution des VEM G est max-stable et max-id:

Le résultat suivant établit l’équivalence entre les distributions des VEM


et les distributions max-stables

Théorème 2.2
La classe des distributions extrêmes multivariées est précisément celle des
distributions max-stables avec des marges non dégénérées.

C’est la proposition 5.9 dans [19].

c. Domaine d’attraction multivarié

Comme dans le cas univarié, une distribution multivariée F appartient


au MDA d’une distribution des VEM G si et seulement si les conditions
de l’équation (2.7) sont véri…ées. Cette équation permet de caractériser la
classe de G et son domaine d’attraction i.e les critères que doit véri…er F
pour satisfaire à (2.6). La proposition suivante est la "version multivariée"
du théorème 1.6. Elle donne les propriétés du MDA d’une distribution des
VEM, voir [19]
Proposition 2.4
Soit F une distribution multivariée. Les résultats suivants sont équivalents
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE42

i) F 2 M DA(G)
Il existe des suites de vecteurs de normalisation

f n =( n;1 ; :::; n;m ); n;i > 0g et n = n;1 ; :::; n;m ; n;i 2R

telles que pour tout x = (x1 ; :::; xn ) 2 Rn ;


ii) lim F n ( nx + n) = G(x):
n !+1
Mn bn
iii) lim P x = G (x) :
n !+1 an
iv) lim nF ( n x + n ) = log G(x) avec lim G (x) = 0:
n !+1 n !+1

Les résultats suivants permettent de caractériser le MDA d’une distribu-


tion de marges de Fréchet unitaire. On obtient des résultats similaires lorsque
les marges sont de Weibull ou de Gumbel, voir [6].

Théorème 2.3 (Marges de Fréchet)


Soit H une distribution des extrêmes multivariés avec des marges Hi telles
que
1
Hi = i
; i = 1; :::; m et soit i (t) = Fi F1 (t) ; t 2 R:

Alors F 2 M DA (H) si et seulement si


1 F (tx1 ; 2 (t)x2 ; :::; m (t) xm )
lim = log H (x) ; H (x) > 0 (3.8)
t7 !+1 1 F1 (t)

Exemple 2.2 (Distribution de Pareto bivariée)


Considérons la distribution bivariée de Pareto de paramètres ( ; ) et dont
la fonction de survie est

x1 x2
P (X > (x1; x2 )) = F (x1; x2 ) = + 1 ; xi > i; i = 1; 2
1 2

où = ( 1;> 0 est le paramètre d’échelle. Ainsi, les deux distribu-


2)
xi
tions marginales F1 et F2 sont données par Fi (xi ) = pour i = 1; 2:
i
De plus les F i véri…ent
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE43

Fi 2 M DA ( ) ; i = 1; 2
F2 1 (t) = 2 t1= 1
1 2t
2 (t) = F2 F1 (t) =
1

Or d’après la remarque 2.2, pour tout (x1; x2 ) 2 R2 ;

1 F (x1; x2 ) = F1 (x1 ) + F2 (x2 ) F (x1; x2 )

Ainsi, on obtient

tx1 2 (t)x2 x1 2 (t)x2


1+ 1
+ 1+ 2 1
+ 2
1
lim
t7 !+1 t
1+ 1

tx1 t2 x2 x1 t2 x2
1+ 1
+ 1+ 1 1
+ 1
1
= lim
t7 !+1 t
1+ 1

( 1 + tx1 ) +( 1 + t2 x2 ) (tx1 + t2 x2 1)
= lim
t7 !+1 ( + t)
1

= x1 + x2 (x1 + x2 )

Par conséquent, la limite de la distribution bivariée de Pareto est donnée


par n o
G (x1 ; x2 ) = exp x1 + x2 (x1 + x2 ) :

Sa représentation graphique donne la courbe symétrique ci-dessus (FIG.


2.1)
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE44

Fig. 3.1 –Dribution bivariée de Pareto =2

3.3.2 Fonction de dépendance de Pickands

Dans l’analyse des extrêmes multivariés, l’ensemble des structures de dé-


pendance ne peut pas être résumé par une famille paramétrique de dimen-
sion …nie comme le fait la distribution GVE dans le cas univarié. Néanmoins,
lorsque les distributions marginales sont données, les distributions des ex-
trêmes multivariés sont caractérisées par une classe de fonctions convexes
telles que la fonction de dépendance de Pickands ([18]), la mesure exponen-
tielle ([6]), ou la fonction de dépendance de queue stable ([15]).

Considérons une distribution extrême multivariée avec pour marges, des


lois exponentielles de survie (donc appartenant au MDA de Weibull) i.e :

Gi (xi ) = G(0; 0; :::; xi ; 0; ::; 0) = exp( xi ); xi > 0:

De la propriété de max-stabilité de G, on déduit que

Mn n
Gn ( nx + n )= lim P x = G(x)
n7 !+1 n

Pickands [19] établit que la fonction G est de la forme


CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE45

Z
G(x) = exp min (q1 x1 ; :::; qm xm ) d(q) ; xi > 0
Sm 1

où Sm 1 est le simplexe unitaire de dimension m-1 dé…nie par


( )
X
m 1
Sm 1 = t = (t1 ; :::; tm 1 ) 2 [0; 1]m 1 = I m 1 ; ti 1 Rm 1 ;
i=1

Z
avec qi dq = 1; étant une mesure …nie dé…nie sur Sm 1 :
Sm 1

D’après la relation de dualité multivariée,

min (Xi ) = max ( Xi ) ; i = 1; :::; m;


1 i m 1 i m

il vient que
2 0 1 3
X Z
q x
G(x) = exp 4 xi max @ P1 1 ; :::; q m xm A
P d(q)5 ;
xi xi
1 i m Sm 1
1 i m 1 i m
1

Soit
2 0 1 3
6 X B q x1 qm x m C 7
G(x) = exp 4 xi A @ P1 ; :::; P A d(q)5 (3.9)
1 i m
x i x i
1 i m 1 i m

où A : Sm 1 ! [0; 1] ; est une fonction dé…nie telle que

Z " !#
X
A(t) = max q1 t1 ; :::; qm 1 tm 1 ; qm 1 ti d(q):
Sm 1 1 i m 1

Dé…nition 2.3

La fonction A est appelée fonction de dépendance de Pickands de la dis-


tribution des VEM G.
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE46

Les propriétés essentielles de AG sont résumées par Pickands ([18]) dans


le résultat suivant.

Proposition 2.5
La fonction de dépendance de Pickands véri…e les propriétés suivantes

A est continue et convexe.


1
8t 2 Sm 1 ; on a A (t) 1:
m
1 1
Si A est symétrique alors min A (t) = A ; :::; :
t2Sm 1 m m
Si A (t) 1 alors les marges de G sont indépendantes.
!
X
Si A (t) max t1 ; :::; tm 1 ; 1 ti alors la dépendance de G est
1 i m 1
complète.

Dans le cas bivarié la relation (2.9) équivaut à


x1
G(x1 ; x2 ) = exp (x1 + x2 ) A ; x 1 ; x2 0 (3.10)
x1 + x2 1

Remarque 2.3
La fonction de dépendance d’une distribution extrême multivariée n’est pas
liée au type de marge considérée. Pour une marge de Fréchet, par exemple,
la relation (2.10) précédente équivaut à
1 1 x2
G(x1 ; x2 ) = exp + A ; x 1 ; x2 0
x1 x2 x1 + x2 1
Exemple 2.3 : Cas du modèle logistique

La famille paramétrique extrême la plus utilisée est le modèle logistique


multivarié (ou loi de Gumbel). Elle provient d’une normalisation asympto-
tique de la loi de Pareto et sa forme générale est :
8 9
> 2 31 >
>
< X
i=m >
=
4 xi i i
5
G (x1 ; :::; xm ) = exp 1 i ; xi > 0; > 1:
>
> i >
>
: i=1 + ;
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE47

où f i 2 Rg ; f i 2 Rg et f i > 0g sont les paramètres de la loi marginale


Xi :

Les limites ! 1 et ! +1 correspondent respectivement au cas


indépendant et au cas de dépendance complète. La fonction de Pickands cor-
respondante est donnée par
2 ! 31
X1
m X1
m
A (t) = 4 ti + 1 ti 5 ; t 2 Sm 1 :
i=1 i=1

h i1
Dans le cas bivarié, on a : A (t) = t + (1 t) ; dé…nie sur le sim-
plexe
S2 = t = (t1 ; t2 ) 2 [0; 1]2 ; t1 + t2 = 1 :

L’annexe B donne les fonctions de Pickands des principales familles pa-


ramétriques des structures (copules et distributions) extrêmes multivariées.

3.3.3 Modélisation de dépendance par la copule

Dans l’étude de la dépendance multivariée, bivariée en particulier, l’outil


traditionnel de mesure est le coe¢ cient de corrélation linéaire de Bravais-
Pearson. Il faut noter cependant que cet outil de dépendance comporte
quelques insu¢ sances dans la pratique :

- les moments d’ordre 2 doivent être …nis pour que ce coe¢ cient soit
dé…ni.

- il n’intègre que la dépendance linéaire (rare en …nance et environne-


ment).

- une corrélation nulle n’implique pas nécessairement l’indépendance.

- le cadre de travail est gaussien (restriction sur la structure de dépen-


dance).
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE48

Pour remédier à cela, on a recours à d’autres indicateurs statistiques non


linéaires et non paramétriques telles que la mesure de concordance, le tau
de Kendall, le rho de Spearman (voir Annexe B). Mais ces indicateurs ne
permettent pas de modéliser la dépendance par une fonction dans l’estima-
tion de la dépendance. C’est ce vide que vient combler la fonction copule, un
outil relativement innovant dans la modélisation de la dépendance multiva-
riée. En e¤et, la fonction copule est une paramétrisation qui contient toute
l’information sur la structure de dépendance du modèle et qui permet

- de modéliser la dépendance, indépendamment des lois marginales,


- de prendre en compte certains faits en …nance et en environnement (lep-
tokurticité, asymétrie, dépendance des queues),
- de rester invariant sous des transformations strictement monotones des
marges
- de permettre une décomposition de la loi multivariée en ses distributions
marginales univariées et en une fonction de dépendance, rendant pos-
sibles des extensions naturelles de certains résultats obtenus dans le cas
univarié.

Par ailleurs, les distributions multidimensionnelles obtenues par l’outil


copule sont davantage en adéquation avec la réalité.

Dé…nition 2.4 (voir [3])


On appelle copule n-dimensionnelle (ou fonction copule d’ordre n) toute
fonction C dé…nie sur le cube unité I n = [0; 1]n ; n 1 à valeurs dans I telle
que

i) 8 (u1 ; :::; un ) 2 I n ; C(u1 ; :::; ui 1 ; 0; ui+1 ; :::; un ) = 0


ii) 8 (u1 ; :::; un ) 2 I n ; C(1; ::; 1; ui ; 1; :::; 1) = ui
(1) (1) (2) (2) (1) (2)
iii) Si u1 ; :::; un 2 I n et u1 ; :::; un 2 I n avec uj uj
P
n
P ij
(i ) (i )
alors ( 1) j=1 C u1 1 ; :::; un n 0:
n
(i1 ;:::;in )2f1;2g
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE49

En particulier, une copule bivariée C est dé…nie sur le carré unité I2 par

C(u1 ; 0) = C(0; u2 ) = 0 pour tout (u1 ; u2 ) 2 I 2


C(u1 ; 1) = u1 et C(1; u2 ) = u2 ; (u1 ; u2 ) 2 I 2
C(u01 ; u02 ) C(u01 ; u2 ) C(u1 ; u02 ) + C(u1 ; u2 ) 0
où (u1 ; u2 ) 2 I 2 ; (u01 ; u02 ) 2 I 2 avec u1 u01 ; u2 u02

Interprétations de la dé…nition

Les propriétés (i) et (ii) signi…ent que toute copule est une distribution
dont chaque distribution marginale dé…nit une loi uniforme unitaire: En e¤et,
d’après le lemme 1.1 et la remarque 1.2, on peut considérer une loi multivariée
F = (F1 ; :::; Fn ) telle que

C(u1 ; :::; un ) = F F1 1 (u1 ) ; :::; Fn 1 (un ) ; (u1 ; :::; un ) 2 I n :

Dans ce cas, la propriété i) vient du fait que, pour tout (x1 ; :::; xn ) 2 Rn ,

C(u1 ; :::ui 1 ; 0; ui+1 ::; un ) = F (x1 ; :::; xi 1 ; 1; xi+1 ; :::; xn ) = 0:

Et ii) vient du fait que

1
C(1; :::; 1; ui ; 1; :::; 1) = F +1; :::; +1; Fi (ui ) ; +1; :::; +1
1
= Fi Fi (ui ) = ui avec ui 2 Fi R

La propriété (iii) est la version "distribution uniforme" de l’inégalité


du hyperectangle (2.1) que doit véri…er toute loi multivariée. Elle traduit en
particulier le fait que la densité de la copule (qui existe presque partout sur
In ) est toujours positive :
@ n C (u1 ; :::; un )
c (u1 ; :::; un ) = 0; (u1 ; :::; un ) 2 I n :
@u1 :::@un
Et si en particulier, la copule est absolument continue, alors on a
Z u1 Z un n
@ C (t1 ; :::; tn )
C (u1 ; :::; un ) = ::: dt1 :::dtn :
0 0 @t1 :::@tn
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE50

L’outil fondamental de l’analyse des copules est le théorème de Sklar,


voir [21]) ou [17]. Il établit le lien entre la dé…nition formelle ci-dessus des
copules et les variables aléatoires, permettant ainsi leur application dans la
modélisation statistique.

Théorème 2.4 (Théorème de Sklar)


Soit H une distribution m-dimensionnelle de lois marginales H1 ; ::::; Hm .
Alors, il existe une copule C telle que, pour tout x = (x1 ; :::; xm ) 2 Rm où
R = R [ f 1g

H(x1 ; :::; xm ) = C[H1 (x1 ); :::; Hm (xm )]: (3.11)

Si les lois marginales H1 ; ::::; Hm sont toutes continues, alors la copule C est
unique et dé…nie, pour tout (u1 ; :::; un ) 2 I n ; par

C(u1 ; :::; um ) = H[H1 1 (u1 ); :::; Hm1 (um )]:

Corollaire 2.1 Si le vecteur (X1 ; :::; Xm ) admet la distribution H de lois


marginales H1 ; ::::; Hm et de copule C, alors C est la distribution du vecteur
(F1 (X1 ) ; ; :::; Fm (Xm )):

Si de plus la distribution H est absolument continue, alors sa fonction


densité de probabilité h est donnée, pour tout x = (x1 ; :::; xm ) 2 Rm , par

@ n C (H1 (x1 ); :::; Hm (xm ))


h(x) = = c(H1 (x1 ); :::; Hm (xm ))h1 (x1 ):::hm (xm )
@x1 :::@xm

où c est la densité de la copule dé…nie, pour tout (u1 ; :::; un ) 2 I m ; par

h H1 1 (u1 ); :::; Hm1 (um )


c(u1 ; :::; um ) = : (3.12)
h1 H1 1 (u1 ); :::; hm (Hm1 (um ))

L’un des résultats essentiels dans la théorie des copules est le fait qu’elles
restent invariantes par transformations strictement croissantes des marges
(cf. [17]).
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE51

Théorème 2.5 (Invariance)


Soit (X1 ; :::; Xm ) un vecteur aléatoire dont la loi admet la copule C.
Soit f1 ; :::; fm des fonctions strictement croissantes, alors la loi du vecteur
(f1 (X1 ) ; ; :::; fm (Xm )) admet C pour copule.

Cas particulier des copules des valeurs extrêmes

Il existe plusieurs familles de copules. Vu le fait que dans ce travail, nous


nous intéressons à la modélisation des valeurs extrêmes multivariées, nous
nous limiterons, dans cette section à la dé…nition et à la caractérisation des
copules des valeurs extrêmes. D’autres familles paramétriques multivariées
régulièrement utilisées, sont résumées dans l’annexe A (voir aussi [11]).

Dé…nition 2.5
On appelle copule de valeurs extrêmes, toute copule C est telle que, pour
tout t > 0

1
C(u1 ; :::; un ) = C t (ut1 ; :::; utn ):

L’appellation de ces copules s’explique par le fait que les distributions


associées à ces copules par le théorème de Sklar sont des modèles extrêmes
multivariés (propriété de max-stabilité). Par conséquent, toute copule des
valeurs extrêmes peut être caractérisée par les mesures de dépendance as-
sociées à sa distribution. En particulier, on a le résultat suivant, voir [6] ou
[7] :
Théorème 2.6
Pour toute copule des extrêmes multivariés, il existe une fonction convexe
1
A dé…nie du simplexe unitaire Sm 1 dans n
;1 telle que, pour tout (u1 ; :::; un ) 2
n
I ;
( ! )
X
n
C (u1 ; :::; un ) = exp log ui A Pnlog u1 ; :::; Plog
n
um 1
: (3.13)
i=1 log ui i=1 log ui
i=1
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE52

où A est la fonction de dépendance de Pickands de la copule C.

Par exemple, la copule associée au modèle logistique est la copule de


Gumbel dé…nie par
( 1
)
P
C (u1 ; :::; un ) = exp ( ln ui ) ; (u1 ; :::; un ) 2 I n ; 0:
1 i n

Cette copule présente l’avantage de mesurer la dépendance extrême (des


événements les plus rares).

3.4 Approche conditionnelle de la dépendance


extrême multivariée

Dans la section précédente la dépendance conjointe d’une loi extrême


multivariée a été décrite par une classe de mesures équivalentes dont la fonc-
tion de dépendance de Pickands. Dans cette section, nous introduisons une
approche conditionnelle pour caractériser cette dépendance pour toute distri-
bution multivariée de façon générale, et pour les modèles des valeurs extrêmes
généralisées en particulier.

3.4.1 Mesure conditionnelle de la dépendance multi-


variée

a. Partition orientée d’un vecteur aléatoire

Soient deux entiers naturels n et k tels que n 2 et 1 k < n et Nk


un sous-ensemble propre donné, à k éléments, de l’ensemble des n premiers
entiers naturels N = f1; :::; ng.

Dé…nition 2.6
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE53

On appelle partition d’un vecteur aléatoire X = (X1 ; :::; Xn ) dans la di-


rection de Nk (ou la N k -partition de X), le couple de vecteurs aléatoires
(X~N ; X
~ N ) telle que
k k

i) X̃ Nk = (XNk ;1 ; :::; XNk ;k ) est le vecteur marginal de X à k composantes


dont les indices sont ordonnés dans le sous-ensemble N k :
ii) X̃ Nk = XNk ;1 ; :::; XNk ;n k est le vecteur marginal de X à (n k)
composantes dont les indices sont ordonnés dans le sous-ensemble Nk
= CNNk , le complémentaire de Nk dans N.

De façon similaire, toute réalisation x = (x1 ; :::; xn ) de X peut être parti-


tionnée en deux x~Nk et x~Nk tels que

x~Nk = xNk ;1 ; :::; xNk ;k 2 Rk et x~N = xN ;1 ; :::; xN 2 Rn k


k k k ;n k

~ N et X
sont respectivement les réalisations de vecteurs marginaux X ~ N de
k k

X.

Par ailleurs, en notant H, HNk et HNk les fonctions de distribution respec-


tives des vecteurs X; XNk et XN alors, pour toute réalisation x = (x1 ; :::; xn )
k

de X, on obtient :

x Nk ) =
HNk (~ lim H(x) et HNk x~N = lim H(x)
x
~N x
!~ k x x
~N !~
k Nk k Nk


x~N = xNk ;1 ; :::; xN ;k et x~N = xNk ;1 ; :::; xNk ;n k
k k k

représentent respectivement les points terminaux droits des distributions


HNk et HNk ; xNk ;i les composantes xNk ;j pouvant être +1.

b. Degré de discordance d’une distribution multivariée

Rappelons que deux observations (x1; y1 ) et (x2 ; y2 ) d’un couple de va-


riables aléatoires continues (X, Y) sont dites discordantes si

(x1 x2 ) (y1 y2 ) < 0 i:e fx1 < x2 et y1 > y2 g ou fx1 > x2 et y1 < y2 g
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE54
n o
~=
De façon similaire, pour une Nk -partition X ~N ; X
X ~N ; 1 k < n; n 2
k k

associé à un vecteur aléatoire X = (X1 ; :::; Xn ), introduisons la notion de de-


gré de discordance comme suit.

Dé…nition 2.7 (Degré de discordance)

On dé…nit le Nk -degré supérieur de discordance de X (ou de sa distribu-


+
tion H ) par la probabilité conditionnelle notée Nk ;X telle que

+ ~ N > x~N =X
~N x~Nk ); x = (x1 ; :::; xn ) 2 Rn :
Nk ;X (x) = P (X k k k

De même, le Nk -degré inférieur de discordance de X est dé…nie par

~N ~ N > x~N ); x = (x1 ; :::; xn ) 2 Rn


Nk ;X (x) = P (X k
x~Nk =X k k

Si H et C désignent respectivement la fonction de distribution et la copule


associées au vecteur X, on obtient les notations équivalentes suivantes :

Nk ;X Nk ;H Nk ;C :

Cas particulier bivarié

Pour toute paire de variables aléatoires (X1 ; X2 ) ; il existe quatre degrés


de discordance dé…nis par les probabilités conditionnelles :

P (X1 > x1 =X2 x2 ) et P (X2 > x2 =X1 x1 ) ; degres superieurs

et

P (X1 x1 =X2 > x2 ) et P (X2 x2 =X1 > x1 ) ; degrés inférieurs.

+
En notant 1;1 (x1 ; x2 ) le degré de discordance dé…ni, pour tout (x1 ; x2 ) 2
R2 par
+
1;1 (x1 ; x2 ) = P (X1 > x1 =X2 x2 ) ;
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE55

il vient que
P (X1 > x1 ; X2 x2 ) P (X1 x1 ; X2 x2 )
P (X1 > x1 =X2 x2 ) = =1 :
P (X2 x2 ) P (X2 x2 )

Soit H est la distribution conjointe de (X1 ; X2 ) de marges H1 et H2 ; alors


on a
+
1;1 (x1 ; x2 ) =1 H(x1 ; x2 )H2 1 (x2 ); (x1 ; x2 ) 2 R2 ;

où H2 1 (x2 ) > 0 est le nombre inverse de H2 (x2 ) :

Plus généralement, on véri…e que les quatre degrés de discordance de


(X1 ; X2 ) que nous noterons simplement 1;i ; i = 1; 2; sont donnés, pour tout
(x1 ; x2 ) 2 R2 par :
9
+
1;1 (x1 ; x2 ) = P (X1 > x1 =X2 x2 ) = 1 H(x1 ; x2 )H2 1 (x2 ) >
>
>
>
>
>
>
>
>
>
1;1 (x1 ; x2 ) = P (X1 x1 =X2 > x2 ) = 1 H(x1 ; x2 )H2 (x2 ) >
1
>
>
=
(3.14)
>
+
1;2 (x1 ; x2 ) = P (X2 > x2 =X1 x1 ) = 1 H(x1 ; x2 )H1 (x1 ) >
1 >
>
>
>
>
>
>
>
>
>
1;2 (x1 ; x2 ) = P (X2 x2 =X1 > x1 ) = 1 H(x1 ; x2 )H1 (x1 ) >
1
;

où Hi désigne la fonction de survie de la distribution marginale univariée


Hi et H; dé…nie par la remarque 2.2 telle que

H(x1 ; x2 ) = 1 H1 (x1 ) H2 (x2 ) + H (x1 ; x2 ) ; (x1 ; x2 ) 2 R2 :

c. Degré médian de discordance multivariée

Pour toute distribution multivariée H de marges fHi ; i = 1; :::; mg dé…-


nissons le "point médian" de H, noté Me;H tel que
1
Me;H = (Me;H1 ;:::; Me;Hm ) ou Hi (Me;Hi ) = :
2
Cela nous permet d’introduire la notion de discordance médiane comme suit:
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE56

Dé…nition 2.8 (Degré médian de discordance)


Soit H la fonction de distribution associée à un vecteur aléatoire X. On
appelle Nk -degré médian de discordance supérieure de X (ou de H) le nombre
+
réel, noté ~ tel que
Nk ;H

~+ + + 1 1
Nk ;H = Nk ;H (Me;H ) = Nk ;H H1 1 ; :::; Hn 1 : (3.15)
2 2

Si C est la copule associée à H (par le théorème de Sklar), on véri…e


aisément que l’égalité (2.15) équivaut à

1
~+ + 1 1 1 1
Nk ;H = Nk ;C (Me;X ) = 1 C ; :::; CHNk ; :::; ;
2 2 2 2
où CHNk est la copule associée à la distribution HNk du vecteur marginal
XNk :
Le Nk -degré médian de discordance inférieure est dé…ni similairement.

Remarquons que dans le cas bivarié, les quatre degrés de discordance dé-
…nis par la relation (2.14) sont liés les uns aux autres par des transformations
fonctionnelles. Par exemple, pour tout (x1 ; x2 ) 2 R2 avec H2 1 (x2 ) > 0; on
véri…e aisément que :
+ +
1;1 (x1 ; x2 ) =1 1 1;2 (x1 ; x2 ) H1 (x1 )H2 1 (x2 ):

Par conséquent, dans toute la suite du travail, on se limitera au premier


+
degré 1;1 que nous appellerons le "degré de discordance" de X1 et noté X1

ou simplement :

Exemple 2.3
Soit X = (X1 ; X2 ; X3 ) un vecteur aléatoire tridimensionnel. En considé-
rant N 2 = f1; 3g ; le N 2 -degré de discordance inférieure de X est donné, pour
(x1 ; x2 ; x3 ) 2 R3 ; par

N2 (x1 ; x2 ; x3 ) = P (X1 x1 ; X3 x3 =X2 > x2 ) :


CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE57

Particulièrement, si la distribution H de X est continue, on véri…e que :

+
N2 (x1 ; x2 ; x3 ) = [H1;3 (x1 ; x3 ) H(x1 ; x2 ; x3 )] H2 1 (x2 ) ; (x1 ; x2 ; x3 ) 2 R3 ;

où H2 > 0 et H1;3 sont les distributions respectives des vecteurs marginaux


X2 et (X1 ; X3 ) et H2 1 ; l’ inverse généralisé de la fonction de survie H2 :
Supposons de plus que H est la loi conjointe des marges uniformes sur ]0; 1]
telle que
h i1
H (x1 ; x2 ; x3 ) = exp ( ln x1 ) + ( ln x2 ) + ( ln x3 ) ; >0

On établit que
1 1 1
N2 ; ; = 0:0062:
2 2 2
1
Pour ce modèle, la probabilité que les marges X1 et X3 n’excèdent pas
2
1
pendant que la valeur prise par X2 excède est de 0:0062:
2

3.4.2 Une propriété de la discordance bivariée

Les trois théorèmes suivants sont des résultats de ce travail. Enonçons


d’abord la proposition technique suivante, prouvée dans Resnick ([19]) et
intervenant dans la démonstration du théorème 2.7.

Proposition 2.5

Soit H une fonction de distribution continue dé…nie sur R2 , de fonction


de densité h. Alors H est max-id si et seulement si, pour tout (x1 ; x2 ) 2 R2 ,
on a
@H(x1 ; x2 ) @H(x1 ; x2 )
h(x1 ; x2 )H(x1 ; x2 ): (3.16)
@x @y
Le théorème 2.7 ci-dessous donne la max-in…niment divisibilité d’une
distribution bivariée sous une certaine hypothèse faite sur son degré de dis-
cordance.
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE58

Théorème 2.7
Soit H la fonction de distribution d’un couple de variables aléatoires (X1 ; X2 )
de copule C. Si le degré de discordance C (x1 ; x2 ) de C est croissante par rap-
port à la deuxième variable x 2 , alors H est max-id.

Démonstration. La fonction C (x1 ; x2 ) étant croissante par rapport à x2


par hypothèse, alors pour tout (x1 ; x2 ) 2 R2 et pour tout " > 0; on a

C (x1 ; x2 ) C (x1 ; x2 + "): (3.17)

Par ailleurs, pour tout (x1 ; x2 ) 2 R2 et " > 0,

C (x1 + "; x2 ) = P (X1 > x1 =X2 x2 ) P [(x1 < X1 < x1 + ") =X2 x2 ]

Il vient alors que, pour tout (x1 ; x2 ) 2 R2 et " > 0; on a

C (x1 + "; x2 ) C (x1 ; x2 ) : (3.18)

En utilisant à la fois les équations (2.17) et (2.18), on établit que la fonc-


tion C véri…e l’inégalité du rectangle (2.2) i.e , pour tout (x1 ; x2 ) 2 R2 et
(x01 ; x02 ) 2 R2 véri…ant (2.3), on a

C (x1 ; x2 ) C (x01 ; x2 ) 0
C (x1 ; x2 ) C (x01 ; x02 ) 0: (3.19)

Par suite, la relation (2.19) implique que

[1 C (x1 ; x2 )] [1 C (x01 ; x02 )] [1 0


C (x1 ; x2 )] [1 C (x01 ; x2 )] (3.20)

Par ailleurs, à partir de l’égalité (2.14), on peut écrire que

H (x1 ; x2 ) = [1 C (x1 ; x2 )] H2 (x2 ) ; (x1 ; x2 ) 2 R2 :

Ainsi, en multipliant les deux membres de (2.20) par le terme H2 (x2 ) H2 (x02 )
0; on établit que H est TP2 ; i.e pour tout (x1 ; x2 ) 2 R2 et (x01 ; x02 ) 2 R2 véri-
…ant (2.3),
H(x1 ; x2 )H(x01 ; x02 ) H(x01 ; x2 )H(x1 ; x02 ): (3.21)
On conclut …nalement que H est max-in…niment divisible sur R2 car Joe a
établi (dans [13]) que la relation (2.20) implique (2.16) de la propriété ci-
dessus
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE59

3.4.3 Fonction de discordance d’une loi extrême

Le théorème 2.8 suivant établit que la loi marginale d’une partition orien-
tée d’une distribution des VEM reste toujours une distribution des VEM.

Théorème 2.8
Supposons qu’il existe une distribution des VEM G qui décrit le compor-
tement asymptotique des maxima convenablement normalisés d’un vecteur
X. Alors, il existe une distribution des VEM k-dimensionnelle, G k et une
distribution VEM (n-k)-dimensionnelle, G n k décrivant respectivement les
comportements asymptotiques des maxima des vecteurs marginaux X̃ Nk et
X̃ Nk de X : De plus les distributions G k et G n k sont des marges de G.

Démonstration. Soient et les vecteurs de normalisation associés au


vecteur des blocs des maxima M = (M1 ; :::; Mn ) tels que

= f( 1 ; :::; n ); j > 0g et = ( 1; :::; n ); 2 R ;1 j m:

Comme G est la loi asymptotique d’une normalisation convenable de M,


alors d’après (2:7), pour tout x = (xNk ; xN ) 2 Rm ; on a
k

GNk (xNk ) = lim G(x)


xN !x
k Nk

Mn1 bn1 Mnm bnm


= lim lim P x1 ; :::; xm
xN !x
k Nk
n !+1 an1 anm

où xN = xNk ;1 ; :::; xNk ;n k


est le point terminal droit de la distribution
k
marginal GNk :
Par suite,
" #
Mn1 bn1 Mn1 bn1
G N k x Nk = lim lim P x1 ; :::; xm :
n !+1 xN !x
k Nk
an1 an1

Cela implique que :


!
MNk ;1 bNk ;1 MNk ;k MNk ;k
GNk (xNk ) = lim P xNk ;1 ; :::; xNk ;k
n !+1 aNk ;1 aNk ;k
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE60

Par conséquent, il existe des suites de vecteurs de normalisation


n o n o
aNk = (aNk ;1 ; :::; aNk ;k ); aNk ;j > 0 et bNk = (bNk ;1 ; :::; bNk ;k ); bNk ;j 2 R

tels que le bloc marginal de maxima MNk = (MNk ;1 ; :::; MNk ;k ) de XNk
converge vers GNk selon la relation (2.7). Ainsi, la distribution marginale
GNk est un modèle des VEM k-dimensionnelle.

De façon similaire, on établit l’existence de vecteurs appropriés aNk ;1 et


bNk ;1 d’une normalisation du vecteur marginal complémentaire des blocs des
maxima marginaux MNk = MNk ;1 ; :::; MNk ;k de loi asymptotique GNk : On
conclut en remplaçant simplement GNk et GNk respectivement par les nota-
tions Gn k et Gk :

Quant au théorème 2.9 suivant, il permet de caractériser le degré de dis-


+
cordance N1 noté d’une distribution des VEM par une fonction de dépen-
dance dé…nie sur le simplexe unitaire.

Théorème 2.9
Soit G une distribution des VEM de degré de discordance : Alors, il
existe une fonction convexe D dé…nie sur le simplexe unitaire de Rm 1
telle
que
8 0 19
>
> >
>
>
>( m ) B C>>
< X B y1 (x1 ) ym 1 (xm 1 ) C =
(x) = 1 exp B
yi (xi ) D B m ; :::; m C (3.22)
C>
>
>
> i=1 @X X A>>
>
: yi (xi ) yi (xi ) >
;
i=1 i=1

où x = (x1 ; :::; xm ) 2 Rm et les yi véri…ent la relation

1
xi i i
yi (xi ) = 1 + i ; i = 1; :::; m: (3.23)
i +

La fonction D est appelée fonction de discordance de G ou de son corres-


pondant MGP H.
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE61

Démonstration. Supposons que les distributions marginales univariées Gi


de G sont de la forme générale : Gi (xi ) = exp f yi (xi )g ou les yi (xi ) véri-
…ent la relation (2.23) ci-dessus. Pour tout (x1 ; :::; xn ) 2 Rn ; on a

P (X1 x1 ; :::; Xn xn )
(x1 ; :::; xn ) = P (X1 > x1 =Xi xi ; 2 i n) = 1 :
P (X2 x2 ; :::; Xn xn )

Par conséquent si GN1 représente la distribution du vecteur marginal fXi ; 2 i ng,


pour tout (x1 ; :::; xn ) 2 Rn on a :

G (x1 ; :::; xn )
(x1 ; :::; xn ) = 1
GN1 (x2 ; :::; xn )

D’autre part, d’après le théorème (2.8) la distribution GN1 est de la famille


des VEM. Notons alors A et AN1 les fonctions de dépendance de Pickands
respectives de G et de GN1 :
8 0 1 0 19
G (x1 ; :::; xn ) <Xm X
m =
= exp @
yi A Py1
m
ym 1 A
;:::; Pm + @
y i AN 1 Py2
m
ym 1 A
;:::; Pm
GN1 (x2 ; :::; xn ) : yi yi yi yi ;
i =1 i=1 i=1 i=2 i=2 i=2

yj
En posant tj = P
m dans la relation ci-dessus, on véri…e que
yi
i=1

X
m
0 < tj < 1; j = 1; ::; m et tj = 1:
i=1

Par suite,
0 1
B y2 ym 1 C t2 tm 1
AN 1 B
@Pm ;:::; Pm
C = AN
A 1
;:::;
1 t1 1 t1
yi yi
i=2 i=2

soit
( m )
G (x1 ; :::; xn ) X h i
= exp yi A (t1 ; : : : ; tm 1 ) + (1 t1 ) AN1 t2
1 t1
; : : : ; t1m t11
GN1 (x2 ; :::; xn )
( i=1 )
X m
= exp yi D (t1 ; : : : ; tm 1 ) ;
i=1
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE62

où D la fonction convexe dé…nie du simplexe unitaire pour tout


t 2 Sm 1 par

t2 tm 1
D(t) = A (t1 ; : : : ; tm 1 ) + (1 t1 ) AN1 ;:::; :
1 t1 1 t1

En considérant la cas particulier d’une distribution des VEM avec des


marges unitaires de Gumbel :

Gi (xi ) = exp ( exp ( xi )) ; i = 1; :::; m avec xi > 0

le théorème (2.9) donne le résultat suivant.

Corollaire 2.1

Soit G une distribution des VEM de marges unitaires de Gumbel. Alors


le degré médian de discordance ~G de G est donné par
1 1
~G = N1 ;G =1 (ln 2)nD( n ;:::; n )

Par exemple, en considérant le modèle logistique trivarié (ou loi de Gum-


bel) dé…ni, pour tout (x1 ; x2 ; x3 ) 2 R3 ; par
n 1o
G (x1 ; x2 ; x3 ) = exp y1 (x1 ) + y2 (x2 ) + y3 (x3 ) ; >1

où yi (xi ) véri…e (2:23) ; la fonction de discordance D est dé…nie pour tout


t 2 S2 ; par
h i1 h i1
D (t1 ; t2 ) = t1 + t2 + (1 t1 t2 ) t2 + (1 t2 ) :

Dans ce cas, le degré médian est donné par


1 1
~G = 1 (ln 2)3D ( 3 ; 3 ) ; > 1

En particulier, pour le choix arbitraire de = 2, on obtient ~G = 0; 864 et


la courbe ci-dessous donne la forme de la fonction de discordance.
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE63

Fig. 3.2 –Courbe de la discordance de Gumbel pour = 2:

Le résultat suivant est la version "copule bivariée" du théorème 2.3.

Corollaire 2.2
Soit C une copule extrême bivariée de degré de discordance C: Alors il
1
existe une fonction dé…nie de R+ dans 2
;1 telle que, pour tout (x1 ; x2 ) 2
2
R où yi (xi ) véri…ant (2.23)
y2 (x2 )
C (x1 ; x2 ) =1 exp [y1 (x1 ) + y2 (x2 )] DC : (3.24)
y1 (x1 )

Démonstration. Supposons que les marges associées à la distribution de la


copule sont de type généralisé, i.e pour tout xi 2 R; i = 1; :::; m:
8 1
9
< xi i
=
i
Hi (xi ) = exp f yi (xi )g = exp 1+ i :
: i +
;

Le théorème 2.6 implique que


u~1
C(u1 ; u2 ) = exp (~
u1 + u~2 ) A
u~1 + u~2
où h i
i
u~i = i 1 ( ln ui ) i
= Hi 1 (ui ) ; i = 1; 2:
i
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE64

1
et les Hi désignent les inverses généralisées des Hi , les marges de H: Or
d’autre part, d’après le théorème de Sklar, on a

C(u1 ; u2 ) = H H1 1 (u1 ); H2 1 (u2 ; (u1 ; u2 ) 2 I 2 :

Par suite, il vient que toute distribution bivariée H dans la relation (2.24) de
marges Hi (xi ) est exprimée par
y1 (x1 )
H(x1 ; x2 ) = exp [y1 (x1 ) + y2 (x2 )] AC ; (x1 ; x2 ) 2 R2
y1(x1 ) + y2 (x2 )
où AC est la fonction de dépendance de Pickands de C. Finalement, le théo-
1
rème 2.9 implique l’existence d’une fonction DC dé…nie de R+ dans ;1
2
telle que
1 t
DC (t) = AC ; t > 0:
1+t 1+t

Exemple 2.4
Soit C 1; 2 la copule associée à la distribution extrême mixte de Tajvidi
( [22]) telle que
n 1 o
C 1; 2 (u1 ; u2 ) = u1 u2 exp 2 u~1 1
+ u~2 1 1 ; (u1 ; u2 ) 2 I 2

avec 1 0 et 0 < 2 1 où u~i = ln ui , alors la fonction de discordance


associée est donnée par
1 h 1 i
B 1; 2 (t) = 1 2 1+t 1 1 ; t > 0:
1+t

Plus généralement, les tableaux 2, 3 et 4 de la sous-section suivante


donnent les fonctions de discordance des principales familles paramétriques
de copules extrêmes bivariées. La fonction de discordance permet de carac-
tériser toute copule extrême bivariée.

Corollaire 2.3
Soit C la copule associée à une distribution extrême bivariée continue
H, de fonction de discordance B C . Alors la copule C véri…e les propriétés
suivantes :
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE65

ln u2
i) C(u1 ; u2 ) = u2 exp ln (u1 u2 ) DC ; 0 < u1 1; u2 2 I
ln u1
~ est une distribution bivariée telle que H
ii) Si H ~ 2 M DA (H) ; alors C
CH~

Démonstration. i) Associons à H des marges Hi de la forme généralisée :


( 1
)
xi i i
Hi (xi ) = exp 1+ i ; i = 1; 2
i +

D’après le théorème précédent on a

H (x1 ; x2 ) = CH [H1 (x1 ); H2 (x2 )] ; (x1 ; x2 ) 2 R2

et
C(u1 ; u2 ) = H H1 1 (u1 ); H2 1 (u2 ; (u1 ; u2 ) 2 I 2

où h i
i
u~i = Hi 1 (ui ) = i 1 ( ln ui ) i
; i = 1; 2:
i

Notons par ailleurs que les relations (2.22) et (2.24) signi…ent en particu-
lier que la fonction de discordance est indépendante du choix de la distribu-
tion marginale. Cela nous autorise donc à choisir une loi quelconque parmi
les types extrêmes : 1 ; et 1 . Par exemple un choix arbitraire
i i

Hi i:e i = ln ui ; i = 0 et i =1

conduit à
C(u1 ; u2 ) = C( ln u1 ; ln u2 ):

On conclut alors en exprimant la fonction de dépendance de Pickands AC de


la copule C en fonction de sa fonction de discordance DC .

ii) Puisque la copule C est associée à H par le théorème de Sklar, alors

C(u1 ; u2 ) = lim H n H1 1 (~
u1 ) ; H2 1 (~
u2 ) ; (u1 ; u2 ) 2 I 2 :
n !+1
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE66

~ i les distributions marginales de H,


De plus, soit H ~ i = 1; 2; alors,
h i
~ 1 ; x2 ) = C ~ H
H(x ~ 1 (x1 ); H
~ 2 (x2 ) ; (x1 ; x2 ) 2 R2 :
H

~ 2 M DA (H) implique qu’il existe des suites de normalisation


Par ailleurs H
f i;n > 0g et i;n 2 R ; i = 1; 2 telles que, pour tout (x1 ; x2 ) 2 R2 ;

~n
lim H 1;n x1 + 1;n ; 2;n x2 + 2;n = H(x1 ; x2 ):
n !+1

Cela implique que

n
lim CH ~
~ H1 n;1 x1 + n;1
~2
;H n;2 x2 + n;2 = C [H1 (x1 ); H2 (x2 )]
n !+1

Par suite,

~n
lim CH~ H n;1 x1 + n;1
~n
;H n;2 x2 + n;2 = CH [H1 (x1 ); H2 (x2 )]
1 2
n !+1

Or d’après la propriété iii) de la proposition 2.3 on a

CH~ [H1 (x1 ); H2 (x2 )] = C [H1 (x1 ); H2 (x2 )] ; (x1 ; x2 ) 2 R2

En…n la continuité de la distribution H implique l’unicité de la copule (théo-


rème de Sklar) i.e. CH~ C

3.4.4 Applications aux copules paramétriques extrêmes


bivariées

a. Discordance bivariée et dépendance de queue

On peut étudier le comportement extrême conjoint de deux variables


aléatoires à travers les coe¢ cients de dépendance de queue. Ces coe¢ -
cients permettent de mesurer numériquement l’importance de la dépendance
asymptotique entre les deux variables. De plus, ces coe¢ cients restent in-
variants sous des transformations strictement croissantes des distributions
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE67

marginales. D’autres mesures de dépendance, telles que le coe¢ cient de cor-


rélation linéaire, le tau de Kendall et le rho de Spearman, sont aussi beaucoup
utilisées dans l’analyse des extrêmes multivariés. Les propriétés fondamen-
tales de ces outils font l’objet de la sous-section B2 en annexe.

Dé…nition 2.9 (coe¢ cient de dépendance de queue)


Soient X 1 et X 2 les variables aléatoires continues de distribution conjointe
H dont les marges H 1 et H 2 sont supposées identiques.

On appelle coe¢ cient de dépendance de queue supérieure de (X1 ; X2 ), le


nombre réel S tel que

S = lim P (X1 > t=X2 > t) = lim P (H1 (X1 ) > u=H2 (X2 ) > u) :
t!+1 u!1

Si S = 0 alors X 1 et X 2 sont dites asymptotiques indépendantes.


Si 0 < S 1 alors X 1 et X 2 ont une dépendance asymptotique.
Le coe¢ cient de dépendance de queue inférieure de (X1 ; X2 ) est le nombre
réel I tel que

I = lim P (X1 < t=X2 < t) = lim+ P (H1 (X1 ) < u=H2 (X2 ) < u) :
t! 1 u!0

Le coe¢ cient de queue supérieure, souvent noté simplement détermine


par ailleurs, la probabilité que X1 soit extrême sachant que X2 l’est déjà.
En particulier si xH = xH1 ; xH2 désigne le point terminal droit de H,
alors on a
H (x1 ; x2 )
s = lim ; i = 1; 2:
x!xH 1 Hi (xi )
Les variables images Hi (Xi ) étant de lois uniformes sur [0; 1], d’après le
lemme 1.1 ; alors on a :
1 P (U u; V u)
= lim P (U > u=V > u) = 2 lim :
u!1 u!1 1 P (U u)
x!xH

Et si de plus C est la copule associée au couple aléatoire (X1 ; X2 ), alors


il vient que
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE68

1 2u + C (u; u) log C (u; u)


= lim =2 lim (3.25)
u!1 1 u u!1 log u
La relation (2.25) signi…e en particulier que la mesure de dépendance de
queue est aussi purement une propriété de la copule associée. Et dans le cas
où C est une copule des valeurs extrêmes de fonction de dépendance AC c’est
à dire
log u1
C (u1 ; u2 ) = exp (log u1 + log u2 ) AC ; (u1 ; u2 ) 2 I 3 ;
log u1 + log u2
alors sa section diagonale
1
C (u; u) = exp 2 log uAC ; u 2 ]0; 1[
2
1
est di¤érentiable, en tout u 2 ]0; 1[. On en déduit l’égalité =2 , 2A
2
voir les travaux de Frahm et al ([8]): En utilisant la relation entre la fonctions
de discordance DC de C et AC (théorème 2.9), il vient alors que = 1
2DC (1), le degré médian de discordance s’en déduit tel que
~C = 1 2 2DC (1)
:

Exemple 2.4 Pour le modèle logistique on établit que =2 21= ; > 1


1
et par suite ~C = 1 21 2 1 :

b. Moyenne de la discordance médiane extrême bivariée

Considérons un couple de variables aléatoires dont la copule associée est


un modèle paramétrique fC ; 2 Rg : On peut supposer que chaque para-
mètre appartient à un intervalle ouvert, i.e 2] min ; max [ R. Ainsi,
toute inférence sur le degré médian de discordance ~C se réduit à faire une
estimation du paramètre : Notons ~C ;j ; j = 1; 2 les valeurs asymptotiques
de ~C dé…nies par
~ = lim ~C et ~C = lim ~C :
C ;1 ;2
! min ! max
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE69

On peut remarquer que ces valeurs sont en réalité les valeurs extrêmes de
~C (par rapport au domaine du paramètre ): Et d’autre part, on véri…e
n
aisément que pour un modèle
n à n paramètres fCo ; = ( 1 ; :::; n )g, il existe 2
valeurs extrêmes possibles ~ ; j = 1; :::; 2n de ~C : On peut alors estimer
C ;j
la moyenne de ces valeurs extrêmes d’où la dé…nition suivante.

Dé…nition 2.10
Soit fC ; = ( 1 ; :::; n )g une copule extrême bivariée à n paramètres, de
discordance médiane ~C . On dé…nit la valeur moyenne de la discordance
médiane de C comme la moyenne arithmétique des valeurs extrêmes ~ : C ;j
On la notant C cette valeur; on a
j=2n
X
~
C ;j
j=1
C = :
2n
Exemple 2.5
Considérons le modèle mixte paramétrique proposé par Tajvidi ( [22]) dé-
…ni, pour tout (u1 ; u2 ) 2 I 2 ; par
1
1 1 1
C 1; 2 (u1 ; u2 ) = u1 u2 exp 2 (log u1 ) + (log u2 ) ;

où les paramètres 1 et 2 sont tels que 1 0; 0 < 2 1:


On établit que la fonction de discordance et le degré médian de discordance
associés à ce modèle sont exprimés respectivement par :
1 h 1i
D 1 ; 2 (t) = 1 2 1+t
1 1 ; t > 0:
1+t
et 1
~C = 1 2( 2 1):2 1 :

Et puisqu’on a deux paramètres 1 2 [0; +1[ et 2 2]0; 1]; alors il existe

22 = 4 valeurs extrêmes possibles qui sont : ~0;0 ; ~0;1 ; ~+1;0 et ~+1;1 pour la
discordance médiane. Par suite la valeur moyenne est donné par
~0;0 + ~0;1 + ~+1;0 + ~+1;1
C = = 0:75:
4
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE70

Applications aux copules extrêmes bivariées

Les tableaux 2, 3 et 4 suivants donnent les valeurs moyennes de la dis-


cordance médiane des principales familles paramétriques de copules extrêmes
bivariées.

Conclusion

Dans ce chapitre, il a été établi que les variables marginales associées à


cette partition sont de type extrême multivarié dès lors que la distribution
conjointe du vecteur est extrême. La propriété de max-in…niment divisibilité
est véri…ée dans le cas bivarié, sous l’hypothèse de croissance de la distribu-
tion par rapport à la deuxième variable. La fonction de discordance nous a
permis de caractériser toute distribution des valeurs extrêmes. Le degré mé-
dian de discordance a été calculé pour les di¤érentes familles paramétriques
de copules bivariées, obtenues par généralisations des familles logistique et
mixte.
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE71

Copule C (u1 ; u2 ), (u1 ; u2 ) 2 I 2 ; discordance D (t); t > 0 Médiane ~C ; Moyenne C

Modèle logistique de Gumbel (voir [13]), 1


n o ~C = 1
1
1
21 2 1
C (u1 ; u2 ) = exp u~1 + u~2
h 1
i C = 0:25
t
D (t) = 1+t 1+t 1
Modèle logistique négatif de Galambos (voir [13])
n 1o ~C = 1
1
21 2
C (u1 ; u2 ) = u1 u2 exp u~1 + u~2 ;
h 1i C = 0:25
1
D (t) = 1+t 1 1+t ; 0
Modèle logistique négatif à 2 paramètres de Galambos
C 1; 2 (u1; u2 ) =
( 1 ) 1
1
1 1 1
1 2 2 2
u1 u2 exp u~11 + u~21 u~1 1 2
+ u~2 1 2 2 ~C = 1 2
h 1 i 1
C = 0:125
1 1
D (t) = 1+t
t 1
+1 t 1 2
+1 2 1

avec 1 > 1; 2 > 0; voir [13].


Modèle Gaussian bivarié de Hüsler-Réïss ([12]) , 0
C (u1 ; u2 ) =
n h i o (1)
u
~1 u
~2 ~C = 1 21 2
exp u~1 1 + 2 log u
~2
u~2 1
+ 2 log u
~1

étant la fonction de distribution de la loi N(0,1) C = 0:25

t 1 2 2 log t 2+ 2 log t
D (t) = 1+t 2 2
t
Extension symétrique du modèle logistique de Tajvidi
C 1; 2 (u1 ; u2 ) =
h 2
i1 1

exp u~11 + u~21 + 2 (~


u1 u~2 ) 2
1 ~C = 1 21 (2+ 2) 1

C = 0:1875
avec 0 < 2 2( 1 1); 2 2; voir Tajvidi ([22])
1
1
1
D 1; 2 (t) = 1+t
t 1
+1+ 2t 2

Extension symétrique du modèle logistique de Joe ([13])


C (u1 ; u2 ) =
( 1 ) 1
1
1 1 2
1 2 2 1
exp u~1 + u~2
1 1
u~1 1 2
+ u~2 1 2 2 ~C = 1 2
C = 0:125
avec = ( 1; 2) et 2 > 0; 1 1
h 1 i1
1 1
D 1; 2 (t) = 1+t
t 1
+1 t 1 2
+1 2

Tab. 3.1 – Fonctions de discordance des modèles logistiques de copules bi-


variées et extensions
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE72

Copule C (u1 ; u2 ), (u1 ; u2 ) 2 I 2 ; discordance D (t); t > 0 Médian ~C ; moyen C

Extension asymétrique du modèle logistique


C (u1 ; u2 ) =
( )
h i1
1
u11 1
u12 2
exp ( 1 u~1 ) 3 + ( 2 u~2 ) 3 3
~C = 1 2 1
3+ 3 3 1
2 1 2;

où = ( 1; 2; 3)avec 1 0; 2 1; 3 1 C = 0:125
h i 1
1 3 3
D 1; 2; 3 (t) = 1+t
1 1 + 2 t+
3
1 + ( 2 t)
modèle introduit par Tawn (voir [24])
Modèle asymétrique, négatif et logistique (voir [13])
( )
h i 1
1
C (u1 ; u2 ) = u1 u2 exp ( 1 u~1 ) 3 + ( 2 u~2 ) 3 3 ~C = 1
3+ 3 3
2 1 2

où = ( 1; avec 0 < 1 ; 2 1; 3 > 0


2; 3) C = 0:325
h i 1
1 3 3
D 1; 2; 3 (t) = 1+t 1 1
3
+ ( 2 t)
Modèle bilogistique, symétrique de Smith (voir [16])
C 1; 2 (u1 ; u2 ) = exp u~1 q 1 1
+ u~2 (1 q)1 2
avec
~C = 1 21 q1 1 (1 q)1 2
0< 1 et 2 < 1 ; q = q(u1 ; u2 ; 1; 2) étant les racines
~
C = C (q)
de l’équation : (1 1 )u1 (1 q) 2 (1 2 )u2 q
1
=0
1
D 1 ; 2 (t) = q 1 1 + t(1 q)1 2 + 1
1+t
Modèle asymétrique de Coles et Tawn (voir [16])
C 1; 2 (u1 ; u2 ) =
n 1
o
exp [~
u1 [1
B(q; 1 + 1; 2 )] + u~2 B(q; 1 ; 1 + 2 )] 3 ~C = 1 21 B(q; +1; ) B(q; ;1+ )

1 u1 ~
où q = ; 2 > 0; 1 > 0 et Be(q; 1 ; 2 ) C = C (q)
1 u 1 + 2 u2
étant la loi Beta calculée au point q( 1 ; 2 ).
h i
t (1 B(q; 1 +1; 2 ))
D 1 ; 2 (t) = 1+t t
+ B(q; 1 ; 1 + 2 ) 1
Modèle bilogistique et negatif (voir [16])
C 1; 2 (u1 ; u2 ) = u1 u2 exp u~1 q 1+ 1 + u~2 (1 q)1+ 2

~C = 1 2q
1+ 1 +(1 q)1+ 2 1
1; 2 > 0 ;q = q(u1 ; u2 ; 1; 2 ) étant les racines de l’
2 C = 0:75
équation (1 + 1 )u1 q
1
(1 + 2 )u2 (1 q) =0
1
D 1; 2 (t) = 1 q 1+ 1
t(1 q)1+ 2
1+t
Tab. 3.2 – Discordance des modèles logistiques de copules bivariées et ex-
tensions (suite)
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE73

Copule C (u1 ; u2 ), (u1 ; u2 ) 2 I 2 ; discordance D (t); t > 0 Médiane ~C ; Moyenne C

Modèle mixte asymétrique de Tawn (voir [24])


u~1 ( 1 + 2 ) + u~2 (2 2 + 1) 3 2
C 1 ; 2 (u1 ; u2 ) = u1 u2 exp u~1 u~2 ~C = 1 22+
1
4
1
(~u1 u~2 )2
avec 1 0; + 2 2 1; 1 + 3 2 0 C = 0:46
1 2
D 1; 2 (t) = (1+t)3
[1 + (2 1 2 2 ) t + (1 1 2) t ]

Modèle mixte symétrique (voir [16])), 2 [0; 1]


u~1 u~2 ~C = 1 22 1
C (u1 u2 ) = u1 u2 exp
u~1 + u~2
1 C = 0:57
D (t) = +
(1 + t)2 1+t
Modèle mixte symétrique de Tajvidi ([23])
( )
1

C ~C = 1 2( 2 1):2 1
2 (u1 u2 ) = u1 u2 exp
2
1; 1
u
~1 1 +~
u 1 1
2
1 C = 0:75
1
D 1; 2 (t) = 1+t
1 2 1+t 1 1 ; 1 0 ,0 < 2 1

Modèle mixte, symétrique et polynomial de Klüppelberg


voir [1] où 2 [0; 1] 1
~C = 1 2 2
(2 )
u~1
C (u1 ; u2 ) = u1 u2 exp u~1 ; = 0:4
u~1 + u~2 C
1
D 1; 2 (t) =(1 )+
1+t 1+t
Modèle mixte, asymétrique et polynomial de Klüppelberg
voir [1] :
n o 1
~21
1u ~31
2u ~C = 1 2 4
(4 2 1 3 3)
C 1; 2 (u 1 ; u2 ) = u u
1 2 exp ( 1+ 2) u
~1 + u u2
~1 +~
+ u1 +~
(~ u2 ) 2

avec 0; +3 0; + 1 et +2 1 C = 0:79
1 1 2 1 2 1 2

1 2
D 1; 2 (t) = (1+t)2
(1 + t) (1 1 2) + 1 +
1+t
Tab. 3.3 –Fonction de discordance des modèles mixtes de copules bivariées
et extensions
Chapitre 4

Applications aux modèles


généralisés de Pareto

4.1 Introduction

Dans l’approche des blocs des maxima, les distributions des valeurs ex-
trêmes multivariées résument le comportement asymptotique des lois des vec-
teurs des maxima convenablement normalisés et dont les composantes uni-
variées sont supposées i.i.d. Cependant, il faut noter que le choix de la taille
des blocs est très critique dans l’application de cette approche à un ensemble
de données, car l’on reste partagé entre le risque de l’existence d’un biais et
celui d’obtenir une variance assez importante. En e¤et, le choix d’une taille
très petite pour les composantes viole l’hypothèse selon laquelle les modèles
des extrêmes s’obtiennent par approximation asymptotique des maxima nor-
malisés, conduisant ainsi à la présence d’un biais dans l’estimation. D’autre
part, considérer des composantes de très grande taille procure peu de valeurs
maximales et donc conduit à une grande variance. Par ailleurs, l’hypothèse

d’indépendance est fortement restrictive (di¢ culté de véri…cation) et l’on ne


dispose pas de beaucoup de données et l’approche donne la structure tempo-
relle des maxima sans dire si ceux-ci surviennent en même temps. Ainsi, on

74
CHAPITRE 4. APPLICATIONS AUX MODÈLES GÉNÉRALISÉS DE PARETO75

pourrait se demander s’il existe une autre approche qui permet de prendre en
compte beaucoup plus de données pour assurer beaucoup plus de précision
dans l’estimation des paramètres. C’est à cette question que l’approche des

Peacks-Over-Threshold (POT) tente d’apporter une solution en établissant


que la loi excédentaire au delà d’un seuil assez large (par exemple la vitesse
du vent au delà de 20m/s) suit la loi Généralisée de Pareto (GP). De plus, les

modèles issus de cette approche sont sensibles aux perturbations des données.

Dans ce chapitre nous appliquons la fonction de dépendance modélisée


dans le chapitre précédent aux modèles multivariés de Pareto.

4.2 Loi conditionnelle des excès univariés

L’approche des POT dans la modélisation des extrêmes univariés consiste


à utiliser les observations qui dépassent un certain seuil …xé et assez élevé et
plus particulièrement les di¤érences entre les observations et le seuil.

Soit X une variable aléatoire de fonction de répartition F et u un réel


su¢ samment grand appelé seuil. On dé…nit la loi des excès au delà du
seuil u comme l’ensemble des variables excédentaires Y telles que fYj g =
fXj u; Xj > ug : La distribution conditionnelle Fu par rapport au seuil u
pour les variables aléatoires dépassant ce seuil est telle que :

F (y + u) F (u)
Fu (y) = P (X u < y=X > u) = ; (4.1)
1 F (u)
avec 0 y xF u où xF est le point terminal droit de F.

La relation (3.1) équivaut, par ailleurs, à

F (x) F (u)
Fu (x) = P (X < x=X > u) = pour x u:
1 F (u)
CHAPITRE 4. APPLICATIONS AUX MODÈLES GÉNÉRALISÉS DE PARETO76

La loi essentielle à la modélisation des excès est la loi GP dé…nie par la


fonction de répartition
8
1
>
> 8
>
< 1 (1 + x)+ si 6= 0 < x 0 si 0
h i
GP (x) = H (x) = ou 1 :
>
> : x 2 0; si < 0.
>
: 1 exp ( x) si =0

Comme pour le modèle GVE dans l’approche des maxima, le paramètre


de forme permet au modèle GP de décrire trois types de comportement
asymptotique.
Si > 0, loi de Pareto usuelle

Si = 0, loi exponentielle

Si < 0, loi de Pareto de type II

En tenant compte du paramètre de localisation ; on obtient le modèle


généralisé de Pareto H ; ; telle que :
8 1
>
> x
>
>
>
> 1 1+ si 6= 0
x < +
H ; ; (x) = H = ; x 2 R:
>
>
>
> x
>
> si
: 1 exp =0
+

Application à la loi normale

Notons comme à l’accoutumée (:) la fonction de répartition de la loi


normale standard, N(0,1). Comme
1 x2
1 (x) p exp lorsque x ! +1;
x 2 2

on en déduit que, quand u ! +1;


z
1 u+ z 1 1 z 2 1
u 1+ exp 1+ + u2 exp ( z)
1 (u) u2 2 u 2
CHAPITRE 4. APPLICATIONS AUX MODÈLES GÉNÉRALISÉS DE PARETO77

Aussi, en considérant les suites normalisantes n, solution de ( n) =


1 1
1 et n telle que n = ; on obtient
n n

1 ( nx+ n)
n f1 ( nx + n )g = ! exp ( x)
1 ( n)

d’où
n
n exp ( x)
lim ( nx + n) = lim 1 = exp ( exp ( x))
n !+1 n !+1 n

c’est à dire que la loi limite du maximum est la loi de Gumbel. En terme
1
de loi des excès, en posant (u) = alors on obtient
u
(u + (u) z) (u)
!1 exp ( z) lorsque u ! +1:
1 (u)

Par suite, la loi limite correspond à la loi exponentielle.

Le théorème suivant est le résultat fondamental dans la modélisation des


excès unidimensionnels. Une démonstration récente se trouve dans [1] .

Théorème 3.1 (Balkema-De Haan-Pickands)

Si la distribution F est continue, la distribution GP est la loi limite des


excès lorsque le seuil tend vers u o ; alors il existe une courbe (u) telle que

lim sup jFu (x) H ; (x)j = 0


u !uo 0 x uo u

si, et seulement si, F 2 M DA (H ) :

Remarque 3.1

Le comportement de queue est similaire pour les lois univariées GVE et


GP et fait intervenir un unique paramètre de queue . Cependant, le choix
de la taille n des blocs, dans l’approche des maxima a¤ecte les valeurs des
paramètres sans toucher ceux de la distribution de Pareto associée.
CHAPITRE 4. APPLICATIONS AUX MODÈLES GÉNÉRALISÉS DE PARETO78

4.3 Modèles généralisés de Pareto

Etudier les modèles des excès multivariés consiste essentiellement à trou-


ver une réponse à la question suivante : quelles sont les généralisations pos-
sibles de la méthode univariée des excès au delà d’un seuil ? Dans la théorie
des extrêmes univariés, la méthode des POT est strictement associée à la
notion de distribution GP. Aussi, on peut se poser la seconde question sui-
vante, proche de la précédente : quelles sont les généralisations possibles de
la distribution GP univariée.

Plusieurs approches ont été considérées pour répondre à ces questions.


Dans l’intention d’une application future du cas bivarié à des données de
vent du Burkina Faso, nous suivrons Tajvidi ([22]) dans son approche des
excès. Cette approche se fonde sur la théorie asymptotique introduite par
Resnick ([19]) pour déterminer une extension aux distributions Multivariées
Généralisées de Pareto (MGP) du modèle GP univarié.

Le problème essentiel que l’on rencontre dans l’étude des modèles de Pa-
reto dans un contexte multivarié est le sens à donner à la notion d’excès
au delà d’un seuil. Quels types d’événements peuvent être caractérisés d’ex-
cédentaires ? S’agirait-il d’excès au delà d’un vecteur u2 Rm dès qu’une
composante X j devient assez grand, si k des m composantes deviennent très
grandes simultanément ou une combinaison linéaire X; 6= 0; excède un
certain seuil …xé et assez élevé ? Ou peut-être le vecteur X atteint une région
assez éloignée de l’origine.

Dans cette section nous rappelons les principales propriétés d’une loi mul-
tivariée de Pareto. Une caractérisation est ensuite faite via l’approche condi-
tionnelle de la discordance.
CHAPITRE 4. APPLICATIONS AUX MODÈLES GÉNÉRALISÉS DE PARETO79

4.3.1 Caractérisations et dé…nition

Soit un vecteur aléatoire fXi; i 1g = f(Xi;1 ; :::; Xi;m ) ; m 1g de distri-


bution conjointe F de marges univariées fFi ; i = 1; :::; mg. Soit fu(t); t 2 [1; +1[g
une courbe de dimension m telle que u(1) = 0: En considérant une fonction
positive (u) = (u(t)) > 0; on construit le vecteur des excès normalisés Xu
à partir du seuil u tel que
Xu
Xu = :
(u)
Tajvidi (1996) établit dans le résultat suivant, qu’il existe une relation très
étroite entre la distribution asymptotique résultant de l’approche des blocs
des maxima et celle de l’approche des excès.

Théorème 3.2 (Caractérisation des distributions MGP)

i) Soit G est une distribution des VEM, m-dimensionnelle avec 0 < G(0) <
1. Si F 2 M DA(G); alors il existe une courbe continue et croissante
u avec
lim F [u(t)] = 1
t !+1

et une fonction (u) > 0 telles que, pour tout x 2 Rm ;


1 G(x)
lim P [Xu x=Xu 0] = log : (4.2)
t !+1 log G(0) G(min(x; 0))
ii) On suppose qu’il existe une courbe continue et croissante u avec

lim F [u(t)] = 1
t !+1

et une fonction (u) > 0 telles que

lim P [Xu x=Xu 0] = H(x); x 2 Rm


t !+1

où H est une distribution dont les distributions marginales univariées


dé…nies sur R+ sont non-dégénérées. Alors, la propriété (3.2) est véri-
…ée pour tout x 2 Rm et il existe une unique distribution des VEM G
telle que
G(x)
H(x) = log G(min(x;0))
où G(x) = exp H(x) si x > 0 et G(0) = e 1 :
CHAPITRE 4. APPLICATIONS AUX MODÈLES GÉNÉRALISÉS DE PARETO80

On peut alors donner la caractérisation suivante pour les modèles MGPs.

Dé…nition 3.1 (distribution MGP)


Une fonction m-dimensionnelle H est une distribution MGP à support
positif si, pour tout x 2 Rm ;
8
< 1 log G(x)
si x 0
H(x) = G(min(x; 0)) ; (4.3)
:
0 sinon

où G est une distribution des VEM . Plus généralement, pour tout x 2 Rm


et x0 2 support(G);
1 G(x0 + x)
H(x) = log :
log G(x0 ) G(min(x; x0 ))

En exprimant la distribution MEV en fonction de sa fonction de dépen-


dance de Pickands, on obtient le résultat suivant où U est un voisinage de 0
par rapport à une topologie dé…nie sur le quadrant ] 1; 0]m .

Théorème 3.3
Pour toute distribution MGP m-dimensionnelle H, il existe une fonction
convexe AH dé…nie sur le simplexe Sm 1 telle que
0 1 9
( m ) >
X B C >
>
>
>
B y1 (x1 ) 1) C =
H(x) = 1 + yi (xi ) AH B X
m ; : : : ; ym
Xm
1 (xm
C
@ A (4.4)
i=1 yi (xi ) yi (xi ) >
>
>
>
i=1 i=1
>
;
m
= 1 + log G(x) pour tout x = (x1 ; : : : ; xm ) 2 R

où les yi sont dé…nies par (2.23) i.e


1
xi i i
yi (xi ) = 1 + i ; i = 1; :::; n:
i +

f i 2 Rg ; f i 2 Rg et f i > 0g étant les paramètres de la distribution


marginale H i ; et G la distribution des extrêmes multivariées associée à H par
la dé…nition 3.1.
CHAPITRE 4. APPLICATIONS AUX MODÈLES GÉNÉRALISÉS DE PARETO81

4.3.2 Mesure exponentielle et fonction de queue stable

Dans les sections 2.2 et 2.3 ci-dessus, nous avons rappelé les principaux
résultats sur la caractérisation des lois extrêmes généralisés par la fonction
de Pickands et par la fonction copule. Dans cette section, nous donnons la
caractérisation des distributions MGPs par la discordance, via la fonction de
queue stable et la mesure exponentielle. Rappelons que, d’après la remarque
2.4, le choix du type de marge univariée n’a¤ecte pas la caractérisation de
la distribution. Pour ce faire, suivons Michel (dans [15]) en considérant des
marges unitaires de Fréchet telles que
1
Fj (yj ) = exp ; j = 1; :::; m:
xj

On obtient la caractérisation suivante pour les distributions MGPs, voir


[4]

Dé…nition 3.2

Soit H une distribution MGP de dimension m. Alors pour tout (x1 ; : : : ; xm ) 2


Rm ; H a la représentation :

H(x1 ; : : : ; xm ) = 1 + V (y1 (x1 ) ; : : : ; ym (xm )) ;

avec
Z
qj
V (y1 (x1 ) ; : : : ; ym (xm )) = max dS (q1 ; :::; qm ) ;
Tp xj

où S est une mesure de masse 2, appelée densité spectrale et dé…nie sur


l’ensemble
( )
X
Tp = (q1 ; :::; qm ) 2 Rm : qj 0; qj2 = 1 ;
1 j m

véri…ant la contrainte
Z
qj dS (qj1 ) = 1 pour j = 1; :::; m:
Tp
CHAPITRE 4. APPLICATIONS AUX MODÈLES GÉNÉRALISÉS DE PARETO82

La fonction V est appelée la mesure exponentielle de H.

Dans le cas bivarié et avec des marges unitaires de Fréchet, cette mesure
exponentielle est liée à la dépendance de Pickands par la relation :
x2 V (x1 ; x2 )
AH = où xi > 0:
x1 + x2 x1 1 + x2 1
Exemple 3.2

Pour le modèle logistique asymétrique proposé par Tawn ( [24]) avec des
marges unitaires de Fréchet, la mesure exponentielle correspondante est don-
née par :
" #1
3 3 3
1 1 1 2 1 2
V (x1 ; x2 ) = + + + ;
x1 x2 x1 x2

avec = ( 1; 2; 3) tel que 0 1; 2 1 et 3 0:


Et pour ce modèle la dépendance de Pickands est plutôt modélisée, pour
tout t 2 S2 ; par
h i1
3 3 3
A (t) = (1 1 ) (1 t) + (1 2) t + 3
1 (1 t) + ( 2 t) :

Les mesures exponentielles des familles usuelles de distributions et copules


bivariées sont données en annexe.

Une autre structure de caractérisation des lois MGPs est la fonction de


queue stable.
Théorème 3.4
Soit H une distribution MGP. Alors, il existe une fonction L(:) dé…nie
sur le simplexe unitaire S m 1 telle que
8 0 19
< =
H(x) = 1 + L @ Xxm1 ; : : : ; X xm 1 A
m ; x = (x1 ; : : : ; xm ) 2 Rm :
: xi xi ;
i=1 i=1
(4.5)
CHAPITRE 4. APPLICATIONS AUX MODÈLES GÉNÉRALISÉS DE PARETO83

De plus, si H est continûment di¤érentiable d’ordre m, alors la fonction


densité l de L véri…e, pour tout t = (t1 ; :::; tm 1 ) 2 Sm 1 l’égalité :
! (m+1)
X
m
@m
l (t1 ; :::; tm 1 ) = ti H t1 1 ; :::; tm1 1 (4.6)
i=1
@t1 :::@tm

Démonstration. Soit V la mesure exponentielle de H avec des marges uni-


taires de Fréchet (dé…nition 3.2). Pour tout xi > 0, on peut écrire :

1 1
H (x1 ; :::; xm ) = 1 V ; :::; : (4.7)
x1 xm

D’une part, il est établi que


! (m+1) !
X
m
@m
@x1 :::@xm
V~ (x1 ; :::; xm ) = xi l Px1
xi
; :::; xP
m 1
xi
(4.8)
i=1 1 i m 1 i m


1 1
V~ (x1 ; :::; xm ) = V ; :::; :
x1 xm

La fonction l (:) étant la densité angulaire de H.


D’autre part, on a
@m 1 @ mV 1 1
V~ (x1 ; :::; xm ) = 2 2 ; :::; :
@x1 :::@xm x1 :::xm @x1 :::@xm x1 xm

En remplaçant ce résultat dans (3.8), on obtient :


! (m+1) !
1 1 X
m
@mV 1 x1 xP
m 1
@x1 :::@xm
; :::; = x21 :::x2m
xi l P
xi
; :::; xi
:
x1 xm i=1 1 i m 1 i m

xi
En posant ti = P
m dans la relation précédente on obtient :
xi
i=1

! (m+1)
@ mV X
m
(t1 ; :::; tm ) = ti l (t1 ; :::; tm 1 ) (4.9)
@x1 :::@xm i=1

Par suite, la relation (3.6) est obtenue en remplaçant (3.9) dans (3.8)
CHAPITRE 4. APPLICATIONS AUX MODÈLES GÉNÉRALISÉS DE PARETO84

4.4 Applications aux modèles trivariés de Pa-


reto

Comme dans l’approche des maxima, le modèle logistique est le plus im-
portant dans la famille de distributions multivariées de Pareto. Les distri-
butions de cette famille dérivent le plus souvent d’extensions symétriques,
imbriquées ou asymétriques du modèle logistique. Dans cette section, nous
utilisons la fonction de discordance pour redé…nir et caractériser chacune de
ces trois sous-familles. La fonction de discordance est construite, en particu-
lier, pour les familles usuelles dans un contexte tridimensionnel.

4.4.1 Discordance des modèles logistiques

Soit fX = (X1 ; :::; Xm ) ; m 2 et Xi < 0; i = 1; ::; mg ; un vecteur aléa-


toire multivarié dont la distribution conjointe est H avec > 1:

Théorème 3.5

Si H est une distribution logistique MGP alors, au voisinage de 0 et pour


tout x = (x1 ; :::; xm ) 2 Rm ; elle a la représentation
8 0 19
>
> >
>
>
>( m ) B C >
>
< X B y1 (x1 ) y (x ) C =
H (x) = 1 + B
yi (xi ) D B m ; :::; m
m 1 m 1 C
(4.10)
C>
>
>
> i=1 @X X A>>
>
: yi (xi ) yi (xi ) >
;
i=1 i=1

où les yi (xi ) véri…e la relation (2.23) ; D étant la fonction de discordance


telle que, pour tout t 2 Sm 1 :

2 ! 31 "m 2 #1
X1
m X1
m X
D (t)= 4 ti + 1 ti 5 + (1 t1 ) ti
1 t1
+ 1 tm 1
1 t1
i=1 i=1 i=2
(4.11)
CHAPITRE 4. APPLICATIONS AUX MODÈLES GÉNÉRALISÉS DE PARETO85

Démonstration. La fonction de discordance d’une loi MGP de Pareto H est


celle de la loi des extrêmes multivariées G associée à H par la dé…nition 3.1.
En considérant dans la preuve du théorème 2.9 que la fonction de dépendance
de Pickands de la distribution G et de celle de sa marge GNk sont de type
logistique, on déduit l’expression ci-dessus de D

En particulier pour une distribution à 3 variables, la relation (3.10) conduit


à la dé…nition suivante.

Dé…nition 3.3 (modèle logistique trivarié)

Une fonction paramétrique fH ; > 1g est une distribution de type lo-


gistique de Pareto, si pour tout (x1 ; x2 ; x3 ) 2 R3 ; elle a la représentation
suivante
8 0 19
>
>( 3 ) >
>
>
< X B C>=
B y1 (x1 ) y2 (x2 ) C
H (x1 ; x2 ; x3 ) = 1 + yi (xi ) D B X ; X C
>
> @ 2 3
A>>
>
: i=1 yi (xi ) yi (xi ) >;
i=1 i=1

où yi (xi ) véri…e (2.23) et la fonction de discordance D de H .

Nous donnons ci-dessous les fonctions de discordance des modèles usuels


de cette familles où yi = yi (xi ) véri…e (2.23).

Le modèle trivarié de Gumbel

C’est la distribution associée au modèle extrême logistique de


paramètre 1 tel que pour tout (x1 ; x2 ; x3 ) 2 R3 ;

n 1 o
H (x1 ; x2 ; x3 ) = 1 + y1 (x1 ) + y2 (x2 ) + y3 (x3 )

La fonction de discordance associée est dé…nie, pour tout (t1 ; t2 ) 2 S2 ;par

h i1 h i1
D (t1 ; t2 ) = t1 + t2 + (1 t1 t2 ) t2 + (1 t2 ) :
CHAPITRE 4. APPLICATIONS AUX MODÈLES GÉNÉRALISÉS DE PARETO86

Le modèle trivarié de Galambos

C’est la distribution à deux paramètres 1; 2 1, dé…nie telle que pour


tout (x1 ; x2 ; x3 ) 2 R3
1
1
1
H (x1 ; x2 ; x3 ) = 1+ y1 + y2 + y3
1 1 1
y1 1 2
+ y2 1 2
+ y3 1 2 2

La fonction de discordance associée est dé…nie, pour tout t = (t1 ; t2 ) 2 S2 ;


par
h i h i 1
1
1
1 1 2 2
D (t1 ; t2 ) = t1 + t2 + (1
1 1
t1 t2 ) t1 1 2
+ t2 1 2
+ (1 t1 t2 )
h i1 h i1
+ t1 + t2 + (1 t1 t2 ) t2 + (1 t2 ) :

Le modèle trivarié Gaussien

La distribution généralisée de Pareto qui décrit le comportement des ex-


cédants de la distribution gaussienne trivariée au delà d’un seuil assez grand
est telle que, pour tout (x1 ; x2 ; x3 ) 2 R3 et yi = yi (xi ) ; i = 1; 2; 3 par

H 1; 2; 3 (x) = 1 +
n h i
1 y1 1 y1
[y1 + y2 + y3 ] + y1 1
+ 2
1
log y2
+ 3
+ 3
2
log y3

1 1 y2 1 2 y2
+y2 + log + + log
1 2 y1 2 2 y3
1 3 y3 1 2 y3
+y3 + log + + log
3 2 y1 2 2 y2
Z y3
1 2 t 1 3 t
+ 2 + log ; + log ; dt ;
0 2 2 y1 3 2 y2

où est la distribution de la loi normale standard N(0,1) et 2 (:; :; ), la


fonction de survie de la distribution de la loi normale bivariée dont la matrice
des covariances telle que
0 1
1 1 1
B 0 2 2 + 2 2 C
=B
@
1 2 3 C:
A
1 1 1
2 2 + 2 2 0
1 2 3
CHAPITRE 4. APPLICATIONS AUX MODÈLES GÉNÉRALISÉS DE PARETO87

Et la fonction de discordance correspondante est donnée par:

h i
1 t1 1 t1
D (t1 ; t2 ) = 2 t1 1
+ 1
2
log t2
+ 3
+ 2
3
log 1 t1 t2

1 1 t2 1 2 t2
t2 + log + + log 1 t1 t2
1 2 t1 2 2
1 1 t1 t2 1 1 t1 t2
(1 t1 t2 ) + 3
2
log t1
+ 2
+ 2
2
log t2
3
1 2 t2 1 1 t2
t2 + log (1 t2 ) 2
2
log t2
2 2 1 t2 2
+R(t1 ; t2 ; ) où R est un reste intégral.

4.4.2 Discordance des modèles logistiques imbriqués

Dans la sous-section précédente, les modèles logistiques trivariés de Pareto


dont nous avons déterminé la fonction de discordance étaient échangeables
c’est à dire qu’une permutation arbitraire des composantes du vecteur cor-
respondant X possède toujours la même distribution que le vecteur original
lui-même. Ce sont des modèles dits symétriques. Dans la sous-section sui-
vante, nous introduisons les distributions MGPs asymétriques c’est à dire
celles pour lesquelles les vecteurs correspondants ne sont pas échangeables.

Les modèles logistiques imbriqués qui font l’objet de la présente section,


sont des extensions asymétriques particulières de la famille logistique. Ils gé-
néralisent cette famille en autorisant di¤érents degrés de dépendance entre les
composantes du vecteur. Par exemple, dans un modèle logistique multivarié
de paramètre ; toute distribution marginale bivariée est toujours logistique
avec le même paramètre tandis que pour un modèle imbriqué, toute marge
bivariée reste logistique mais avec des paramètres di¤érents.

Dans le contexte tridimensionnel, il existe deux paramètres de dépendance


1; 2 1: Pour tout (x1 ; x2 ; x3 ) 2 R3 , on dé…nit la norme suivante

kxk 1; 2
= k(x1 ; x2 ; x3 )k 1; 2
= k(x1 ; x2 )k 1 ; x3
2
CHAPITRE 4. APPLICATIONS AUX MODÈLES GÉNÉRALISÉS DE PARETO88

où k:k est la norme usuelle avec la convention que la valeur absolue est
considérée si l’indice n’est pas précisé.

Dé…nition 3.4 (modèle logistique imbriqué)

Une fonction trivariée H 1; 2 est une distribution logistique imbriquée si,


pour tout (x1 ; x2 ; x3 ) 2 R3 et y i (xi ) véri…ant (2.23) avec 1; 2 1:

H 1; 2 (x1 ; x2 ; x3 ) = 1 k(y1 (x1 ) ; y2 (x2 ) ; y3 (x3 ))k 1; 2

Par exemple, le modèle usuel de ce type de distribution trivariée est


8 1
9
< 2 2
=
H 1 ; 2 (x1 ; x2 ; x3 ) = 1 y1 1 (x1 ) + y2 1 (x2 ) 1 + y3 2 (x3 ) ;
: ;

avec yi (xi ) < 0 et 1; 2 1:

On peut aisément remarquer qu’en faisant tendre les variables respectives


vers 0 la distribution marginale (X1 ; X2 ) est un modèle logistique bivarié de
paramètre 1; tandis que les marges (X1 ; X3 ) et (X2 ; X3 ) ont pour paramètre
2:

Pour cette famille, la discordance associée est modélisée, pour tout (t1 ; t2 ) 2
S2 ; par
1
2 2
2
D 1; 2 (t1 ; t2 ) = t11 + t21 1 + (1 t1 t2 ) + t2 1;

tandis que la dépendance de Pickands est donnée par


1
2 2
2
A 1; 2 (t1 ; t2 ) = t1 + t2
1 2 1 + (1 t1 t2 ) ; (t1 ; t2 ) 2 S2 :

Les courbes suivantes donnent les représentations graphiques des deux


structures de dépendance.
CHAPITRE 4. APPLICATIONS AUX MODÈLES GÉNÉRALISÉS DE PARETO89

Fig. 4.1 –Discordance du modèle imbriqué pour 1 = 2 =2

Fig. 4.2 –Dépendance du modèle imbriqué pour 1 = 2 =2


CHAPITRE 4. APPLICATIONS AUX MODÈLES GÉNÉRALISÉS DE PARETO90

4.4.3 Discordance des modèles logistiques asymétriques

Tawn a développé des généralisations asymétriques multivariées du mo-


dèle logistique (cf [4]). Ces extensions décrivent les comportements asympto-
tiques des maxima des données de tornades prélevées dans di¤érentes localités
le long d’une côte maritime. Cette famille généralise les modèles logistiques
sans prendre en compte les extensions imbriquées ci-dessus. Dans un contexte

tridimensionnel, on a la dé…nition suivante.

Dé…nition 3.4 (modèle logistique asymétrique)


Soit B un sous-ensemble non vide de l’ensemble f1; 2; 3g et soit C un
nombre arbitraire tel que, pour tout C B;
(
C = 1 avec jCj 2
:
C = 0 si jCj = 1:

De plus, soit 0 pi;C 1 le nombre tel que pi;C = 0 si i62 C et la condition


P
pi;C = 1 est véri…ée i=1,2,3. Alors la fonction
(( )( ))
X X 1
H (x1 ; x2 ; x3 ) = 1 + pi;C [pi;C yi (xi )] C
c2B i2C

est une extension asymétrique du modèle logistique généralisé de Pareto.

La principale famille paramétrique de ces distributions est le modèle


logistique asymétrique de Gumbel, voir [13]. Elle est dé…nie, pour tout
x = (x1 ; x2 ; x3 ) 2 R3 et 1 ; 2 0; par
8 1
9
< 1 1 1
=
H 1 ; 2 (x) = 1 + y1 1 2
+2 2
y2 1 2 2 + 2 2
y2 1 2
+ y3 1 2 2 :
: ;

La fonction de discordance correspondante est telle que


!1
1 h i1 1
1 2 2
D 1; 2 (t1 ; t2 ) = t1 1 2
+2 2
t2 1 2 2 + 2 2
t2 1 2
+ (1 t1 t2 )3

1
2 2
t2 + (1 t1 t2 ) 2 :
CHAPITRE 4. APPLICATIONS AUX MODÈLES GÉNÉRALISÉS DE PARETO91

Fig. 4.3 –Discordance du modèle asymétrique trivarié 1 = 2 =2

Et la fonction de dépendance de Pickands correspondante est


!1
1 h i1 1
2
A 1; 2 (t1 ; t2 ) = t11 2
+2 2
t2 1 2 2 + 2 2
t2 1 2
+ (1 t1 t2 )31 2
:
CHAPITRE 4. APPLICATIONS AUX MODÈLES GÉNÉRALISÉS DE PARETO92

Conclusion

La nouvelle structure de dépendance a permis de reformuler la caractéri-


sation des modèles généralisés de Pareto. En particulier, la forme analytique
de la fonction de discordance a été explicitée pour chacune des sous-familles
usuelles trivariées généralisées de Pareto.
CHAPITRE 4. APPLICATIONS AUX MODÈLES GÉNÉRALISÉS DE PARETO93

Fig. 4.4 –Dépendance du modèle asymétrique trivarié 1 = 2 =2


Chapitre 5

Conclusion générale

Cette thèse avait pour objectif d’apporter des éléments de réponse es-
sentiellement à une question relative à la modélisation des valeurs extrêmes
multivariées : comment construire une structure qui modélise la dépendance
multivariée conjointe des modèles extrêmes univariés, laquelle structure pren-
drait en compte les di¤érentes contraintes que subissent les supports de ceux-
ci ? Etant donné la relation très étroite entre les modèles extrêmes multivariés
et ceux généralisés de Pareto, alors il s’en suit la question suivante : quels
sont les e¤ets d’une telle structure sur la caractérisation de lois multivariées
des excès ?

Après avoir rappelé les di¤érents outils et les propriétés fondamentales


dans l’analyse des valeurs extrêmes univariées et multivariées, nous avons
introduit une nouvelle mesure de la dépendance multivariée via la notion de
partition orientée d’un vecteur aléatoire. Il a été établi que les variables mar-
ginales associées à cette partition sont de type extrême multivarié dès lors que
la distribution conjointe du vecteur est un modèle extrême. La propriété de
max-in…niment divisibilité est véri…ée dans le cas bivarié, sous l’hypothèse de
croissance de la distribution par rapport à la deuxième variable. La fonction
de discordance nous a permis de caractériser toute distribution multivariée
des valeurs extrêmes. Le degré médian de discordance a été calculé pour les

94
CHAPITRE 5. CONCLUSION GÉNÉRALE 95

di¤érentes familles paramétriques de copules bivariées obtenues par générali-


sations des familles logistique et mixte. La nouvelle structure de dépendance
a permis par ailleurs de reformuler la caractérisation des modèles généralisés
de Pareto. En particulier, la forme analytique de la fonction de discordance
a été explicitée pour chacune des sous-familles usuelles trivariées généralisées
de Pareto.

Dans un futur proche nous envisageons développer des packages du logiciel


R pour simuler les fonctions de discordance et les appliquer à la modélisation
de la dépendance des phénomènes climatiques du Burkina Faso. Il s’agira de
voir dans quelle mesure la dépendance conjointe du vent, de la pluviométrie
et de la température du Burkina peut être modélisée et caractérisée par la
discordance.

Par ailleurs un problème fort intéressant - tant du point de vue pratique


que du point de vue théorique - pourrait consister à faire une extension de
cette discordance à des dimensions plus grande. En e¤et dans ce travail,
il s’est agi pour nous de caractériser les copules extrêmes bivariées et les
distributions trivariées de Pareto.

Une autre approche de la caractérisation de la dépendance bivariée pour-


rait consister à établir le lien entre le degré de discordance et les mesures clas-
siques de la dépendance linéaire (corrélation) et non linéaire (tau de Kendall,
rho de Spearman).

Annexe
Annexe A

Environnement des extrêmes


univariés

La théorie des valeurs extrêmes utilise beaucoup d’outils tels que les lois
alpha-stables, les fonctions à variation lente ou les fonctions à variation ré-
gulière. Pour une meilleure compréhension de nos résultats, il nous a paru
nécessaire de rappeler succinctement ces notions et de donner leurs propriétés
fondamentales.

A.1 Lois alpha-stables

Lors du traitement de données (les séries chronologiques, par exemple),


on utilise fréquemment la variance empirique. Celle-ci est …nie car le nombre
d’observations est …ni. Il devient alors logique d’employer des méthodes, de
proposer des modèles, de faire des estimations qui utilisent une variance …nie.
Dans certains cas cependant, la variance empirique est si grande que l’on se
demande si la variance théorique est …nie ou in…nie. C’est dans ce cadre
qu’apparaissent les lois -stables, beaucoup utilisées dans la modélisation de
certains domaines tels que la télécommunication et en …nance.

Dans toute la suite Sn désignera la suite réelle représentant la somme de

96
ANNEXE A. ENVIRONNEMENT DES EXTRÊMES UNIVARIÉS 97

variables indépendantes et identiquement distribuées (i.i.d) X1 ; :::; Xn telle


que Sn = X1 + ::: + Xn ; n 1:

Dé…nition A.1 Une variable aléatoire X de distribution F est indé…ni-


ment divisible si et seulement s’il existe, pour tout n 2; des variables i.i.d
loi
fXi ; i = 1; :::; ng telles que X = Sn :

Une des particularités de ces lois est le fait que leur fonction caractéris-
tique s’exprime comme une fonction puissance d’une autre fonction caracté-
ristique.

Proposition A.1

Une distribution F est indé…niment divisible si, pour tout > 0, F est
aussi une distribution.

Les familles des lois indé…niment divisibles sont liées à celles des lois
stables.

Dé…nition A.2

La fonction de répartition d’une variable aléatoire réelle X est une dis-


tribution stable si et seulement si, pour tout k 2 N et pour toute famille
X1 ; :::; Xn de variables i.i.d de même loi que X, il existe des suites de nombres
réels f n > 0g et f n 2 Rg telles que

loi Sn n
Sk = nX + n i.e lim P x = P (X x) :
n !+1 n

Il est possible de dé…nir une loi stable à l’aide de sa fonction caractéris-


tique

Z
itX
X (t) = E e = eitx f (x) dx: (A.1)
R

On a le résultat suivant, voir [2].


ANNEXE A. ENVIRONNEMENT DES EXTRÊMES UNIVARIÉS 98

Théorème A.1 (Représentation spectrale)


Une variable aléatoire réelle X est stable si sa fonction caractéristique a
la forme
8
< exp i t 2
iXt
jtj 1 + i sign (t) ln jtj si =1
'X (t) = E e =
:
exp i t jtj 1 i sign (t) tan 2
si 6= 1

où 2 R; > 0; 2 [0; 2] et 2 [ 1; 1]

Une loi stable est donc dé…nie par les paramètres

; paramètre principal, 0 < 2: Il caractérise la queue de distribution.


Plus diminue, plus la queue est épaisse.
; paramètre de position. Il caractérise la moyenne de la loi si > 1:
; paramètre de dispersion:
; paramètre de symétrie (par rapport à la moyenne ), 2 [ 1; 1] :

On appelle les lois stables des lois stables car le paramètre déter-
mine l’essentiel de leurs propriétés. Leur moment d’ordre 2 est …ni dès que
2 [0; 2] : De la relation (A.1), on peut retrouver la fonction densité f par
transformation de Fourrier
Z
1
f (x) = eitx X (t; ; ; ; ) dt; x 2 R:
2 R

Cas particuliers

En notant S ( ; ; ) la loi stable de paramètres ; ; ; on véri…e


que :
2
2
Si = 2; alors on obtient le modèle gaussien i.e N ( ; ) S2 ; ; :
2
Si = 1 et = 0; alors on obtient la loi de Cauchy, de densité
1
f (x) = h i; x 2 R
x 2
1+

avec 2 R; > 0 i.e Cauchy( ; ) S1 ( ; 0; ) :


ANNEXE A. ENVIRONNEMENT DES EXTRÊMES UNIVARIÉS 99

1
Si = 2
et = 1; alors on obtient la loi de Lévy, de densité
r
1
f (x) = exp ; x > 0 i.e Levy ( ; ) S 1 ( ; 1; ) :
2 (x )3=2 2 (x ) 2

En dehors de ces trois lois, les autres lois stables n’ont pas une forme
fermée, leur fonction densité n’ayant pas d’expression analytique.

Dans l’analyse des probabilités univariées, les notions de valeurs extrêmes


et de variation régulière sont étroitement liées.

A.2 Fonctions à variation régulière

Les fonctions à variation régulière sont une sous-famille des lois à queues
épaisses.

A.2.1 Distributions à queues épaisses

Il n’existe pas une caractérisation type des distributions à queues épaisses.


La notion caractérise généralement la qualité de la déviation de la distribution
par rapport à la loi normale dont la queue a une décroissance exponentielle.
Par exemple la loi log-normale, dé…nie par la densité de probabilité
!
1 (ln x )2
f (x) = p exp ; 2 R; > 0
x 2 2 2

est à queue épaisse (décroissance sous-exponentielle) tandis que la loi gamma


dé…nie par la relation (1.3) est une loi à queue légère.

Les deux tableaux suivants présentent les deux principales familles de


distributions à queues épaisses et légères.
ANNEXE A. ENVIRONNEMENT DES EXTRÊMES UNIVARIÉS 100

Famille Queue F̄ ou densité f Paramètres


Exponentielle F (x) = exp ( x) >0
k
Gamma f (x) = xk 1 e x ;k > 0
(k)
Weibull F (x) = exp ( cxr ) c; r > 0
q
x2
Normale tronquée f (x) = 2 exp 2

Toute distribution avec le support borné

Tab. A.1 –Principales distributions à queues legères


ANNEXE A. ENVIRONNEMENT DES EXTRÊMES UNIVARIÉS 101

Famille Queue F̄ ou densité f Paramètres


2
1 (ln x )
Lognormale f (x) = p
x 2
exp 2 2 2 R; >0
k
Pareto F (x) = k+x
k; >0
k
Burr F (x) = k+x
k; ; > 0
Benktander-type I
; >0
F (x) = 1 + 2 ln x exp (ln x)2 ( + 1) ln x
(1 ) x =
Benktander-type II F (x) = e x e > 0; 0 < <1
r
Weibull F (x) = exp f cx g c > 0; 0 < r < 1
k
loggamma f (x) = (ln x)k
x 1 1
;k > 0
(k)
stable tronquée F (x) = P (jXj > x) où X est stable 1 < <2

Tab. A.2 –Principales distributions à queues épaisses

La famille des lois à queues épaisses contient la classe des fonctions à


variation régulière qui sont beaucoup utilisées dans l’analyse des extrêmes
univariés.

A.2.2 Fonctions à variation régulière

Dans divers domaines d’application des probabilités (théorie des queues,


analyse des valeurs extrêmes, le processus stochastique de renouvellement,...),
on utilise des lois puissances pour comparer le comportement d’autres lois de
probabilité. La notion de variation régulière a été introduite pour les variables
dont la queue de la distribution se comporte comme une loi puissance.

Dé…nition A.3
Soit F une fonction mesurable et positive. On dit que F est à variation
régulière (en l’in…ni) d’indice ; 2 R et on note F 2 V R( ); si :

i) F est dé…nie sur un voisinage [xo ; +1[ de l’in…ni.


F (tx)
ii) lim = x pour tout x > 0:
t !+1 F (t)
ANNEXE A. ENVIRONNEMENT DES EXTRÊMES UNIVARIÉS 102

Par exemple, on véri…e que les fonctions logarithmes et leurs itérations


dé…nies par

ln(ln(x)); exp [ln x) ] ; x ; x ln (1 + x) ; (x ln (1 + x)) ; x ln (ln(e + x))

sont à variation régulière en l’in…ni d’indice avec 2]0; 1[.

Cas particuliers

si = 0; F est dite fonction à variation lente.


si = +1; F est dite fonction à variation rapide

Par conséquent, on véri…e aisément que toute fonction F à VR( ) a la


représentation suivante : F (x) = x L (x) où L est une fonction à variation
lente. Les résultats suivants résument les propriétés fondamentales de repré-
sentation et de stabilité des fonctions à variations régulières.

Théorème A.2 (Théorème de représentation)


Si F 2 V R( ) telle que F (x) = x L(x) où L est une fonction à
variation lente, alors L(x) est caractérisée par la forme : L (x) =
R x " (y)
c (x) exp x0 dy où c est une fonction positive telle que
y

lim c (x) = c0 0 et lim " (x) = 0:


x !+1 x !+1

Le théorème suivant est l’un des résultats les plus appliqués dans l’étude
des fonctions à variation régulière.

Théorème A.3 (Théorème de Karamata)

Soit L une fonction à variation lente et localement bornée sur [xo ; +1[
pour x0 0: Alors,
Rx x +1
pour > 1; lim x0
t L (t) dt =
L (x) ;
x !+1 +1
R +1 x +1
pour < 1; lim x t L (t) dt = L (x) :
x !+1 +1
ANNEXE A. ENVIRONNEMENT DES EXTRÊMES UNIVARIÉS 103

1
Rx L(t)
Le résultat reste toujours vrai pour = 1 car lim dt =
x !+1 L(x) x0 t
Rx
+1 où x0 L(t)
t
dt est une fonction à variation lente.

Proposition A.1 (stabilité par variation régulière)


La notion de variation régulière est stable par intégration, di¤érentiation,
produit, sommation et par composition.

Si f 2 V R( ) avec > 1; alors pour toute primitive F de f , F 2


V R( + 1):
Si f 2 V R( ) alors si sa dérivée f 0 (x) est monotone pour x > 0; alors
f 0 2 V R( 1):
Si f 2 V R( ) alors f k 2 V R( k); k 2 N:
Si f 2 V R( ) et g 2 V R( ) alors f + g 2 V R(max( ; ) ) et f g
2 V R( ):

Le résultat suivant résume les principales propriétés d’une variable aléa-


toire à variation régulière.

Théorème A.4
On dit qu’une variable aléatoire X, de fonction de distribution F et de
transformée de Laplace LF ; est à variation régulière d’indice ; 0; si
l’une des conditions équivalentes suivantes est véri…ée.

(i) La fonction de survie F̄ est à variation régulière d’indice i.e F (x) =


x LF (x) :
1 1
(ii) La fonction quantile est à variation régulière au sens où F 1 x
=
x1= LF 1 (x) :
(iii) La transformée de Laplace LF véri…e : 1 LF (t) t LL (1=t) :
(iv) Si la densité f de F existe et véri…e lim xf (x) =F (x) = alors
x !+1
(1+ )
f 2 V R ( (1 + )) i.e f (x) = x Lf (x) où LF ; LF 1 ; LL et Lf
désignent des fonctions à variation lente.
Annexe B

Quelques modèles extrêmes


multivariés

B.1 Copules usuelles multivariées

La copule indépendante

Lorsque les variables fXi ; i = 1; :::; ng sont indépendantes, la copule as-


sociée est la copule indépendante ou copule produit telle que :

(u1 ; :::; un ) = u1 ::: un ; (u1 ; :::; un ) 2 I n = [0; 1]n

Cette copule admet la densité constante 1 sur In :

La copule minimale

La copule minimale ou borne supérieure de Fréchet

M (u1 ; :::; un ) = min (u1 ; :::; un ) ; (u1 ; :::; un ) 2 I n

Cette copule n’admet pas de densité bien qu’elle soit dérivable


presque partout.

104
ANNEXE B. QUELQUES MODÈLES EXTRÊMES MULTIVARIÉS 105

La copule maximale

On véri…e que pour n = 2 et (u1 ; :::; un ) 2 I n ; la fonction


X
W (u1 ; :::; un ) = max ui + n 1; 0

dé…nit une copule. C’est la copule maximale ou borne inférieure de Fréchet.


Elle véri…e (voir [17]), pour tout (u1 ; :::; um ) 2 I m

W (u1 ; :::; um ) C(u1 ; :::; um ) M (u1 ; :::; um ); (u1 ; :::; um ) 2 I n :

La copule Gaussienne

La copule Gaussienne est beaucoup utilisée dans la modélisation …nan-


cière. Soit R la matrice de corrélation d’un vecteur gaussien standard N(0, R)
(de moyennes nulles et de variance 1). Notons R;n la distribution conjointe
de cette loi i.e
Z x1 Z xn
1 1 t 1
R;n (x1 ; :::; xn ) = ::: p n
exp Y R Y dy1 :::dyn ;
1 1 (2 ) detR 2

alors la copule Gaussienne associée à la loi N(0,R) est donnée par :

1 1
CR;n (u1 ; :::; un ) = R;n (u1 ); :::; (un ) ; (u1 ; :::; un ) 2 I n

1
où est la fonction inverse de la loi normale standard N(0,1).

En particulier, la copule associée à deux variables aléatoires normales


standard X1 et X2 de corrélation est donnée, pour tout (u1 ; u2 ) 2 I 2 par :
Z 1 (u1 ) Z 1 (u2 )
1 x21 2 x1 x2 + x22
C (u1 ; u2 ) = p exp 2)
dx1 dx2 :
2 1 2
1 1 2(1

De la relation (2.12), on déduit la densité de cette copule par :

1 x21 2 x1 x2 + x22 x21 + x22


c(H1 (x1 ); H2 (x2 )) = p exp 2)
+ ;
1 2 2(1 2
ANNEXE B. QUELQUES MODÈLES EXTRÊMES MULTIVARIÉS 106

i.e pour tout (u1 ; u2 ) 2 I 2 ;


2 2 2 2
( 1 (u
1) ) 2 1 (u
1)
1 (u
2 )+ ( 1 (u
2) ) ( 1 (u
1) ) +( 1 (u
1) )
c(u1 ; u2 ) = p 1 2
exp 2(1 2) + 2
:
1

Remarque B.1 : Les copules Gaussienne et la t-copule ci-dessus appar-


tiennent à la famille des copules elliptiques.

La copule de Student ou t-copule

Comme la copule Gaussienne, la copule de Student ou t-copule est pa-


ramétrée par une matrice R décrivant la dépendance deux à deux entre les
variables. Soit TR; ;n la distribution de Student multivariée de dimension n,
à n degré de liberté, et de matrice de matrice de corrélation R: La copule de
Student CR;v associée à cette distribution est dé…nie telle que :
1 1
CR;v (u1 ; :::; un ) = TR;v Tv (u1 ); :::; Tv (un ) ;


v+1
Z x
2 1 dt
T (x) = v p v+1 ;
1 v 2
t 2
2 1+
v
et
v+n
Z x1 Z xn
2 1 dt1 :::dtn
TR;v (x1 ; :::; xn ) = ::: v n p v+n :
1 1 (v ) 2 detR tT Rt 2
2 1+
v

On déduit de (2.12) la densité de la t-copule par :

v+n
Y T RY 2
v+n v n 1 1+
2 2 v
c (u1 ; :::; un ) = v+1 n
p v+1 ;
2
detR n
Yi2 2
1+ v
i=1
ANNEXE B. QUELQUES MODÈLES EXTRÊMES MULTIVARIÉS 107

1
où Y = (Yi ) ; i = 1; ::; n avec Yi = T (ui ) :

Comparativement à la copule Gaussienne, la t-copule permet, grâce à son


degré de liberté, de mieux tenir compte des queues de distributions épaisses.
En outre, la copule de Gauss est une copule asymptotique de la t-copule
lorsque v tend vers l’in…ni.

Remarque B2 : Comme dans la théorie des distributions, la copule nor-


male et la t-copule font partie de la famille des copules elliptiques.

Les copules archimédiennes

Les copules archimédiennes bivariées ont été largement développées par


Genest et Mackay ([10]). La famille des copules archimédiennes multivariées
présente le double avantage d’avoir une forme analytique explicite et de tenir
compte de toutes les dépendances entre les variables aléatoires unidimension-
nelles.
Une copule C est archimédienne si et seulement si elle est de la forme
" #
X
C(u1 ; :::; um ) = 1 (ui ) ; (u1 ; :::; um ) 2 I m :
1 i m

où : [0; 1] ! [0; +1[ , appelé générateur archimédien, est une fonction


continue strictement décroissante telle que
(1) = 0 et '(0) = +1
1
la pseudo-inverse de ' soit complètement monotone sur [0; +1[ i.e

1 (k)
8t 0 et 8k 0; ( 1)k (t) 0:

1 (k) 1
où est la dérivée d’ordre k de :

Pour le cas particulier où n = 2, il su¢ t que soit convexe. Par exemple,


pour (t) = ( log t) ; > 1; on obtient le modèle logistique bivarié, pour
ANNEXE B. QUELQUES MODÈLES EXTRÊMES MULTIVARIÉS 108

Famille Générateur, ' (t) Copule, C(u1 ; u2 ); (u1 ; u2 ) 2 I 2


Indépendante ' (t) = lnt C(u1 ; u2 ) = (u1 ; u2 ) = u1 u2
1
Clayton ' (t) = t 1 C (u1 ; u2 ) = u1 + u2 1 ; >0
n 1
o
Gumbel ' (t) = ( ln t) ; 1 C (u1 ; u2 ) = exp ( ln u1 ) + ( ln u2 )
e t 1 1 (e u1 1)(e u2 1)
Franck, 6= 0 ' (t) = log e 1
C (u1 ; u2 ) = log 1 + e 1

Tab. B.1 –Quelques familles de générateurs archimédiens

tout (u1 ; u2 ) 2 I 2 ;
n 1 o
C (u1 ; u2 ) = exp ( ln u1 ) + ( ln u2 ) ; (u1 ; u2 ) 2 I 2

Le tableau suivant montre quatre familles de générateurs archimédiens


bivariés.

B.2 Copule et mesure de dépendance

L’étude de la dépendance entre plusieurs variables est un sujet central


dans l’analyse des probabilités multivariées. Cette dépendance est caracté-
risée par une paramétrisation des di¤érentes composantes du vecteur aléa-
toire. Ces mesures intègrent la dépendance linéaire (coe¢ cient de corréla-
tion linéaire), non linéaire (mesure de concordance, tau de Kendall, rho de
Spearman) ou la dépendance dans la queue de la distribution (paramètre de
dépendance de queue). Soient X1 et X2 deux variables aléatoires.

Dé…nition B.1 (mesures de dépendance)

Une mesure de dépendance de (X1 ; X2 ) est une fonction (X1 ; X2 ) qui


véri…e les propriétés suivantes :

1. Symétrie : (X1 ; X2 ) = (X2 ; X1 )


ANNEXE B. QUELQUES MODÈLES EXTRÊMES MULTIVARIÉS 109

2. Normalisation : 1 (X1 ; X2 ) 1
(
-1 si et seulement si X 1 et X 2 sont co-monotones.
3. (X1 ; X2 ) =
1 si et seulement si X 1 et X 2 sont contre-monotones.
4. Soit T : R ! R, une transformation strictement monotone sur l’en-
semble des valeurs de X 1 ; alors
(
(X1 ; X2 ) si T est croissante.
(T (X1 ) ; X2 ) =
(X1 ; X2 ) si T est décroissante.

On distingue essentiellement, le coe¢ cient de corrélation linéaire, le tau


de Kendall et le rho de Spearman.

Dé…nition B.2 (coe¢ cient de corrélation linéaire)

Pour deux variables aléatoires X 1 et X 2 le coe¢ cient de corrélation est


le nombre réel

2
Cov (X1 ; X2 ) X2 min E [(X2 (aX1 + b))]
(X1 ; X2 ) = p = 2
V (X1 ) V (X2 ) X2

où Cov (X1 ; X2 ) est la covariance des deux variables telle que :

Cov (X1 ; X2 ) = E (X1 X2 ) E (X1 ) E (X2 )

est la covariance des deux variables.

On établit que le coe¢ cient de corrélation véri…e les propriétés suivantes:

Si X1 et X2 sont indépendantes alors (X1 ; X2 ) = 0; mais la réciproque


est fausse.
n’intègre que la dépendance linéaire entre les deux variables. Par consé-
quent, il reste invariant par transformation linéaire mais ne l’est pas
par transformation croissante. Par exemple : (aX1 + b; cX2 + d) =
(X1 ; X2 ) si a et c sont de même signe tandis que (log X1 log X2 ) 6=
(X1 ; X2 )
ANNEXE B. QUELQUES MODÈLES EXTRÊMES MULTIVARIÉS 110

(X1 ; X2 ) dépend des distributions marginales.


On véri…e par ailleurs l’inégalité de Tchen :
Cov F1 1 (U ) ; F2 1 (1 U ) Cov F1 1 (U ) ; F2 1 (U )
p R (X1 ; X2 ) p
V (X1 ) V (X2 ) V (X1 ) V (X2 )
où F1 et F2 sont les lois marginales des variables X1 et X2 ; U étant la
loi uniforme unitaire.

Dans le cas général d’un vecteur aléatoire X = (X1 ; ::; Xn ) la dépendance


est résumée par la matrice de covariance dé…nie par la relation (2.4).

Dé…nition B.3 (Tau de kendall)


Soient (X1 ; Y1 ) et (X2 ; Y2 ) deux observations d’un vecteur de variables
aléatoires (X,Y). Le tau de Kendall associé à ce vecteur est une mesure de
dépendance scalaire dé…nie par

XY = P [(X1 X2 )(Y1 Y2 ) > 0] P [(X1 X2 )(Y1 Y2 ) < 0] :

C’est la di¤érence entre les probabilités de concordance et celles de dis-


cordance.

Dé…nition B.4 (Rho de Spearman)


Soient (X1 ; Y1 ); (X2 ; Y2 ) et (X3 ; Y3 ) trois réalisations indépendantes d’un
vecteur de variables aléatoires (X,Y). Le rho de Spearman de (X; Y ) est
dé…nie par

S
(X; Y ) = 3P [(X1 ; Y1 )(X2 ; Y3 ) > 0] P [(X1 ; Y1 )(X2 ; Y3 ) < 0]

On véri…e que si FX et FY sont les fonctions de répartition respectivement


de X et de Y, alors on a :

S
(X; Y ) = (FX (X) ; FY (Y ))

où est le coe¢ cient de corrélation linéaire. Contrairement au coe¢ cient de


corrélation, les deux mesures ci-dessus restent invariantes sous des transfor-
mations continues et croissantes des marges.
ANNEXE B. QUELQUES MODÈLES EXTRÊMES MULTIVARIÉS 111

La copule d’un vecteur aléatoire continue est une paramétrisation, une


normalisation de la distribution conjointe H après avoir éliminé les e¤ets
des marges. Cette structure permet de faire des estimations des di¤érents
moyens d’étudier cette dépendance à travers les mesures de concordance.
Dans le contexte bivarié, Nelsen (dans [17]) établit les résultats suivants.

Théorème B.1

- Soient (X1 , Y1 ) et (X2 , Y2 ) deux couples de variables aléatoires indépen-


dantes de distributions conjointes H1 et H2 avec des marges communes
F et G respectivement. Si C1 et C2 les copules associées aux distribu-
tions H1 et H2 respectivement, alors
Z 1Z 1
Q = Q(C1 ; C2 ) = 4 C2 (u, v) dC1 (u, v) 1:
0 0

- Soient X 1 et X 2 deux variables aléatoires continues de copule C. Alors,


le taux de Kendall de X 1 et X 2 est donné par
Z Z
XY = c = Q (c; c) = 4 C (u; v) dC(u; v) 1:
I2

le rho de Spearman de X 1 et X 2 est donné par


Z 1Z 1 Z 1Z 1

C = 12 C (u; v) dudv 3 = 12 (C (u; v) uv) dudv:


0 0 0 0

B.3 Quelques distributions extrêmes multi-


variées

Dans cette section nous donnons quelques familles de copules des valeurs
extrêmes multivariées. Les fonctions de dépendance de Pickands sont don-
nées.
ANNEXE B. QUELQUES MODÈLES EXTRÊMES MULTIVARIÉS 112

B.3.1 Distributions extrêmes bivariées usuelles

Le tableau suivant donne quelques distributions extrêmes bivariées asso-


ciées à quelques copules étudiées dans le chapitre 2. Les fonctions de dépen-
dance de Pickands et les mesures exponentielles sont associées.
ANNEXE B. QUELQUES MODÈLES EXTRÊMES MULTIVARIÉS 113

Familles (modèles) Distribution, fonction de dépendance


n 1
o 1
Modèle logistique G (x) = exp x +x ; A (t) = t + (1 t) ; >1
G 1; 2 (x1 ; x2 ) =
h 1 i 1
1
Logistique exp x1 + x2 x1 1
+ x2 1
x11 2
+ x21 2 2

h i 1
négative 1
1
A 1; 2 (t) = 1 t 1
+ (1 t) 1
t 1 2
+ (1 t) 1 2 2

avec 1 1; 2 >0
G (x1 ; x2 ) =
n h io
1 x1 1 x2
exp x1 + 2
log x2
+ x2 + 2
log x1
Gauss 1
1 t 1 1 t
A (t) = t + 2
log 1 t
+ (1 t) + 2
log t
avec 0:
G 1; 2; 3 (x1 ; x2 ) =
( )
h i1
3
Tawn exp (1 2 ) x1 + (1 1 ) x2 + ( 1 x1 ) 3 + ( 2 x2 ) 3
;
h i1
3 3 3
A 1; 2; 3 (t) = 1 ( 1 2) t 1 + 1
3
(1 t) + ( 2 t)
( " #)
1 1
G 1; 2 (x1 ; x2 ) = exp x1
+ x2
2
1 ;
Tajvidi x11 +x21 1
1
A 1; 2 (t) = 1 t + (1 t) avec 1 1; 2 2 [0; 1]

Tab. B.2 –Fonction de dépendance de Pickands de modèles usuels bivariés

B.3.2 Modèles paramétriques multivariés usuels

Nous donnons ici le modèle logistique multivarié et un exemple de chacun


des types d’extensions possibles de ce modèle.

Le modèle logistique multivarié


ANNEXE B. QUELQUES MODÈLES EXTRÊMES MULTIVARIÉS 114

C’est le modèle dé…ni pour tout (x1 ; :::xm ) 2 Rm ; par


( )1
X
G (x1 ; :::xm ) = exp xi ; xi > 0; 1
1 i m

où est le paramètre de dépendance entre les variables univariées.


La dépendance de Pickands correspondante est dé…nie par
2 ! 31
X1
m X1
m
A (t1 ; :::tm 1 ) = 4 ti + 1 ti 5 ; (t1 ; :::tm 1 ) 2 Sm
i=1 i=1

Extension négative du modèle logistique multivarié

C’est le modèle dé…ni, pour tout (x1 ; :::xm ) 2 Rm ; par


( m 1
X X
G (x1 ; :::xm ) = exp xi + xi ij + xj ij ij

i=1 i<j
)
X
m X
k
+ ( 1)k+1 B1:::k (xi ; :::; xk ; 12 ; :::; 1k ;
k=3 i=1

où 1;j 0 est le paramètre de dépendance entre les variables marginales


X1 et Xj : La fonction de Pickands associée est dé…nie, pour t = (t1 ; :::tm 1 ) 2
Sm par
"m 1 !
X X1
m X2
m
ij ij
A (t) = ti + 1 ti + ti + tj
i=1 i=1 i=1;i<j
0 1 31
! im
1

X1
m X1
m im
7
+ @ti im
+ 1 ti A 5 + R(t1 ; :::; tm 1 ; 12 ; :::; 1m );
i=1 i=1

où R est un reste intégrale.

Le modèle logistique gaussien ou normal


ANNEXE B. QUELQUES MODÈLES EXTRÊMES MULTIVARIÉS 115

C’est le modèle dé…ni, pour tout (x1 ; :::xm ) 2 Rm ; par

(
X
m X n
1 ij xi
G (x) = exp xi + xi + xj xi ij
+ 2
log xj
i=1 1 i<j m
9
o X Z xik =
xj
xj 1
+ ij
2
log xi
+ ( 1)jSj+1 k 1 log x
xi
+ 2
2
; dx ;
ij
0 ij ;ik ;
S:jSj 3

où k 1 (:; ) est la fonction de survie de la distribution normale (k-1)-


multivariée de matrice de variance-covariance où = ij ;ik est la ma-
2 2 2
trice (k 1)-carrée où les éléments (i; j 0 ) sont tous égaux à 2 ij ;ik + ij 0 ;ik ij ;ij 0
1
avec 1 j; j 0 k 1 et i;i = 0:

La fonction de Pickands associée est dé…nie, pour t = (t1 ; :::tm 1 ) 2 Sm


par

!
X1
m X1
m
A (t) = 1 ti 1 ti
i=1 i=1
1
X2
m
ij tj ij
1 ij ti 1
+ ti + tj ti + 2
log tj
tj + log ti
i=1;i<j
ij ij 2
0 0 0 11
X1
m
+ @ti + tm ti @ 1
+ im
log @ ti AA
im 2 mP1
i=1 1 tk
k=1
0 0 P1
m 111
! 1 tk
X1
m
B B CCC
1 tk B 1
+ ij
log B k=1 CCC + R(t1 ; :::; tm 1 ; 12 ; :::; 1m );
@ ij 2 @ ti AAA
k=1

où R est un reste intégrale.

Le modèle logistique imbriqué multivarié


ANNEXE B. QUELQUES MODÈLES EXTRÊMES MULTIVARIÉS 116

C’est le modèle dé…ni, pour tout (x1 ; :::xm ) 2 Rm ; par


8 9
> " # 1
>
< X 1 Xm =
ij ij ij
G (x) = exp pi xi + pj xj + p x
i i i
>
: >
;
1 i<j m i=1

où pi = i +m 1, 1; ij 1; i étant le degré de liberté des


distributions marginales univariées.
La dépendance de Pickands associée est dé…nie, pour tout t = (t1 ; :::tm 1 ) 2
Sm par
" 1
X ij ij
X
m
ij
A (t) = pi ti + pj tj + i pi ti
1 i<j m 1 i=1
31
0 0 1 1
! 1 ij ij
X X X
m 7
B A C 7
+ @p j
ij
@ pi ti 1 tk A + i pi ti 7 :
1 i m 1 1 k m 1 i=1
5

Le modèle logistique asymétrique multivarié.

C’est le modèle dé…ni, pour tout (x1 ; :::xm ) 2 Rm ; par


G (x) =
8 9
> " # 1
>
< X m X m X X h i 1 =
exp xi + ( 1)jSj+1 xi _ pi ij
xi Ij
+ pj ij
xj Ij ij
:
>
: i=1 >
;
S:jSj 1 i2S i<j; i;j2S

La dépendance de Pickands correspondant est dé…nie, pour tout t =


(t1 ; :::tm 1 ) 2 Sm , par
" #
X X X h i 1
A (t) = 1 ( 1)jSj+1 ti + _ pi ij
ti Ij
+ pj ij
tj Ij ij

S: 2 jSj m 1 i2S i<j; i;j2S


2 3
! 2 ! 3 1
im
6 X X X im
7
+( 1) m+1 6 1 ti 4pi im
ti im
+ pm ij
1 ti 5 7
4 5
1 i m 1 i<m 1 i m 1
Bibliographie

[1] Beirlant, J., Goegebeur, Y., Segers, J., and Teugels, J. (2005). Statistics
of Extremes : theory and application -Wiley, Chichester, England.
[2] Carreau J. (2004). Estimation de densité conditionnelle lorsque l’hyp-
pothèse de normalité est insatisfaisante - thèse de doctorat
[3] Clauss, P. (2008). Théorie des copules - Eléments de cours sur les copules
multivariées- ENSAI
[4] Coles, S. (2001). An introduction to statistical modeling of extreme
values- Springer-Verlag (London), 2001.
[5] Coles, S., Tawn, J. (1991). Modelling Extreme Multivariate Events -
Journal of the Royal Statistical Society 53, pp. 377-392.
[6] Degen M. (2006). On Multivariate Generalised Pareto Distributions and
High Risk Scenarios - thesis, Department of Mathematics, ETH Zü-
rich.
[7] Fougères, A., L (1996). Estimation non paramétrique de densités unimo-
dales et de fonctions de dépendance- thèses doctorat de l’Université
Paul Sabatier de Toulouse.
[8] Frahm et al., (2005). Estimating the tail dependence coe¢ cient- Insu-
rance : Mathematics and Economics 37, 80-100.
[9] Galambos, J. (1987). The Asymptotic Theory of Extreme Order
Statistics-2nd ed. Krieger, Malabar.
[10] Genest, C., Mackay, J. (1993). Copules archimédiennes et familles de lois
bidimensionnelles dont les marges sont données - Canadian Journal

117
BIBLIOGRAPHIE 118

of Statistics 14, pp. 145-159


[11] Ghoudi, K., Khoudraji,A., Rivest, L-P. (1998). Propriétés statistiques
des copules de valeurs extrêmes bidimensionnelles - Canadian Jour-
nal of Statistics 26, pp. 187-197
[12] Husler, J., Reiss, R.-D.(1989). Extreme value theory - Proceedings of a
conference held in Oberwolfach, Dec. 6-12,1987. Springer, Berlin etc.
Lenz, H.
[13] Joe, H. (1997). Multivariate Models and Dependence Concepts - Mono-
graphs on Statistics and Applied Probabilty 73, Chapman and Hall,
London.
[14] Kotz, S., Nadarajah, S. (2000). Extreme Value Distributions, Theory
and Applications - Imperial College Press - [48] S. Lang , Linear
Algebra
[15] Michel, R.(2006). Simulation and Estimation in Multivariate Genera-
lized Pareto Distributions- Dissertation, Fakultät für Mathematik,
Universität Würzburg, Würzburg.
[16] Müller, A.(2006). Comportement asymptotique de distribution des
pluies en France- thesis of University of Monpellier.
[17] Nelsen, R.B. (1999). An Introduction to copulas- Lectures notes in Sta-
tistics 139, Springer-Verlag
[18] Pickands, J. (1981). Multivariate extreme values distributions- in Bul-
letin of International Statistical Institute, Procedings of the 43 rd
Session, Buenos Aires 1981, pp. 859-878.
[19] Resnick, S.I. (1987). Extreme Values, Regular Variation and Point
Processes- Springer-Verlag.
[20] Roncally, T. (2004). Théorie des extrêmes et couverture des
catastrophes- Elément de cours sur l’application des valeurs ex-
trêmes. Université d’Evry.
[21] Sklar, A.(1996)- Random variables, distribution functions, and copulas -
a personal look backward and forward, In : Distributions with Fixed
BIBLIOGRAPHIE 119

Marginals and Related Topics, eds. : L. Rueschendor¤, B. Schweizer,


and M.D. Taylor, pp. 1–14.
[22] Tajvidi, N. (1996a)- Con…dence Intervals and Accuracy Esti-
mation for Heavy-tailed Generalized Pareto Distribution-
Thesis article, Chalmers University of Technology.
http ://www.maths.lth.se/matstat/sta¤/ nader/.
[23] Tajvidi, N. (1996) - Characterisation and Some Statistical Aspects of
Univariate and Multivariate Generalised Pareto Distributions - Dis-
sertation, Department of Mathematics, ChalmersTekniska HÄog-
skola GÄoteborg - http ://www.math.chalmers.se/~nader/thesis.ps
[24] Tawn, J.A. (1988)-Bivariate extreme value theory : models and
estimation- Biometrika,75, 397-415
Méthodes d’analyse géostatistiques avec des
applications à la prédiction en environnement et
aux changements climatiques

Thèse présentée et soutenue par DIALLO Moumouni


Spécialité : Mathématiques Appliquées
Option : STATISTIQUE

Université Professeur Joseph Ki-Zerbo

4 février 2017

1
Dédicace

Je dédie ce travail à mes parents.

i
Remerciements

Le moment est venu pour moi d’exprimer toute ma gratitude au Pr Blaise SOME
et au Dr Longin SOME, Maître de Conférences de l’Université de Ouaga 1- Professeur
Joseph Ki-Zerbo, à qui j’adresse mon profond respect. Ils m’ont accueilli au sein du
Laboratoire L.A.N.I.BIO. (Laboratoire d’Analyse Numérique d’Informatique et de
Biomathématiques).
Je remercie mon Directeur de thèse, Dr Diakarya BARRO Maître de Conférences
à l’Université Ouaga 2, pour m’avoir donner ce thème et accepter de m’encadrer.
Je le remercie pour son enthousiasme et son soutien sans faille au cours de nos
travaux. Malgré ses occupations, il a toujours été disponible pour m’inculquer sa
grande rigueur.
Je remercie les rapporteurs et les membres du Jury pour avoir accepté d’apprécier
ce travail. Leurs critiques et suggestions seront d’un grand apport dans l’amélioration
de ce travail.
Je remercie l’Union Économique et Monétaire Ouest Africaine (UEMOA) pour
leurs soutiens à notre laboratoire (LANIBIO).
Je remercie l’État malien qui, à travers la Faculté des Sciences Économique et
de Gestion (F ESG) et le Programme de Formation de Formateur (P F F ), m’avoir
soutenu financièrement.
Je remercie la Direction Générale de la Météorologie du Burkina Faso pour avoir
mis à ma disposition des données.
Je remercie aussi Dr Mamadou Souleymane SANGARE, Maître de Conférences
à L’École Normale Supérieure de Bamako et Dr Youssouf PARE, Maître de confé-
rences de l’Université de Ouaga 1- Professeur Joseph Ki-Zerbo, pour leurs conseils
et encouragements.
Je remercie tous mes camarades Burkinabé, pour leur accueil fraternel et leur
collaboration, en particulier Yacouba SIMPORE qui m’a ouvert ses portes pendant
mes séjours à Ouagadougou.
Qu’il me soit permis de remercier toute ma famille pour leurs amour et encourage-
ment, particulièrement mon épouse Wassa KEITA et mes enfants pour leur patience
pendant mes absences. Je remercie également mes frères maliens avec qui j’ai par-
tagé mes moments de joie et de tristesses durant les quelques mois. En particulier, je
remercie Lassana COULIBALY et Sinaly DISSA grâce à qui j’ai connu le LANIBIO.

ii
Résumé

Dans ce travail, nous nous sommes intéressés à la prédiction des phénomènes


extrêmes. Nos investigations ont porté principalement sur la modélisation de la dé-
pendance spatio-temporelle d’événements extrêmes. Nous avons utilisé trois grandes
familles d’outils statistiques : la théorie des valeurs extrêmes, la statistique spatiale
(y comprise la géostatistique) et les copules.
Spécifiquement, notre travail a concerné les coefficients des queues (« upper » et
« lower »). Nous avons fait une extension des propriétés relatives à ces coefficients
de dépendance dans le contexte spatial. Notre contribution est une caractérisation
des paramètres de dépendance d’un processus spatial Archimax de marges bivariées.
Aussi, nous avons donné une caractérisation de la distributions multivariées des va-
leurs extrêmes dans le cadre spatio-temporel. Nous nous sommes aussi penchés sur la
structure de dépendance dans des classes de variogrammes. Particulièrement, nous
avons décrit avec les copules Archimédiennes la structure de dépendance des classes
exponentielle et gaussienne.
En outre, une analyse spatio-temporelle est faite sur des données de température
prélevées dans des stations météorologiques du Burkina Faso. Cette analyse est basée
essentiellement sur l’élaboration des modèles décrivant les occurrences des grandes
intensités thermiques en tenant compte de leurs variations saisonnières. Suivant les
saisons d’une année, ces modèles nous renseignent sur les intensités extrêmes ther-
miques susceptibles d’être réalisées pendant des périodes d’amplitudes allant de 10
à 100 ans. En plus, nous avons analysé les dépendances entre les sites. Ces résultats
informent qu’il est probable qu’un événement thermique extrême observé à Oua-
gadougou se réalise à Pô et Fada . Par contre il est improbable qu’un événement
thermique extrême observé à Dori se réalise (au même moment) ni à Bobo encore
moins à Po (vice-versa).

Mots clés : Valeurs extrêmes, variogramme, madogramme, dépendance


spatio-temporelle, Changement climatique, Copule Archimax, dépendance de queue
spatiale, géostatistique.

iii
Abstract

In this study, we have focused on extremes phenomena prediction. Particularly,


our investigation deals with the spatial-temporal dependence of extreme events. In
this modelization, three mains families of statistic tools were used necessary: extreme
value theory, spatial statistic and copula.
Specifically, our study has concerned the tail coefficient («upper» and «lower»).
Indeed, we have expanded the properties of these tails coefficients in spatial frame-
work. Our contribution is mainly a characterization of dependence parameters of a
two-marginally Archimax spatial process. Moreover, we have given of a multivariate
extreme value distribution in spacial-temporal field. Moreover, we have investigated
about on the dependence structure of some variogram classes. Particularly, with
Archimedean copula, we have described the dependence structure of Gaussian and
exponential variograms classes.
The last part of study by a spatial-temporal analysis of real temperature data.This
analysis is made on temperature data taken from meteorological stations in Burkina
Faso. It is based essentially on development of models describing the occurrences
of large thermal intensities taking into account their seasonal variations. Depending
on the seasons of year, these models provide information on the extreme thermal
intensities that can be realized during periods of amplitudes ranging from 10 to 100
years. In addition, we analyzed the dependencies between the sites. These results
indicate that an extreme thermal event in Ouagadougou in likely to occur in Pô and
Fada. On the other hand, it is unlikely that an extreme thermal event observe at
Dori is realized (at the same time) or at Bobo even less at Pô.

Keywords : Extreme values, variogram, madogram, dependence spatial-temporal


function, Climate change, Archimax copula, tail spatial dependence, géostatistic.

iv
Table des matières

Dédicace i

Remerciements ii

Résumé iii

Table des matières v

Table des figures vii

Liste des tableaux ix

Introduction Générale 1

1 Cadre et outils de travail 4


1.1 Quelques outils de statistique spatiale . . . . . . . . . . . . . . . . . . 4
1.1.1 Généralités sur les champs aléatoires . . . . . . . . . . . . . . 5
1.1.2 Champ aléatoire max-stable . . . . . . . . . . . . . . . . . . . 6
1.2 Éléments de statistique des extrêmes . . . . . . . . . . . . . . . . . . 7
1.2.1 Approche des blocs des maxima normalisés . . . . . . . . . . . 7
1.2.2 Modèle de dépassement de seuil . . . . . . . . . . . . . . . . . 10
1.2.3 Éléments d’analyse des extrêmes multivariées . . . . . . . . . 12
1.3 Outils géostatistiques dans la dépendance des extrêmes . . . . . . . . 15
1.3.1 Le variogramme et la modélisation des extrêmes . . . . . . . . 16
1.3.2 Le madogramme et ses différentes formes . . . . . . . . . . . . 17
1.4 Outils de la dépendance de queue . . . . . . . . . . . . . . . . . . . . 20
1.4.1 Rappels sur la distribution de survie . . . . . . . . . . . . . . 20
1.4.2 Coefficient de dépendance de queue spatiale . . . . . . . . . . 21

2 Copules Archimédiennes - dépendance spatiale 23


2.1 Introduction à l’analyse des copules . . . . . . . . . . . . . . . . . . . 23
2.1.1 Présentation et propriétés élémentaires des copules . . . . . . 23
2.1.2 Copule des processus max-stable . . . . . . . . . . . . . . . . 27
2.1.3 Copules des Archimédiennes et Archimax . . . . . . . . . . . . 31
2.2 Structure de dépendance dans deux classes de variogrammes . . . . . 33

v
TABLE DES MATIÈRES vi

2.2.1 Copule Archimédienne associée aux classes de variogrammes . 34


2.2.2 Similarité entre les copules associées aux classes et les copules
de référence . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

3 Modélisation de dépendance géostatistique 43


3.1 Modèle de dépendance asymptotique dans un cadre spatial . . . . . . 43
3.1.1 Dépendance spatiale d’une marge d’un processus Archimax . . 43
3.1.2 Queues supérieures d’une copule spatiale Archimédienne . . . 46
3.1.3 Queue inférieure d’une copule spatiale Archimax . . . . . . . . 48
3.2 Stabilité des copules Archimédiennes de survie dans un cadre spatialisé 49
3.2.1 Analyse de survie dans un cadre spatial . . . . . . . . . . . . . 49
3.2.2 Stabilité de combinaison géométrique de copules de survie . . 50
3.3 Modèle de dépendance spatio-temporelle de processus max-stables . . 52
3.4 Formes analytiques de quelques modèles multivariés et max-stables . 57
3.4.1 FDST des principaux modèles bivariés max-stables . . . . . . 58
3.4.2 FDST des distributions max-stables trivariées . . . . . . . . . 60
3.4.3 Dépendance spatio-temporelle des distributions multivariées
extrêmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62

4 Modélisation des extrêmes climatiques 65


4.1 Le climat du Burkina Faso . . . . . . . . . . . . . . . . . . . . . . . . 66
4.1.1 Conséquences des inondations au Burkina . . . . . . . . . . . 67
4.1.2 Conséquences des sécheresses au Burkina . . . . . . . . . . . . 68
4.2 Modèles et méthodes d’estimation des paramètres . . . . . . . . . . . 68
4.2.1 Estimation des paramètres . . . . . . . . . . . . . . . . . . . . 68
4.2.2 Validation des modèles . . . . . . . . . . . . . . . . . . . . . . 69
4.3 Analyse des données extrêmes . . . . . . . . . . . . . . . . . . . . . . 71
4.3.1 Description des maxima de températures . . . . . . . . . . . . 71
4.3.2 Analyse des maxima annuels par station . . . . . . . . . . . . 72
4.4 Analyse de la dépendance spatio-temporelle . . . . . . . . . . . . . . 77
4.4.1 Modélisation de la variation temporelle des paramètres . . . . 78
4.4.2 Modélisation de la dépendance spatiale inter-stations . . . . . 84

Conclusion Générale et perspectives 89

Annexes 91

Bibliographie 100
Table des figures

0.1 Représentation schématique de l’effet possible du changement climatique


sur les températures extrêmes (GIEC 2012) . . . . . . . . . . . . . . . . 2

2.1 Contours des copules CI et CD . . . . . . . . . . . . . . . . . . . . . . . 35


2.2 Contours des copules CG et CE . . . . . . . . . . . . . . . . . . . . . . . 36
2.3 Similarité entre les matrices Mn,n , 1 ≤ n ≤ 1000 de CγG et CI (à gauche),
et celle de CγG et CD (à droite). . . . . . . . . . . . . . . . . . . . . . . . 39
2.4 Similarité entre les matrices Mn,n , 1 ≤ n ≤ 1000 de CγE et CI (à gauche),
et celle de CγE et CD (à droite). . . . . . . . . . . . . . . . . . . . . . . . 39
2.5 Carte de prédiction spatiale d’un échantillon « A » relative au vario-
gramme gaussien. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.6 Carte de prédiction spatiale d’un échantillon « A », relativement au va-
riogramme exponentiel. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.7 Carte de prédiction spatiale d’un échantillon « B » via variogramme gaus-
sien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

4.1 Inondation de septembre 2009 à Ouagadougou, source : lefaso.net . . . . 65


4.2 Carte des zones climatiques du Burkina Faso (1981-2010).
Source :Direction Générale de la Météorologie . . . . . . . . . . . . . . . 67
4.3 Nuages des maxima de températures . . . . . . . . . . . . . . . . . . . . 72
4.4 Histogrammes des maxima mensuels des températures par station . . . . 72
4.5 Les courbes « probability plot » « quantile plot » et les courbes des den-
sités empirique et théorique de la station de Bobo . . . . . . . . . . . . . 74
4.6 Station de Dori : Les courbes « probability plot », « quantile plot » et les
courbes des densités empirique et théorique. . . . . . . . . . . . . . . . . 74
4.7 Station de Fada : Les courbes « probability plot », « quantile plot » et les
courbes des densités empirique et théorique. . . . . . . . . . . . . . . . . 74
4.8 Station de Ouaga : Les courbes « probability plot », « quantile plot » et
les courbes des densités empirique et théorique. . . . . . . . . . . . . . . 75
4.9 Station de Po : Les courbes « probability plot », « quantile plot » et les
courbes des densités empirique et théorique. . . . . . . . . . . . . . . . . 75
4.10 Courbes des niveaux de retour en fonction des périodes de retour des
différentes stations. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.11 Variations des paramètres GEV par mois et par station . . . . . . . . . 78

vii
Table des figures viii

4.12 Évolution des paramètres estimés des distributions GEV en fonction des
mois, dans les différentes stations. . . . . . . . . . . . . . . . . . . . . . . 80
4.13 Évolution des paramètres d’échelle estimés des distributions GEV en
fonction des mois, dans les différentes stations. . . . . . . . . . . . . . . . 81
4.14 Évolution des niveaux de retour thermique dans la zone Sahélienne . . . 82
4.15 Évolution des niveaux de retour thermique dans zone Soudano-sahélienne 82
4.16 Évolution des niveaux de retour thermique dans la zone Soudanienne . . 83
4.17 Dépendance spatiale par paire de stations . . . . . . . . . . . . . . . . . 84
4.18 Densités marginales et les période de retour marginales du pair de stations{B, D} . 86
4.19 Estimation des courbes de dépendance bivariées de la pair de station {B, D} 86
4.20 Dépendance bivariée thermique de la paire de stations {Bobo-Fada} . . . 94
4.21 Dépendance bivariée thermique de la paire de stations {Bobo-Ouaga}. . 94
4.22 Dépendance bivariée thermique de la paire de stations {Po-Ouaga}. . . 95
4.23 Dépendance bivariée thermique de la paire de stations {Dori-Fada}. . . 95
4.24 Dépendance bivariée thermique de la paire de stations {Dori-Ouaga}. . . 96
4.25 Dépendance bivariée thermique de la paire de stations {Dori-Po}. . . . . 96
4.26 Dépendance bivariée thermique de la paire de stations {Ouaga-Fada}. . 97
4.27 Dépendance bivariée thermique de la paire de stations {Po-Fada}. . . . 97
4.28 Dépendance bivariée thermique de la paire de stations {Bobo-Dori}. . . 98
Liste des tableaux

2.1 Générateurs et copules spatiales Archimédiennes associées aux classes des


variogrammes exponentiel et gaussien. . . . . . . . . . . . . . . . . . . . 35
2.2 Moyennes des similarités (S. Mean), s (CγG , CD ), s (CγE , CI ) ,s (CγE , CI )
et s (CγE , CD ) sont celles de (E.I), (G.D), (G.I) et (E.I) et leurs erreurs
standard (St. D.) respectives. . . . . . . . . . . . . . . . . . . . . . . . . 39

4.1 Les paramètres des distributions GEV et leurs erreurs standard corres-
pondante relativement aux sites . . . . . . . . . . . . . . . . . . . . . . 73
4.2 Résumé des statistiques de Kolmogorov des ajustements GEV . . . . . . 73
4.3 Résumé des températures terminales annuelles des stations . . . . . . . 76
4.4 Coefficients des polynômes d’interpolation des paramètres de localisation 79
4.5 Résumé du test de Kolmogorov des paramètres de localisation . . . . . . 79
4.6 Coefficients des polynômes d’interpolation des paramètres d’échelle . . . 80
4.7 Résumé du test de Kolmogorov des polynômes d’interpolation des para-
mètres d’échelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
4.8 Informations des distributions bivariées paramétriques relativement au
pair de site Bobo-Dori . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
4.9 Résumé des coefficients de dépendance par pairs de stations . . . . . . . 87

ix
Sigles, Abréviations et Notations

Sigles Significations
cc : Changement climatique
GIEC : Groupes d’Experts Intergouvernementaux sur l’Évolution du Climat
CILSS : Comité permanent Inter-États de Lutte Contre la Sécheresse dans le Sahel
GES : Gaz à Effet de Serre
IPCC : Intergovernmental Panel on Change climate
AIC : Akaike Information criterion
GEVD : General Extreme Value
EVT : Extreme Value Theory
GPD : General Pareto Distribution
POT : Peack Over Threshold
i.e : C’est à dire
MDA : Domaine d’attraction
iid : identiquement et indépendamment distribué
v.a : variable aléatoire
FDST : Fonction de dépendance spatio-temporellle

x
Liste des tableaux xi

Notations
xF et x : F
points terminaux (inférieur et supérieur)
x: réalisation de la v.a X
X : Variable aléatoire
{Xt , t ∈ T } : processus aléatoire indexé par t
L (., x) : log-vraisemblance conditionnelle aux données observées x
F (.) : Fonction de répartition
Fu (.) : Fonction de répartition des dépassements d’un seuil u
F̂ (.) : Fonction de répartition estimé
F̃ (.) : Fonction de répartition empirique
F −1 (.) : Fonction de répartition inverse
F̄ (.) : Fonction de survie
F ← (.) : inverse généralisé de la fonction de répartition
ξ (.) : paramètre de forme GEV
σ (.) : paramètre d’échelle
µ (.) : Paramètre de localisation
Γ (.) : Fonction Gamma
Λ (.) : Fonction de répartition de Gumbel
ψ (.) : Fonction de répartition de Weibull
Φ (.) : Fonction de répartition de Fréchet
A (.) : Fonction de dépendance de Pickands
θ : Coefficient extrémal
U
λ : Coefficient de dépendance à droite
λL : Coefficient de dépendance à gauche
cov (., .) : Covariance
Bθ (.) Fonction de dépendance Spatio-temporelle
Introduction Générale

Depuis la fin du dernier siècle un changement climatique sans précédent a été


détecté par la communauté scientifique. Face à ce changement qui menace tous nos
progrès, les rencontres internationales comme les « Conference of parti » (Cop 1 ) se
multiplient et des groupes de recherche, comme les Groupes d’Experts Intergouverne-
mentaux sur l’Évolution de Climat (GIEC 2 ), se forment. Aujourd’hui deux stratégies
principales sont élaborées pour affronter ces aléas climatiques. Il s’agit des mesures
d’atténuation et celles de l’adaptation.
Selon le rapport du GIEC de 2007, l’augmentation de la température moyenne
du globe est fortement due à la hausse des concentrations des Gaz à Effet de Serre
(GES) engendrés par les activités humaines. Or, une variation de la moyenne du
globe affecte l’occurrence des éventements climatiques extrêmes (figure 0.1).
En fait, une augmentation de la température moyenne (figure 0.1a) signifie qu’il
fait plus souvent extrêmement chaud et plus rarement extrêmement froid. Au cas
où la variabilité de la température augmente sans changement de la moyenne peut
entraîner la fréquence des deux types extrêmes de température (figure 0.1b). Une
hausse de la moyenne et de la variabilité peut provoquer des moments de chaleur
plus fréquents et moins de période de froid (figure 0.3c).
En fonction du niveau d’industrialisation des pays, le taux des GES ne cesse
d’augmenter. La stratégie d’atténuation propose des conduites humaines dans l’op-
tique de réduire le taux des GES. Malheureusement, avec la quantité actuelle de ces
gaz , même si toutes les sources de production de GES s’arrêtaient aujourd’hui, la
température va continuer à s’accroître jusqu’à la fin de notre siècle (cf. GIEC 2014).
D’où l’association des mesures d’adaptation.
La stratégie d’adaptation résume l’ensemble des méthodes visant à se préparer
aux aléas du réchauffement climatique. Pour une adaptation efficace et rationnelle,
l’élaboration des outils de prédictions est devenue plus que nécessaire. C’est dans ce
contexte que notre problématique s’inscrit.
Pour le futur, plusieurs résultats mettent la lumière sur la fréquence des épi-
sodes de chaleur, suite à l’augmentation de la moyenne thermique de notre planète.
1. Créé en 1995 à Berlin. La dernière en date est la cop22 au Maroc.
2. Il a été établi en 1988 par l’Organisation Météorologique Mondiale (OMM) et le Programme
de Nations Unie pour l’Environnement (PNUE)

1
Figure 0.1 – Représentation schématique de l’effet possible du changement clima-
tique sur les températures extrêmes (GIEC 2012)

Cependant, l’occurrence de ces phénomènes extrêmes restent aléatoires jusqu’à nos


jours.
La statistique classique, basée sur les tendances centrales, montre ses limites
dans l’analyse des données extrêmes. C’est suite à cette insuffisance qu’est née la
théorie des valeurs extrêmes. Elle propose des modèles qui décrivent la survenue
des extrêmes, sans connaître nécessairement la loi du processus source. En outre les
données climatiques, pour la plupart du temps, présentent des composantes spatiales
et temporelles. D’où la nécessité des outils qui caractérisent la dépendance spatio-
temporelle.
A ce jour, plusieurs résultats sont établis dans la théorie des valeurs extrêmes. Les
développements théoriques ont permis de nombreuses applications dans des domaines
divers : l’épistémologie, la résistance des matériaux, l’analyse sismique, etc. Dans le

2
cadre de la modélisation de la dépendance multivariée, les copules n’en restent pas
moindre. Elles ont été introduites suite à des insuffisances observées de certaines
mesures de dépendance classiques.
Hormis l’introduction et la conclusion générales, cette étude s’articule autour de
quatre chapitres.
• Le premier chapitre présente notre cadre de travail. Dans le contexte spatial,
nous exposons un aperçu général de la théorie des valeurs extrêmes. En plus, quelques
outils de la statistique spatiale y sont présentés.
• Le chapitre 2 est un aperçu sur les copules. Quelques propriétés des copules y
sont exposées. Un accent particulier est mis sur les copules Archimax.
• Le chapitre 3 est consacré à des modèles de valeurs extrêmes multivariés dans
le contexte spatio-temporel.
• Le chapitre 4 est une modélisation des occurrences, à partir de données ex-
trêmes réelles thermiques.

3
Chapitre 1

Cadre et outils de travail

La vulnérabilité au phénomène climatique est fonction de la position géogra-


phique, de l’ampleur de la cause du phénomène et du niveau de développement.
Notre étude est basée essentiellement sur les occurrences des phénomènes extrêmes,
donc le niveau de développement n’est pas pertinent dans ce travail. La modélisa-
tion de la survenance des phénomènes extrêmes, en tenant compte des composantes
spatio-temporelles, peut se ramener à une étude de la structures de dépendance.
Dans ce chapitre, nous exposons les outils nécessaires pour cette modélisation.
Principalement, nous présentons la théorie des valeurs extrêmes dans un contexte
spatial et quelques outils de la géostatistique

1.1 Quelques outils de statistique spatiale


La géostatistique est un sous-domaine de la statistique spatiale basée sur la théorie
des champs aléatoires pour répondre à des questions de prédictions spatiales. C’est
une application des méthodes probabilistes à des variables régionalisées permettant
une analyse cohérente des données, des incertitudes, des erreurs qui les entachent,
ainsi que la structure spatiale de la teneur.
Dans l’approche géostatistique, on désigne par S un sous ensemble continu de Rd
avec d ∈ N et on modélise Z « au second ordre » par sa fonction de covariance ou
par son variogramme. Par exemple, pour d = 2, s = (x, y) ∈ S est repéré par ses
coordonnée géographiques et si d = 3, on ajoute l’altitude(ou la profondeur) z.
Une évolution dans l’espace peut aussi être modélisée par des sites espace-temps
(s, t) ∈ R3 ×R+ , s représentant l’espace et t le temps. Développée initialement pour la
prévision des réserves minières d’une zone d’exploitation S ⊆ R3 , la géostatistique est
aujourd’hui utilisée dans des domaines variés. Un objectif capital de la géostatistique
est de dresser des cartes de prévision de Z par krigeage sur tout S à partir d’un
nombre fini d’observations.

4
CHAPITRE 1. CADRE ET OUTILS DE TRAVAIL 5

1.1.1 Généralités sur les champs aléatoires


n o
Dans la cadre de notre étude, nous notons par S = s ∈ Rd un sous espace eucli-
dien de dimension finie d, (d ∈ N∗ ) représentant le domaine spatial des sites sur lequel
on a une famille de variables aléatoires (v.a) de nombres réels Z = {Z (s) , s ∈ S}.
Supposons que (Ω, A, P) un espace probabilisé et (R, BR ) un espace mesurable, avec
BR la tribu borélienne de R.
Définition 1. Un champ aléatoire à espace d’état R est une famille Z = {Z (s) , s ∈ S}
de variables aléatoires définies sur (Ω, A, P) dans (R, BR ) .
Remarque 1. Un champ aléatoire aussi appelé processus stochastique sur S, en-
semble des sites, à valeurs dans R. En fait, pour tout entier n ≥ 1 et tout n−uplet
(s1 , s2 , . . . , sn ) ∈ S n , la loi de (Z (s1 ) , Z (s2 ) , . . . , Z (sn )) est l’image de la probabilité
PZ par l’application

w 7−→ (Z (s1 , w) , Z (s2 , w) , . . . , Z (sn , w)) ,

telle que pour Bi ∈ BR , i = 1, . . . , n ,

PZ (B1 × . . . × Bn ) = P ((Z (s1 ) , . . . , Z (sn )) ∈ B1 × . . . × Bn ) .

La loi d’un champ aléatoire est totalement caractérisé par les distributions finies-
dimensionnelles. Pour toutes valeurs de n et tout ensemble de n−uplets on a : ∀si ∈
Rd , i = 1, . . . , n;

Fs1 ,...,sn (B1 , . . . , Bn ) = P ((Z (s1 ) , . . . , Z (sn )) ∈ B1 × . . . × Bn ) ,


où B1 , . . . , Bn sont des boréliens de R.
Il faut noter que le champ doit vérifier les conditions minimales de cohérence,
appelées condition de Kolmogorov (cf. [27]).
• (i) Condition de symétrie : la distribution fini-dimensionnelle doit être constante
par permutation,
 
Fs1 ,...,sn (B1 × . . . × Bn ) = Fsσ(1) ,...,sσ(m) Bσ(1) × . . . × Bσ(n) ,

où σ est une permutation de (1, . . . , n),


• (ii) Condition de cohérence par les marginales

Fs1 ,...,sn−1 (B1 , . . . , Bn−1 ) = Fs1 ,...,sn (B1 × . . . × Bn−1 × R) .

Notons que, si ces deux conditions ne sont pas vérifiées, alors il ne peut pas exister
de champs aléatoire sur Rd ayant les lois Fs1 ,...,sn−1 comme lois fini-dimensionnelles.
En particulier pour tous les sites s ∈ S, le vecteur aléatoire (Z (s1 ) , . . . , Z (sk ))
est caractérisé par une fonction de répartition qui dépend de k arguments :

Fs1 ,...,sn (z1 , . . . , zn ) = P [Z (s1 ) ≤ z1 , . . . , Z (sk ) ≤ zk ] .


CHAPITRE 1. CADRE ET OUTILS DE TRAVAIL 6

L’ensemble des fonctions de répartition, pour tous les entiers k et tous les choix
possibles de (z1 , . . . , zn ) ∈ Rn , constitue la loi spatiale de le fonction aléatoire.
En fait, chaque site s est déterminé par ses coordonnées géographiques. L’ espace
d’étude D peut être
• la droite réelle si d = 1,
• un plan si d = 2
• un espace si la dimension est supérieure ou égale à trois, on a un champ aléatoire
lorsque d ≥ 2.
Dans notre contexte, on suppose que l’ensemble des sites S est fini et la valeur
régionalisée z (s) est une réalisation du champs aléatoire Z (s). En outre, le champ
aléatoire sera supposé stationnaire au second ordre, c’est à dire que la moyenne de
Z est constate et sa covariance c est invariante par translation :

∀si , sj ∈ S, E (Z (si )) = m et c (si , sj ) = cov (Z (si ) , Z (sj )) = C (si − sj ) .

Avec C : S −→ R est la fonction de covariance stationnaire de Z. Par ailleurs,


l’invariance par translation de c se traduit par :

∀si , sj , h ∈ S, c (si + h, sj + h) = c (si , sj ) .

Nous rappelons que la fonction moment d’ordre k ∈ N∗ (s’il existe) du champ aléa-
toire Z est défini sur Rd dans R par :
  ˆ
∀s ∈ R , mk (s) = E Z (s) =
d k
xk dFs (x) , k ∈ N∗ .
R

En particulier l’espérance (s’il existe) de Z est : m (s) = E (Z (s)) avec s ∈ Rd .


Lorsque Z est stationnaire au second ordre, la fonction covariance du champ reste
toujours paramétrée par les sites

cov [Z (s1 ) , Z (s2 )] = E ([Z (s1 ) − m] [Z (s2 ) − m]) = c (s1 , s2 )


pour tout (s1 , s2 ) ∈ Rd × Rd .

1.1.2 Champ aléatoire max-stable


Dans cette partie, nous noterons par X (s) la variable régionalisée liée au site s
et Z j (s) la j ème observation dans le site s.
Définition 2. Un
n champ o aléatoire
n {Z (s)o; s ∈ S} est dit max-stable spatial, s’il existe
des constantes aN (s) > 0 et bN (s) ∈ R (avec N (s) > 1, s ∈ S ) telles que la loi,
 
 max1≤i≤n Z i (s) − bN (s)

 h n oin
P ≤ z (s) = P Z i (s) ≤ z (s) ,
aN (s) 

n o
soit identique à celle de {Z (s) ; s ∈ S} avec S = si ∈ Rd ; 1 ≤ i ≤ n, n ∈ N − {0, 1} .
CHAPITRE 1. CADRE ET OUTILS DE TRAVAIL 7

Dans ce cas, la distribution finie-dimensionnelle du vecteur aléatoire multivarié


spatial Z = (Z (s1 ) , . . . , Z (sn )) admet une distribution spatiale multivariée des va-
leurs extrêmes.
Remarque 2. Chaque composante Z (si ) du vecteur Z est une variable aléatoire des
extrêmes univariée relativement au site si , 1 ≤ i ≤ n.
Un des objectifs des études spatiales est de pouvoir faire une prévision dans des
sites non inspectés. En d’autre termes, il s’agit d’estimer l’intensité d’un événement
sur des sites à partir d’autres sites dans lesquels on dispose des informations certaines.
Cela n’est possible que lorsqu’on connaît la structure spatiale. A cette fin, plusieurs
outils ont été construits progressivement dans le temps suivant la particularité de
l’étude. Les uns viennent combler les insuffisances des précédents. Dans la section
suivante, nous donnons les principaux outils d’analyse de la dépendance spatiale.

1.2 Éléments de statistique des extrêmes


Dans l’étude des comportements stochastiques de la queue (supérieure ou in-
férieure) d’une distribution initiale des valeurs aléatoires, la statistique classique
devient inefficace, les valeurs extrêmes ayant des caractères « non-centrales ».
La problématique sur la théorie des valeurs extrême (EVT, en anglais) fut posée,
depuis les années 1920. Ce n’est qu’en 1943 qu’un fondement rigoureux est présenté
par Gnedenko (cf. [31]) avant que Gumbel (1958) ne propose une contribution, à
travers l’ouvrage intitulé « Statistical theory of extreme values and some practical
applications », dans l’application pratique de EVT dans l’analyse stochastique.
La théorie des valeurs extrêmes fournit des modèles qui renseignent sur la surve-
nance de ces grandes valeurs. Essentiellement deux approches de modélisations sont
proposées : l’approche des blocs des maxima et celle des excès au-delà d’un seuil
assez élevé et choisi selon des méthodes d’estimations appropriées.

1.2.1 Approche des blocs des maxima normalisés


Dans cette approche on intéresse au comportement asymptotique des maxima
observés dans un site d’un ensemble de site S = {sj , sj ∈ R2 }j≥1 où sj représente un
site déterminé par ses coordonnées géographiques.
s s
Supposons que Z1 j , . . . , Znj soit une suite de copies identiques et indépendantes
de réalisations de la variable aléatoire Z (sj ), relativement au site sj , de fonction de
distribution commune Fsj . Il ns’agit d’étudier le comportement asymptotique de la
sj sj
o
variable spatiale Mn,sj = max Z1 , . . . , Zn .
s
Dans la pratique, pour un site sj donné, les Xi j sont généralement des obser-
vations mesurées pendant des intervalles de temps réguliers. Par exemple, la plu-
viométrie horaire, la moyenne journalière de la température, etc., prélevées au site
sj .
CHAPITRE 1. CADRE ET OUTILS DE TRAVAIL 8

Dans ce cas, Mn,sj représente le vecteur maximum du processus pendant n unités


de temps d’observation.
En particulier, la fonction de répartition du vecteur Mn,sj est exactement
 o n
  n n
s

s

= P = P Xi j ≤ x = Fsnj (x) .
Y
P Mn,sj ≤ x ∩ Xi j ≤x
i=1
i=1

Cependant, dans la pratique la fonction de distribution Fsj n’est pas à priori


connue. Le plus souvent, on fait recours à la technique standard d’estimation de Fsj
à partir des données. Malheureusement une petite erreur dans l’estimation de Fsj
peut affecter considérablement Fsnj .
 En outre, d’après les résultats de Embrechets et al. [14], pour tout j ≥ 1, la suite
Mn,sj converge presque-sûrement vers le point terminal droit 1 xFsj . Par suite,
n≥1

0 si x < xFsj ,
lim FMn,sj (x) = lim Fsnj (x) = .
n→∞ n→∞ 1 si x ≥ xFsj

Par conséquent, la fonction FMsj est dégénérée lorsque n → +∞. L’issue probante
reste un modèle estimé uniquement à partir des données extrêmes. Pour une telle
étude asymptotique, il est donc intéressant de passer par une normalisation linéaire
de la variable Mn,sj , j ≥ 1.n o n o
Pour tout j ≥ 1, soit an,sj > 0, n ≥ 1 et bn,sj , n ≥ 1 deux suites de norma-
 
lisation. La distribution du maximum normalisé, Mn,sj − bn,sj /an,sj , est donnée
par,
  
 Mn,sj − bn,sj  n o  
P ≤x = P Mn,sj ≤ an,sj x + bn,sj = Fsnj an,sj x + bn,sj (1.1)
.
an,sj 

L’étude asymptotique de la distribution (1.1) conduit à la notion du max-domaine


d’attraction d’une loi extrême.
Définition 3. Soit Hsj une distribution non dégénérée relativement au site sj , j ≥ 1.
On dit que la distribution relative

au site sj , Fsj , appartient au domaine d’attraction
n o
de Hsj , noté Fsj ∈ M DA Hsj , si et seulement si, il existe deux suites an,sj > 0
n o
et bn,sj ∈ R telles que
 
Fsnj an,sj x + bn,sj −→ Hsj (x) , pour n → +∞, ∀x ∈ R. (1.2)
On établit le résultat suivant dans un contexte spatial.
 
Proposition 1. Pour tout sj , j ≥ 1, Fsj ∈ M DA Hsj si et seulement si
 
nF̄sj an,sj x + bn,sj −→ − log Hsj (x) , n → +∞, ∀x ∈ R. (1.3)
1. Les points terminaux droit xF et xF d’une distribution F sont donnés respectivement par :
F
x = sup {x ∈ R/F (x) < 1} et xF = inf {x ∈ R/F (x) > 0} ≥ −∞
CHAPITRE 1. CADRE ET OUTILS DE TRAVAIL 9

 
Démonstration. Pour un site fixé sj , j ≥ 1, supposons que Fsj ∈ M DA Hsj .
n o n o
Par conséquent, il existe deux suites an,sj > 0 et bn,sj ∈ R telles que
 
Fsnj an,sj x + bn,sj −→ Hsj (x) pour n → +∞, ∀x ∈ R. (1.4)

La fonction log (.) étant continue, il vient que :


 
n log Fsj an,sj x + bn,sj −→ log Hsj (x) ;

ce qui donne
n  o
n log 1 − F̄sj an,sj x + bn,sj −→ log Hsj (x) lorsque n → +∞.
 
Or pour n → +∞ ,F̄sj an,sj x + bn,sj −→ 0.
Au voisinage de 0, log (1 − u) ≈ −u. Par suite, (1.4) devient
 
nF̄sj an,sj x + bn,sj −→ − log Hsj (x) . (1.5)
n o n o
Réciproquement, supposons qu’il existe deux suites an,sj > 0 et bn,sj ∈ R rela-
tivement au site fixé sj , j ≥ 1,
 telles que la convergence en (1.3) soit établie.
Puisque F̄sj an,sj x + bn,sj −→ 0, n → +∞, on a :
n  o  
n log 1 − F̄sj an,sj x + bn,sj ≈ −nF̄sj an,sj x + bn,sj −→ log Hsj (x) . (1.6)

En utilisant l’exponentielle dans la relation (1.6) , on a


 
Fsnj an,sj x + bn,sj −→ Hsj (x) . (1.7)

Les résultats résumés en (1.5) et en (1.7) démontrent la proposition.


Le résultat suivant est la version « spatial » du théorème des trois types des
distributions max-stables, un fondement de l’analyse univariée des valeurs extrêmes.
s
 
Théorème 1. Soit Xi j , i ≥ 1 une suite de variables aléatoires i.i.d. associées au
n o n o
site sj , j ≥ 1. S’il existe des suites de normalisation an,sj > 0 et bn,sj ∈ R
n≥1 n≥1
et une distribution non dégénérée Gsj telle que
 
d
a−1
n,sj Mn,sj − bn,sj −→ Gsj ,

alors Gsj est de même type 2 que l’une des fonctions de distributions suivantes :
2. Deux variables X et Y sont de même type si elles sont égales à une translation près, i.e il
6 0 et β ∈ R telles que : FX (αx + β) = FY (x) ; x ∈ R.
existe des constantes α =
CHAPITRE 1. CADRE ET OUTILS DE TRAVAIL 10

n o
Λ (x) = exp −e−x , x ∈ R, Gumbel (1.8)
 n o
exp −x−1/ξ(sj ) , si x > 0
Φξ(sj ) (x) = , ξ (sj ) > 0 Fréchet (1.9)
0 si x≤0
 n o
exp − (−x)1/ξ(sj ) , si x ≤ 0
Ψξ(sj ) (x) = , ξ (sj ) > 0. Weibull (1.10)
1 si x > 0

En fait, les distributions Λsj ,Φξ(sj ) et Ψξ(sj ) sont les représentations standard 3
des fonctions de distribution des valeurs extrêmes relativement à un site sj , j ≥
1. Autrement dit, la distribution des valeurs extrêmes associée au site sj , j ≥ 1,
est respectivement l’une de ces trois représentations à un paramètre d’échelle et de
localisation près. Pour un site donné sj , j ≥ 1, le paramètre de forme ξ (sj ) contrôle
la classe du modèle des valeurs extrêmes.
Jenkinson et Von Mises ont établi une version paramétrique unifiée des trois types
de lois (1.11), appelée distribution généralisée des valeurs extrêmes associée au site
sj , j ≥ 1,
  h i−1/ξ(sj ) 
exp − 1 + ξ (sj ) x−µ(sj )

, si ξ (sj ) 6= 0
Hξ(sj ) (x) = n h 
σ(sj ) +
io = GEV (x)
exp − exp − x−µ(sj )

, si ξ (sj ) = 0
σ(sj )
(1.11)
avec κ+ = max (κ, 0) .

Théorème 2. Une distribution est max-stable si et seulement si elle est une distri-
bution des valeurs extrêmes.

La distribution GEV est l’unique loi paramétrique de probabilité qui modélise


le comportement des maxima d’un échantillon. Modéliser l’occurrence des extrêmes
revient à définir la taille des blocs et déterminer les paramètres. Lorsque la taille
de l’échantillon n’est assez pas grande, un problème de précision se pose sur les
paramètres estimés. D’où la nécessité d’une nouvelle approche : « la méthode du
dépassement de seuil ».

1.2.2 Modèle de dépassement de seuil


L’approche des excès ou modèle de dépassement de seuil - Peak Over Threshold
(POT), en anglais - consiste à sélectionner toutes les données qui dépassent un seuil
fixé généralement assez large. Dans cette section, nous présentons la distribution des
excès et sa distribution limite.
3. Dans la version standard le paramètre d’échelle et le paramètre de localisation sont respecti-
vement 1 et 0.
CHAPITRE 1. CADRE ET OUTILS DE TRAVAIL 11

Définition 4. On appelle excès de la variable aléatoire X au-delà d’un seuil u < xF


la variable aléatoire Y qui prend ses valeurs sur l’intervalle ]0, xF − u[, définie par :

Y = X − u|X > u, u < xF .

De cette définition, on trouve la distribution des excès Y de X au-delà d’un seuil


u < xF , que nous notons Fu , définie par :

∀y ∈ R, Fu (y) = P (X − u ≤ y|X > u)

On établit que la loi conditionnelle des excès Fu est telle que :

0 si y ≤ 0



1 − F (u + y)



∀y ∈ R, Fu (y) = 1 − si 0 < y < xF − u .

 1 − F (u)
1 si y ≥ xF − u

Le théorème de Pickands-Balkema-de Haan ci-après donne la forme de la loi limite


pour les valeurs extrêmes : sous certaines conditions de convergence, la loi limite est
une loi de Pareto généralisée que l’on notera GP D.

Théorème 3. (Pickands-Balkema-de Haan) La fonction de répartition F appartient


au max-domaine d’attraction des maxima Hξ (avec ξ ∈ R), si et seulement si, il
existe une fonction positive σ (u) telle que :

lim sup Fu (y) − Gξ,σ(u) (y) = 0


u→xF y∈[0,xF −u]

où Fu est la fonction de répartition conditionnelle des excès pour u élevé, xF est le


point terminal droit de F et Gξ,σ(u) est la GP D donnée par

1 − 1 + ξ y −1/ξ
  
si ξ 6= 0
Gξ,σ(u) (y) =  σ(u) 
1 − exp − y si ξ = 0
σ(u)

σ (u)
où y ≥ 0 pour ξ ≥ 0 et 0 ≤ y ≤ − pour ξ < 0.
ξ
Soit X une variable aléatoire de fonction de répartition F inconnue appartenant
au M DA d’une distribution GEV , de paramètre de forme ξ ∈ R, alors la distribu-
tion des excès de X au-delà d’un certain seuil u converge uniformément vers une
distribution GP D, de même paramètre de forme.
CHAPITRE 1. CADRE ET OUTILS DE TRAVAIL 12

1.2.3 Éléments d’analyse des extrêmes multivariées


Certaines situations de modélisation des comportements des événements extrêmes
présentent aux moins deux variables aléatoires. Une extension du cas univarié au
multivariée n’est pas immédiate. C’est pourquoi, dans cette sous-section nous pré-
sentons un aperçu. Modéliser avec une distribution multivariée nécessite des marges
communes. Pour une simplicité, on utilise généralement des distribution standard
comme la distribution exponentielle, Gumbel ou Fréchet unitaire.
Dans cette théorie multivariée, plusieurs auteurs utilisent une standardisation des
marges par la loi de Fréchet à cause de sa souplesse et son support positif.
Supposons qu’il existe deux suites réelles {an > 0} et {bn ∈ R} telles que pour
n → +∞,
d
n {Mx,n − bn } −→ Mx,n ∼ GEV (µX , σX , ξX ) .
a−1 ∗

Alors ( −1/ξX )
x − µX
   
P ∗
Mx,n ≤ x = exp − 1 + ξX , ξX ∈ R.
σX +
−1/ξX
X − µX
 
La distribution de la variable Z (s) = 1 + ξX est Fréchet unitaire,
σX +
FZ(s) (z) = exp (−1/z), z > 0.
Il faut noter que ce choix n’est nullement pas restrictif puisque la transformation
fonctionnelle

Zs ∼ Φ−1,s ⇐⇒ − ln (Zs ) ∼ Λs ⇐⇒ −1/Zs ∼ ψ−1,s , (1.12)

permet de passer d’une marge à une autre.


Dans le contexte de notre étude, supposons que nous disposons de n stations de
prélèvement de données extrêmes. A chaque station est associée une distribution des
valeurs extrêmes univariées transformée en Fréchet unitaire de variables respectives
Z (si ) , 1 ≤ i ≤ n. Ainsi la distribution multivariée des valeurs extrêmes du vecteur
aléatoire (Z (s1 ) , . . . , Z (sn )) est définie pour tous z1 , . . . , z2 > 0, par

G (z1 , . . . , z2 ) = P {(Z (s1 ) ≤ z1 , . . . , Z (sn ) ≤ zn )} . (1.13)

Si dans l’analyse des extrêmes univariées trois modèles permettent de résumer


les comportements asymptotiques, dans le cas multivarié il n’existe pas de famille
fermée. Aucune forme paramétrique ne peut généraliser les distributions multivariées.
Néanmoins, une structure spécifique apparaît dans le cas multivarié : la dépendance.
Plusieurs formes de dépendance multivariée ont été proposées : la mesure ex-
ponentielle, la fonction de dépendance de Pickands, la fonction de queue stable et
même la fonction copule. Nous nous attarderons sur les deux premières mesures de
dépendance, vu leur utilisation dans la modélisation spatiale.

a) Mesure exponentielle bivariée


Pour toute réalisation z = (z1 , . . . , z2 ), la loi G définie en (1.13) peut s’écrire
CHAPITRE 1. CADRE ET OUTILS DE TRAVAIL 13

G (z1 , . . . , z2 ) = exp {−V (z1 , . . . , z2 )} (1.14)


où V est une fonction de dépendance appelée mesure exponentielle. Le théorème
suivant rappelle cette caractérisation.

Théorème 4. Soit G la fonction de distribution bivariée des valeurs extrêmes. Pour


x > 0 et y > 0,
G (x, y) = exp [−V (x, y)]
où ˆ 1
w 1−w
!
V (x, y) = 2 max , Q (dw) (1.15)
0 x y
avec Q une fonction distribution sur [0, 1] satisfaisant l’équation (1.16)
ˆ 1 ˆ 1
wQ (dw) = (1 − w) Q (dw) = 1/2. (1.16)
0 0

Avant d’établir la preuve du théorème 4, il faut noter que la fonction Q définie


en (1.16) est appelée mesure spectrale. C’est une mesure de probabilité sur [0, 1]
d’espérance 1/2. En particulier, si la distribution spectrale est différentiable et de
dérivée q alors V s’écrit
ˆ 1
w 1−w
!
V (x, y) = 2 max , q (w) dw.
0 x y

Nous reprenons la démonstration de ce résultat pour une utilisation future dans la


modélisation spatiale.
Démonstration. Considérons la transformation pseudo-polaire
!
T : R2+ −→ (0, ∞) ×
x
[0, 1] définie par (x, y) 7−→ (r, w) = x + y, .
x+y
Sa réciproque est donnée par

T −1 (r, w) = (x, y) = (rw, r (1 − w)) .

Par suite,

T {([0, x] × [0, y])c } = {(r, w) : max [rw/x, r (1 − w) /y] ≥ 1} .

soit
T {([0, x] × [0, y])c } = {(r, w) : r ≥ 1/ max [w/x, (1 − w) /y]} .
Puisque V est homogène d’ordre −1, r > 0, 0 ≤ w ≤ 1 on a :

1 1
!
x y
V (x, y) = V , = V (w, 1 − w) . (1.17)
x+y x+y x+y r
CHAPITRE 1. CADRE ET OUTILS DE TRAVAIL 14

L’équation (1.17) montre que V est une mesure produit. Elle traduit l’indépendance
des variables R = X + Y et W = X/R.
Par ailleurs,
1
µ ◦ T −1 {[r, ∞) × A} = 2Q (A) , r > 0, A ⊂ [0, 1] ,
r
où 2H (w) = V (w, 1 − w).
Par conséquent,

µ ◦ T −1 {(dr, dw)} = r−2 dr × 2Q (dw) , r > 0 et 0 ≤ w ≤ 1.

En posant Axy = ([0, x] × [0, y])c et Arw = T (Axy ) = {(r, w) : r > 1/ max [w/x, (1 − w) /y]} ,
il vient que
µ {([0, x] × [0, y])c } = µ ◦ T −1 ◦ T {([0, x] × [0, y])c }
ou encore

µ {([0, x] × [0, y])c } = µ ◦ T −1 {(r, w) : r > 1/ max [w/x, (1 − w) /y]}

Soit
ˆ ˆ ˆ
µ {([0, x] × [0, y]) } = 2
c
r drQ (dw) = 2
−2
1/ max[w/x,(1−w)/y] Q (dw) .
[−1/r]+∞
Arw

Et finalement, on obtient
ˆ 1
µ {([0, x] × [0, y]) } = 2
c
max [w/x, (1 − w) /y] Q (dw) .
0

Dans le cas bivarié, il existe une gamme de familles paramétriques extrêmes dé-
terminées par densité spectrale. Par exemple,
• la densité spectrale du modèle logistique est donnée par,
1  −1  n oα−2
q (w) = α − 1 {w (1 − w)}−1−1/α w−1/α + (1 − w)−1/α ,
2
avec 0 < w < 1, 0 < α ≤ 1.
• pour le modèle de Dirichlet, la densité spectrale est donnée par,

αβΓ (α + β + 1) (αw)α−1 {β (1 − w)}β−1


q (w) = ,0 < w < 1
2Γ (α) Γ (β) {αw + β (1 − w)}α+β+1

avec α, β > 0.
CHAPITRE 1. CADRE ET OUTILS DE TRAVAIL 15

b) Fonction de dépendance de Pickands


La fonction de dépendance de Pickands A, d’une distribution des extrêmes biva-
riée G, est telle que
n   o
G (x, y) = exp − x−1
1 + x2
−1
A [x2 / (x1 + x2 )]

où ˆ 1
A (t) = 2 max {w (1 − t) , (1 − w) t} Q (dw) .
0
Cette fonction de Pickands ne présente pas à priori de paramètre spatial. Cependant
pour toute paire de sites si et sj de S, on peut écrire

1 1
( ! " #)
x
P (Z (si ) ≤ x, Z (sj ) ≤ y) = exp − + Ahi,j (1.18)
x y x+y

où hi,j = |si − sj | la distance entre les sites si et sj .


Dans l’écriture (1.18), Ahi,j est la fonction de dépendance de Pickands relative-
ment aux sites distantes de h unités de mesure de longueur. Cette fonction de Pi-
ckands est convexe définie sur [0, 1] dans [1/2, 1] telle que max (t, 1 − t) ≤ Ah (t) ≤ 1.
Elle résume la force de dépendance ou le degré d’indépendance entre deux variables.
Dans le cas d’une indépendance totale Ahi,j (t) = 1 et quant au cas de la dépendance
parfaite Ahi,j (t) = max (t, 1 − t) .
Dans chaque situation, comme la valeur h est fixée, Ahi,j a les même propriétés
que A. Le coefficient extrémal s’exprime via Ahi,j (t) par : θ1,2 = 2Ahi,j (1/2) .

1.3 Outils géostatistiques dans la dépendance


des extrêmes
La géostatistique est née d’un contexte assez particulier, l’estimation de réserve
des gisements miniers. Les premières lignes de la théorie de cette science sont parues
en 1965 dans un ouvrage de Georges Matheron (1930-2000) intitulé « les variables
régionalisées et leur estimation » (cf [27] ).
Dans notre cas, il est nécessaire de donner une brève illustration de la géostatis-
tique dans le contexte des changements climatiques extrêmes.
Supposons que nous voulions faire une carte de température moyenne journalière
de la ville de Ouagadougou. A défaut des prélèvements en tout point de la ville de
Ouagadougou, ce qui est l’idéal, nous disposons des données de température des n
stations s différentes. Et chaque station s est déterminée par ses coordonnées géo-
graphiques : longitude et latitude. Notons par D ⊂ R2 le domaine d’étude qui est
Ouagadougou et S = {s1 , ..., sn } l’ensemble des stations dans lesquelles les prélève-
ments sont faits.
CHAPITRE 1. CADRE ET OUTILS DE TRAVAIL 16

Soit Z : D → R+ la fonction qui modélise la température moyenne journalière


locale. Supposons que dans un site s ∈ S on y ait prélevé 39◦ Celsus (C) comme
température moyenne journalière (c’est à dire Z (s) = 39). Dans le soucis de faire un
aperçu assez concis et clair, nous supposons que la structure de dépendance spatiale
thermique est uniquement fonction de la distance. L’idée maîtresse est que, en tout
point distant de la station s, s + h (tel que (s + h) ∈ D), la température moyenne
journalière sera d’autant plus probablement proche de 39◦ C que la distance ||h|| est
petite. Cette dépendance spatiale est synthétisée par un coefficient de corrélation ρ
dépendant de ||h||, considéré comme fonction de h. Lorsque ||h|| = 0 le coefficient de
corrélation ρ (0) est proche de 1, et lorsque

||h||→ + ∞, ρ(||h||) → 0.

Il en résulte que, lorsque l’application ρ : h→ρ(h) est connue, le champ aléatoire


{Z (s1 ) , . . . , Z (sn )} permet de faire des prédictions sur les valeurs de Z aux sites
non encore explorés. C’est sur la base de cette idée que sont apparus les concepts
fondateurs de la géostatistique.

1.3.1 Le variogramme et la modélisation des extrêmes


En géostatistique classique, au lieu de la fonction d’auto-corrélation ρ : h→ρ(h),
on privilégie plutôt l’usage du variogramme, surtout lorsque la fonction de covariance
n’existe pas.
Définition
n o5. On appelle semi-variogramme (s’il existe) du champ aléatoire Z =
Zs , s ∈ R la fonction notée γ, définie sur Rd ×Rd dans R+ par : (si , sj ) ∈ Rd ×Rd ,
d

1
γ (si , sj ) = V ar [Z (si ) − Z (sj )] .
2
Lorsque le champ aléatoire est stationnaire au second ordre, le variogramme ne
dépend que du vecteur écart entre les sites. Dans ce cas il s’écrit comme, pour tout
site si
1
γ (h) = V ar [Z (si ) − Z (si + h)] ,
2
avec h ∈ R . En particulier, dans le cas isotropique, cet outil ne dépend que de la
d

distance h entre deux sites.


Le variogramme 4 est un bon outil pour mesurer la dépendance spatiale entre deux
réalisations d’un champ aléatoire. Cependant, il montre des insuffisances quand des
observations sont extrêmes. En effet, lorsque le champ aléatoire est max-stable avec
des lois marginales de Fréchet unitaires la variance n’existe pas et donc pour un tel
champ le variogramme n’existe pas théoriquement. Il devient alors nécessaire d’in-
troduire de nouveaux outils. C’est dans un tel contexte que Matheron[27] a introduit
le « madogramme ».
4. Pour plus de détail sur cet outil, le lecteur interessé peut consulter l’ouvrage de Cressie
CHAPITRE 1. CADRE ET OUTILS DE TRAVAIL 17

1.3.2 Le madogramme et ses différentes formes


a) Le madogramme ou variogramme du premier ordre
n o
Soit Z = Z(s), s ∈ Rd un champ aléatoire stationnaire défini sur un espace
probabilisé (W, A, P) à espace d’état R tel que son espérance soit finie. Le mado-
gramme, quelques fois rencontré sous le nom de « variogramme au premier ordre »,
se définit comme suit.
Définition 6. On appelle « madogramme » du champ aléatoire Z la fonction, qu’on
note M , définie sur Rd dans R+ , pour tout h ∈ Rd , on a
 
M (h) = 0, 5E Z (s + h) − Z (s) , s ∈ Rd .

Dans cette définition, Rd représente l’espace d’étude (la droite réelle si d = 1,


un plan pour d = 2 ou un espace à plusieurs dimensions). Les stations s sont déter-
minées par leurs coordonnées (longitude, latitude) dans R2 . La variable régionalisée
Z (s) modélise les données du site s. Pour une distance h fixée, le madogramme M
résume l’écart absolue entre les données des pairs de stations éloignées de h unités
de distance. Autrement dit, cet outil renseigne sur l’évolution des données par rap-
port à la distance d’éloignement. Ses propriétés principales, dans un champ aléatoire
stationnaire, sont résumées dans la proposition suivante.
Proposition 2. Soit M le madogramme d’un champ aléatoire stationnaire Z =
{Z(s), s ∈ R2 } défini sur un espace probabilisé (W, A, P) à espace d’état R. On a :
1. M s’annule au vecteur nul de R2 , 0R2 .
2. M est une fonction positive :

∀h ∈ R2 , M (h) ≥ M (0R2 ) = 0,

3. M est une fonction paire :

∀h ∈ R2 , M (h) = M (−h) ,

4. Pour tout couple (k, h) ∈ R2 × R2 ,

M (h + k) ≤ M (h) + M (k) .

Démonstration. Les propriétés 1 et 2 se déduisent directement de la définition du


madogramme. Montrons que M est pair, autrement dit ∀h ∈ R+ ,M (h) = M (−h) .
On a  
M (−h) = 0, 5E Z (s − h) − Z (s) , (s, s − h) ∈ R2 × R2 ,
puis M ne dépend que de l’écart (vecteur) entre deux sites, il suffit de poser s∗ = s−h,
par suite s = s∗ + h et on obtient,
 
M (−h) = 0, 5E Z (s∗ ) − Z (s∗ + h) = M (h) .
CHAPITRE 1. CADRE ET OUTILS DE TRAVAIL 18

Quant à la dernière propriété, supposons que (k, h) ∈ R2 ×R2 tel que (s − (k + h) , s) ∈


2
R  
M (h + k) = 0, 5E Z (s − (k + h)) − Z (s) ,
on a,

Z (s − (k + h)) − Z (s) = Z (s − (k + h)) − Z (s + h) + Z (s + h) − Z (s)

par suite,

Z (s − (k + h)) − Z (s) ≤ Z (s − (k + h)) − Z (s + h) + Z (s + h) − Z (s)

par conséquent,
M (h + k) ≤ M (h) + M (k)

Dans l’étude de la structure de dépendance spatiale des extrêmes, le madogramme


a une place importante. En effet, lorsqu’il existe, Cooley et al.[7] ont montré une
relation forte avec le coefficient extrémal bivarié d’un champ aléatoire max-stable
stationnaire.
Soit Z = {Z(s), s ∈ S} un champ aléatoire max-stable stationnaire dont les
marges univariées convenablement normalisées convergent vers la GEV de para-
mètres ξ (s) ∈ R (forme), µ (s) ∈ R (localisation) et σ (s) > 0 (échelle), c’est-à-dire,
pour tout s ∈ S :
 !#−1/ξ(s) 
− µ (s)
"
 z 
∀z ∈ R+ P [Z (s) ≤ z] = exp − 1 + ξ (s) ,
 σ (s) +

où κ+ = max (κ, 0).


Nous avons dit tantôt qu’il est établi une relation forte entre le madogramme et
le coefficient extrémal. Cette relation est établie dans la proposition suivante (cf. [7]).
n o
Proposition 3. Soit Z = Z(s), s ∈ Rd un champ aléatoire max-stable stationnaire
défini ci-dessus et θ son coefficient extrémal bivarié. Si le paramètre de forme ξ est
strictement inférieur à 1, alors le madogramme M du champ aléatoire Z et son
coefficient extrémal θ en deux sites d’observations s1 ∈ Rd et s2 ∈ Rd vérifient la
relation suivante :
  
 σ(h) θ ξ(h) − 1 Γ (1 − ξ (h)) si ξ 6= 0
M (h) = ξ(h)
σ (h) log (θ) si ξ=0
avec ˆ +∞
h = s1 − s2 et ∀y > 0, Γ (y) = ty−1 e−t dt.
0
CHAPITRE 1. CADRE ET OUTILS DE TRAVAIL 19

Cette proposition permet d’estimer le coefficient extrémal spatial bivarié d’un


champ aléatoire max-stable stationnaire. Cependant le problème d’existence persiste
lorsque les lois de probabilité marginales univariées du champ aléatoire max-stable
stationnaire sont de Fréchet unitaires. Pour contourner enfin ce problème, Cooley
et al.[7], proposent une version modifiée du madogramme qu’ils ont appelé le «F -
madogramme ».

b) Cas particulier du F- madogramme


Soit Z = {Z(s), s ∈ S} un champ aléatoire max-stable stationnaire dont les
marges univariées convenablement normalisées convergent vers la GEV de para-
mètres ξ (s) ∈ R (forme), µ (s) ∈ R (localisation) et σ (s) > 0 (échelle), c’est-à-dire,
pour tout s ∈ S :
Définition 7. Soit Z = {Z(s), s ∈ S} un champ aléatoire stationnaire défini ci-
dessus. On appelle « F - madogramme » du champ aléatoire max-stable Z la fonction,
qu’on note MF , définie sur S dans R+ , telle que pour tout site s ∈ R2 donné on a
n o
∀h ∈ R2 , MF (h) = 0, 5E F [Z (s + h)] − F [Z (s)]

avec ( −1/ξ )
z−µ
 
∀z ∈ R, F (z) = P [Z (s) ≤ z] = exp − 1 + ξ
σ +

où κ+ = max (κ, 0).


Avec ce madogramme modifié, on a une autre formule du coefficient extrémal. La
nouvelle relation est établie dans la proposition suivante.
Proposition 4. Soit Z = {Z(s), s ∈ R2 } un champ aléatoire max-stable station-
naire défini ci-dessus, θ son coefficient extrémal bivarié. Le F- madogramme MF du
champ aléatoire Z en deux sites d’observations s1 ∈ R2 et s2 ∈ R2 vérifie la relation
suivante :
θ (s2 − s1 ) − 1
2MF (s2 − s1 ) = (1.19)
θ (s2 − s1 ) + 1
ou encore,
1 + 2MF (s2 − s1 )
θ (s2 − s1 ) = .
1 − 2MF (s2 − s1 )
Démonstration. Soit Z = {Z(s), s ∈ R2 }un champ aléatoire max-stable de fonction
de distribution commune F transformée en Fréchet unitaire. Pour établir la relation
(1.19), nous allons utiliser le relation a − b = 2 max (a, b) − (a + b). Pour ∀h ∈ R2 ,
on a
n o
E F [Z (s + h)] − F [Z (s)] = 2E {max (F [Z (s + h)] , F [Z (s)])}−2E {F [Z (s)]} .

Puisque F [Z (s)] suit la loi uniforme sur [0, 1], E {F [Z (s)]} = 1/2. Il nous reste à
évaluer E {max (F [Z (s + h)] , F [Z (s)])}. Il nous faut la distribution de la variable
max = max (F [Z (s + h)] , F [Z (s)]), soit Fmax cette distribution,
CHAPITRE 1. CADRE ET OUTILS DE TRAVAIL 20

on a,
n h io
Fmax (u) = P {max (F [Z (s + h)] , F [Z (s)]) ≤ u} = exp −Vh F −1 (u) , F −1 (u)

ou encore
P {max (F [Z (s + h)] , F [Z (s)]) ≤ u} = uVh (1,1) .
Par suite, en posant Vh (1, 1) = θh , on a
ˆ 1
θh
E {max (F [Z (s + h)] , F [Z (s)])} = θh uθh du = .
0 θh + 1
Par conséquent,
2θh
2MF (s2 − s1 ) = − 1,
θh + 1
d’où la relation (1.19)
De la proposition ci-dessus, il ressort que pour les champs aléatoires max-stables
stationnaires ayant des lois de probabilité marginales univariées convergeant vers
la loi de Fréchet unitaire, comme celles des modèles de Smith et de Schlather, il
serait plus convenable d’utiliser le F −madogramme pour l’estimation du coefficient
extrémal bivarié au lieu du madogramme.

1.4 Outils de la dépendance de queue


Toute prédiction a pour objet de partir des caractéristiques des composantes d’un
échantillon étudié pour prévoir celles d’autres d’horizon lointain.
Dans cette section, nous nous intéressons à des outils de la dépendance entre les
grandes valeurs, lorsque la taille de l’échantillon devient plus grande ou la queue de
la distribution. Ainsi, après la présentation de la distribution jointe de la queue, nous
nous intéresserons à la caractérisation du coefficient de dépendance de queue, et ceci,
dans un cadre spatial. La particularité de ces outils est qu’ils tiennent compte non
seulement de la grandeur des données mais aussi la caractéristique spatiale.
A cet effet, considérons un processus max-stable spatial {X (s) , s ∈ S ⊂ R2 } de
distributions marginales Fsi (x) = Fi (x) , 1 ≤ i ≤ n, pour tout x ∈ R. Soit F la
fonction de distribution n−variée de distributions marginales Fi .

1.4.1 Rappels sur la distribution de survie


Soit F une fonction de distribution. La distribution de survie F̄ , associée à F ,
est la distribution des événements contraires correspondant aux événements de dis-
tribution F . Dans le cas univarié, F (x) = 1 − F (x), pour tout x ∈ R.
Cependant dans le cas multivarié (pour n ≥ 2), F (x) 6= 1 − F (x), pour tout
x ∈ R, d’où l’intérêt de présenter sa forme générale et une illustration par une tri-
variable.
CHAPITRE 1. CADRE ET OUTILS DE TRAVAIL 21

La fonction de distribution de survie associée à F est la distribution jointe de la


queue définie par,

K
F (x1 , . . . , xn ) = P (X1 (s1 ) > x1 , . . . , Xn (sn ) > xn ) = 1 + (−1) FK (xk , k ∈ K)
X

K∈P

où P est un ensemble des parties non vide de {1, . . . , n} et {FK : K ∈ P} l’ensemble


des distributions marginales de F .

Exemple 1. Supposons que F une distribution tri-variée, on a

F (x1 , x2 , x3 ) = 1 − F1 (x1 ) − F2 (x2 ) − F3 (x3 )


+F1,2 (x1 , x2 ) + F1,3 (x1 , x3 ) + F2,3 (x2 , x3 ) − F (x1 , x2 , x3 )

où les Fi et Fi,j sont respectivement les marges univariées par rapport à la variable
Xi et bivariées par rapport au pair de variable {Xi , Xj } , 1 ≤ i 6= j ≤ 3.

1.4.2 Coefficient de dépendance de queue spatiale


Considérons un processus max-stable spatial {X (s) , s ∈ S ⊂ R2 } de distributions
marginales Fsi (x) = Fi (x) , 1 ≤ i ≤ n, pour tout x ∈ R. Soit F la fonction de
distribution n−variée de distributions marginales Fi . De façon générale, le coefficient
de dépendance de queue (supérieure ou inférieure) se définit comme suit dans le cas
multivarié.

Définition 8. On appelle coefficient de dépendance de queue supérieure d’un en-


semble de k variables conditionnellement à l’ensemble de n − k variables, le réel
 
λU,k = lim− P X1 > F1−1 (u) , . . . , Xk > Fk−1 (u) |Xk+1 > Fk+1
−1
(u) , . . . , Xn > Fn−1 (u) .
u→1
(1.20)
De façon analogue, on définit le coefficient de dépendance de queue inférieure
 
λL,k = lim+ P X1 ≤ F1−1 (u) , . . . , Xk ≤ Fk−1 (u) |Xk+1 ≤ Fk+1
−1
(u) , . . . , Xn ≤ Fn−1 (u) .
u→0

Le coefficient de dépendance de queue nous renseigne sur la force de la dépendance


ou l’indépendance asymptotique entre les marges groupées en deux.
Dans un cadre spatial, cet outil s’interprète assez bien dans un espace bivarié des
valeurs extrêmes. En effet, supposons deux sites s et s + h séparés de h unités de
longueur. Le coefficient λU donne la probabilité qu’un événement de grande envergure
soit observé simultanément dans les deux sites, en ayant la certitude que l’événement
est déjà réalisé dans un des sites.
Considérons la fonction du coefficient de dépendance de queue supérieurs, définie
comme
λUh (x) = P {Xs+h > x|Xs > u} . (1.21)
CHAPITRE 1. CADRE ET OUTILS DE TRAVAIL 22

Proposition 5. Si (X s , Xs+h ) est un vecteur aléatoire spatial max-stable alors la


fonction du coefficient de dépendance de queue supérieure ne dépend que de h.

Démonstration. Supposons que (X s , Xs+h ) un vecteur aléatoire spatial max-stable


de marge Fréchet unitaire et de fonction exponentielle Vh .
On a,

1 − P (Xs+h ≤ x) − P (Xs ≤ x) + P {Xs+h ≤ x, Xs ≤ x}


λUh (x) =
1 − P (Xs ≤ x)
Ce qui équivaut à,

1 − P {Xs+h ≤ x, Xs ≤ x}
λUh (x) = 2 −
1 − P (Xs ≤ x)
soit

1 − exp [−x−1 Vh (1, 1)]


λUh (x) = 2 − . (1.22)
1 − exp (−x−1 )
En utilisant le développement au voisinage de zéro, on obtient

exp (α/x) = 1 + α/x + ◦ (α/x) , α ∈ R. (1.23)


Par suite, en injectant (1.23) dans (1.22), on obtient

λUh (x) ∼ 2 − Vh (1, 1) .

Par conséquent, pour des réalisations assez grandes (les valeurs extrêmes) la fonction
du coefficient de dépendance de queue supérieure ne dépend que de la distance entre
les sites.
Avec ce résultat, on peut écrire : λUh (x) = λ (h) . Le nombre réel Vh (1, 1) = θ (h)
représente le coefficient extrémal relatif à deux sites séparés de h unités de distance.
A une distance h fixée, lorsque les données spatiales extrêmes sont parfaitement
dépendantes λ (h) = 1 et complètement indépendant au cas où λ (h) = 0.

Conclusion
Ce premier chapitre se veut être considéré comme une boîte à outils. Il s’agissait de
brèves présentations des outils techniques nécessaires pour la compréhension de nos
résultats. Il se décline en trois axes principaux. La première section intitulée « champ
aléatoire max-stable » introduit le concept de la max-stabilité spatiale. Cette notion
de max-stabilité permet d’aborder la théorie des valeurs extrêmes, dans la deuxième
section. La problématique de la dépendance spatiale nécessite un aperçu sur les outils
d’origine géostatistique dans les sections 3.
Chapitre 2

Copules Archimédiennes et
dépendance spatiale

L’introduction des copules dans la modélisation de la dépendance stochastique


multivariée a été motivée par certaines insuffisances de l’outil traditionnel de mesure
de dépendance (le coefficient linéaire de Bravais-Pearson).
En effet, il faut noter que cet outil traditionnel de dépendance comporte quelques
insuffisances dans la pratique :
• les moments d’ordre 2 doivent être finis pour que ce coefficient soit défini,
• il n’intègre que la dépendance linéaire (rare en finance et environnement),
• une corrélation nulle n’implique pas nécessairement l’indépendance,
• le cadre de travail est gaussien (restriction sur la structure de dépendance).
Par ailleurs, la méthode classique multivariée admet généralement des lois mar-
ginales identiques ce qui ne permettre pas une décomposition de la loi multivariée
en ses distributions marginales univariées et en une fonction de dépendance, rendant
possibles des extensions naturelles de certains résultats obtenus dans le cas univarié.

2.1 Introduction à l’analyse des copules


Étymologiquement le mot « copule » vient du mot latin « copulæ » qui signifie
« réunion, lien ». Intuitivement une copule est une fonction fédératrice de distribution
marginale. Dans notre étude, l’intérêt porté sur cet outil est sa capacité de décrire
une structure de dépendance avec une grande flexibilité.
Dans cette section, nous donnons un aperçu général sur une copule.

2.1.1 Présentation et propriétés élémentaires des copules


Définition 9. On appelle une n−copule C, n ∈ N∗ , une fonction distribution du
cube unitaire [0, 1]n dans [0, 1] qui satisfait les conditions suivantes :
1. Pour tous m et am tels que m ≤ n, am ∈ [0, 1], on a C (1, . . . , 1, am , 1, . . . , 1) =
am ;

23
CHAPITRE 2. COPULES ARCHIMÉDIENNES - DÉPENDANCE SPATIALE 24

2. Si il existe m ≤ n tel que am = 0 alors C (a1 , . . . , an ) = 0 ;


3. Pour tous n−uplet (a1 , . . . , an ),(b1 , . . . , bn ) ∈ [0, 1]n , avec ai ≤ bi pour tout i ,
on a
2 2
(−1)i1 +...+id C (u1i1 , . . . , udid ) ≥ 0
X X
···
i1 =1 id =1

où uk1 = ak et uk2 = bk pour 1 ≤ k ≤ d.


Les deux premières propriétés de cette définition montrent que les distributions mar-
ginales sont uniformes sur [0, 1]. Quant à la troisième, elle assure la continuité de la
copule C en appliquant une des propriétés de Lipschitz.
Les copules héritent de plusieurs propriétés des distributions jointes. Dans l’étude
des copules, un des plus célèbres résultats est le théorème de Sklar que nous présen-
tons par le théorème suivant.
Théorème 5. Soit F une fonction de distribution n-variée avec les distributions
n
marginales F1 , . . . , Fn . Il existe une n-copule C telle que, pour (x1 , . . . , xn ) ∈ R ,

F (x1 , . . . , xn ) = C (F1 (x1 ) , . . . , Fn (xn )) (2.1)

Et si les distributions marginales F1 , . . . , Fn sont toutes continues alors C est unique


sinon C est seulement déterminée sur le produit cartésien ImF1 × . . . × ImFn .
Démonstration. Voir Sklar ( 1996)
Considérons F comme une fonction de distribution n-variée avec les distributions
marginales continues F1 , . . . , Fn et C sa copule associée. La réciproque du théorème
de Skar se formule comme suivant, pour (u1 , . . . , un ) ∈ [0, 1]n ,

C (u1 , . . . , un ) = F (F1← (u1 ) , . . . , Fn← (un )) (2.2)


F ← (t) = inf {x ∈ R|F (x) ≥ t, 0 ≤ t ≤ 1}
avec la convention inf ∅ = −∞.
Cette réciproque du théorème de Sklar offre une méthode de construction assez
simple d’une copule connaissant la distribution jointe et les distributions marginales.
La méthode de construction basée sur celle-ci est la méthode d’inversion. L’exemple
suivant en est une application dans un cas de fonction bivariée.
Exemple 2. Soit F la fonction bivariée, de paramètre θ > 0, définie de R2 dans
[0, 1] par    −1/θ 
F (x1 , x2 ) = exp − e−x1 + e−x2 − e−θx1 + e−θx2 (2.3)

Les lois marginales sont symétriques et on a : lim F (xi , xj ) = exp (e−xi ) avec
xj →+∞
i = 1, 2. Par suite pour tout u ∈ [0, 1], on a :

Fi (xi ) = Fi−1 (ui ) = − log (− log (ui ))


CHAPITRE 2. COPULES ARCHIMÉDIENNES - DÉPENDANCE SPATIALE 25

si bien qu’il en résulte la copule.


h 
−θ −1/θ
i
−θ
C (u1 , u2 ) = u1 u2 exp (− log u1 ) + (− log u2 ) (2.4)

C’est la copule de Galambos ou copule logistique négative.


Plusieurs autres méthodes de constructions des copules sont disponibles. Une des
plus connues est celle établie dans la proposition qui suit, établie par Nelsen [32].
Proposition 6. La classe des copules est convexe, ie si {Cθ , θ ∈ Γ} est une famille
de copules et que H est une distribution sur Γ, alors
ˆ
C (x1 , . . . , xd ) = Cθ (x1 , . . . , xd ) dH (θ)
Γ

est une copule.


Cette propriété peut être reformulée comme « toute combinaison linéaire convexe
(même infini) de copules est une copule ». Plusieurs familles de copules paramétriques
sont basées sur cette proposition. Comme famille de copules, on peut citer la famille
de Fréchet, notée C F ; ces copules sont des combinaisons convexes de trois types de
copule. Il s’agit des deux bornes de l’ensemble des copules (de dépendance Cu et de
la copule de la borne inférieure de Fréchet CL ) et de copule d’indépendance C ⊥ . Les
copules de la famille de Fréchet C F sont de la forme décrite en,

C F = αCL + (1 − α − β) C ⊥ + βCu (2.5)

où 0 ≤ α, β ≤ 1 et α + β ≤ 1.
En outre, une combinaison convexe de copules peut être vue sous l’angle d’une
moyenne de collection finie de copules. Cette manière de voir revient à considérer un
ensemble infini de copules indexées par une variable continue λ. Ainsi

Cθ (u1 , u2 ) = Eλ {Cλ (u1 , u2 )}

est une copule de paramètre θ. Supposons maintenant, Λθ (λ) la fonction de distri-


bution, de paramètre θ, de la variable λ. On obtient la copule engendrée Cθ donnée
par l’équation, ˆ
Cθ (u1 , u2 ) = Cλ (u1 , u2 ) dΛθ (λ) . (2.6)
D(λ)

avec D (λ) le support de Λθ .


Cette somme convexe est référencée à Nelsen [32]. De façon analogue, Marshall
et Olkin [26] considèrent plutôt la combinaison géométrique
ˆ
H (x) = [F (x)]λ dΛ (λ) , λ > 0. (2.7)

Ils montrent que dans l’équation (2.7), si H et Λ sont connues avec lim+ Λ (λ) = 1
λ→0
alors F existe. En fait, elle s’obtient comme suit :
CHAPITRE 2. COPULES ARCHIMÉDIENNES - DÉPENDANCE SPATIALE 26

• on détermine la transformée de Laplace ϕ de Λ. Cela conduit à écrire H (x) =


ϕ [− ln F (x)].
• Par conséquent, F (x) = exp {−ϕ−1 [H (x)]}.
Ainsi, Marshall et Olkin [26] montrent comment on peut construire une copule à
partir de la transformée de Laplace d’une fonction de distribution.
En effet, pour une variable aléatoire positive de fonction distribution Λ, la trans-
formée de Laplace ˆ +∞
ϕ (ω) = e−λt dΛ (λ)
0
n’est que la fonction génératrice des moments de Λ en −ω. Cette transformée existe
et est décroissante sur R+ .
Soient G1 et G2 les distributions marginales de la distribution jointe G. Supposons
que nous avons la transformée de Laplace ϕ, posons
n o n o
F1 (x1 ) = exp −ϕ−1 [G1 (x1 )] et F2 (x1 ) = exp −ϕ−1 [G2 (x2 )]

des fonctions associées respectivement à G1 et G2 , établies conformément à l’équation


(2.7). Les distributions conditionnelles sachant une variable aléatoire λ, λ > 0, sont

F1 (x1 |λ) = [F1 (x1 )]λ et F2 (x2 |λ) = [F2 (x2 )]λ .

La distribution mixte devient,


ˆ +∞
G (x1 , x2 ; θ) = [F1 (x1 )]λ [F2 (x2 )]λ dΛθ (λ)
0

Par suite,
ˆ +∞ n  o
G (x1 , x2 ; θ) = exp −λ ϕ−1 [G1 (x1 )] + ϕ−1 [G2 (x2 )] dΛθ (λ) .
0

Enfin,
n o
G (x1 , x2 ; θ) = ϕ ϕ−1 [G1 (x1 )] + ϕ−1 [G2 (x2 )] ; θ . (2.8)
On fait apparaître un terme hétérogène non observé λ dans chaque distribution
marginale. La distribution de cette variable non observée dépend d’un paramètre
inconnu θ qui contrôle la dépendance entre x1 et x2 dans leur distribution jointe.
Marshall et al. [26] montre que l’équation (2.8) est la transformée de Laplace de la
fonction de distribution jointe G. Par suite, elle est appelée copule Archimédienne
que nous verrons dans la section suivante. Mais avant, nous attirons l’attention sur
une des propriétés intrinsèque des copules formulée dans la proposition suivante.

Proposition 7. Soit C la copule associée du vecteur aléatoire (X1 , . . . , Xd ). Si les


fonctions ϕ1 , . . . , ϕd , définies chacune de R dans R, sont continues et strictement
croissantes, alors C reste la copule associée au vecteur (ϕ1 (X1 ) , . . . , ϕd (Xd )).
CHAPITRE 2. COPULES ARCHIMÉDIENNES - DÉPENDANCE SPATIALE 27

Démonstration. Supposons C et C∗ les copules associées respectivement aux variables


(X1 , . . . , Xd ) et (ϕ1 (X1 ) , . . . , ϕd (Xd )) avec les conditions de la proposition. Il s’agira
pour nous, dans cette preuve, de montres C et C∗ sont les mêmes. Considérons
les fonctions de distributions jointes F et G, avec fonctions Fi et Gi , 1 ≤ i ≤ d
les distributions marginales respectives des copules C et C∗ . Pour tout i tel que
1 ≤ i ≤ d, on a :
 
Gi (x) = P {ϕi (Xi ) ≤ xi } = Fi ϕ−1
i (xi )

ou encore,  
i (ui ) = ϕi Fi
G−1 (ui ) , ui ∈ [0, 1] .
−1

D’où, pour tout (u1 , . . . , ud ) ∈ [0, 1]d ,


 
C∗ (u1 , . . . , ud ) = G G−1
1 (u1 ) , . . . , Gd (ud )
−1
n o
= P ϕ1 (X1 ) ≤ G−1
1 (u1 ) , . . . , ϕd (Xd ) ≤ Gd (ud )
−1

Par suite,
n o
C∗ (u1 , . . . , ud ) = P X1 ≤ F1−1 (u1 ) , . . . , Xd ≤ Fd−1 (ud ) ;

donc pour tout (u1 , . . . , ud ) ∈ [0, 1]d , C∗ (u1 , . . . , ud ) = C (u1 , . . . , ud ) .

2.1.2 Copule des processus max-stable


Dans cette sous-section, notre objectif est de mettre en relief la spécificité d’une
copule max-stable. Cette particularité est formulée dans le théorème suivant.
Théorème 6. Soit X k , k = 1, . . . , n un échantillon iid de vecteurs aléatoires et Mn
le vecteur des maxima associé. Si C est la copule associée à Mn alors
1/n n
 
1/n
C (u1 , . . . , ud ) = C u1 , . . . , ud .

Démonstration. Soit X k , k = 1, . . . , n un échantillon iid de vecteurs aléatoires de


fonction de distribution jointe F de distributions marginales F1 , . . . , Fd . Soit Mn le
vecteur des maxima,
 n o n o
Mn = max X11 , . . . , X1n , . . . , max Xd1 , . . . , Xdn .
Connaissant la définition du vecteur des maximums Mn , déterminons C sa copule
associée. Sa fonction de distribution jointe F(n) , est définie par
h n o n o i
F(n) (x1 , . . . , xd ) = P max X11 , . . . , X1n ≤ x1 , . . . , max Xd1 , . . . , Xdn ≤ xd .
 
Puisque les d−uplets X1j , . . . , Xdj , 1 ≤ j ≤ n sont iid de fonction de distribution
jointe F , on a
F(n) (x1 , . . . , xd ) = F n (x1 , . . . , xd )
= [C (F1 (x1 ) , . . . , Fd (xd ))]n . (2.9)
CHAPITRE 2. COPULES ARCHIMÉDIENNES - DÉPENDANCE SPATIALE 28

Or pour chaque marge Fi , 1 ≤ i ≤ d, la fonction de distribution F(n,i) de max {Xi1 , . . . , Xin }


est donnée par
 n o 
F(n,i) (xi ) = P max Xi1 , . . . , Xin ≤ xi = Fin (xi )
1/n
=⇒ Fi (xi ) = F(n,i) (xi ) .
1/n
Par suite, en remplaçant les Fi , 1 ≤ i ≤ d respectivement par les Fi ,1 ≤ i ≤ d
dans l’équation (2.9), on obtient
h  in
1/n 1/n
F(n) (x1 , . . . , xd ) = C F(n,1) (x1 ) , . . . , F(n,d) (xd )
 
1/n 1/n
= C n F(n,1) (x1 ) , . . . , F(n,d) (xd ) . (2.10)
Le théorème de Sklar permet de conclure.
Une généralisation du résultat en (2.10), engendre la notion de la max-stabilité
d’une copule. Elle se reformule comme dans la définition ci-après.
Définition 10. Une copule C est dite max-stable si pour tout réel strictement positif
α et pour tous ui ∈ [0, 1] , 1 ≤ i ≤ d, on a
 
1/α 1/α
C (u1 , . . . , ud ) = C α u1 , . . . , ud .

Exemple 3. Si les X1j , . . . , Xdj , 1 ≤ j ≤ n sont indépendantes alors les max {Xi1 , . . . , Xin } , 1 ≤
i ≤ d sont aussi indépendantes. Donc la copule max-stable associée est
" d #n d
Y 1/n
Π(n) (u1 , . . . , ud ) = =
Y
ui ui .
i=1 i=1

Aussi, toutes les copules de la famille de Gumbel-Hougaard, de paramètre θ ≥ 1,


définie comme
1/θ
 " # 
 d 
Cθ (u1 , . . . , ud ) = exp − (− ln ui ) θ
X
 
i=1

sont des copules max-stables.


Nous venons de déterminer le terme général d’une suite (Cn )n≥2 où Cn corres-
pond à la copule associée aux maxima de chaque composante du vecteur aléatoire
(X1 , . . . , Xd ) d’un échantillon de taille n. Maintenant nous nous intéressons à la li-
mite de cette suite. Ce qui nous conduit à une nouvelle notion : copule des valeurs
extrêmes.
Définition 11. Une copule C est dite copule des valeurs extrêmes s’il existe une
copule C∗ telle que
1/n n
 
1/n
C∗ u1 , . . . , ud −→ C (u1 , . . . , ud ) (2.11)

lorsque n → +∞ pour (u1 , . . . , ud ) ∈ [0, 1]d . On dit que C∗ est dans le domaine
d’attraction de C.
CHAPITRE 2. COPULES ARCHIMÉDIENNES - DÉPENDANCE SPATIALE 29

Proposition 8. L’ensemble des copules extrêmes coïncide avec l’ensemble des co-
pules max-stables.

Démonstration. Il est trivial de voir qu’une copule max-stable est une copule des
valeurs extrêmes. Démontrons sa réciproque. Autrement dit prouvons qu’une copule
des valeurs extrêmes est une copule max-stable.
Soit C une copule des valeurs extrêmes, il existe donc une copule C∗ qui satisfait
l’équation (2.11). Par suite, pour tout réel r strictement positif, on a
   
1/r 1/r 1/rn 1/rn
C r u1 , . . . , ud = lim C∗rn u1 , . . . , ud (2.12)
n→+∞

En posant m = rn, l’équation (2.12) devient


   
1/r 1/r 1/m 1/m
C r u1 , . . . , ud = lim C∗m u1 , . . . , ud = C (u1 , . . . , ud )
m→+∞

Par conséquent, C est max-stable.


Cette proposition confirme l’équivalence entre les processus max-stable et celui
des valeurs extrêmes. En outre, elle offre une autre manière de présenter une copule
des valeurs extrêmes. Une autre présentation est disponible, celle de Pickands [34].
Ici, nous aimerions exposer cette nouvelle construction dans le cadre bivarié.
Soient X et Y deux variables aléatoires suivant, chacune, la loi exponentielle
standard. Et C une copule des valeurs extrêmes associée à la fonction de survie des
variables. Autrement dit, soit F et G leurs fonctions de distributions respectives on
a
F (x) = P (X > x) = exp x, x > 0 et G (x) = P (Y > y) = exp y, y > 0
et H la fonction de survie jointe est donnée par

H (x, y) = P (X > x, Y > y) = C (exp (−x) , exp (−y)) ;

et comme C est une copule max-stable, pour tout r > 0, on a

H (rx, ry) = C (exp (−rx) , exp (−ry)) = C r (exp (−x) , exp (−y))
h ir
= H (x, y)

Par suite, faisons le changement de variable (x, y) = (r (1 − t) , rt) , 0 ≤ t ≤ 1, r > 0,


on a
h ir
H (x, y) = H (r (1 − t) , rt) = H (1 − t, t)

soit,
H (x, y) = C r {exp (− (1 − t)) , exp (−t)} ,
ou encore n h  io
H (x, y) = exp r ln C e−(1−t) , e−t .
CHAPITRE 2. COPULES ARCHIMÉDIENNES - DÉPENDANCE SPATIALE 30
h  i
Posons A (t) = − ln C e−(1−t) , e−t , et puisque (r, t) = (x + y, y/ (x + y)) on a

H (x, y) = exp {− (x + y) A (y/ (x + y))} (2.13)


h −1 −1
i
or C (u, v) = H F (u) , G (v) = H [− ln u, ln v],

ln v
( !)
C (u, v) = exp ln (uv) A . (2.14)
ln (uv)

La fonction A dans cette construction est appelée fonction de dépendance de


Pickands. Elle est définie de [0, 1] dans [1/2, 1]. Elle vérifie les conditions suivantes :
A (0) = A (1) = 1, max (t, 1 − t) ≤ A (t) ≤ 1 et elle est convexe.
L’équation (2.14) laisse voir que si A (t) = 1 ou A (t) = max (t, 1 − t) les copules
engendrées sont respectivement la copule indépendante Π ou la borne supérieure de
Fréchet-Hoeffding M .
D’une façon générale, la propriété précédente permet de reformuler le théorème
de Pickands-Balkema-de Haan sous la forme résumée dans le théorème ci-après.

Théorème 7. Une copule C : [0, 1]d −→ [0, 1] est une copule extrême si et seulement
si il existe une mesure finie H sur le simplexe de Rd , Sd , telle que

C (u1 , . . . , , ud ) = exp {−l (− log u1 , . . . , − log ud )}

où la fonction de dépendance de queue l est donnée par


ˆ
l (x1 , . . . , xd ) = max {w1 x1 , . . . , wd xd } dH (w1 , . . . , wd )
´
pour tout (x1 , · · · , xd ) = Rd+ et que Sd
wi dH (w1 , . . . , wd ) = 1 pour i = 1, · · · , n.

Notons que la mesure H est appelée mesure spectrale. La fonction de dépendance


de queue l est convexe, homogène de degré 1 (ie l (αx1 , . . . , αxd ) = αl (x1 , . . . , xd )
pour tout α > 0). Cette propriété d’homogénéité entraîne
x1 xd
 
l (x1 , . . . , xd ) = [x1 + · · · + xd ] A ,...,
x1 + · · · + xd x1 + · · · + xd
où A est une fonction Sd −→ [1/d, 1] est appelée fonction de dépendance de Pickands[34,
35]. Par conséquent, la copule extrême s’écrit

(" d # !)
u1 ud
C (u1 , . . . , ud ) = exp log ui A Pd
X
, . . . , Pd .
i=1 i=1 log ui i=1 log ui

L’intérêt que nous portons à cette construction de Pickands réside dans le faite qu’elle
conduit à une famille de copule plus grande que les deux premières vue jusque là. Il
s’agit de la famille des copules Archimax.
CHAPITRE 2. COPULES ARCHIMÉDIENNES - DÉPENDANCE SPATIALE 31

2.1.3 Copules des Archimédiennes et Archimax


a) Copules Archimédiennes
Un grand nombre de copules sont de la classe archimédienne. La modélisation sta-
tistique à partir des copules archimédiennes a été popularisée par Genest & MacKay
(1986) [18].
Considérons les variables aléatoires X1 , . . . , Xd conditionnellement indépendantes,
connaissant un facteur latent Θ (une variable aléatoire positive) tels que

P (Xi ≤ xi |Θ) = GΘ
i (x)

où Gi est la fonction distribution de référence. La fonction distribution jointe est


donnée par

G (x1 , . . . , xd ) = E (P (X1 ≤ x1 , . . . , Xd ≤ xd |Θ))

soit
d d
! !
G (x1 , . . . , xd ) = E P (Xi ≤ xi |Θ) = E GΘ (xi )
Y Y
i
i=1 i=1
ou encore
d d
! !
G (x1 , . . . , xd ) = E exp [−Θ (− log Gi (xi ))] = ψ − log Gi (xi )
Y X

i=1 i=1

où ψ est la transformée de Laplace de la distribution de la variable Θ, i.e. ψ (t) =


E (exp (−tΘ)).
Et comme les distributions marginales sont données respectivement par

Fi (xi ) = P (Xi ≤ xi ) = ψ (− log Gi (xi )) ,

la copule associée aux variables X1 , . . . , Xd s’écrit


 
C (u1 , . . . , ud ) = F F1−1 (u1 ) , . . . , Fd−1 (ud )

soit  
C (u1 , . . . , ud ) = ψ ψ −1 (u1 ) + · · · + ψ −1 (ud ) .
Cette copule est appelée copule archimédienne de générateur φ = ψ −1 .
En bref, une copule est dite archimédienne lorsqu’elle peut s’écrire sous la forme

C (u1 , . . . , un ) = ϕ← (ϕ (u1 ) + . . . + ϕ (un )) , n ∈ N∗ , ui ∈ [0, 1]

où ϕ : [0, 1] −→ [0, ∞] est une fonction décroissante convexe telle que ϕ (1) = 0.
La fonction ϕ est appelée générateur de la copule. On parle de copule archimé-
dienne stricte lorsque ϕ (0) = +∞, autrement dit lorsque le générateur est stricte-
ment croissant.
CHAPITRE 2. COPULES ARCHIMÉDIENNES - DÉPENDANCE SPATIALE 32

Si ϕ est un générateur d’une copule C et h : [0, 1] −→ [0, 1] une fonction concave


et strictement croissante avec h (1) = 1, alors la composée ϕ ◦ h est un générateur
de C. De même, si f : [0, +∞] −→ [0, +∞] est une fonction convexe et strictement
croissante telle que f (0) = 0, alors la composée f ◦ ϕ est un générateur de C.
Hormis leur méthode de construction assez simple, les copules Archimédiennes
ont des particularités intéressantes. Dans cette section, nous parlons de quelques
propriétés de base des copules archimédiennes
Définition 12. Soit ϕ une fonction décroissante convexe, (0, 1] −→ [0, +∞] telle
que ϕ (1) = 0. Le quasi-inverse de ϕ est défini par

ϕ−1 (t) , 0 ≤ t ≤ ϕ (0)
ϕ[−1] (t) = 
0 ϕ (0) < t

avec ϕ−1 l’inverse usuel de ϕ.


Pour d ≥ 2, on dit que ψ est d−complètement monotone si elle est continue et
que ses dérivées sont monotones de signes alternés, ie pour tout k = 0, 1, . . . , d,

(−1)k dk ψ (t) /dtk ≥ 0.

Si ψ est une transformée de Laplace d’une variable positive χ, alors d’après le


théorème de Berntein, ψ est complètement monotone et ψ (0) = 1. Ainsi ϕ = ψ [−1]
est complètement monotone et engendre une copule archimédienne de dimension d
pour d ≥ 2. A cet effet, la copule archimédienne engendrée s’écrit, comme dans [23],
 
C (u1 , . . . , un ) = ψ ψ [−1] (u1 ) + . . . + ψ [−1] (un ) , n ∈ N∗ , ui ∈ [0, 1] (2.15)

Une des particularités des copules archimédiennes est sa propriété de symétrie et


d’associativité. Elle se résume dans le théorème ci-après.
Théorème 8. Soit C une copule archimédienne de générateur ϕ. On a :
1. C est symétrique, ie pour tous u, v ∈ [0, 1], C (u, v) = C (v, u).
2. C est associative, ie pour tous u, v, w ∈ [0, 1], C (C (u, v) , w) = C (u, C (v, w)) .
Démonstration. Le premier point est assez trivial. Quant au second, C étant une
copule archimédienne de générateur ϕ, on a pour tous u, v, w ∈ [0, 1],

n h i o
C (C (u, v) , w) = ϕ[−1] ϕ ϕ[−1] (ϕ (u) + ϕ (v)) + ϕ (w)
n  o
= ϕ[−1] ϕ (u) + ϕ ϕ[−1] [ϕ (v) + ϕ (w)] .

Par suite,

C (C (u, v) , w) = ϕ[−1] {ϕ (u) + ϕ (v) + ϕ (w)}


n  o
= ϕ[−1] ϕ (u) + ϕ ϕ[−1] [ϕ (v) + ϕ (w)]
CHAPITRE 2. COPULES ARCHIMÉDIENNES - DÉPENDANCE SPATIALE 33

Finalement,
C (C (u, v) , w) = C (u, C (v, w)) .

Sur la généralité relative aux copules, plusieurs autres propriétés des copules
sont disponibles dans l’ouvrage de Nelsen[32]. En particulier, dans cette section nous
avons rappelé les propriétés des copules Archimédiennes. Une des particularités de
cette famille de copule est leur flexibilité. Cette dernière propriété nous sert dans la
description de la structure de dépendance des classes de variogramme. Ces résultats
sont exposés dans la section qui suit.

b) Propriété et définition d’une copule Archimax


Les copules Archimax ont été introduites par Capéraà et al.[2]. Comme leur nom
l’indique, ces copules regroupent les copules Archimédiennes et toutes les copules
max-stables. Dans cette sous-section, nous donnons une définition mathématique.
Une fonction bidimensionnelle est une copule Archimax si et seulement si elle est de
la forme :
ϕ (u1 )
( !)
Cϕ,A (u1 , u2 ) = ϕ
−1
[ϕ (u1 ) + ϕ (u2 )] A ,
ϕ (u1 ) + ϕ (u2 )

pour tout 0 ≤ u1 , u2 ≤ 1, avec A la fonction de dépendance de Pickands et ϕ une


fonction génératrice d’une copule archimédienne. En effet pour ϕ (x) = ln (1/x), la
copule Cϕ,A est une copule des valeurs extrêmes, ie

ln u1
( !)
Cϕ,A (u1 , u2 ) = exp (ln u1 + ln u2 ) A .
ln u1 + ln u2

Pour A (t) = 1, la copule Cϕ,A se réduit à une copule Archimédienne.


En somme, trois outils principaux constituent notre trousseaux. Le premier, la
théorie des valeurs extrêmes, nous renseigne sur le comportement des grandes valeurs.
Le second est un ensemble d’outil d’origine géostatistique. Ils modélisent la dépen-
dance en fonction des composantes spatiales. Quant aux copules, elles fédèrent les
marges. Sa stabilité par rapport à certaines variations des variables et sa flexibilité,
lui confèrent une place importante. Elles nous servirons à exprimer la dépendance
asymptotique des queues spatiales dans le chapitre qui suit.

2.2 Structure de dépendance dans deux classes


de variogrammes
En géostatistique le variogramme est l’un des outils les plus utilisés. Il décrit la
structure de dépendance spatiale. Pour atténuer des erreurs liées aux échantillons,
CHAPITRE 2. COPULES ARCHIMÉDIENNES - DÉPENDANCE SPATIALE 34

plusieurs modèles théoriques d’ajustement sont établis et implémenter dans des pa-
ckages de R. Ces modèles sont à majorité paramétriques. Dans certaines études, ces
paramètres sont choisis de façons arbitraire. Le problème qui se pose est le degré de
tolérance d’un choix.
Cette problématique nous amène à poser les hypothèses suivantes :
1. la structure spatiale satisfait aux conditions de la stationnarité second ordre.


2. le variogramme dépend seulement de la distances h = h entre deux sites.

Dans cette étude, nous dirons que deux variogrammes γ1 et γ2 sont de même
types si et seulement si

∀h ∈ [0, +∞[, ∃β > 0, ∃α ∈ R, γ1 (h) = βγ2 (αh) . (2.16)

L’ensemble des variogrammes de même type constitue une classe de variogramme.


Ainsi la classe des variogrammes exponentiel et gaussien est l’ensemble des vario-
gramme de même types que

γE (h) = 1 − exp (−h/a) , h ≥ 0, a > 0 (2.17)


et  
γG (h) = 1 − exp −h2 /a , h ≥ 0, a > 0, (2.18)
respectivement.
Ainsi notre étude s’oriente vers la description de la dépendance entre deux diffé-
rents variogramme de même types. Autrement dit, nous allons étudier la structure
de dépendance d’une classe de variogramme. Nous la ferons avec des copules Archi-
médiennes.
On peut remarquer que la fonction

γ (x) , 0≤x
Fγ (x) = ,
0, sinon

associée à chacune des deux classes, est une fonction de distribution. En effet,

lim F (x) = γ (0) = F (0) = 0, lim F (x) = lim γ (x) = 1 et lim F (x) = 0.
x→0 x→+∞ x→+∞ x→−∞

Et puisque γ est continue et croissante, F est une fonction de distribution. Cette re-
marque nous permet de construire la fonction génératrice de la copule Archimédienne
de chacune des deux classes.

2.2.1 Copule Archimédienne associée aux classes de


variogrammes
Par la relation des fonctions génératrice et les fonctions de distribution, nous
obtenons le résultat résumé dans la proposition suivante,
CHAPITRE 2. COPULES ARCHIMÉDIENNES - DÉPENDANCE SPATIALE 35

Soit γ un représentant de la classe exponentielle ou gaussienne. Si Fγ est la


distribution associée alors, la copule Archimédienne spatiale associée est définie par,
h i
Cγ (u, v) = max ϕ[−1]
γ (ϕγ (u) + ϕγ (v)) , 0 , (u, v) ∈ [0, 1]2 (2.19)

où ϕγ est la transformée de Fγ définie par,


ˆ +∞
ϕγ (t) = exp (−wt) dFγ (w)
0

En effet, Nelsen [32] a prouvé que la transformée de Laplace d’une fonction de


distribution est un générateur d’une copule Archimédienne. Cette propriété nous
permet de déterminer la copule Archimédienne associée à chacune des classes. Ces
copules sont résumées dans le tableau suivant

Classes de Fγ (h),a > 0 ϕγ (w) Cγ (u, v)


Variogrammes 
1 − exp (−h2 /a) , h≥0 √
Gaussien 1− πw max (u + v − 1, 0)
0 h<0

1 − exp (−h/a) , h≥0 −1
Exponentiel 0
(aw + 1)−1 [u−1 + v −1 − 1]
h<0
Table 2.1 – Générateurs et copules spatiales Archimédiennes associées aux classes
des variogrammes exponentiel et gaussien.

Ce tableau est le résumé des calculs faits dans l’annexe 2 et 3. La première


remarque est que ces copules ne sont ni une copule indépendante CI ( i.e CI (u, v) =
uv, u, v ∈ [0, 1]) ni une copule de dépendance CD ( i.e CI (u, v) = min (u, v) , u, v ∈
[0, 1]).

Figure 2.1 – Contours des copules CI et CD


CHAPITRE 2. COPULES ARCHIMÉDIENNES - DÉPENDANCE SPATIALE 36

Par suite, les copules CI et CD (figure 3.1) seront nos copules des références. Il
s’agira d’étudier la similarité des copules associées aux deux classes de variogramme
exponentiel et gaussien, notées respectivement par CE et CG (FIGURE 3.2).
En fait, compte tenu de notre enjeu et rôle des variogrammes dans la prédiction
spatiale, la copule indépendante traduirait que deux variogrammes d’une même classe
peuvent donner des écarts aussi importants dans la prédiction spatiale, même avec
une différence aussi petite soit elle entre ces variogrammes. Par contre, la copule de
dépendance signifierait quasiment le contraire.

Figure 2.2 – Contours des copules CG et CE

La ressemblance les copules CE et CG par rapport aux copules de référence n’est


visuellement pas nette. Cet état des faits, nous conduit à une étude de la similarité
des copules CE et CG par rapport aux copules CI et CD .

2.2.2 Similarité entre les copules associées aux classes et


les copules de référence
Une mesure de similarité renseigne sur le degré de ressemblance entre deux objets.
Elle évolue dans [0, 1] . Elle est égale à 1 lorsque les deux objets ont une ressemblance
parfaite (à l’image de deux objets isométriques). Par contre elle vaut 0 lorsque les
deux objets ont une dissemblance totale (effet diamétralement opposé à une ressem-
blance parfaite).
Plusieurs mesures de similarité existent dans la littérature. Dans cette sous-
section, les mesures se feront entre des matrices associées aux copules. Partant de
l’idée de Shepard[40], nous proposons une mesure de similarité de deux matrices.
Cette mesure de similarité est définie juste après la propriété qui suit.
Proposition 9. Soit n, m ∈ N et Mn,m l’ensemble des matrices à n lignes et m
colonnes. La fonction s définie de Mn,m × Mn,m dans [0, 1] par
 
s (A, B) = exp − max aij − bij ,
1≤i≤n,1≤j≤m

avec A = (aij )1≤i≤n,1≤j≤m et B = (bij )1≤i≤n,1≤j≤m , est une mesure de similarité.


CHAPITRE 2. COPULES ARCHIMÉDIENNES - DÉPENDANCE SPATIALE 37

Démonstration. Supposons que A = (aij )1≤i≤n,1≤j≤m et B = (bij )1≤i≤n,1≤j≤m soient


deux matrices de Mn,m . Une mesure de similarité obéit aux axiomes dans [40] que
nous rappelons dans cette démonstration.
1. Réflexibilité

s (A, B) = 1
 
⇐⇒ exp − max aij − bij =1
1≤i≤n,1≤j≤m
⇐⇒ aij = bij , 1 ≤ i ≤ n, 1 ≤ j ≤ m.

Donc s (A, B) = 1 ⇔ A = B.
2. Symétrique
Puisque aij − bij = bij − aij , s (A, B) = s (B, A). La relation s est donc
symétrique.
3. Condition de minimalité
Pour A 6= B il existe au moins un couple (i, j) ∈ {1, . . . , n} × {1, . . . , m} tel
que aij 6= bij . Autrement dit, il existe un couple (i, j) ∈ {1, . . . , n} × {1, . . . , m}
tel que aij − bij 6= 0. Donc
 
A 6= B ⇐⇒ exp − max aij − bij <1
1≤i≤n,1≤j≤m
⇐⇒ s (A, B) < s (A, A)

4. Critère d’inégalité triangulaire


Soit C = (cij )1≤i≤n,1≤j≤m une matrice de Mn,m . Pour tout couple (i, j) ∈
{1, . . . , n} × {1, . . . , m}, on a

aij − bij ≤ aij − cij + cij − bij ⇐⇒ s (B, A) ≥ s (A, C) .s (C, B) .

Par conséquent s est une mesure de similarité. Pour des mesures de simplicité,
nous dirons que deux matrices A et B de Mn,m sont similaires lorsque s (A, B) = 1.
Quant à deux copules similaires, la définition est donnée comme suit,
Définition 13. Soit C1 et C2 deux copules définie de [0, 1]2 dans [0, 1]. On dira que,
ces deux copules sont similaires si et seulement si pour tout couple (n, m) ∈ N∗ × N∗ ,
les matrices    
M1 = m1ij et M2 = m2ij
1≤i≤n,1≤j≤m 1≤i≤n,1≤j≤m

sont similaires, avec

m1ij = C1 (ui , vj ) et m2ij = C2 (ui , vj ) , 0 ≤ ui , vj ≤ 1.

En effet, les couple (ui , vj ) , 0 ≤ ui , vj ≤ 1 peuvent être vus comme les coordonnées
des nœud des points de la grille de la discrétisation du carré [0, 1]2 .
CHAPITRE 2. COPULES ARCHIMÉDIENNES - DÉPENDANCE SPATIALE 38

La proposition directe qui découle de cette définition est la suivante,

Proposition 10. Deux copules C1 et C2 sont similaires si et seulement si pour tout


couple (u, v) ∈ [0, 1]2 , s [C1 (u, v) , C2 (u, v)] = 1.

L’objectif est d’évaluer le degré de similarité de chacune des copules CγE et CγG
par rapport à chacune des copules CI et CD .

Proposition 11. Pour tous u et v tels que , 0 ≤ u, v ≤ 1,

s (CγG (u, v) , CD (u, v)) ≤ s (CγE (u, v) , CD (u, v)) . (2.20)


Démonstration. En fait, CγG et CD sont respectivement la borne inférieure et la
borne supérieure de l’ensemble des copules [32]. En particulier, pour tous u et v tels
que 0 ≤ u, v ≤ 1, on a

CγG (u, v) ≤ CγE (u, v) ≤ CD (u, v) (2.21)

et
CγG (u, v) ≤ CI (u, v) ≤ CD (u, v) . (2.22)
Par suite, comparons CγE (u, v) et CI (u, v) , pour 0 ≤ u, v ≤ 1.
Supposons qu’au moins des arguments u ou v est nul , on a

CγG (0, v) = 0 = CγE (0, v) et CγG (u, 0) = 0 = CγE (u, v) .


Dans cas CγE (u, v) = CI (u, v) . Supposons maintenant que 0 < u, v ≤ 1, on a

CγE (u, v) = uv/(v + u − uv).

Puisque 1 − v − u − uv = (1 − v) (1 − u), on a v + u − uv ≤ 1. Donc

CγE (u, v) ≥ CI (u, v) (2.23)

pour 0 < u, v ≤ 1.
Des inégalités (2.21,2.22 et 2.23), on déduit que pour 0 < u, v ≤ 1,

CγG (u, v) ≤ CI (u, v) ≤ CγE (u, v) ≤ CD (u, v) . (2.24)

En appliquant la propriété 4 de la similarité, le résultat en (2.24) entraîne (2.20).


Nous illustrons ce résultat par une simulation sur le logiciel statistique R. En
fait, nous avons fait des discrétisations régulières de [0, 1] en n nœuds. A chaque
discrétisation, les similarités s (CγH (u, v) , CK (u, v)) ,0 ≤ u, v ≤ 1, H ∈ {G, E} et
K ∈ {I, D} sont calculées. Nous obtenons les FIGURE 2.1 et FIGURE 2.2.
CHAPITRE 2. COPULES ARCHIMÉDIENNES - DÉPENDANCE SPATIALE 39

Figure 2.3 – Similarité entre les matrices Mn,n , 1 ≤ n ≤ 1000 de CγG et CI (à


gauche), et celle de CγG et CD (à droite).

Figure 2.4 – Similarité entre les matrices Mn,n , 1 ≤ n ≤ 1000 de CγE et CI (à


gauche), et celle de CγE et CD (à droite).

Nous donnons un résumé de cette simulation dans le tableau 3.2.

G.I. G.D. E.I. E.D.


S. Mean 0.7792889 0.6082728 0.9139695 0.8426776
St.D. 0.009914057 0.018192645 0.003864092 0.007051282
Table 2.2 – Moyennes des similarités (S. Mean), s (CγG , CD ), s (CγE , CI ) ,s (CγE , CI )
et s (CγE , CD ) sont celles de (E.I), (G.D), (G.I) et (E.I) et leurs erreurs standard (St.
D.) respectives.
CHAPITRE 2. COPULES ARCHIMÉDIENNES - DÉPENDANCE SPATIALE 40

Cette proposition informe que la structure de dépendance de la classe de va-


riogramme exponentiel est plus semblable à celle d’une copule dépendante que la
classe de variogramme gaussien. Pour illustrer cet état des faits, nous avons fait
des simulations de prédiction à partir de deux échantillons « A » et « B » à carac-
tère géostatistique (données et les coordonnées). Les cartes de prédiction relatives
à l’échantillon « A » ont été établies sous une structure de dépendance spatiale dé-
crite par le variogramme gaussien (avec une valeur pépitique proche de zéro et sans
pépite) (FIGURE 2.5). Avec le même échantillon « A », la carte de prédiction est
faite (figure 2.5) par rapport au variogramme exponentiel (avec une valeur pépitique
proche de zéro et sans pépite). Dans ces figures, les points noirs présentent les sites
de prélèvements.

Figure 2.5 – Carte de prédiction spatiale d’un échantillon « A » relative au vario-


gramme gaussien.
CHAPITRE 2. COPULES ARCHIMÉDIENNES - DÉPENDANCE SPATIALE 41

Figure 2.6 – Carte de prédiction spatiale d’un échantillon « A », relativement au


variogramme exponentiel.

Les figure 2.5 et 2.6 mettent en lumière le contraste possible d’une prédiction via
deux variogrammes gaussiens comparativement à celle relative à deux variogrammes
exponentiels. Cependant, il peut arriver que ce contraste entre les cartes de prédic-
tion relatives à deux variogrammes gaussiens (sans pépite et avec pépite proche de
zéro) soit raisonnable (figure 2.7). D’où le caractère indépendant dans la classe des
variogrammes gaussien.
CHAPITRE 2. COPULES ARCHIMÉDIENNES - DÉPENDANCE SPATIALE 42

Figure 2.7 – Carte de prédiction spatiale d’un échantillon « B » via variogramme


gaussien

Conclusion
L’étude de la dépendance dans ces classes s’est déroulée avec une mesure de
similarité et les propriétés. Nous sommes arrivés à la conclusion que tout choix du
paramètre de l’effet pépite différent, aussi petite qu’il soit, de variogramme affecte
les prédictions spatiales. Cependant la classe des variogrammes exponentiels est plus
tolérante que de la classe des variogrammes gaussiens.
Chapitre 3

Modélisation de dépendance
géostatistique

Dans ce chapitre il est question d’étendre les propriétés de la dépendance de queue


à la fois dans un contexte géostatistique et multivarié. Dans la littérature actuelle
presque tous les modèles, qui décrivent la dépendance spatiale, sont dans un cadre
bivarié. Au-delà de la dimension deux, modéliser la dépendance asymptotique dans
un cadre spatial est assez complexe. Cette difficulté peut s’expliquer par la caractéris-
tique des paramètres spatiaux. Du fait que ces paramètres spatiaux sont parfaitement
liées aux coordonnées des sites (longitude et latitude), on ne peut que modéliser la
dépendance entre deux objets spatiaux. Ce chapitre s’articule essentiellement autour
de deux axes repartis en deux sections.
La première section présente des résultats relatifs à la dépendance spatiale asymp-
totique au-delà de la dimension deux. Quant à la seconde, elle concerne la dépendance
dans un cadre spatio-temporel.

3.1 Modèle de dépendance asymptotique dans


un cadre spatial
Dans cette section, nous proposons une approche dans la modélisation de la dé-
pendance spatiale lorsque les données deviennent de plus en plus grandes.

3.1.1 Dépendance spatiale d’une marge d’un processus


Archimax
Soit X s = {(X1s , . . . , Xns ) , s ∈ S} un vecteur aléatoire continu observé dans un
ensemble fini de site Sm = {s1 , . . . , sm } , si ∈ R2 de fonction de distribution Fs =
(F1s , . . . , Fns ). Soit {Cs , s ∈ S} la copule paramétrique associée à Fs .

Définition 14. Un processus {Xs , s ∈ S} est appelé 2-marginalement


  Archimax si
pour tous i, j ∈ {1, . . . , n}, la distribution bivariée Fi,j = Fi , Fj est associée à une
s s s

43
CHAPITRE 3. MODÉLISATION DE DÉPENDANCE GÉOSTATISTIQUE 44

copule Archimax Cφs ,A , avec φs une fonction complètement monotone.

Après le contenu donné au concept d’un processus « bi-marginalement Archi-


max », il faut trouver la forme de sa fonction de distribution. Mais avant, nous avons
besoin d’un aperçu sur la notion d’une variation régulière. Nous la résumons comme
suit,

Définition 15. Soit Fs la fonction de distribution associée au processus bi-marginalement


Archimax {Xs , s ∈ S} . On dit que Xs satisfait à la propriété de la variation régulière
d’index α (α > 0), notée Fs ∈ RV (α) , s’il existe un vecteur aléatoire Ys distribué
sur un simplexe unitaire spatial
n
( )
4s,n = xs ∈ Rn+ ; xs = xs,i = 1
X

i=1

tel que, pour tout s et tout booléen Bs ⊂ 4s,n , on a


 
P Xs > txs , Xs / Xs ∈ Bs v
  −→ P (Ys ∈ Bs ) t−α
P Xs > Xs , xs →+∞

où v symbolise la convergence vague et kk une norme arbitraire de Rn (voir [33]).

La propriété ci-après est une caractérisation d’un processus bi-marginale. Elle


donne une forme générale des fonctions de distribution d’un processus bi-marginale
Archimax.

Proposition 12. Soit {Xs , s ∈ S} un processus 2-marginalement Archimax de fonc-


tion de distribution jointe et de copule générée par
ˆ +∞
φs (t) = e−wt dFs,1 (w) .
0

S’il existe un réel m > 0 tel que : φs (1 − 1/x) ∈ RV (−m) , alors toutes les marges
bivariées sont de la forme
  !
   X φs (Fis (xsi )) 
s
Fi,j xsi , xsj = φ−1 φs (Fks (xsk )) A∗s,m .
k=i,j φs (Fk (xk ))

s  P s s 
k=i,j

où A∗s,m est une fonction spatiale convexe de [0, 1] dans [1/2, 1]m−1 .

Démonstration. Supposons que le processus{Xs , s ∈ S} a une fonction marginale


bivariée commune, autrement dit pour tout site s ∈ S,
 
s
Fi,j = Fis , Fjs = (F1s , F2s ) avec i, j ∈ {1, . . . , m}
CHAPITRE 3. MODÉLISATION DE DÉPENDANCE GÉOSTATISTIQUE 45

et Cφs ,A la copule Archimax associée à la fonction marginale bivariée commune de


Fs . Par suite, pour tous i, j ∈ {1, . . . , m}
 
φs [Fis ]−1 (usi )
   
   X   
Cφs ,A usi , usj = φ−1
s 
 φs [Fks ]−1 (usk )  A  P  
k=i,j k=i,j φs [F s ]−1 (us ) 
k k

´ +∞
où φs est tel que φ−1
x (1 − t/r) ∈ RV (−α) avec φ−1
x (t) = t
(1 − t/r)m−1 dr.
D’après le théorème de Sklar pour tous 1 ≤ i, j ≤ m, on a
n o  
Cφs ,A Fis (xi ) , Fjs (xj ) = Fi,j
s
xsi , xsj .

Donc pour tout (xi , xj ) ∈ R2 ,


  
φs (Fis (xsi ))
!
   X 
s
Fi,j xsi , xsj = φ−1 φs (Fk (xk )) A P
s s 
.
k=i,j φs (Fk (xk ))

s  s s 
k=i,j

Par suite, selon un résultat de Genest et al.[18], si une copule Archimax C ∗ de


fonction de Pickands A∗ appartient au domaine d’attraction max-stable d’une copule
Archimax C de fonction de Pickands A, alors il existe α ∈ [0, 1] tel que
" #
h
1/α α
i t1/α
A∗ (t) = t1/α + (1 − t) A1/α .
t1/α + (1 − t)1/α

Par conséquent, pour tout (xi , xj ) ∈ R2


  
(F s
(x s
))
!
   X φ s

Cφs ,A Fis (xi ) , Fjs (xj ) = φ−1 φs (Fks (xsk )) A P i i
.
k=i,j φs (Fk (xk ))

s  s s 
k=i,j

Dans le contexte spatial cette égalité devient, pour tous i, j ∈ {1, . . . , n},
  
φs (Fis (xsi ))
!
   X 
Cφs ,A Fis (xi ) , Fjs (xj ) = φ−1 φs (Fks (xsk )) A∗s,m
k=i,j φs (Fk (xk ))

s  P s s 
k=i,j

où A∗s,m est la fonction de dépendance de Pickands d’une copule appartenant au


domaine d’attraction de la copule C. Finalement, nous avons
  
φs (Fis (xsi ))
!
   X 
s
Fi,j xsi , xsj = φ−1 φs (Fks (xsk )) A∗s,m .
k=i,j φs (Fk (xk ))

s  P s s 
k=i,j

En particulier, dans un contexte spatial bivarié, on a pour i, j ∈ {1, . . . , m}


  !
 X φs (Fis
(xsi )) 
Cφs ,A [Fis (xi ) , Fis (xj )] = φ−1 φs (Fks (xsk )) A∗s,m ,
k=i,j φs (Fk (xk ))

s  P s s 
k=i,j
(3.1)
CHAPITRE 3. MODÉLISATION DE DÉPENDANCE GÉOSTATISTIQUE 46

où A∗ est la fonction de dépendance de Pickands d’une copule appartenant au do-


maine d’attraction de la copule C. Finalement en combinant le théorème de Sklar et
(3.1), on obtient
  
φs (Fis (xsi ))
!
   X 
s
Fi,j xsi , xsj = φ−1 φs (Fks (xsk )) A∗s,m
k=i,j φs (Fk (xk ))

s  P s s 
k=i,j

où la fonction A∗ est exprimée en terme de A∗s,m .


La fonction A∗s,m est appelée la fonction de dépendance spatiale Archimax.
En effet, dans la construction de la fonction de distribution d’un processus bi-
marginale nous avons exploité la relation entre une copule et sa fonction de distribu-
tion associée. En particulier, nous avons utilisé les propriétés d’une copule Archimax.
Les paramètres de dépendance spatiale de queues (supérieure ou inférieure) me-
surent la degré de dépendance des grandes observations entre les différentes site.
Dans le cadre bivarié, beaucoup de résultats sont disponibles et même au delà de la
dimension 2 comme dans l’article [11] de Barro D. Ici la particularité de nos résul-
tats se situent dans le fait que nous donnons non seulement une vision générale, mais
aussi dans un contexte spatial et sous notre hypothèse principale.

3.1.2 Queues supérieures d’une copule spatiale


Archimédienne
Sous notre hypothèse principale, dans cette sous-section, nous présentons un ré-
sultat sur le paramètre de dépendance de queue supérieure. En effet, il s’agit d’une
formule analytique qui résume la simultanéité des événements extrêmes (maxima)
dans l’ensemble des sites, S, connaissant avec certitude de la survenance des ex-
trêmes dans un sous-ensemble K ⊆ S. Ce résultat est résumé dans la proposition
ci-après.

Proposition 13. Soit {Cφs , s ∈ S} une copule archimédienne spatiale de généra-


teur φs . Alors, pour tout k < n, la généralisation paramétrique des k de la queue
supérieure est donnée analytiquement par
  
n
(−1)  k
λU,k = 1 + lim  Cφs (us,ik ) ; ik ∈ Sk 
X X
us,i →1
k=1 1 − us,k Sk ⊂N

où Sk est ensemble non vide de {1, . . . , n} .

Démonstration. Supposons que Cφs soit une  copule archimédienne spatiale relative-
ment au site s ∈ S. Pour tout u1 , . . . , un ∈ [0, 1]n ,
s̆ s̆

  h    i
Cφs us̆1 , . . . , us̆n = φ−1
s φs us̆1 + . . . + φs us̆n . (3.2)
CHAPITRE 3. MODÉLISATION DE DÉPENDANCE GÉOSTATISTIQUE 47

Puisque une copule est une fonction distribution, de marge uniforme, considérons
Ceφt la distribution de survie de C φt . Ainsi,
       
Ceφs us̆1 , . . . , us̆n = P F1s̆ xs̆1 > us̆1 , . . . , Fns̆ xs̆n > us̆n
 
= C φs 1 − us̆1 , . . . , 1 − us̆n
D’après Charpentier et al., on a
  
  n
Ceφs us̆1 , . . . , us̆n = (−1) 
k
Cφs (ν1 , . . . , νn ) (3.3)
X  X 
k=0 ν (us̆1 ,...,us̆n )∈Zs (n−k,n,ε)
n o
où Zs (M, N, ε) représente l’ensemble ν ∈ [0, 1]n ; νi ∈ {us , ε} , i=1 1{ε} (νi ) = M .
Pn

On a
  
  n  
Ceφs us̆1 , . . . , us̆n = (−1)k  Cφs us̆i1 , . . . , us̆in ; ij ∈ Sk  (3.4)
X X

k=0 Sk ⊂N

où Sk = {i1 , . . . , ik } un sous ensemble de N = {1, . . . , n} de cardinal k ≥ 1, tel que


us̆ij = 1 pour tout ij ∈ / Sk .
 
Des équations (3.3) et (3.4), on déduit que pour tout us̆i1 , . . . , us̆in ∈ [0, 1]n ,
  
  n  
C φt us̆1 , . . . , us̆n = (−1)  k
Cφt 1 − us̆i1 , . . . , 1 − us̆in  (3.5)
X X

k=0 Sk ⊂N

où Sk est tel que us̆ij = 0 pour ij ∈ Sk .


Particulièrement, en remplaçant la copule Archimédienne Cφt de la formule (3.5)
par sa forme analytique (3.2), on obtient
   
  n n  
C φs us̆1 , . . . , us̆n = (−1)k  φ−1 1 − us̆ij  (3.6)
X X X
φs  s
k=0 Sk ⊂N j=1

Par suite,
C φs (1 − us , . . . , 1 − us )
λU,k = lim
us →1 1 − us
ou encore,
    
Xn
(−1) k n   
λU,k = lim φ−1  ;
X X
φs  us,ij
1 − us
 
us →1  s 
k=0 Sk ⊂N j=1

Ce résultat décrit la relation des extrêmes supérieurs entres les sites. Il résume la
dépendance de l’ensemble des sites par rapport à leurs maxima. Un autre résultat,
non moins important, est établi sur la relation des extrêmes inférieurs entre les sites.
Ce dernier est présenté dans la sous-section ci-après.
CHAPITRE 3. MODÉLISATION DE DÉPENDANCE GÉOSTATISTIQUE 48

3.1.3 Queue inférieure d’une copule spatiale Archimax


Cette fois, il s’agit d’une formule analytique qui résume la simultanéité des évé-
nements des minima dans l’ensemble des sites S sachant que des minima observés
dans un sous-ensemble K ⊆ S.
Avant de présenter le résultat, nous rappelons que la dépendance non spatiale de
queue inférieure d’une copule Archimédienne est donnée par,

Cn (u, . . . , u)
!
λ L,k
= lim , ∀u ∈ [0, 1] (3.7)
u→0 Cn−k (u, . . . , u)

où Cn−k est une


 copule marginale  relativement aux (n − k) composantes X
f
s,n−k telles
que Xs,n−k = Xk+1 , . . . , Xn .
f s̆ s̆

Sous l’hypothèse principale, le paramètre de dépendance de queue ( T DC ) à


gauche avec des marges Archimax se généralise comme dans la proposition ci-dessous.

Proposition 14. Soit φs le générateur bi-marginale d’un processus Archimax {Xs , s ∈ S}.
Pour tout s ∈ S et k (k < n), le T DC à gauche, λL,k
s , est donné par,
i)
λL,k
s ≤ lim+ R (φs (us )) (3.8)
u→0

où R est un ratio particulier dans ]0, 1[ si Cφs est une copule Archimé-
dienne stricte.
ii)
λL,k
s = lim+ exp {−Dφs (us )} (3.9)
u→0

avec Dφs une mesure conditionnelle particulière si Cφs est une copule Ar-
chimax stricte.

Démonstration. Partons la formule (3.7) dans un contexte spatial,

Cφs (us , . . . , us )
!
λL,k = lim , ∀us ∈ [0, 1] (3.10)
s us →0 C φs ,n−k (us , . . . , us )

où Cφs est une copule Archimax. En d’autres termes, Cφs est soit considérée comme
une copule Archimédienne stricte ou satisfait les propriétés de max-stabilité.
i) Supposons que Cφs est soit considérée comme une copule Archimédienne stricte,
on a,
P  
i=1 φs (us )

k
φ−1
s
λL,k
s = lim  P  ; (3.11)
us →0 φ−1
s
n
i=k+1 φs (us )

Ce qui donne,
s (kφs (us ))
φ−1
" #
λL,k = lim
s ((n − k) φs (us ))
s us →0 φ−1
CHAPITRE 3. MODÉLISATION DE DÉPENDANCE GÉOSTATISTIQUE 49

où la fonction φs est un générateur complètement monotone. Alors φ−1 s est stricte-


ment croissante de [0, +∞[ dans [0, 1] et que φ (0) = 1. D’où λL,k
s = R (φs (us )) < 1.
ii) Supposons maintenant que Cφs est une copule des valeurs extrêmes. Sa repré-
sentation canonique de Pickands est
( n !)
ues,i ues,n−1
C (u1 , . . . , un ) = exp (3.12)
X
ues,i AC Pn , . . . , Pn
i=1 i=1 ues,i i=1 u
es,i

avec ues,i = log us,i et AC est une fonction de dépendance de Pickands. Par suite,
  
Xk n 
λL,k = lim exp  ues,i AC (wi , . . . , wn−1 ) − (wk+1 , . . . , wn−1 )
X
s ues,i ACn−k
us →0
i=1 i=k+1
(3.13)
us,j
avec wj = Pne
u
, j = 1, . . . , n − 1 et ACn−k est la fonction de dépendance de Pi-
i=1 s,i
e
2
ckands relative à Cn−k . Enfin, il s’en suit que la mesure convexe Dφs de [(R ∪ {±∞})n ]
dans [0, 1] définie par,
k n
Dφs (us ) = ues,i AC (wi , . . . , wn−1 ) − ues,i ACn−k (wk+1 , . . . , wn−1 ) , (3.14)
X X

i=1 i=k+1

donc
λL,k
s = lim exp {−Dφs (us )}
us →0

Modéliser la dépendance asymptotique d’un ensemble de stations, nous avons


procédé par considérer les stations par pair. En clair, notre investigation sur l’exten-
sion des propriétés du paramètre spatial de la queue de dépendance asymptotique
repose sous l’hypothèse que le processus max-stable est bi-marginalement Archimax.

3.2 Stabilité des copules Archimédiennes de


survie dans un cadre spatialisé
Soit {X (s) , s ∈ S} un processus bi-marginale Archimax de générateur φs .

3.2.1 Analyse de survie dans un cadre spatial


Et comme toute fonction de distribution multivariée, une copule admet une copule
de survie. Sans perdre de généralité, pour une raison de simplification nous partirons
des variables aléatoires bivariées (X (s1 ) , X (s2 )). Soit G la fonction de distribution
de la variable bivariée (X (s1 ) , X (s2 )) de marges G1 et G2 . Sa fonction de survie est
donnée par

G (x, y) = P (X (s1 ) > x1 , X (s2 ) > x2 ) .


CHAPITRE 3. MODÉLISATION DE DÉPENDANCE GÉOSTATISTIQUE 50

Par suite,

G (x, y) = 1 − {P [X (s1 ) ≤ x] + P [X (s2 ) ≤ x2 ] − P [X (s1 ) ≤ x1 , X (s2 ) ≤ x2 ]}

ce qui s’écrit encore

G (x, y) = 1 − G1 (x1 ) − G2 (x2 ) + G (x1 , x2 ) .

D’après le théorème de Sklar,

C (G1 (x1 ) , G2 (x2 )) = P {G1 [X (s1 )] > u1 , G2 [X2 (s2 )] > u2 }

soit
C (G1 (x1 ) , G2 (x2 )) = 1 − u1 − u2 + C (u1 , u2 )
avec C la copule associée.
De façon générale, considérons C une copule d−dimensionnelle. Pour tout (u1 , . . . , ud ) ∈
[0, 1]d , sa copule de survie C est
 
d
C (u1 , . . . , ud ) = (−1)
k
C (1, . . . , 1, 1 − ui1 , 1, . . . , 1, 1 − uik , 1, . . . , 1) .
X X

k=1 i1 ,...,ik

La copule de survie est souvent appelée copule duale. En fait, si les distributions
marginales de C sont U1 , . . . , Ud alors celles de son duale sont 1 − U1 , . . . , 1 − Ud .

3.2.2 Stabilité de combinaison géométrique de copules de


survie
Soit {Xs , s ∈ S} un processus spatial 2-marginalement Archimax de générateur
associé φs . Le résultat suivant établit la stabilité des copules de survie bivariées des
valeurs extrêmes par combinaison géométrique.

Proposition 15. Soit {φs , s ∈ S} le générateur d’un processus 2-marginalement Ar-


chimax Xs = {(X1,s , . . . , Xn,s ) , s ∈ S} et {Ci,φs , s ∈ S, 1 n≤ i ≤ n} l’ensemble deso co-
pules spatiales extrêmes strictes. En plus supposons que C i,φs , s ∈ S, 1 ≤ i ≤ n est
l’ensemble des copules de survie correspondantes. Alors pour tout, α = (α1 , . . . , αm ),
la combinaison géométrique,
α αm
Cφs ,α (us , vs ) = C 1,φ
1
s
(us , vs ) × . . . × C m,φs (us , vs ) (3.15)

est copule spatiale extrême bivariée.

Démonstration. Démontrer cette proposition consiste essentiellement à montrer que


pour tout α, la copule Cφs ,α est une copule des valeurs extrêmes. Considérons à cet
effet, une fonction hji ,avec j ∈ {1, . . . , m} et i ∈ {1, . . . , n}, définie de [0, 1] dans
[0, 1] telle que hij (x) = xαj .
CHAPITRE 3. MODÉLISATION DE DÉPENDANCE GÉOSTATISTIQUE 51

Selon Diakarya [11] pour tout α = (α1 , . . . , αm ) ∈ 4m et pour tout (u1 , . . . , un ) ∈


[0, 1]n , on a la transformation géométrique suivante,
m m
Cj {hj,1 (u1 ) , . . . , hj,n (un )} = Cj {(u1 )α1 , . . . , (un )αn }
Y Y

j=1 j=1
= C1 {(u1 )α1 , . . . , (un )αn } × . . . × Cm {(u1 )α1 , . . . , (un )αn }

soit
m
Cj {hj,1 (u1 ) , . . . , hj,n (un )} = C1 {(u1 )α1 , . . . , (un )αn }×. . .×Cm {(u1 )α1 , . . . , (un )αn }
Y

j=1

est reste toujours une copule.


Plus particulièrement, dans un contexte spatial bivarié, la transformation suivante

Cφs ,α (us , vs ) = C1,φs (uαs 1 , vsα1 ) × . . . × Cm,φs (uαs m , vsαm ) (3.16)

est une copule. Et puisque les copules Cj,φs ,1 ≤ j ≤ m, sont des copules extrêmes,
on a  
k
Cj,φs
(u s , vs ) = C j,φs u k
s , vs
k
, (us , vs ) ∈ [0, 1]2 , k > 0. (3.17)
En utilisant (3.17) dans (3.16), pour tout (α1 , . . . , αm ) ∈ 4m , on a

Cφs ,α (us , vs ) = C1,φ


α1
s
(us , vs ) × . . . × Cm,φ
αm
s
(us , vs ) . (3.18)

En plus en utilisant la symétrie radiale des copules, Ci,φs avec 1 ≤ i ≤ n, de la


formule (3.16), on obtient
α αm
Cφs ,α (us , vs ) = C 1,φ
1
s
(us , vs ) × . . . × C m,φs (us , vs ) . (3.19)

Une condition suffisante est de prouver maintenant la propriété de max-stabilité de


la copule Cφs ,α . Pour tout k > 0, on a

Cφks ,α (us , vs ) = C1,φ


kα1
s
(us , vs ) × . . . × Cm,φ
kαm
s
(us , vs ) . (3.20)

Et comme chacune des copules Ci,φs , 1 ≤ i ≤ n, est un modèle des valeurs extrêmes,
l’équation (3.20) devient
     
Cφks ,α (us , vs ) = C1,φ
α1
s
αm
uks , vsk × . . . × Cm,φs
uks , vsk = Cφs ,α uks , vsk .

Par suite,
α αm
   
Cφks ,α (us , vs ) = C 1,φ
1
s
uks , vsk × . . . × C m,φs uks , vsk .
Par conséquent Cφs ,α est une copule des valeurs extrêmes, donc Cφs ,α est une copule
max-stable.
CHAPITRE 3. MODÉLISATION DE DÉPENDANCE GÉOSTATISTIQUE 52

Dans cette section, nous avons établi des propriétés intéressantes relatives à des
copules paramétriques et la queue de dépendance dans un contexte spatial. Les pro-
priétés obtenues concernent la dépendance spatiales d’un processus aléatoire dans le
cas où les fonctions marginales sont bivariées et dans la classe Archimax.
Nous avons apporté une réponse à la problématique relative à l’extension, dans
un contexte spatial, du coefficient de dépendance de queue supérieure et de queue
inférieure. En fait, la caractérisation spatiale du coefficient de dépendance de queue
supérieure a été faite avec des copules Archimédiennes. Nous avons aussi caractérisé
le coefficient de dépendance de queue inférieure dans un espace n dimensionnel avec
des fonctions marginales bivariées de la classe Archimax.
En somme, il s’agissait d’une étude de comportements des valeurs extrêmes en te-
nant compte des caractéristiques spatiales. Le résultat obtenu, sert à faire un résumé
de l’inter-dépendance entre les sites de prélèvement par rapport aux grandes valeurs
qui y sont observées. Dans cette étude, deux grandes variations sont donc prise en
compte. Il s’agit de la variation des grandes réalisations et de la variation spatiale.
Dans la prochaine section, nous poursuivons notre étude des comportements des réa-
lisations extrêmes spatiales. Cette fois, on y prend en compte la variation temporelle.

3.3 Modèle de dépendance spatio-temporelle de


processus max-stables
Les données climatiques présentent, le plus souvent, non seulement des compo-
santes spatiales mais aussi des paramètres liés au temps. Cette étude est axée sur
des valeurs extrêmes, en tenant compte des variations spatio-temporelles.
Le comportement des événements extrêmes aléatoires, dans un site s localisé
géographiquement, est entièrement décrit par la famille GEV . En effet, pour tout
site s, cette famille se décline en trois modèles suivants : Gumbel, Fréchet et Weibull.
Comme dans les sections précédentes, nous allons adopter les mêmes notations.
En particulier le domaine spatial R2 , et S = {s1 , ..., sm } ⊂ R2 l’ensemble des sites
où sont observés nos phonèmes extrêmes. Excepter Y la variable des extrêmes régio-
nalisées qui est maintenant aussi fonction du temps.
Ainsi le vecteur aléatoire au temps t,

Yt (s) = Y (t, s) = {(Yt (s1 ) ; ...; Yt (sm )) , s ∈ S, t ∈ T }

est un modèle max-stable spatio-temporel. Aussi, une réalisation y (t, s) = yt (s) de


la variable Yt (s) est obtenue comme

σt (si ) h i
yt (si ) = µt (si ) + yt (si )ξt (si ) − 1 pour i = 1, ..., m. (3.21)
ξt (si )
Pour des raisons de simplicité, nous adopterons la notation de Barro et al. par
Y (t, s) = Ytš (pour faire la différence avec Yts comme la puissance sème de Yt ). Alors,
CHAPITRE 3. MODÉLISATION DE DÉPENDANCE GÉOSTATISTIQUE 53

sous cette notation, la fonction de distribution jointe spatialisée de Y est Ftš donné
par

   
Ftš ytš = P Ytš ≤ ytš .
avec ytš = (yt (s1 ) , ..., yt (sm )) une réalisation de Ytš . Dans notre cadre d’étude,
nous rappelons que la relation d’inégalité « ≤ » se fait composante par composante.
En outre, le théorème de Sklar nous permet de déduire la copule spatio-temporelle
Ctš associée à la distribution Ftš . Elle est donnée par
 −1  −1 
Ctš (u1 ; ...; um ) = Ftš Ftš1 (u1 ); ...; Ftšm (um ) ,
avec (u1 , . . . , um ) ∈ ([0, 1] × T )m .
Aussi, pour tout m ∈ N et l’ensemble des sites donné, on appelle (m − 1) −simplexe
unitaire spatio-temporelle l’ensemble définit comme suit,

n o
∆št,m = ytš = (yt (s1 ) , ..., yt (sm )) ∈ Rm
+ ; yt =
š m
(si ) = 1 . (3.22)
X
i=1 yt

Une fois ces outils nécessaires réunis, nous présentons une caractérisation princi-
pale d’un processus multivarié des valeurs extrêmes. Précisément, ilns’agit de la distri-
o
bution d’un processus des valeurs extrêmes multivariées (M EV ) Ytš , s ∈ S, t ∈ T
variant dans le temps et dans l’espace. Cette caractérisation est résumé dans le théo-
rème qui suit.
n o
Théorème 9. Soit Ytš , s ∈ S, t ∈ T un champs aléatoire spatio-temporel de distri-
 
bution paramétrique Htš = Htš1 , . . . , Htšm . Les propriétés suivantes sont vérifiées,
1. Une condition suffisante pour que Htš soit une distribution multivariée
n deova-
leurs extrêmes, est qu’il existe deux suites spatio-temporelles αn,t > 0 et

n o

βn,t ∈ R telles que

Mtši − βtši
" !#
n  
lim P ∩ š(i)
≤ yt (si ) = Htš1 [yt (s1 )] , . . . , Htšm [yt (sm )]
n−→∞ i=1 αt
š(i)
où Mt est une marge spatio-temporelle de composantes maxima
   h i  h iT

Mt,1 š
, ..., Mt,n = max Ytšk (s1 ) ,..., max Ytšk (sn ) .
1≤k ≤m 1 ≤ k ≤m

2. Sous la condition 1, ilh existe iune fonction de dépendance spatio-temporelle Btš


sur ∆št,m−1 × S dans m−1 1
, 1 telle que pour tout ytš = (yt (s1 ) , . . . , yt (sm )) ∈
[0, 1]m ,
m
(" # )
Htš (yt (s1 ) ; ...; yt (sm )) = exp yt (si ) Btš (λt (s1 ) , ..., , λt (sm )) ,
X

i=1

où {λt (si ) ; 1 ≤ i ≤ m} est l’ensemble des coefficients convexes spatiaux.


CHAPITRE 3. MODÉLISATION DE DÉPENDANCE GÉOSTATISTIQUE 54

Avant de passer pour la démonstration de ce théorème, nous est nécessaire de


présenter un résultat relatif à la condition de max-stabilité de notre distribution
M EV spatio-temporelle.
Dans notre raisonnement, nous considérons des vecteurs aléatoires de maxima
dans le contexte spatio-temporelle. Néanmoins, il est utile de savoir la relation de
dualité reliant les vecteurs des maxima et ceux des minima. Cette relation est donnée
par
   
 n o  n o
min Ytš (sk ) = − max −Ytš (sk ) sk ∈ S, t ∈ T,
   
1≤k≤m 1≤k≤m

où S est l’ensemble des sites et T l’espace temps.


Sans faire de restriction,
n nous supposons
o que les distributions marginales du pro-
cessus multivarié Yt (sk ) , sk ∈ S, t ∈ T

sont du type de Fréchet unitaire,
1≤k≤m
dans un cadre spatio-temporel. En effet, même dans ce cadre spatio-temporel les
trois modèles univariés sont inter-liés par la transformation suivante :
σ (ytš )
 θ    ξ(yt ) 
Ytš ∼ Φšθ,t ⇔ ln Ytš ∼ Λšt ⇔ −1
Ytš
∼ Ψšθ,t ⇔ Ytš =µ ytš + ξ (ytš )
ytš −1 .

Proposition 16. Soit G une distribution m−variée avec des marges continues "
Gi ,i = #−1
−1
1, ..., m. Considérons les transformations ψi de Gi telles que ψi (yt (si )) = avec
log Gi (yt (si ))
yt (si ) > 0,
m
1. La distribution spatio-temporelle Gšt définie sur (R+ × S × T ) par

Gšt (yt (s1 ) ; ...; yt (sm )) = G (ψ1 (yt (s1 )) , ..., ψm (yt (sm ))) , yt (si ) ≥ 0

admet une distribution marginale en Fréchet unitaire


!
−1
G∗t,s (yi (t)) = Φšθ (yt (si )) = exp , i = 1, ..., m.
yt (si )

2. En plus Gšt est une distribution spatio-temporel M EV si et seulement si G est


max-stable.

Démonstration. (théorème 8)
1) Supposons que la loi multivariée H est une distribution M EV dont ses marges
Hi satisfont (1.8,1.9 ou 1.10). Il suffit donc de montrer que pour tout site s et un temps
t donnés,
n Htš respecte
o n la propriétéo de max-stabilité dans le cadre spatio-temporel.
Soit αn (t) > 0 et βn (t) ∈ R deux suites de normalisation spatio-temporelles de
š š

H. Ces suites sont définies sur N∗ × S × T telles que

Mnš (t) − βnš (t)


" ( )# 
m m  
lim P ∩ ≤ yt (si ) = lim P ∩ Y š(i)
≤ αiš (t) yt (si ) + βiš (t)
n→∞ i=1 αnš (t) n →∞ i=1
CHAPITRE 3. MODÉLISATION DE DÉPENDANCE GÉOSTATISTIQUE 55

Par suite,

Mnš (t) − βnš (t)


" ( )# m
m h i
lim P ∩ ≤ yt (si ) = lim ΠP Xiš ≤ αiš (t) yt (si ) + βiš (t)
n→∞ i=1 αnš (t) n →∞ i=1

ou encore,

Mnš (t) − βnš (t)


" ( )#
m h   in
lim P ∩ ≤ yt (si ) = lim G αiš yt (si ) + βiš (t) , ...αiš (t) y š (t) + βiš
n→∞ i=1 αnš (t) n →∞

d’où
Mnš (t) − βnš (t)
" ( )#
m
lim P ∩ ≤ yt (si ) = (H1 (yt (s1 )) , ..., Hn (yt (sm ))) .
n→∞ i=1 αnš (t)

2) D’après Coles, pour un site s et temps t donnés, H est donné par

−q 1 y š (t) −qm−1 y š (t)


m
" ! !#
Htš (y1š (t) , ..., ynš (t)) = exp − yiš (t) A Pm1 1š ; ...; Pm m−1
X

i=1 yi (t) i=1 yi (t)



i=1
(3.23)
où A est la fonction
h i de dépendance spatialisée de Pickands définie sur le simplexe
∆s,m−1 dans m−1 1
; 1 (Voir Beirlant). En plus utilisant un des résultats de Barro et
al., il advient qu’il existe une mesure conditionnelle D, définie sur le simplexe telle
que
t2 tm−1
 
A(t) = D (t1 ; . . . ; tm−1 ) + (1 − t1 ) DN̄1 ;...; (3.24)
1 − t1 1 − t1
Finalement, substituant (3.24) dans (3.23), pour des sites si , 1 ≤ i ≤ m, et temps t
donnés, on obtient la relation
m
" ! #
Htš (y1š , ..., ynš ) = exp − yiš Btš (λsi (t) ; ...; λsi (t))
X

i=1
     
où Btš λs1 , ..., λsm−1 = D λs1 y1š (t) , ..., λsm ym

(t) + (1 − t) D λs2 y2š (t) , ..., λsm ym

(t)
−q i
et λsi (t) = Pm š .
i=1 i (t)
y
Par conséquent,
 š

š −qm−1 ym−1
−q1 y1 (t)
Pm š (t)
 
Btš λs1 , ..., λsm−1 = D Pm š yi (t)
,..., y (t)
+
i=1 i=1 i
 š š

−qm−1 ym−1
  −q2 y2 (t)
Pm š
Pm š (t)
−q y (t) š yi (t) y (t)
1 − Pm1 1 š(i) DN̄1  ;...; (3.25)
 i=2 i=2 i

,
−q1 y1š (t) š
−qm−1 ym−1
y
1− 1− Pm š (t)
 
i=1 t Pm
i=2 i
y š (t) y (t)
i=2 i

Ainsi le résultat est obtenu.


CHAPITRE 3. MODÉLISATION DE DÉPENDANCE GÉOSTATISTIQUE 56

L’étude de la structure de dépendance des extrêmes dans un domaine spatiale est


capitale dans la prédiction spatiale. Dans la section prétendante, nous avons proposé
des coefficients de dépendance des queues dans un domaine spatial. Ces coefficients
informent sur la survenance probabiliste d’un événement extrême dans un ensemble
de sites sachant que cet événement extrême est observé dans un autre ensemble des
sites localisés.
Nous avons présenté la fonction de dépendance de Pickands. Cet outil résume la
dépendance spectrale. Une autre fonction de dépendance spatio-temporelle apparaît
dans la preuve précédente. Cette dernière est définie comme suit.

Définition 16. La fonction Btš , définie en (3.25), décrit la dépendance en fonction


un temps et de l’espace. On l’appelle
n o la fonction de dépendance spatio-temporelle

(FDTS) associée au processus Yt du site s et à la date t donnés.

Jusque là il a été question des distributions spatiales M EV , le théorème ci-


dessous donne une caractérisation des distributions multivariées de dépassement de
seuil relativement aux M EV d’un même processus Y .

Théorème 10. Soit Gšt une distribution M EV d’un processus spatio-temporel max-
stable {Xts }. Si Htš est la distribution multivariée GP associée au même échantillon,
alors pour tout site s0 et temps t0 donnés,
   
Gšt (yts +yts ) Gšt (yts )
Htš (yts ) = −1
log 0
= 1 − log ;
log Gšt (yts )
0
Gšt (min(yts ,yts0 )) Gšt (min(yts ,yts ))
0

 
pour tout yts0 ∈ support Gšt .

Démonstration. Considérons les suites de normalisation {σn > 0} et {βn ∈ R} dans


le théorème 8,
1 f (σn )
σn = F −1 (1 − ) et βn =
n 1 − F (σn )
où F est la fonction de distribution commune de l’échantillon et f sa densité. Rappe-
lons que les calculs se font composantes par composantes de sorte que pour les sites
si de S donnés, on a
  
(1) (m)




ak (s0 ) = ak (s0,t ) ; ...; ak (s0,t )
 
(1) (1) (m) (m)
ak (s) + bk (s) = ak (s1 ) + bk (s1 ) , . . . , ak (sm ) + bk (sm ) .

yts yts1 ytsm


!

= ; ...; sm



yts0 yts01


yt0

Soit H la distribution
 multivariée
 de Pareto correspondante. Ainsi pour tout point
s(1) s(m) s(i)
donné yt0 = yt0 , ..., yt0
s
avec yt0 > 0 et α > 0, il résulte que
 −α
yts 
Htš (yts ) = 1 −  s(1) .
yt0
CHAPITRE 3. MODÉLISATION DE DÉPENDANCE GÉOSTATISTIQUE 57

s(1) s(1)
En particulier, pour yt > yt0 , on a

H −1 (yts ) = (1 − yts )−1/α yt0 ;


s(1)

1
 
donc, nous avons : an (s) = G −1
1− = n1/α yts0 .
n
Par suite,
 !−α n
n1/α ytš
lim P (Mn (s) ≤ an (s0 ) yts ) = lim 1 − 
n→+∞ n↑+∞ ytš0

autrement dit,
h i
lim P (Mn (s) ≤ an (s0 ) yts ) = lim 1 − n1/α yt−sα ;
n→+∞ n↑+∞

qui donne les distributions marginales suivantes,


!

s(i)
 −1 š(i)

š(i)

lim P Mn (si ) ≤ an (s0 ) yt = exp š(i)
= Ht yt .
n−→+∞ yt
Par conséquent,

G(yts )
 !
1 − log si yts ≥ 0


Htš (yts ) = G (min(y s s
t , yt0 )) ,
0 sinon

d’où le résultat comme prévu

3.4 Formes analytiques de quelques modèles


multivariés et max-stables
Dans cette section, il est question d’une étude de la dépendance spatio-temporelle.
En effet, supposons que nous disposons d’un ensemble de m sites, noté S = {si , 1 ≤ i ≤ m} .
Essentiellement, à un temps t fixé nous étudions la probabilité de la survenance de
l’événement extrême dans le site sj sachant qu’il n’est pas observé dans aucun site
de l’ensemble S − {sj }.
Il existe une infinité de fonctions distributions multivariées. Cet ensemble de
fonction de distribution ne possède pas de paramétrisation finie. Dans cette section,
huit familles usuelles paramétriques sont identifiées. Après une brève présentation
d’une famille, nous exposons la fonction de dépendance spatio-temporelle (FDST)
correspondante.
CHAPITRE 3. MODÉLISATION DE DÉPENDANCE GÉOSTATISTIQUE 58

3.4.1 FDST des principaux modèles bivariés max-stables


a) Modèle logistique symétrique θ ≥ 1.
Ce modèle est un cas particulier de la distribution logistique donnée par Gumbel
(1960). La distribution bivariée logistique est donnée par la sa formule suivante,
 − θ1
(  )
š(1) −θ š(2) −θ
   
Gšθ ỹtš = exp − ỹt + ỹt ,θ ≥ 1

où θ est le paramètre de dépendance. Sa fonction de dépendance spatiale est donnée


par
xt 1
 
Bθ,t (x) =

1 + xt
−θ θ
−1 .
1 + xt
Une des raisons qui explique la popularité de ce modèle réside dans sa réflexivité. En
effet, lorsque θ → 1,
  
š(1) −1 š(2) −1
    
Gšθ ỹtš = exp − ỹt + ỹt ,

correspond à l’indépendance totale des variables de marges communes Fréchet uni-


taire ; lorsque θ → +∞,
  
š(1) −1 š(2) −1
    
Gšθ ỹtš = exp − max ỹt , ỹt ,

correspond à la dépendance parfaite des variables. En outre, le paramètre q est


déterminé par la relation ρ = (θ2 − 1) /θ2 , avec ρ le coefficient corrélation.

b) Modèle logistique négatif, θ ≥ 0.


Ce modèle a été établi par Joe [22]. Il donné par
    h    i− 1 
š(1) š(2) š(1) š(2)
Gšθ ỹtš = exp − 1/ỹt + 1/ỹt − ỹt −θ
+ ỹt −θ θ
.

Et sa fonction de dépendance spatiale la suivante,


xt  1

−θ − θ

Bθ,t (x) =

1 − 1 + xt .
1 + xt
Ce modèle donne une masse nulle aux bords {0} et {1}. Cette famille, lorsque θ → 0+
décrit la totale indépendance et traduit la dépendance totale lorsque θ → +∞.

c) Modèle logistique biparametrique négatif.


Ce modèle de Joe[23] est donné par,
  
      
š(1) š(2) š(1) −θ1 š(2)
Gšθ ỹtš = exp −ỹt + ỹt −  ỹt + ỹt −θ1

− 1 1
 θ1 θ2  θ1 θ2  θ2 θ1 
š(1) š(2)
− ỹt + ỹt  

CHAPITRE 3. MODÉLISATION DE DÉPENDANCE GÉOSTATISTIQUE 59

et sa fonction de dépendance spatio-temporelle par,


xt  1
 
−θ1 θ2 − θ1

Bθ,t (x) =

x t + 1 − 1 + xt
−θ1
−1
1 + xt

d) Modèle Gaussien bivarié (ou modèle de Hüsler-Réiss)


Ce modèle a été utilisé par Smith (1991) dans modélisation de la variation spatiale
des tempêtes extrêmes observées dans deux sites donnés.
       
š(1) š(2)
  
š(1) 1 θ ỹt  š(2) 1 θ ỹt 
Gšθ ỹtš = exp − ỹt Φ + log + ỹt Φ + log
θ 2 θ 2
 
š(2) š(2)
 ỹt ỹt 

où Φ est la distribution centrée réduite de la loi normale.


1 2 − θ2 log xt 2 + θ2 log xt
" ! !#
xt
Bθ,t (x) =

Φ −Φ − .
1 + xt xt 2θ 2θ
En outre il apparaît dans Husler-Reiss (1989) comme la classe de distribution bivariée
des maxima d’un vecteur normal bidimensionnel. Son paramètre de dépendance θ
s’approche de zéro au fur et mesure qu’on a l’indépendance. La dépendance totale
est obtenue lorsque θ tend vers infinie.

e) Extension du modèle logistique symétrique


C’est un modèle de Tajividi [23], il est défini par
 " # 1 
         θ2 θ1 
š(1) š(2) š(1) š(2)
Gšθ ỹtš = exp − ỹt θ1
+ ỹt θ1
+ θ2 ỹt ỹt 2
 

de fonction de dépendance spatio-temporelle


1
xt θ
 
− 21 θ2

Bθ,t (x) = x−θ 1
+ 1 + θ x
2 t , 0 < θ2 ≤ 2 (θ1 − 1) ; θ2 ≥ 2.
1 + xt t

f) Extension du modèle logistique biparametrique symétrique


Ce modèle est défini par
 
  θ2
š(1) θ1 θ2 š(2) θ1 θ2 2
     
Gšθ ỹtš = exp− θ2 ỹt
 + ỹt
 1 
θ1 
   
š(1) š(2)
+ ỹt θ1
+ ỹt θ1 

Sa fonction de dépendance spatio-temporelle est donnée par,


 −1  θ1
xt

1


Bθ,t (x) = xt−θ1 + 1 − xθt 1 θ2 + 1 θ2 , θ2 > 0; θ1 ≥ 1.
1 + xt
CHAPITRE 3. MODÉLISATION DE DÉPENDANCE GÉOSTATISTIQUE 60

g) Extension du modèle bi-logistique symétrique.


Le modèle a été proposé pour la première fois par Smith[30]. Il est défini par,
  n  o
š(1) 1−θ1 š(2)
Gšθ ỹtš = exp − ỹt q + ỹt (1 − q)1−θ2 , 0 < θ1 , 0 < θ2

où q = q (θ1 , θ2 ) est la racine de l’équation


š(1) š(2) θ1
(1 − θ1 ) yet (1 − q)θ2 − (1 − θ2 ) yet q =0

xt h 1−θ1 i

Bθ,t (x) =
q + xt (1 − q)1−θ2 + 1 , 0 < θ1 , θ2 < 1.
1 + xt
On retrouve le modèle logistique lorsque les paramètres des dépendances θ1 et θ2
sont égaux. La dépendance complète est obtenue lorsque θ1 = θ2 s’approche de 0. En
outre, l’indépendance parfaite est atteinte lorsque l’un au moins des deux paramètres
s’approche de 1.

h) Modèle logistique asymétrique spatio-temporel max-stable.


La distribution asymétrique logistique[23] de paramètre de dépendance θ3 est
d’asymétries (θ1 , θ2 ) est défini par,
(  −1/θ3 )
š(1) −θ3 š(2) −θ3
    
š(1) š(2)
Gšθ ỹtš = exp − (1 − θ1 ) /ỹt − (1 − θ2 ) /ỹt − θ1 ỹt + θ1 ỹt

Sa fonction de dépendance spatio-temporelle est définie par,


xt h  i− 1

Bθ,t (x) = 1 − θ1−θ3 + (θ2 xt )−θ3 θ3

1 + xt
avec θ3 ≥ 1 et 0 ≤ θ1 , θ2 ≤ 1. On retrouve le modèle logistique lorsque θ1 = θ2 = 1.
On observe une indépendance totale lorsque θ = 1 ou l’un au moins des paramètres
d’asymétrie s’annule. Pour avoir la dépendance parfaite il faut que non seulement θ
s’approche de 0 mais aussi θ1 = θ2 = 1.

3.4.2 FDST des distributions max-stables trivariées


   
š(1) š(2) š(3)
La distribution tri-variée est représentée par Gšθ ỹtš = Gšθ ỹt , ỹt , ỹt où
θ = (θ1 , .., θk ) est un vecteur de paramètres. La FDST est la fonction Bθ,t (x) = Bθ (xt )
š š
 
(1) (2)
avec xt = xt , xt ∈ ∆št,2 où ∆št,2 est un simplexe unitaire de R3 .

a) Modèle logistique spatio-temporel max-stable tri-varié


Ce modèle trivarié est donné par
   h i1 
š(1)θ š(2)θ š(3)θ
Gšθ ỹtš = exp − ỹt + ỹt + ỹt θ
, θ ≥ 1.
CHAPITRE 3. MODÉLISATION DE DÉPENDANCE GÉOSTATISTIQUE 61

Sa fonction de dépendance spatio-temporelle est

  1   1
(2) θ θ (2) θ θ
 
(1) (2)θ (1) (2) (1)

Bθ,t (x) = xt θ + xt + 1− xt − xt − xt θ + 1− xt − xt .

b) Modèle logistique négatif étendu tri-varié


Ce modèle trivarié est donné par
1
 
h 1 1
  
š(1)θ θ š(2)
i h
š(2) š(3)
i θ1
Gšθ ỹtš = exp − ỹt 1 2 + 2−θ2 ỹt θ1 θ2 θ2
+ 2−θ2 ỹt θ1 θ2 + ỹt θ1 θ2 θ2

.

Sa fonction de dépendance spatio-temporelle est


1
θ1 θ2  θ1
 
θ1
h i 1  

Bθ,t (x) =  x(1) θ1 θ2
+ 2−θ2 xt
(2) θ1 θ2 θ2
+ 2−θ
(2) θ1 θ2 (1)
+ 1 − xt − xt
(2) 2
2 xt
2
t

3
 1 
(2) −θ1 θ2 θ2
 
(2) (1)
− 2−θ2 xt + 1− xt − xt .

c) Modèle gaussien spatio-temporel max-stable trivarié


La distribution multivariée qui décrit les maxima relatifs à trois sites de pré-
lèvement, notés {si , 1 ≤ i ≤ 3} , d’une distribution gaussienne trivariée, est donnée
par
       
š(2) š(3)
   3
š(i) 1 θ1 ỹ 1 θ3 ỹ
Gšθ ỹtš = exp − + Φ  + log  tš(1)  + Φ  + log  tš(1) 
X
ỹt
i=1 θ1 2 ỹt θ3 2 ỹt
1 1 1
" !#
θ2
  š(1)
  š(3)
ỹt ỹt
− Φ + θ1
log +Φ + log
2
š(2) 2 š(2) š(2)
ỹt θ1 ỹt θ2 ỹt

1 1
" ! !#
θ3 θ2
š(1)
 š(2)   
ỹ ỹ
− š(3) Φ
1
+ log tš(3) +Φ + log tš(3) + I Φ̄2 , θ, ρ
ỹt θ3 2 ỹt θ2 2 ỹt
ˆ −1
1  1
!
y3 θ2 
š(1) θ3 
š(4)

où I = 0 Φ̄2 + log ỹt ; + log ỹt ; ρ dt
θ2 2 θ3 2
0 2 −2
P3 !
i=1 θi
et ρ =
2 −2
0
P3
i=1 θi
CHAPITRE 3. MODÉLISATION DE DÉPENDANCE GÉOSTATISTIQUE 62

Sa fonction de dépendance spatio-temporelle est


      
(1) (1)
(1) θ1 x xt

Bθ,t (x) = 2 − xt Φ  1 + log  t(2)  + Φ  θ13 + θ3
log 
2

θ1 2 (1) (2)
xt 1 − xt − xt
   (1)
   (1)

(2) xt xt
−xt Φ 1
θ1
+ θ1
2
log (3) +Φ 1
θ2
+ θ2
2
log (1) (2)
x 1−xt −xt
 t  
(1) (2)

(1) (2)
 1 1 − xt − xt 
− 1− xt − xt Φ  + θ3
2
log  (1)
θ3 xt
  
(1) (2)
1 − xt − xt 
+Φ  θ12 + θ2
2
log  (1)
xt
     
(2) (2)
(2) θ2 xt 
 − 1 − x(2)
 1 1 − xt  
−xt Φ  θ12 + log  Φ + θ2
log 
2 (2)
1 − xt
t
θ2 2 (2)
xt
(1) (2)
+R(xt , xt , θ).

3.4.3 Dépendance spatio-temporelle des distributions


multivariées extrêmes
Comme dans le cas des petites dimensions, les modèles multivariés logistiques
des max-stables s’étendent dans un cadre
 spatio-temporelle. En effet, la distribution
   hP i1  
š(i)θ š(1) š(m)
s’écrit Gšθ ỹtš = exp − m
i=1 yt θ
où ỹtš = ỹt , ..., ỹt . Et la version spatio-
temporelle de la dépendance de Pickands est = (xt ) où xt ∈ ∆št,m−1 avec š
Bθ,t (x) Ašθ
∆št,m−1 un simplexe unitaire de Rm−1 .
— Extension de la fonction de distribution spatio-temporelle du modèle logis-
tique négative

m X  −š(i)θij  −1
−š(j)θij
 X
š(i)
Gθ (ytš ) = exp - yt + yt + yt θij

i=1 i≤j
m k
)
š(i) š(k)
+ (-1) k+1
B1...k (yt , ..., yt , θ
X X

k=3 i=1

  
Xm−1 m−1 m−2
(i) (i) X (i) θij (j) θij

Ašθ,t (x) = + 1- xt  + + xt
X
xt xt

i=1 i=1 i<j
1
 θ
 −1  θ
m−1
  im θim 
m−1

 (i) θim X (i)θij 
+ + 1- xt + R(t1 , ..., tm−1 , θ), θ = (θ12 , ..., θ1k ) .
X
xt   


i=1 i=1 

CHAPITRE 3. MODÉLISATION DE DÉPENDANCE GÉOSTATISTIQUE 63

— Fonction de distribution spatio-temporelle du modèle Gaussien multivarié



m−1
 X ˆ xik   (j)
 
(i) yt
Gθ (ytš ) = exp − yt + (−1) |S|+1
Φ̄k−1 log + ; Γ dx
X
2
(i)
yt δi2
 0 j ,ik
i=1 S:|S|≥3

m−1    (i)
   (j)

(i) (i) (j) (i) yt (j) yt
+ yt + yt -yt Φ + θ2ij log -yt Φ + θij
log
X
1 1
yt θij (j) θij 2 (i)
yt yt 
1≤ i < j≤m

 
m−1 m−1 m−2
−(i)
n   
(i) (i) (j) (i) δij
Ašθ,t (x) = 1 − − 1 − xt  + xt + xt − xt Φ + log
X X X
1 xi
xt δij 2 xj
i=1 i=1 i=1,i<j
!) −1
δij δij
 (i)
(j) xt
−xt Φ 1
+ log
2
δij (j)
xt
    −1 
m−1  m−1
X (i) (m) (i)  1  (i) (k)
+ +xt − xt Φ  θim + θim log xt 1 −
X
x xt  

 t 2
i=1  k=1
  

m−1
! m−1 
(k) δij (k) −(k)
− 1− Φ  δ1ij + log 1 −
X X
xt 2
xt  xt 

k=1 k=1
 
(i) (m−1)
+R xt , ..., xt , θ12 , ..., θik

où R est un reste d’intégral.


— Modèle mixte
 1 
θij  θ1

  m θ
 θij  
š(i)θ š(j)θ š(i)θ 
Gθ (ytš ) = exp −  + pj y t +
ij
X X
pi yt νi p i y t
 
 1≤ i <j ≤m i=1 

 1 m
(
X (i)θij (j)θij (i)θij
Ašθ,t (x) = + p j xt θij
+
X
p i xt νi p i x t
J i=1
 θij  θ1ij



(i)θij X (k)θij
+ + pj 1-
X
pi xt xt   

I  1≤ k ≤ m−1

où I = {1 ≤ i < j ≤ m − 1} et 1 ≤ i ≤ m − 1

— Extension de distribution spatio-temporelle du modèle logistique asymétrique


   −1 
 m−1 m Xm−1 −1 θ 
−δij θθIj θij 
 X h i 
(i) (k)θ −θij (i)
Gθ (ytš ) = exp − yt + (−1)|S|+1 
yt _ p yt + pj xj
X X

 k=1 S:|S|≥1 i∈S i<j; i,j∈S 
CHAPITRE 3. MODÉLISATION DE DÉPENDANCE GÉOSTATISTIQUE 64
 
−(i)θ
i −1
X −(i)θ −θ −δ (j)θ
h
Ašθ,t (x) = 1 − (−1)|S|+1  xt +_ +
θ ij
X X
pi ij xt Ij pj ij xt ij 
S: 2≤ |S| ≤m−1 i∈S i<j; i,j∈S
 θ

 X (j) X h −θ (i)θ
+ (−1) m+1 
1− xt  − p im x ij θθim
i t

 1≤i≤m−1 i<m

θθim  θ−1

 im 


X (i)
+p−θ
m
ij 
1 − x t
 
 .

1≤i≤m−1 

Conclusion
Dans ce chapitre, il était question de surmonter le problème de dépendance
spatio-temporelle au-delà de dimension deux. Particulièrement, nous nous sommes
penchés sur les coefficients de queues sous l’hypothèse que le champs aléatoire est
bi-marginalement Archimax et ayant une fonction marginale bivariée commune. Cet
outil renseigne sur la dépendance asymptotique entre les données de deux groupes
de sites parmi lesquels un groupe est considéré comme la référence. En outre, nous
avons abordé une approche plus fine qui considère la référence comme tout l’ensemble
des sites sauf un. Par cette dernière approche nous avons déterminé la fonction de
dépendance de queue spatio-temporelle relativement aux distributions multivariée
couramment utilisées.
Dans l’optique de son utilisation à des fins pratiques, l’inférence de ces outils nous
semble champs de recherche attractif.
Chapitre 4

Modélisation des données


extrêmes climatiques

Au cours de ces dernières décennies, dans nos pays, les rejets des Gaz à Effet
de Serre (GES) n’ont cessé d’augmenter à l’échelle planétaire. Par rapport à la
quantité estimée de GES dans l’atmosphère, une étude de GIEC (rapport 2007)
prévoit une poursuite très probable de la croissance de température globale moyenne
de la surface de la terre au cours de ce XXI ème siècle. Cette croissance entraîne
la fréquence des phénomènes extrêmes climatiques pour les prochaines années. Ces
phénomènes extrêmes se manifestent de divers façons en divers endroits de la terre
(en fonction de la position géographique), d’où la nécessité des études locales pour
mieux comprendre leur comportement.
En Afrique de l’Ouest, les phénomènes extrêmes climatiques les plus remarquables
sont les inondations, comme celle subite par Ouagadougou en Septembre 2009 (figure
4.1), et les sécheresses. Ces sécheresses sont caractérisées par une pluviométrie quasi
nulle observée pendant plusieurs semaines et une intensité de température relative-
ment forte. Elles menacent la sécurité alimentaire dans cette partie de la terre où
l’économie est essentiellement basée sur l’agriculture. Ainsi dans l’optique de sur-
vivre à la prochaine catastrophe sans précédente, nous devons élaborer des méthodes
d’adaptation. Plus on est informé sur leurs survenues et leurs intensités, mieux on
s’y prépare. A cet effet, dans le cadre d’une adaptation efficace à long terme pour

Figure 4.1 – Inondation de septembre 2009 à Ouagadougou, source : lefaso.net

65
CHAPITRE 4. MODÉLISATION DES EXTRÊMES CLIMATIQUES 66

notre agriculture, il est nécessaire d’avoir des renseignements sur les occurrences des
températures extrêmes. La théorie des valeurs extrêmes offrent des familles de mo-
dèles paramétrés dans le cas où les variables sont identiquement et indépendamment
distribuées. D’où le problème de son application dans la modélisation des extrêmes
climatiques à cause de leurs variabilités saisonnières.
Dans ce chapitre, nous étudions les comportements des extrêmes thermiques dans
certaines localités 1 du Burkina Faso, en tenant compte de leurs caractéristiques
spatio-temporelles. Dans un premier temps, nous exposons quelques éléments néces-
saires pour la compréhension du climat au Burkina Faso. Ensuite, nous présenterons
notre base de données. Enfin, nous allons construire des modèles adéquats dans le
but de faire des prédictions.

4.1 Le climat du Burkina Faso


Le Burkina Faso est un pays enclavé au centre de l’Afrique de l’Ouest, dans une
sous région sahélienne et couvre une superficie de 274.000 km2 . Le Burkina Faso est
un pays agricole, à la hauteur de 80% de la population. Son sol présente de faible
réserve en eau. L’alimentation de ses nappes souterraines est assuré par les eaux
de pluie. Les réserves en eaux souterraines d’une année moyenne peuvent chuter de
moitié en une année de sécheresse sévère (cf [39] ). Au Burkina Faso, on distingue
trois zones climatiques : climat sahélien, climat soudano-sahélien et climat soudanien
(figure 5.1). Ces climats sont caractérisés par une saison pluvieuse et une saison sèche.
1. Nos choix, portés sur la température et les sites de prélèvement, sont liés de la base de donnée
disponibles fournies par la direction générale de la météorologie du Burkina Faso.
CHAPITRE 4. MODÉLISATION DES EXTRÊMES CLIMATIQUES 67

Figure 4.2 – Carte des zones climatiques du Burkina Faso (1981-2010).


Source :Direction Générale de la Météorologie

La saison sèche dure de Novembre à Mai. Elle se subdivise en deux périodes


principales. De Novembre à Février, il fait frais et sec, la période de l’harmattan. Par
contre, de Mars à mai, il fait très chaud. La température moyenne peut aller jusqu’à
38◦ C.
La période des pluies est est inégalement repartie suivant les zones climatiques. En
effet, dans la zone sahélienne elle s’étend au plus sur quatre mois et sa pluviométrie
moyenne annuelle est inférieure à 600 mm. Au centre, la saison des pluies dure environ
5 mois et sa pluviométrie moyenne annuelle est comprise entre 600 et 900 mm. Quant
à la zone soudanienne, elle se caractérise par une saison assez longue par rapport au
deux autres. Sa pluviométrie moyenne annuelle est supérieure 900 mm.
Le Burkina Faso est un pays confronté à plusieurs aléas climatiques. Dans ce pays,
le changement climatique se manifeste par la fréquence et l’intensité des phénomènes
climatiques extrêmes comme la sécheresse et les inondations.

4.1.1 Conséquences des inondations au Burkina


Sous un angle, les inondations au Burkina sont bénéfiques dans la recharge des
nappes souterraines, ce qui prolonge la disponibilité en eaux jusqu’aux années de sé-
cheresse prolongée. Cependant, elles peuvent causer de nombreuses pertes. Au cours
de ces trois derniers décennies, le Burkina a été sévèrement affecté par les inonda-
tions. Elles ont causé des pertes en productions agricoles qui sont estimées à plus de
63.937.680.000 F CFA seulement 1994. Celle de 2009 a affecté plus 150.000 personnes
CHAPITRE 4. MODÉLISATION DES EXTRÊMES CLIMATIQUES 68

à Ouagadougou (selon EM-DAT : OFDA/CRED International Disaster Database,


www.emdat.be-Université catholique de Louvain-Brussels - Belgium)

4.1.2 Conséquences des sécheresses au Burkina


Pendant la sécheresse, la qualité de l’air est considérablement affectée. En cette
période, la concentration des aérosols sont particulièrement élevées.
En outre, elle affecte sévèrement les produits agricoles et entraîne des crises ali-
mentaires. La sécheresse de 1995 a affecté environ 75500 personnes et a détruit de la
moisson initiale de maïs du haut plateau et du Nord.
Il est donc nécessaire de renforcer les moyens d’anticipation des impacts du chan-
gement climatique. Parmi ces moyens, nous estimons que la prédiction probabiliste
occupe une place importante. Or prédire sous entend avoir un modèle décrivant
l’avènement de ces phonèmes climatiques.

4.2 Modèles et méthodes d’estimation des


paramètres
Dans cette section, nous présentons quelques outils permettant d’estimer le com-
portement des valeurs extrêmes d’une variable aléatoire. En fait, l’objectif est d’es-
timer la fonction de répartition des maxima.
Rappelons que la famille GEV est constituée des seules distributions des maxima.
Cette famille étant des modèles paramètres, la modélisation se ramène à l’estimation
des paramètres.

4.2.1 Estimation des paramètres


Plusieurs estimateurs sont disponibles dans la littérature, ici nous optons pour le
maximum de vraisemblance du fait de son efficacité pour des types de données.
Pour un site s donné, la fonction de log-vraisemblance d’un échantillon des
maxima Y1 , Y2 , . . . , Yn , prélevé dans le site s, d’une variable aléatoire i.i.d. suivant la
GEV est donnée comme suit :
— cas où ξ 6= 0,

1 m m 
!
Yi − µ Yi − µ
  X 
ln L (x; σ, µ, ξ) = −m ln (σ) + +1 ln 1 + ξ 1+ξ
X
− ,
ξ i=1 σ i=1 σ
Yi − µ
pour 1+ξ > 0,
σ
— cas où ξ = 0,
m m
Yi − µ Yi − µ
 
ln L (x; σ, µ, ξ) = −m ln (σ) − exp −
X X
− .
i=1 σ i=1 σ
CHAPITRE 4. MODÉLISATION DES EXTRÊMES CLIMATIQUES 69

Exemple 4. Appliquons cet estimateur pour détermination des paramètres de la loi


de Weibull. Supposons que la variable aléatoire X suit la loi de Weibull. La densité
de cette loi dépend de deux paramètres η et β. Cette densité est exprimée par,
!β−1  !β 
β x x 
f (x) = exp − .
η η  η 

La fonction de vraisemblance d’un échantillon de taille n est :


n
L (x1 , . . . , xn ; β, η) = fXi (xi ; β, η) ,
Y

i=1
" n  !β 
n n
#
β  xi 
= (xi )β−1 exp −
Y X
.
ηnβ i=1 i=1 η 

Par suite, sa log-de-vraisemblance est


n n

xi
ln L (β, η; x1 , . . . , xn ) = n ln (β) − nβ ln η + (β − 1) ln xi −
X X
.
i=1 i=1 η
Les deux paramètres à estimer sont solutions du système suivant :

 β ! !
d n xi xi
ln L (β, η; x1 , . . . , xn ) = 0

 − n ln η + i=1 ln =0

 
 Pn
 
dβ ⇒ β η η

d .
ln L (β, η; x1 , . . . , xn ) = 0 nβ β
+ β+1 i=1 (xi )β
=0
 
n
−

 
 P

 
η η
(4.1)
De la deuxième équation de (4.1), on obtient
#1
1X n
"
β
η̂ = (xi )β .
n i=1
En substituant η̂ dans la deuxième équation de (4.1), on obtient
)−1
1 n 
1
( 
β̂ = (xi ) ln xi − ln xi
β
X
.
i=1 (xi ) i=1
Pn β
n
Cette dernière équation est difficilement résolvable. Pour surmonter cette difficulté,
on peut utiliser des méthodes numériques comme la méthode Newton.

4.2.2 Validation des modèles


La validation d’un modèle (ou plutôt la non réfutation) est en pratique une par-
tie très importante dans la modélisation. Dans la littérature, plusieurs méthodes
permettent de tester si l’échantillon dont on dispose satisfait à la propriété de la
variation régulière et appartient au domaine d’attraction de la loi max-stable (voir
par exemple Alves et Gomes (1996) et Drees et al. (2006)). Dans cette partie, nous
utilisons une autre approche permettant de caractériser la pertinence de l’estimation
qui consiste à appliquer un test d’adéquation de Kolmogorov [31].
CHAPITRE 4. MODÉLISATION DES EXTRÊMES CLIMATIQUES 70

a. Principe du test d’adéquation de Kolmogorov


Soit x1 , . . . , xn un échantillons de n suites de variables aléatoires iid. Notons F̃n
sa fonction répartition empirique, F̂ et F respectivement les fonctions de répartition
ajustée et la théorique. La statistique Dn = sup F̂n (x) − F (x) est la variable de
x
Kolmogorov. Naturellement, plus Dn s’approche de 0 mieux est l’ajustement. La zone
de rejet à un risque α s’écrit,
√ √ 
nDn > Kα où P nDn ≤ Kα = 1 − α.

Dans la pratique, la fonction de répartition théorique F est quasi inaccessible.


Ainsi, on juge la fidélité de F̂n par rapport à la distribution empirique F̃n . Par
conséquent, le test de Kolmogorov repose sur la comparaison des fonctions répartition
empirique F̃n et la fonction de répartition estimée F̂n .
D’autres méthodes d’adéquation sont disponibles. Ce sont les graphes de « pro-
bability plot » et de « quantile plot ».

b. Diagnostic par « quantile plot » ou « probability plot »


Ces outils sont, comme tout test d’adéquation, des solutions à la problématique
de la fidélité de la l’ajustement par rapport à l’échantillon dont on dispose. A la
différence des autres tests, ces outils de diagnostique sont graphique.
En effet, si nous supposons que nos valeurs prélevées x(1) , . . . , x(n) sont ordonnées
dans le sens croissant, une « probability plot » est l’ensemble des points
i
    
F̂ x(i) , : i = 1, . . . , n . (4.2)
n+1

où F̂ est la distribution empirique estimée et i/ (nh + 1) est la h valeur prise par la


fonction de distribution empirique dans l’intervalle x(i) , x(i+1) .
Quant au « quantile plot », comme sont nom l’indique, il compare les quantiles.
Il est constitué des
i
    
F̂ −1 , x(i) : i = 1, . . . , n . (4.3)
n+1
Mieux est l’ajustement, les points en (4.2 et 4.3) décrivent le diagonal du carré.
Pour plus de détails, on peut consulter l’ouvrage de Coles [6] .
En outre, si nous supposons disposer d’un échantillon de n maxima suivant une
loi F (.; θ) où θ = (µ, σ, ξ) représente les vrais paramètres. En utilisant le méthode
du maximum de vraisemblance, on peut obtenir une estimation θ̂ = µ̂, σ̂, ξˆ du vrai


paramètre. A l’aide du théorème central limite, détermine la région de confiance


(de niveau 1 − α) dans lequel se trouve θ. En effet, d’après Davison[8], pour n
suffisamment grand, on a
q  
M (θ) θ̂ − θ ∼ N (0, 1)
CHAPITRE 4. MODÉLISATION DES EXTRÊMES CLIMATIQUES 71

avec !
∂2
M (θ) = E − 2 L (θ; x1 , . . . , xn )
∂θ
où L est la fonction log-vraisemblance.
   Dans la pratique, on remplace M (θ) par
l’information observée Mo θ̂ = −L θ̂ pour n → +∞. Ainsi, pour un intervalle
00

de confiance à 95%, on a
h    i
θ ∈ θ̂ − 1, 96Mo−1/2 θ̂ , θ̂ + 1, 96Mo−1/2 θ̂ .
 
En réalité, la matrice variance covariance Mo θ̂ est la matrice Hessienne évaluée
en θ̂ et la région de confiance est une  ellipsoïde. Cependant, si l’on note m̂ij , 1 ≤
i, j ≤ n, les composantes de Mo θ̂ , alors les intervalles de confiance définis par
−1

Coles [6] est


IC0,95 (θi ) = θˆi ± 1, 96 m̂ii , 1 ≤ i ≤ 3
q

avec θ = (θ1 , θ2 , θ3 ) = (µ, σ, ξ) .

4.3 Analyse des données extrêmes


L’analyse des comportements des phénomènes climatiques extrêmes nécessite une
base de donnés assez conséquente. Notre base des observations est de la Direction
Générale de la Météorologie du Burkina Faso.
Cette direction fait des prélèvements horaires et une observation journalière re-
présente la moyenne des réalisations horaires d’un jour. Notre base de données est
constituée des maxima des observations journalières de température par mois. Nous
appelons maxima mensuels de températures chacune des données de notre base et
maxima annuel de température le maximum des maxima annuels d’une année.
La base de données se résume aux maxima mensuels de température prélevés dans
cinq différentes villes du Burkina Faso. Ces villes, Bobo-Dioulasso, Fada N’Gouma,
Pô, Ouagadougou et Dori (figure 5.1) sont géographiquement dispersées sur le terri-
toire du Burkina Faso.
Dans cette section, nous présentons brièvement ces données avant d’aborder l’ana-
lyse des comportements probabilistes des extrêmes annuels par station.
Pour une bonne organisation, nous désignons chaque station par l’initiale de la
ville correspondante. Ainsi l’ensemble des sites est S = {sO , sF , sP , sD , sB }.

4.3.1 Description des maxima de températures


Pour chaque station, nous disposons de douze maxima sur trente années. La
répartition des maxima mensuels des températures prélevés, dans les différentes sta-
tions sur la période allant de 1981 à 2010, est représentée par les nuages de points de
CHAPITRE 4. MODÉLISATION DES EXTRÊMES CLIMATIQUES 72

la figure 4.3. En outre, les histogrammes de la figure 4.4 renseignent sur la fréquence
de températures par classes et par stations.

Figure 4.3 – Nuages des maxima de températures

Figure 4.4 – Histogrammes des maxima mensuels des températures par station

Cette description donne un aperçu général sur la répartition des maxima mensuels
des températures par station. Pour une description assez précise nous étudions les
lois de probabilité de ces extrêmes.

4.3.2 Analyse des maxima annuels par station


Dans cette analyse, nous considérons une année comme un bloc et les données
(des 30 années) d’une station comme un échantillon. Donc nos échantillons sont
constitués des maxima de températures annuels. Notre objectif est de déterminer le
comportement des températures extrêmes annuelles. L’hypothèse principale de cette
analyse repose sur le fait que le maximum d’une année quelconque n’influence pas
sur le maximum d’aucune autre année et ces maxima suivent une même loi.
Il s’agira donc de trouver la distribution GEV qui ajuste mieux l’échantillon, re-
lativement à chaque station de prélèvement. Et puisqu’une distribution des extrêmes
est paramétrée, il suffira pour nous d’estimer ses paramètres.

a. Choix des modèles


Pour chaque ville, le tableau 4.1 récapitule les différents paramètres correspon-
dants à la forme ξ, de l’échelle σ et celui de localisation µ. Pour chaque paramètre,
CHAPITRE 4. MODÉLISATION DES EXTRÊMES CLIMATIQUES 73

l’erreur standard (ES) associée est donnée en indice de la valeur estimée.

Dori Fada Pô Bobo Ouaga


ξ(ES) −0, 2052(0,127) −0, 2059(0,133) −0, 4133(0,134) −0, 5443(0,147) −0, 5429(0,183)
σ(ES) 0, 6552(0,089) 0, 7152(0,099) 0, 8736(0,117) 0, 8745(0,133) 0, 9021(0,132)
µ(ES) 42, 4158(0,132) 39, 7723(0,147) 38, 5823(0,178) 37, 2945(0,175) 39, 5926(0,189)
Table 4.1 – Les paramètres des distributions GEV et leurs erreurs standard corres-
pondante relativement aux sites

On peut remarquer que tous les paramètres de forme sont négatifs. Par consé-
quent, les distributions GEV associées aux différentes stations sont toutes du do-
maine d’attraction de Weibull. Avant l’usage de ces modèles, il faut passer aux tests
de validation.

b. Validation des modèles


Nous testons l’adéquation des ajustement à l’aide de deux méthodes de principes
différentes. La première méthode est le teste d’adéquation de Kolmogorov décrit plus
haut. Le tableau, juste après, donne un résumé des statistiques de Kolmogorov.

Dori Ouaga Fada Po Bobo


DKS 0, 131 0, 089 0, 111 0, 081 0, 093
Table 4.2 – Résumé des statistiques de Kolmogorov des ajustements GEV

Les valeurs dans le tableau 4.2 sont des arrondis d’ordre 3. Pour un échantillon
de taille 30, la statistique de Kolmogorov à un seuil de 0, 05 est de 0, 24. Pour chaque
station, on a DKS ≤ 0, 24. Par conséquent, on peut dire que les ajustements sont
fidèles à 95% aux données relatives.
La seconde méthode est basée sur la comparaison des lois empirique et théorique
estimé. Nous rappelons que, son principe est plus basé sur le visuel. Il s’agit des
courbes « probability plot » et « quantile plot » présentés dans la deuxième section
de ce chapitre. En plus de ces deux courbes particulières, nous y avons ajouté les
courbes des densité empirique et théorique estimé. Ces illustrations graphiques sont
fournies par les figures (4.5,4.6, 4.7, 4.8 et 4.9).
CHAPITRE 4. MODÉLISATION DES EXTRÊMES CLIMATIQUES 74

Figure 4.5 – Les courbes « probability plot » « quantile plot » et les courbes des
densités empirique et théorique de la station de Bobo

Figure 4.6 – Station de Dori : Les courbes « probability plot », « quantile plot » et
les courbes des densités empirique et théorique.

Figure 4.7 – Station de Fada : Les courbes « probability plot », « quantile plot » et
les courbes des densités empirique et théorique.
CHAPITRE 4. MODÉLISATION DES EXTRÊMES CLIMATIQUES 75

Figure 4.8 – Station de Ouaga : Les courbes « probability plot », « quantile plot »
et les courbes des densités empirique et théorique.

Figure 4.9 – Station de Po : Les courbes « probability plot », « quantile plot » et


les courbes des densités empirique et théorique.

Dans ces différentes figures, les courbes de « probability plot », de « quantile plot »
et de la densité estimée sont en couleur bleue. Dans les sous-figures ( (a) et (b) ) les
tirets représentent l’intervalle de confiance et (c) représente la densité empirique.
En fait, une estimation parfaite conduirait à la juxtaposition des densités dans les
sous-figures (c) et l’alignement des points sur le diagonal du carré dans les sous-figures
((a) et (b)). Cette situation parfaite n’est observée dans aucune figure. Néanmoins,
on peut remarquer la proximité de ces points le long des premières bissectrices.
A l’issu de ces tests, on peut accepter les ajustements faits dans les stations. Ces
résultats nous permettent d’exploiter des informations des distributions estimées en
lieu et place des échantillons. Ceci nous conduit à la prédictions de la survenance de
quelques températures extrêmes locales.

c. Quelques valeurs prédictives


Conformément à nos données, les modèles sont tous de Weibull. Ce type de mo-
dèles a une particularité très intéressante. En effet, ces modèles admettent un point
CHAPITRE 4. MODÉLISATION DES EXTRÊMES CLIMATIQUES 76

terminal au-delà duquel la distribution reste stationnaire. En d’autres termes, la pro-


babilité de dépasser le point terminal est nulle. Ce seuil noté xF est donné par la
formule (4.4). Pour une station s donnée, dont les valeurs extrêmes suivent une loi
GEV de paramètre de forme ξ (s), de paramètre d’échelle σ (s) et de paramètre de
localisation µ (s) , on a
σ̂ (s)
x̂F = − + µ̂ (s) . (4.4)
ξˆ (s)
où ξˆ (s) , σ̂ (s) et µ̂ (s) sont respectivement les valeurs estimé de ξ (s) , σ (s) et de
µ (s) . En fonction des stations, nous avons résumé ces températures terminales xF
dans le tableau suivant,

Stations Dori Po Ouaga Fada Bobo


xF (◦ C) 45, 42 40, 70 41, 25 43, 25 38, 90
LIF (◦ C) 8, 43 2, 34 1, 79 9, 49 1, 62
Table 4.3 – Résumé des températures terminales annuelles des stations

où LIF est l’étendu de l’intervalle de confiance.

Rappelons que la distribution des températures extrêmes, relativement à une


localité, est la queue de la distribution de toutes les températures (y comprises les
extrêmes) de cette localité.
Pour une localité donnée s, soit Gs la distribution des températures extrêmes et
zp le niveau de retour 2 d’une température de probabilité de survenance p. On a la
relation suivante
 h i
µ (s) − σ(s) 1 − {− log (1 − p)}−ξ(s) si ξ (s) 6= 0
Gs (zp ) = 1 − p =⇒ zp =  ξ(s)
.
µ (s) − σ (s) log [− log (1 − p)] si ξ (s) = 0

Pour des raisons de simplifier l’interprétation de la probabilité p, on la traduit en


terme de période de retour par 1/ (1 − p) . Les différentes évolutions des niveaux de
retour en fonction des périodes de retour, relativement aux différentes localités, sont
données par la figure 4.10.
2. C’est une magnitude de température. On l’appelle aussi quantile de retour.
CHAPITRE 4. MODÉLISATION DES EXTRÊMES CLIMATIQUES 77

Figure 4.10 – Courbes des niveaux de retour en fonction des périodes de retour des
différentes stations.

Dans la figure 4.10, les courbes en traits pleins sont les estimations théoriques et
les points bleus représentent la version empirique.
Cette première analyse décrit le processus des températures extrêmes dans cha-
cune des cinq stations. Elle s’est déroulée dans un contexte où les paramètres spa-
tiaux et temporels sont fixés. Bien que les modèles d’ajustement soient tous de la
famille de Weibull, ils sont différents d’une station à un autre. Ceci laisse croire à
une évolution spatiale des processus des maxima de température. Il serait intéressant
de comprendre cette évolution dans l’espace, d’où la nécessité d’une analyse de la
dépendance spatiale.
Dans la section précédente, nous avons décrit le comportement probabiliste des
occurrences des maxima annuels de températures dans les cinq stations. Cette pre-
mière étude permettait de faire des prédictions sans tenir compte de la variation
saisonnière.

4.4 Analyse de la dépendance spatio-temporelle


Dans ce travail, nous visons à proposer des modèles GEV tenant compte de la
saisonnalité des avènements climatique extrêmes. Notre objectif est de pourvoir faire
des prédictions de niveaux de retour pendant des moments précis de l’année.
Dans un premier temps, nous modélisons l’occurrence des maxima thermiques
pendant chaque mois de l’année. Par suite, la méthodes d’interpolation par « spline »,
nous déterminons l’évolution des paramètres sur une année.
CHAPITRE 4. MODÉLISATION DES EXTRÊMES CLIMATIQUES 78

4.4.1 Modélisation de la variation temporelle des


paramètres
Dans cette sous-section, nous étudions la dépendance des paramètres d’échelle, de
localisation et de forme en fonction des moments de l’année, dans une station fixée.
Relativement à chacune des stations, nous avons étudié la loi des maxima thermiques
de chacun des mois d’une année. La figure 4.11 donne un résumé des variations des
paramètres par mois.

Figure 4.11 – Variations des paramètres GEV par mois et par station

Dans la figure 4.11, les modèles décrivant l’évolution des paramètres par an sont
des fonctions affines par morceaux. Pour des modèles plus pratiques, nous proposons
une interpolation de base polynomiale. Il s’agit d’une régression linéaire en fonction
des monômes. En effet, le degré du meilleur polynôme d’interpolation est inférieur
ou égal à n, où n est le nombre de points à interpoler.
Dans notre cas, pour une station donnée, nous déterminons le polynôme de degré
inférieur à 12, avec une certaine confiance d’adéquation appréciée par le test de Kol-
mogorov. Pour ce faire, nous avons fait varier le degré du polynôme progressivement.
Ceci nous conduit à un polynôme de degré cinq comme suit,

%̂s (t) = α0,s + α1,s t + α2,s t2 + α3,s t3 + α4,s t4 + α5,s t5 (4.5)

dont les coefficients sont récapitulés dans les tableaux 4.4 et 4.5.
Dans la formule (4.5) %̂s (t) désigne la fonctions d’ajustement du paramètre de
localisation ou d’échelle dans la localité s (représentant une station) pendant l’instant
t.
CHAPITRE 4. MODÉLISATION DES EXTRÊMES CLIMATIQUES 79

s α0,s α0,1 α0,2 α0,3 α0,4 α0,5


Bobo 29, 306 1, 615 1, 844 −0, 739 0, 085 −0, 003
Dori 34, 296 −8, 339 7, 496 −1, 857 0, 179 −0, 006
Fada 32, 290 −2, 530 4, 391 −1, 298 0, 136 −0, 005
Pô 32, 938 −3, 857 5, 226 −1, 503 0, 156 −0, 005
Ouaga 31, 569 −2, 681 4, 442 −1, 279 0, 132 −0, 005
Table 4.4 – Coefficients des polynômes d’interpolation des paramètres de localisa-
tion

Pour l’évaluation de l’adéquation de la fonction d’ajustement du paramètre de


localisation avec l’échantillon correspondant, le tableau 4.5 donne un résumé du le
test de Kolmogorov effectué pour chaque station.

Bobo Dori Fada Pô Ouaga


DSK 0, 083 0, 167 0, 333 0, 167 0, 25
p − value 1 0, 999 0, 536 0, 999 0, 869
Table 4.5 – Résumé du test de Kolmogorov des paramètres de localisation

On note que les p−value sont toutes supérieures à 0, 05. Par conséquent, on peut
accepter l’hypothèse d’adéquation à 95%. Relativement aux paramètres de localisa-
tions par station, la figure 4.11 donne un aperçu sur les variations des polynômes
d’interpolation et la fonction affine par morceaux reliant tous les points.
CHAPITRE 4. MODÉLISATION DES EXTRÊMES CLIMATIQUES 80

Figure 4.12 – Évolution des paramètres estimés des distributions GEV en fonction
des mois, dans les différentes stations.

Quant aux paramètres d’échelle, les coefficients d’interpolations sont résumé dans
le tableau 4.6. Les résultats issus du test de Kolmogorov sont récapitulés dans le
tableau 4.7.

s α0,s α1,s α2,s α3,s α4,s α5,s


Bobo 2, 0969 −1, 0817 0, 4263 −0, 0777 0, 0063 −0, 0002
Dori 1, 1269 1, 3693 −0, 8061 0, 1637 −0, 0140 0, 0004
Fada 2, 7305 −1, 3958 0, 4987 −0, 0882 0, 0071 −0, 0002
Pô 2, 7504 −1, 8056 0, 7327 −0, 1372 0, 0115 −0, 0003
Ouaga 1, 8839 −0, 4974 0, 1392 −0, 0211 0, 0014 0
Table 4.6 – Coefficients des polynômes d’interpolation des paramètres d’échelle

Bobo Dori Fada Pô Ouaga


DKS 0, 1667 0, 1667 0, 25 0, 25 0, 1667
p − value 0, 9985 0, 9985 0, 869 0, 869 0, 9985
Table 4.7 – Résumé du test de Kolmogorov des polynômes d’interpolation des pa-
ramètres d’échelle
CHAPITRE 4. MODÉLISATION DES EXTRÊMES CLIMATIQUES 81

Les p−values étant tous supérieures au seuil 0, 05, on accepte le modèles avec
un degré de confiance de 95%. Relativement aux paramètres d’échelle par station,
la figure 4.13 donne un aperçu sur les variations des polynômes d’interpolation et la
fonction affine par morceaux reliant tous les points.

Figure 4.13 – Évolution des paramètres d’échelle estimés des distributions GEV en
fonction des mois, dans les différentes stations.

Pour l’estimation des niveaux de retour thermiques sur l’année, nous retiendrons
les modèles polynomiaux (résumés par les tableaux 4.4 et 4.6) qui décrivent la va-
riation des paramètres d’échelles et ceux de localisations.
Par suite, pour une station donnée s, les quantiles thermiques sont donnés par la
formule suivante
  
si ξˆ0 (s, t) 6= 0
0
µ̂ (s, t) − σ̂(s,t) 1 − {− log (1 − p)}−ξ̂ (s)

ẑp (t) = ξˆ0 (s)
µ̂ (s, t) − σ̂ (s, t) log [− log (1 − p)] si ξˆ0 (s, t) = 0

où t désigne un instant (exprimé en semaine) de l’année, σ (s, t) et µ (s, t) les ajuste-


ments respectifs des paramètres d’échelle et de localisation en fonction des moments
de l’année par rapport à une station s donnée. Puisque les valeurs prises par le pa-
ramètre de forme ne présente pas une tendance dépendant du temps (figure 4.11),
nous la supposons constante par rapport à temps. Dans la suite, les paramètres de
CHAPITRE 4. MODÉLISATION DES EXTRÊMES CLIMATIQUES 82

forme ξˆ0 (s) = ξˆ (s), où ξˆ (s) sont donnés dans le tableau 4.1 à cause la propriété de
max-stabilité des distributions GEV.
Pour des temps de retour allant de 10 à 100 ans, les figures ci-après donnent un
aperçu sur l’évolution des quantiles extrêmes en fonction des moments de l’année.

Figure 4.14 – Évolution des niveaux de retour thermique dans la zone Sahélienne

Figure 4.15 – Évolution des niveaux de retour thermique dans zone Soudano-
sahélienne
CHAPITRE 4. MODÉLISATION DES EXTRÊMES CLIMATIQUES 83

Figure 4.16 – Évolution des niveaux de retour thermique dans la zone Soudanienne

Notons que les canicules les plus sévères sont attendues, dans toutes les zones
climatiques, pendant tout le mois d’Avril jusqu’au plutôt la première quinzaine du
mois Mai. Les canicules les moins sévères de l’année s’étendent autour du mois de
Août.
Les intensités thermiques diffèrent d’une zone à une autre. Par exemple, au mois
d’Août à Dori, l’intensité thermique de retour centennal est 40◦ C pendant que pour
la même échéance à Bobo , on a 31◦ C. Au fur et mesure que les périodes de retour
deviennent de plus en plus grandes les lignes thermiques se déforment. Ces défor-
mations signifient que l’intensité thermique se retarde ou arrive plutôt au cours de
l’année.
En outre, on peut remarquer que les amplitudes des périodes moins chaudes de
l’année se rétrécissent lorsque la période de retour devient de plus en plus longue. Par
contre les canicules les plus sévères sont attendues aux voisinages du mois d’Avril.
Ces dernières s’amplifient en intensité et durent lorsque la période de retour de vient
de plus en plus grande.
Cette analyse résume l’évolution des grandes valeurs thermiques au cours d’une
année pour des périodes de retour allant de 10 a 100 ans. Elle laisse à prévoir une
augmentation probable du nombre de jours très chauds et une diminution du nombre
de jours relativement plus froids. En d’autre termes, elle envisage une augmentation
probable de la fréquence et la durée des canicules ( ou épisodes de chaleurs).
CHAPITRE 4. MODÉLISATION DES EXTRÊMES CLIMATIQUES 84

En plus de ces résultats, il est intéressant de pouvoir estimer une température


extrême d’une localité à partir des informations d’une autre. Pour se faire, il nous
faut modéliser la dépendance spatiale.

4.4.2 Modélisation de la dépendance spatiale inter-stations


Nous allons, dans cette section, faire un diagnostic sur la dépendance des données
prises par paire de stations. La figure 4.17 illustre la dispersion des paires de données
par rapport aux axes du repère.

Figure 4.17 – Dépendance spatiale par paire de stations

Notons que, plus le nuage de points s’éloigne des axes du repère, mieux on s’ap-
proche de la dépendance totale entre les marges. Cette première méthode graphique
donne une idée générale sur les dépendances entre les marges des différents pairs.
Pour des détailles relativement précis sur ces dépendances, il faut une évaluation
numérique. Dans cette section, ces dépendances sont évaluées via des modèles para-
métriques.
Nous disposons de neufs modèles paramétriques candidats pour l’ajustement bi-
varié, relativement aux différents pairs de site. L’approche par le maximum de vrai-
semblance est utilisée pour estimer les paramètres de chacun d’entre eux. Donc un
critère de sélection est nécessaire .

a) Critère de sélection
Un critère de sélection est basé sur une mesure de vraisemblance et d’une mesure
de pénalité. En générale, on supposons que Li (.) la log-vraisemblance du ième modèle
CHAPITRE 4. MODÉLISATION DES EXTRÊMES CLIMATIQUES 85

et αi son nombre de paramètre et N la taille de l’échantillon de travail, le critère de


sélection s’écrit
2Li (.) h (N )
ci (N, αi ) = − + αi
N N
où h (N ) l’ampleur de la pénalité.
Dans cette écriture la log-vraisemblance est considérée négativement et la pénalité
positivement liée au nombre de paramètre. La règle de décision est de choisir le
modèle qui correspond à une faible valeur du critère. Dans ce travail, nous utilisons un
des critères les plus populaires 3 : critère d’information d’Akaike ( Akaike Information
Criterion, AIC). Pour ce critère, la fonction à valeur positive h est égale à 2.

b) Modèles sélectionnés
Le tableau 4.8 donne les différents AIC correspondant aux modèles candidats
à l’ajustement de la distribution du pair {Bobo-Dori}. En fait, moins est l’AIC
meilleur est le modèle.

Distributions bivariées αi AIC


Logistique 7 7141, 2608
Bilogistique Négative 7 7143, 3984
Husler-Reiss 7 7141, 4544
Coles-Tawn 8 8143, 2805
Logistique Asymetrique — 9145, 0013
Logistique Négative Asym. 9 9144, 9328
Bilogistique 9 8143, 2419
Asymetrique mixte — 8142, 9947
Logistique Négative — 7141, 3992
Table 4.8 – Informations des distributions bivariées paramétriques relativement au
pair de site Bobo-Dori

D’après nos résultats résumés partiellement dans la tableau 4.8, le modèle logis-
tique est le meilleur parmi les candidats modèles. D’autres critères visuels appuient
ce choix, comme les ajustements des distributions marginales empirique (voir Figures
4.18 et 4.19 ) et théorique. Par ailleurs, nous avons l’ajustement de la fonction de
dépendance de Pickands empirique par rapport à sa version théorique.
La figure 5.18 nous donne les ajustements des fonctions densités (empirique et
théorique) et les périodes de retour relativement aux différentes marges. Les courbes
empiriques et théoriques sont respectivement en pointillées et en trait plein.
3. On a aussi le critère de Schawtz (appelé encore BIC) pour lequel h (N ) = log (N ) ou le critère
de Hannan-Quinn pour lequel h (N ) = log (log (N ))
CHAPITRE 4. MODÉLISATION DES EXTRÊMES CLIMATIQUES 86

Figure 4.18 – Densités marginales et les période de retour marginales du pair de


stations{B, D} .

Figure 4.19 – Estimation des courbes de dépendance bivariées de la pair de station


{B, D}
CHAPITRE 4. MODÉLISATION DES EXTRÊMES CLIMATIQUES 87

Dans la figure 5.19, les sous-figures (a), (b) (c) et (d) sont respectivement les lignes
de niveaux de la densité bivariée, la fonction de dépendance de Pickands (empirique
en pointillé bleu et théorique est trait continu noir), les lignes de niveaux de la
fonction de répartition bivariée et la fonction de la densité spectrale.
Comme ce résultat, le modèle logistique est le choix optimal pour les neuf autres
pairs de sites. En outre le tableau 4.9 résume les forces dépendance entre les distri-
butions marginales, via le coefficient de dépendance extrémale.
Pour des mesures de simplicité du tableau, nous notons par B, O, P , F et D
les stations respectives de Bobo-Dioulasso, la station de Ouagadougou, la station
de Pô, la station de Fada N’Gourman et celle de Dori. Les paramètres θij et λuij
i 6= j ∈ {O, B, P, F, D} désignent respectivement les coefficients de dépendance
extrémal et le coefficient de dépendance de queue à droite relativement aux pairs
{i, j}. Le paramètre de la distribution logistique est représenté par αij .

{O, B} {O, F } {O, P } {O, D} {D, B}


θij 1, 525 1, 302 1, 368 1, 535 1, 767
αij 1, 643 2, 627 2, 212 1, 617 1, 218
λuij 0, 475 0, 698 0, 632 0, 465 0, 233
{D, P } {D, F } {P, F } {P, B} {B, F }
θij 1, 854 1, 607 1, 419 1, 767 1, 550
αij 1, 123 1, 461 1, 980 1, 218 1, 581
λuij 0, 146 0, 393 0, 581 0, 233 0, 45
Table 4.9 – Résumé des coefficients de dépendance par pairs de stations

Rappelons que plus le coefficient extrémal est proche de 1, plus les marges sont
dépendantes. Dans le cas de dépendance, les données radiales se cumulent autour
de 1/2 pendant qu’elles se répartissent sur les bords {0} et {1} dans une situation
d’indépendance. Graphiquement, la dépendance s’illustre par une courbe de densité
spectrale en forme de « cloche » (figures (4.22, 4.25 et 4.26)) et en forme de « U »
pour l’indépendance (figures (4.19,4.21 et 4.28)).

Conclusion
Ce chapitre a été consacré essentiellement à l’analyse des occurrences des grandes
intensités thermiques dans cinq localités du Burkina Faso. A cet effet, nous avons
déterminé d’abord les modèles adéquats (avec une grande marge de fidélité). A partir
de ces modèles, il ressort que les extrêmes thermiques sont variables dans le temps et
dans l’espace, mais elles ne peuvent dépasser un certain seuil critique (tableau 4.3).
Nous nous sommes aussi intéressés aux quantiles extrêmes thermiques pour des
périodes de retour allant de 10 à 100 ans. De cette analyse, nous notons que ces
niveaux thermiques restent quasiment constants, à un entier près. Cependant, force
est de savoir que les plages des périodes caniculaires s’élargissent pendant que les
CHAPITRE 4. MODÉLISATION DES EXTRÊMES CLIMATIQUES 88

amplitudes des périodes relativement moins chaudes se rétrécissent (voir les lignes
de niveaux thermiques des figure 4.13, 4.14 et 4.15).
Il ressort de l’analyse des dépendances inter-site qu’il est probable qu’un événe-
ment thermique extrême observé à Ouagadougou se réalise à Pô et Fada (vice-versa).
Par contre il est improbable qu’un événement thermique extrême observé à Dori se
réalise (au même moment) ni à Bobo encore moins à Po (vice versa).
Conclusion Générale

Les changements climatiques ont existé depuis toujours. L’homme d’antan a su


s’adapter au fil du temps. Aujourd’hui ce changement est si rapide qu’il menace le
bien être des vivants sur terre. Après plusieurs rencontres et travaux scientifiques,
il résulte que la stratégie d’adaptation est une des mesures essentielles pour lut-
ter contre les changements climatiques et effets préjudiciables. Notre objectif a été
d’apporter des outils statistiques efficaces au service d’une adaptation réussie.
Dans ce travail de thèse, nous avons apporté des contributions supplémentaires
aux thèmes de la modélisation spatiale et spatio-temporelle. Particulièrement, notre
attention s’est portée sur la problématique liée à la structure de dépendance entre
les risques.
Nous avons commencé cette rédaction par une introduction générale et terminé
par une conclusion générale. Dans le premier chapitre, nous avons présenté les outils
statistiques nécessaires pour notre étude. Il s’est agi d’un aperçu général sur la théorie
des valeurs extrêmes en dimension supérieure ou égale à un. Nous y avons exposé
aussi des outils de la statistique spatiale.
Le deuxième chapitre est consacré à un premier résultat. Après une généralité
sur les copules, nous avons présenté des propriétés des copules Archimédiennes, en
mettant en relief leur caractère de flexibilité. Avec des copules Archimédiennes nous
avons décrit la structure de dépendance dans la classe de variogramme exponentiel
et dans la classe de variogramme gaussien. Cette étude nous montre que la structure
de dépendance dans la classe de variogramme exponentiel est plus semblable (par
rapport à la classe de variogramme gaussien) à la structure dépendance décrite par
une copule de dépendance. Nous avons illustré ce résultat par des simulations qui
attestent une certaine régularité des prédictions spatiales dans le cas où la struc-
ture de dépendance spatiale est décrite par un variogramme exponentiel. Par contre,
lorsque la structure de dépendance spatiale est décrite par un variogramme gaussien,
des écarts dans la prédictions spatiales peuvent être importants surtout entre des
situations où la structure spatiale est décrite par un variogramme sans pépite et par
un variogramme avec pépite assez faible.
Le troisième chapitre présente des résultats sur la dépendance asymptotique. La
particularité de la contribution est la généralisation du coefficient de dépendance de
queue (supérieure ou inférieure) dans un contexte spatial. En outre, nous y avons
proposé des propriétés de majoration de ces coefficients.
Quant au dernier chapitre avant la conclusion générale, il s’agissait de décrire

89
CHAPITRE 4. MODÉLISATION DES EXTRÊMES CLIMATIQUES 90

la structure de dépendance spatio-temporelle des données de température (maxima


mensuels) prélevées dans des stations au Burkina Faso sur une période de 30 ans
allant de 1981 à 2010. Un des problèmes traités dans ce chapitre est l’application de
la théorie des valeurs extrêmes à des données climatiques non stationnaires (variation
saisonnière).
Les perspectives de cette étude sont nombreuses. Elles peuvent être essentielle-
ment fondées sur le développement d’estimateurs consistant des outils de dépendance
spatiale des valeurs extrêmes. A ce jour, dans la problématique des prédictions rela-
tives aux données extrêmes spatiales, l’utilisation de la densité spectrale condition-
nelle reste un champ d’attraction.
Annexes

Annexe 1 : Preuve du théorème des trois types de


distribution des valeurs extrêmes
Démonstration. Supposons qu’il existe une suite de normalisation {(δn , λn ) , n ≥ 1}
telle que δn > 0 et la suite de terme δn−1 (Mn − λn ) converge en loi vers une loi limite
G non constante. Pour toute fonction g continue et bornée, on a :
n h io
lim E g δn−1 (Mn − λn ) = E {g (G)}
n→+∞

Supposons par simplicité que la loi X1 possède la densité f > 0. Alors, la loi de
Mn possède la densité nF (x)n−1 f (x) d’après (2.3). On a donc :
ˆ !
n h io x − λn
In = E g δn (Mn − λn ) =
−1
g nF (x)n−1 f (x) dx
R δ n

Comme f > 0, la fonction F est inversible et d’inverse connue. On pose pour


t>1
1
 
U (t) = F −1 1 − .
t
En particulier, on a
1 1
U (t) = x ⇐⇒ 1 − = F (x) ⇐⇒ P (X > x) = .
t t
On effectue le changement de variable
v n
 
F (x) = 1 − , i.e x = U .
n v
On obtient
n
 
ˆ
 
U − λn   v n−1

In = g v  1− 1]0,n] (v) dv.
R
 δn  n

n−1
v

Remarquons que 1 − 1]0,n] (v) converge en croissant vers e−v 1{v>0} .
n

91
Comme par hypothèse In converge pour tout g, il est naturel, mais erroné à priori,
de penser que pour tout v > 0, la suite de terme
n
 
U − λn
Jn (v) = v
δn
converge. Supposons malgré tout que cette convergence ait lieu. On déduit en
1
 
considérant Jn − Jn (1) que pour tout w > 0,
w
U (wn) − U (n)
−→ h (w) .
δn n→+∞

Comme la variable W est non triviale cela implique que la fonction h n’est pas
égale à constante. Comme la fonction U est croissante, la fonction h est également
croissante. Supposons que plus généralement, on ait pour tout w > 0,
U (wx) − U (x)
−→ h (w) ,
δ (x) n→+∞

où δ (x) = δdxe pour x ≥ 1, dxe désignant la partie entière de x. Soit w1 , w2 > 0,


on a
U (w1 w2 x) − U (x) U (w1 w2 x) − U (xw1 ) δ (xw1 ) U (w1 x) − U (x)
= + .
δ (x) δ (xw1 ) δ (x) δ (x)
δ (xw1 )
En faisant tendre x vers l’infini dans l’égalité ci-dessous, on obtient que
δ (x)
converge pour tout w1 > 0. En notant l (w1 ) la limite, il vient que

h (w1 w2 ) = h (w2 ) l (w1 ) + h (w1 ) (∗)

Par ailleurs, la fonction l est mesurable et localement bornée. Comme la fonction


h est croissante et non constante, on en déduit que l est strictement positive. De plus
yw0 = x, on a pour w0 > 0
δ (xw) δ (yw0 w) δ (y) l (w0 w)
l (w) = lim = lim = .
x→+∞ δ (x) y→+∞ δ (y) δ (yw0 ) l (w0 )
Ainsi pour tous w, w0 > 0, on a

l (w0 w) = l (w) l (w0 )

où l est une fonction strictement positive mesurable localement bornée.


Il existe ξ ∈ R tel que l (w) = wξ , et donc de (∗) on a

h (w1 w2 ) = h (w2 ) w1ξ + h (w1 ) pour tous w1 , w2 > 0.

On peut alors distinguer les cas suivants :

92
t Si ξ = 0 on obtient l’équation fonctionnelle
h (w1 w2 ) = h (w2 ) + h (w1 )

Et donc h (w) = c log (w) , c > 0.


t Si ξ 6= 0, par symétrie, on a
h (w1 w2 ) = h (w2 ) w1ξ + h (w1 ) = h (w1 ) w2ξ + h (w2 ) .

En particulier, on a
   
h (w1 ) 1 − w2ξ = h (w2 ) 1 − w1ξ

h (w)
Cela implique que h (w) = 0 et w = 1, et sinon est constant.
1 − w
ξ

Par conséquent, on obtient h (w) = c wξ − 1 . A un changement d’échelle
1
près, on peut choisir c = et à une translation près, on peut choisir U (n) = bn
ξ
En définitive, il vient que
n
 
 v − 1 si ξ =
 −ξ
U − λn 1
  
6 0
lim v =h = ξ
n→+∞ δn v 
−log (v) si ξ = 0

On peut maintenant calculer la limite de In = E {g [δn−1 (Mn − λn )]} . D’après


le théorème de convergence dominée
ˆ ˆ
v −ξ − 1 −v
!
−1/ξ
 
lim In = g e 1{v>0} dv = g (y) 1{1+ξy>0} d e−(1+ξy) ,
n→+∞ ξ

v −ξ − 1
où on a posé y = si ξ 6= 0 et y = log (v) si ξ = 0
ξ
−1/ξ
Ainsi, la distribution de la loi limite est Hξ (x) = e−(1+ξx) .

Annexe 2 : Figures de dépendances spatiales


bivariées des stations
Dans les figures ci-dessous les sous-figures (a), (b) (c) et (d) sont respectivement
les lignes de niveaux de la densité bivariée, la fonction de dépendance de Pickands
(empirique en pointillé bleu et théorique est trait continu noir), les lignes de niveaux
de la fonction de répartition bivariée et la fonction de la densité spectrale.

93
Figure 4.20 – Dépendance bivariée thermique de la paire de stations {Bobo-Fada}

Figure 4.21 – Dépendance bivariée thermique de la paire de stations {Bobo-Ouaga}.

94
Figure 4.22 – Dépendance bivariée thermique de la paire de stations {Po-Ouaga}.

Figure 4.23 – Dépendance bivariée thermique de la paire de stations {Dori-Fada}.

95
Figure 4.24 – Dépendance bivariée thermique de la paire de stations {Dori-Ouaga}.

Figure 4.25 – Dépendance bivariée thermique de la paire de stations {Dori-Po}.

96
Figure 4.26 – Dépendance bivariée thermique de la paire de stations {Ouaga-Fada}.

Figure 4.27 – Dépendance bivariée thermique de la paire de stations {Po-Fada}.

97
Figure 4.28 – Dépendance bivariée thermique de la paire de stations {Bobo-Dori}.

Annexe 3 : Détermination des générateurs


a) Classe de variogramme gaussien
La classe des variogrammes gaussiens est représentée par le variogramme norma-
lisé suivant,
 
γ (h) = 1 − exp −h2 /a , h ∈ R+ , a > 0,
de fonction de distribution associée

1 − exp (−h2 /a) , h≥0
F (h) =  .
0, sinon

Le générateur ϕ de la copule Archimédienne correspondante est donné par,


ˆ +∞ ˆ
exp (w2 /4) +∞ h i
ϕ (w) = exp (−wt) dF (t) = 2t exp − (t/a + w/2)2 dt.
0 a 0

Après le changement de variable x = t/a + w/2, on obtient


 
"
  ˆ +∞  
#
ϕ (w) = exp w /4 exp −w /4 − w
2 2
exp −x dx .
2
(4.6)
w/2

98
Posons
ˆ +∞  
I (w) = exp −x2 dx.
w/2

On a
"ˆ +∞ # "ˆ +∞ # ˆ ˆ +∞
     
I (w) =
2
exp −y 2
dy exp −x 2
dx = exp −x2 − y 2 dxdy.
w/2 w/2 w/2

Après un changement en coordonnées polaires, on a


√  
I (w) = π exp −w2 /4 . (4.7)

En injectant (4.7) dans l’équation (4.6), on retrouve ϕ (w) = 1 − πw.

b) Classe de variogramme exponentiels


La classe des variogrammes exponentiels est représentée par le variogramme nor-
malisé suivant,

γ (h) = 1 − exp (−h/a) , h ∈ R+ , a > 0,


de fonction de distribution associée

1 − exp (−h/a) , h≥0
G (h) =  .
0, sinon

Le générateur ψ de la copule Archimédienne correspondante est donné par

ˆ
1 +∞
ψ (w) = exp [− (w + 1/a) t] dt = (aw + 1)−1 .
a 0

99
Bibliographie

[1] Beirlant J., Goegebeur, Y., Segers, J., and Teugels, J. (2005), Statistic of ex-
tremes theory and application- Wiley, Chichester, England.
[2] Capéràa, P., A-L. Fougères et C. Genest (2000), Bivariate distributions with
given extreme value attractor, Journal of Multivariate Analysis, 72, 30-49.
[3] Charpentier, A. and Segers, J. (2009). Tails of multivariate Archimedean copulas.
J. Multivariate Anal. 100, 1521-1537, doi :10.1016/j.jmva.2008.12.015
[4] Cherubini, U., Luciano, E. and Vecchiato, W, (2004), Copula Methods in Fi-
nance Wiley Finance Series. John Wiley & Sons Ltd., Chichester.
[5] Ciaccio Di A. et al. (ads.) (2012), Advanced Statistical Methods for the Ana-
lysis of Large Data-Sets, Studies in Theoretical and Applied Statistics, doi
10.1007/978-3-642-21037-2 26, Springer-Verlag, Berlin Heidelberg
[6] Coles, S. (2001). An introduction to statistical modeling of extreme values-
Springer-Verlag (London), 2001.
[7] Cooley, Daniel S. , (2005), Statistical Analysis of Extremes Motivated by Weather
and Climate Studies : Applied and Theoretical Advances.
[8] Davison, A. (2003), Statistical Models. Cambridge : Cambridge University Press.
[9] Degen M. (2006). On Multivariate Generalised Pareto Distributions and High
Risk Scenarios-thesis, Department of Mathematics, ETH Zurich.
[10] Diakarya B. (2009) conditional Dependence of Trivariate Generalized Pareto
Distribution. Asian Journal of Mathematics & Statictics Year : 2009|volume :2|
Issue : 2| Page No. :20-32. DOI : 10.3923/itj.2012.76.84
[11] Diakarya B. (2012), Analysis of Stochastic Spatial Processes via Copula and
Measures of Extremal Dependence. Archives Des Sciences, Vol 65, No 12, Dec
2012, pp 665-673.
[12] Diakarya B., Moumouni D. and Remi G. B., (2016), Spatial Tail Dependence
and Survival Stability in a Class of Archimedean Copulas, International Journal
of Mathematics and Mathematical Sciences, vol. 2016, Article ID 8927248, 8
pages, 2016. doi :10.1155/2016/8927248.
[13] Durante F., C. Sempi (2016). Principles of copula theory, Chapman & Hall-CRC,
Boca Raton FL.

100
BIBLIOGRAPHIE 101

[14] Embrechts P., Klüppelberg C. and Mikosh T. (1997), Modelling Extremal Events
for Insurance and Finance. Springer. Berlin
[15] Evanesce, Extreme value analysis employing statistical copula estimation, by
René Carmona. Available via www.orfe.princeton.edu/~rcarmona.
[16] Ferreira, H. and Ferreira, M. (2012) Fragility Index of block
tailed vectors. ScienceDirect. Elsevier vol.142 (7), 1837-1848
http ://dx.doi.org/10.1016/j.bbr.2011.03.031
[17] Fougères, A., L (1996). Estimation non paramétrique de densités uni-modales
et fonctions de dépendance- thèses doctorat de l’Université Paul Sabatier de
Toulouse.
[18] Genest C. and MacKay R.J., (1986), Copula archimédiennes et familles de lois
bidimensionnelles dont les marges sont données. Canadian J. of Statistics 14,
145-159.
[19] Genest C., Ghoudi K. and Rivest L.P., (1995) A semiparametric estimation pro-
cedure of dependence parameters in multivariate families of distributions, Bio-
metrika (1995) 82 (3) : 543-552. doi :10.1093/biomet/82.3.543
[20] Hofert M. and Scherer M. (2011), DCO pricing with nested Archimedean copu-
las, Quantitative Finance 11, (5) 775-787 doi : 10.1080/1469760903508479
[21] Husler, J., Reiss, R.-D. (1989). Extreme value theory- Proceeding of a conference
held in Oberwolfach, Dec. 6-12-1987. Springer, Berlin etc. Lenz, H.
[22] Joe, H. (1990), Families of min-stable multivariate exponential and multivariate
extreme value distributions. Statistics and Probability Letters 9, 75-81.
[23] Joe, H., (1997). Multivariate Models and Dependence Concepts. Monographs on
Statistics and Applied Probabily 73, Chapman and Hall, London. ISBN 978-0-
412-7331.
[24] Junker, M. and A. May (2005), Measurement of aggregate risk with copulas.
Econometrics Journal 8, 428-454.
[25] Liebscher, E. (2006). Modelling and estimation of multivariate copulas, Working
paper, University of Applied Sciences Merseburg.
[26] Marshall, A. W. and I. Olkin (1988), Families of multivariate distributions.
Journal of the American Satistical Association 83, 834-841.
[27] Matheron G., (1969), cours de géostatistique, Les cahiers du Centre de Morpho-
logie Mathématique.
[28] McNeil, J., A. and Nes̆lehová J., (2009), Multivariate Archimedean copulas,
D-monotone functiona and l1 − norm symmetric distributions. The Annals of
Statistics 2009, Vol. 37, No. 5B, 3059-3097 doi :10.1214/07-AOS556.
BIBLIOGRAPHIE 102

[29] Mendez J. Fernando, Menendez Melisa, Luceño Alberto and Medina Raúl,
(2008), An extreme value model for wave climate considering duration and sea-
sonality, published in an international journal of research and developpement,
Elsevier.
[30] Michel, R. (2006). Simulation and Estimation in Multivariate Generalized Pa-
reto Distributions- Dissertation, Fakultät Würzburg, Würzburg.
[31] Nadarajah, Kotz, S., S. (2000). Extreme Value Distributions, Theory and Appli-
cations - Imperial College Press-[48] S. Lang, Linear Algebra.
[32] Nelsen, R. B. (2006), An Introduction to Copulas. 2nd edition. New York :
Springer.
[33] Nelsen R.B (1999)- An Introduction to copulas. Springer Series in Statistics.
Springer, New York, second edition.
[34] J. Pickands.(1981) Multivariate extreme value distributions. M. Bull. Internat.
Statist. Int. Proc. 43d. Session (Buenos Aires), pages 859-878.
[35] J. Pickands.(1989), Multivariate negative exponential and extreme value distri-
butions. In J. Hsler and R.D. Reiss, editors, Extreme Value Theory. Springer
Verlag.
[36] Resnick, S.I. (1987). Extreme Values, Regular Variation and Point Processes-
Springer- Verlag.
[37] Schmitz, V. (2003). Copulas and Stochastic Processes, Aachen University, PhD
distsertation
[38] F. Schmid, R. Schmidt, Th. Blumentritt, S. Gaier and M. Ruppert (2009),
Copula-based measures of multivariate association, in P. Jaworski, F. Durante,
W. Hardle, T. Rychlik, Copula theory and its applications, Proceedings of the
Workshop help in Warsaw, 25-26 Sptember 2009, Springer, Berlin-Heidelberg,
2010, pp. 209-236.
[39] Sedogo Laurent, (2007), Programme d’action national d’adaptation à la varia-
bilité et aux changements climatiques (PANA du Burkina Faso), Ministère de
l’environnement et du cadre de vie.
[40] Shepard, R.N (1987), Toward a universal low of generalisation for psychological
science : Science,237,1317-1323.
[41] Tajvidi, N. (1996a)- Confidence Intervals and Accuracy Estimation for Heavy-
tailed Generalized Pareto Distribution - Thesis article, Chalmers University of
Technology. http :// www.maths.lth.se/matstat/staff/~nader/.
[42] Whelan (2004), Sampling from Archimedean Copulas, Quantitative Finance 4,
339-352.
UNIVERSITÉ OUAGA I PR JOSEPH KI-ZERBO
-------------------
École Doctorale
Sciences et Technologies
-------------------
Laboratoire d’Analyse Numérique d’Informatique et
de Biomathématiques

No d’ordre : 551

Thèse Présentée
Par Remi Guillaume BAGRE
Pour obtenir le grade de

Docteur de l’Université Ouaga I Professeur JOSEPH KI-ZERBO


Option : Sciences Appliquées
Spécialité: STATISTIQUES

MODELISATION DES RISQUES MULTIVARIES. APPLICATIONS AU


RISQUE DE CHANGEMENT CLIMATIQUE EN AFRIQUE DE
L'OUEST .

Soutenue le 07/12/2017 devant le jury composé de


Président : Blaise SOME, Professeur Titulaire, Université Ouaga I Pr Joseph KI-ZERBO,
Burkina Faso (Examinateur)
Membres : - Bisso SALEY, Professeur Titulaire, Université Abdou Moumouni de Niamey,Niger
(Rapporteur)
- Diakarya BARRO, Professeur Titulaire, Université Ouaga II, Burkina Faso
(Directeur de thèse)
- Youssouf PARE, Maître de Conférences, Université Ouaga I Pr Joseph
KI-ZERBO, Burkina Faso (Rapporteur)
- Clovis NITIEMA, Maître de Conférences, Université Ouaga II, Burkina Faso
(Examinateur)
SOMMAIRE

Dédicaces VIII

Remerciements IX

Résumé et Abstract XI

Sigles, Abréviations et notations XIII

Introduction générale 1

1 Environnement et outils de travail 4


1.1 Éléments de dépendance stochastique . . . . . . . . . . . . . . . . . . . . . 5
1.1.1 Mesures de dépendance linéaire . . . . . . . . . . . . . . . . . . . . 5
1.1.1.1 La corrélation linéaire . . . . . . . . . . . . . . . . . . . . 5
1.1.1.2 Concordance . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.2 Mesures de corrélation non linéaire . . . . . . . . . . . . . . . . . . 8
1.1.2.1 Le tau de Kendall . . . . . . . . . . . . . . . . . . . . . . 8
1.1.2.2 Le rhô de Spearman . . . . . . . . . . . . . . . . . . . . . 8
1.1.3 Dépendance de queue . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2 La copule comme outils de dépendance stochastique . . . . . . . . . . . . . 10
1.2.1 Préliminaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.1.1 Inverse généralisé d’une fonction de répartition . . . . . . 10
1.2.1.2 Rappel sur la loi de probabilité multivariée . . . . . . . . 11
1.2.2 Présentation des copules multidimensionnelles . . . . . . . . . . . . 12
1.2.2.1 Loi uniforme multivariée . . . . . . . . . . . . . . . . . . . 12
1.2.2.2 Définition de la copule . . . . . . . . . . . . . . . . . . . 12
1.2.3 La copule dans la dépendance stochastique . . . . . . . . . . . . . . 13
1.2.4 Propriétés élémentaires des fonctions copules . . . . . . . . . . . . . 14
1.2.4.1 Continuité des copules . . . . . . . . . . . . . . . . . . . . 15
1.2.4.2 Différentiabilité, densité de copule . . . . . . . . . . . . . 15

I
SOMMAIRE

1.2.4.3 Les bornes de Fréchet . . . . . . . . . . . . . . . . . . . . 16


1.2.4.4 Invariance par transformations monotones . . . . . . . . . 17
1.2.5 Copules, corrélation non linéaire et dépendance de queue . . . . . . 17
1.2.5.1 Concordance et copule . . . . . . . . . . . . . . . . . . . 18
1.2.5.2 Copule et tau de kendall . . . . . . . . . . . . . . . . . . . 18
1.2.5.3 Copule et rho de Spearman . . . . . . . . . . . . . . . . . 19
1.2.5.4 Copule et mesure de dépendance de queue . . . . . . . . . 19
1.2.6 Quelques familles de copules paramétriques . . . . . . . . . . . . . . 20
1.2.6.1 Les copules usuelles . . . . . . . . . . . . . . . . . . . . . 20
1.2.6.2 La famille copules archimédiennes . . . . . . . . . . . . . 20
1.2.6.3 Cas particulier : la famille archimax . . . . . . . . . . . . 24
1.2.6.4 La famille des copules elliptiques . . . . . . . . . . . . . . 24
1.2.6.5 La copule empirique . . . . . . . . . . . . . . . . . . . . . 29
1.2.7 La famille de copules des valeurs extrêmes . . . . . . . . . . . . . . 29
1.2.7.1 Définition et caractérisation . . . . . . . . . . . . . . . . . 29
1.2.7.2 Fonction de dépendance . . . . . . . . . . . . . . . . . . . 30
1.3 Éléments de la statistique des extrêmes . . . . . . . . . . . . . . . . . . . . 31
1.3.1 Préliminaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.3.1.1 Lois de probabilité multivariées . . . . . . . . . . . . . . . 31
1.3.1.2 Fonction de survie d’une loi multivariée . . . . . . . . . . 32
1.3.1.3 Points terminaux d’une distribution multivariée . . . . . . 32
1.3.1.4 Le théorème central limite . . . . . . . . . . . . . . . . . 32
1.3.1.5 Processus stochastique max-stables . . . . . . . . . . . . 33
1.3.1.6 Fonction à variations régulières . . . . . . . . . . . . . . . 33
1.3.2 Modèle des blocs des maxima . . . . . . . . . . . . . . . . . . . . . 34
1.3.2.1 La théorie des valeurs extrêmes univariée . . . . . . . . . 34
1.3.2.2 La théorie des valeurs extrêmes multivariée . . . . . . . . 36
1.3.3 Modèle de dépassement de seuil . . . . . . . . . . . . . . . . . . . . 37
1.3.3.1 Formulation de la méthode . . . . . . . . . . . . . . . . . 37
1.3.3.2 Distribution Généralisée de Pareto . . . . . . . . . . . . . 37

2 Modélisation de la dépendance spatiale par les copules 39


2.1 Géostatistique et copules spatiales . . . . . . . . . . . . . . . . . . . . . . . 40
2.1.1 Statistique spatiale et géostatistique . . . . . . . . . . . . . . . . . . 40
2.1.2 La copule comme modèle de dépendance spatiale . . . . . . . . . . 41
2.1.2.1 La notion de copule spatiale . . . . . . . . . . . . . . . . 41
2.1.2.2 Appartenance de la copule spatiale à une famille . . . . . 41
2.2 Modèle de dépendance spatiale et asymptotique . . . . . . . . . . . . . . . 42
2.2.1 Caractérisation des processus stochastiques Archimax . . . . . . . . 42
2.2.2 Copules et dépendance de queue multivariée spatiale . . . . . . . . 44
2.2.3 Dépendance spatiale et queue des copules Archimédiennes . . . . . 45
2.2.4 Dépendance spatiale et queue des copules Archimax . . . . . . . . . 47
2.2.5 Stabilité spatiale des copules Archimédiennes de survie . . . . . . . 48
2.3 Applications aux données climatiques . . . . . . . . . . . . . . . . . . . . . 50

II
SOMMAIRE

2.3.1 Données : analyse préliminaire . . . . . . . . . . . . . . . . . . . . . 50


2.3.2 Transformation des données . . . . . . . . . . . . . . . . . . . . . . 51
2.3.2.1 Ajustement des lois marginales de la zone A . . . . . . . . 51
2.3.2.2 Loi extrêmes bivariée de la zone A . . . . . . . . . . . . . 55
2.3.2.3 Ajustement des données de la zone A par des copules ar-
chimédiennes, elliptiques et archimax . . . . . . . . . . . . 56
2.3.2.4 Estimation des périodes de retour pour les températures
extrêmes bivariées. . . . . . . . . . . . . . . . . . . . . . . 60

3 Quelques approches de modélisation des risques 63


3.1 Généralités sur les risques . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.1.1 Quelques types de risques . . . . . . . . . . . . . . . . . . . . . . . 64
3.1.1.1 Risque financier . . . . . . . . . . . . . . . . . . . . . . . 64
3.1.1.2 Risque environnementaux . . . . . . . . . . . . . . . . . . 65
3.1.1.3 Risque sanitaire . . . . . . . . . . . . . . . . . . . . . . . 65
3.1.1.4 Risque de changement climatique . . . . . . . . . . . . . 66
3.1.2 Quantification des risques . . . . . . . . . . . . . . . . . . . . . . . 66
3.2 Approche de la Valeur à Risque . . . . . . . . . . . . . . . . . . . . . . . . 67
3.2.1 Caractérisation de la valeur à risque . . . . . . . . . . . . . . . . . . 67
3.2.1.1 Le niveau de confiance . . . . . . . . . . . . . . . . . . . . 68
3.2.1.2 Horizon temporel choisi . . . . . . . . . . . . . . . . . . . 68
3.2.1.3 La distribution des profits et des pertes . . . . . . . . . . 68
3.2.2 Extension multivariée de la VaR . . . . . . . . . . . . . . . . . . . . 68
3.2.2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
3.2.3 Les bornes de la VaR . . . . . . . . . . . . . . . . . . . . . . . . . . 69
3.2.4 La VaR et certaines mesures de risque . . . . . . . . . . . . . . . . 70
3.2.4.1 La VaR de queue . . . . . . . . . . . . . . . . . . . . . . 71
3.2.4.2 La VaR conditionnelle . . . . . . . . . . . . . . . . . . . . 71
3.2.5 Pseudo-convexité des mesures dérivées de la VaR . . . . . . . . . . 72
3.2.6 Propriétés de la déviation standard empirique . . . . . . . . . . . . 74
3.3 Approche géométrique des scénarios de risques . . . . . . . . . . . . . . . . 75
3.4 Approches de la période de retour . . . . . . . . . . . . . . . . . . . . . . . 79
3.4.1 Notion de période de retour . . . . . . . . . . . . . . . . . . . . . . 79
3.4.2 Interprétation de la période de retour . . . . . . . . . . . . . . . . . 80

Publications 82

Article 1 83

Article 2 92

Conclusion générale 114

III
SOMMAIRE

A Estimation de copules 115


A.1 Estimation non paramétrique . . . . . . . . . . . . . . . . . . . . . . . . . 115
A.1.1 La copule empirique . . . . . . . . . . . . . . . . . . . . . . . . . . 115
A.1.2 La méthode de GENEST-RIVEST . . . . . . . . . . . . . . . . . . 116
A.2 Estimation paramétrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
A.2.1 La méthode des moments . . . . . . . . . . . . . . . . . . . . . . . 116
A.2.2 Méthode du maximum de vraisemblance (MLE) . . . . . . . . . . . 117

B Simulations 118
B.1 Représentation des copules (Chapitre 1) . . . . . . . . . . . . . . . . . . . 118
B.2 Codes R des figures de l’application (Chapitre 2) . . . . . . . . . . . . . . 120

Bibliographie 124

IV
LISTE DES TABLEAUX

1.1 Quelques copules archimédiennes. . . . . . . . . . . . . . . . . . . . . . . . 21

2.1 Intervalle de confiance à 95% des niveaux de retour pour des périodes de
retour données (en mois). . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.2 Périodes de retour, en mois, des événements t pour les stations de Ouaga-
dougou et Yamoussoukro. . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

V
TABLE DES FIGURES

1.1 Densité et contour de la copule de Gumbel (respectivement à gauche et à


droite) avec θ = 6. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.2 Distribution et contour de la copule de Gumbel (respectivement à gauche
et à droite) avec θ = 6. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.3 Densité et contour de la copule de Franck (respectivement à gauche et à
droite) avec θ = 6. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.4 Distribution et contour de la copule de Franck (respectivement à gauche et
à droite) avec θ = 6. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.5 Densité et contour de la copule de Clayton (respectivement à gauche et à
droite) avec θ = 6. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.6 Distribution et contour de la copule de Clayton (respectivement à gauche
et à droite) avec θ = 6. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.7 Distribution et contour de la copule Gaussienne (respectivement à gauche
et à droite) avec ρ = 0, 5. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.8 Densité et contour de la copule Gaussienne (respectivement à gauche et à
droite) avec ρ = 0, 5. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.9 Distribution et contour de la copule de student (respectivement à gauche
et à droite) avec ν = 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.10 Densité et contour de la copule de student (respectivement à gauche et à
droite) avec ν = 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

2.1 Carte de l’Afrique de l’ouest. . . . . . . . . . . . . . . . . . . . . . . . . . . 50


2.2 Maxima mensuels pour les données de la station de Ouagadougou et de
Yamoussoukro. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.3 Ajustement des températures de la station de Ouagadougou . . . . . . . . 53
2.4 Log-vraisemblance profilée pour le paramètre de forme ξ. . . . . . . . . . . 54
2.5 Ajustement des températures de la station de Yamoussokro. . . . . . . . . 54
2.6 Test d’adéquation des ajustements par la GEV de la zone A (site de Oua-
gadougou à gauche et le site de Yamoussoukro à droite). . . . . . . . . . . 55

VI
TABLE DES FIGURES

2.7 Représentation de la fonction de dépendance de Pickands pour la zone


A (la représentation non paramétrique en pointillé et la représentation
paramétrique (avec θ = 0.30555) en trait plein). . . . . . . . . . . . . . . . 56
2.8 Représentations spatiales des quantiles extrêmes de la zone A. . . . . . . . 56
2.9 Transformation des données en valeur uniforme sur [0,1] . . . . . . . . . . . 57
2.10 A gauche : Distribution de la loi jointe de la zone A (construite à partir
d’une copule Gaussienne). A droite : Densité de la loi jointe de la zone A
(construite à partir d’une copule Gaussienne. . . . . . . . . . . . . . . . . 58
2.11 A gauche : Distribution de la loi jointe de la zone A (construite à partir
d’une copule de Gumbel). A droite : Densité de la loi jointe de la zone A
(construite à partir d’une copule de Gumbel. . . . . . . . . . . . . . . . . 58
2.12 A gauche : Distribution de la loi jointe de la zone A (construite à partir
d’une copule de Student). A droite : Densité de la loi jointe de la zone A
(construite à partir d’une copule de Student. . . . . . . . . . . . . . . . . 59
2.13 A gauche : Distribution de la loi jointe de la zone A (construite à partir
d’une copule de Franck). A droite : Densité de la loi jointe de la zone A
(construite à partir d’une copule de Franck). . . . . . . . . . . . . . . . . . 59
2.14 Densités des copules Gaussienne, Gumbel, Student et Franck ajustées aux
séries de températures max mensuelles (1981-2010) des stations de Ouaga-
dougou et de Yamoussoukro. . . . . . . . . . . . . . . . . . . . . . . . . . . 60
2.15 Quantile plot des marges après ajustement par la copule de Gumbel. . . . . 61
2.16 Quantile plot des marges après ajustement par la copule de student. . . . . 61

3.1 Définition de la notion de période de retour . . . . . . . . . . . . . . . . . 80

VII
DÉDICACES

A mon Père
A ma Mère
A ma femme Jacqueline Wendin-so,
A mes chers enfants Esdras Ethan et Mael Brunel Mathisse.

VIII
REMERCIEMENTS

C’est un immense plaisir pour moi de pouvoir remercier ici les personnes qui, durant
ce travail de recherche, m’ont soutenu et guidé statistiquement ou non, de près ou de loin...

En premier lieu, je remercie très sincèrement le Professeur Blaise SOME, Directeur


du laboratoire LANIBIO, pour tout ce qu’il fait pour la promotion de la recherche en
mathématiques appliquées à l’Université Joseph Ki-ZERBO.

Je désire exprimer ma gratitude à mon directeur de recherche, le Professeur Diakarya


BARRO de l’Université Ouaga 2, qui a bien voulu accepter de diriger cette thèse. Merci
pour sa disponibilité malgré toutes ses activités prenantes. Ses commentaires et réflexions
m’ont ainsi permis de trouver des applications connexes, vastes et intéressantes aux tra-
vaux que je menais.

Messieurs les professeurs Alioune DIOP , Bisso SALEY et Youssouf PARE ont accepté
d’être rapporteurs de cette thèse. Je les remercie pour le soin avec lequel ils ont examiné
ce travail et pour l’intérêt qu’ils lui ont porté.

Je remercie également les professeurs Bisso SALEY, Clovis NITIEMA et Youssouf


PARE pour avoir accepté d’honorer de leur présence en siégeant dans le jury et Blaise
SOME pour avoir accepté le présider.

Ma reconnaissance va aussi à tous les enseignants du Laboratoire d’Analyse Numé-


rique et de Bio-mathématiques (LANIBIO). Merci pour leur disponibilité.

Je remercie également tous les doctorants du LANIBIO.

Pour finir, mes pensées vont enfin à tous mes proches, mon père, ma mère, ma femme,
mon frère, ma sœur et à toute ma famille et ma belle-famille pour le soutien qu’ils m’ont
apporté tout au long de la préparation de cette thèse. Merci à la grande famille et aux
amis pour leur soutien et leurs encouragements. Un grand merci à mes parents pour leur

IX
sempiternel “et ta thèse, où en est-tu ?”. Cette soutenance apporte, sans nul doute, une
réponse à cette intérrogation.

Merci à tous ceux dont les noms n’ont pu être cités dans ce document. Voilà, avec un
tel entourage, on ne pouvait que faire au mieux ! !

X
RÉSUMÉ ET ABSTRACT

Résumé
Cette thèse a pour but le développement de certains aspects de la modélisation des
risques climatiques en dimension plus grande que un. Elle s’articule essentiellement autour
de trois chapitres auxquels s’ajoutent une introduction et une conclusion. Dans le premier
chapitre, nous rappelons des notions de base utilisées en théorie des gestions des risques
multivariés pour une compréhension plus aisée des chapitres qui suivants. Le deuxième
chapitre concerne la modélisation de la dépendance de queue des copules Archimax en
dimension plus élevée dans un domaine spatial. Spécialement, nous proposons une ca-
ractérisation des marges bivariées de la copule spatiale d’Archimax où les coefficients de
dépendances de queue multivariée supérieure et inférieure spatiale sont modélisés, res-
pectivement, pour les copules Archimédiennes et les copules Archimax. Une propriété de
stabilité est donnée en utilisant des transformations convexes de la copule spatiale de
survie d’une famille archimédienne. Nous présentons également les résultats obtenus sur
plusieurs jeux de données réelles. Le troisième chapitre présente des propriétés de la valeur
à risque conditionnelle et de l’écart type. De plus, nous caractérisons une nouvelle version
des scénarii de haut risque via l’approche des copules.

Mots-clés : Modélisation des Risques, copules, dépendance de queue spa-


tiale, scénarii de haut risque, changement climatique, distribution généralisée,
lois des valeurs extrêmes, distribution de Pareto.

XI
Abstract
The aim of this thesis is to develop some aspects of climate risk modelling in higher
dimension. It is revolved mainly around three chapters in addition with an introduction
and a conclusion. The first chapter deals with some basic concepts used in the multiva-
riate risk theory which are preliminaries for the following chapters. The second chapter
investigates properties of extensions of the tail dependence of Archimax copulas to high
dimensional analysis in a spatialized framework. Specifically, we propose a characteriza-
tion of bivariate margins of spatial Archimax processes while spatial multivariate upper
and lower tail dependence coefficients are modeled, both, for Archimedean copulas and
Archimax ones. A property of stability is given using convex transformations of survival
copulas in a spatialized Archimedean family. We also present the results of simulation of
real data. The third chapter investigates some properties of derivative measures of the
Value at Risk (VaR) of random variables modeling the stochastic behavior of a portfolio
asset. Specifically, coherentness and convex properties of the conditional, the tail VaR and
the standard deviation are established. Moreover, a new version of high risk scenario is
characterized and bivariate densities are modeled via copula approach.

Keywords and phrases : Risk modelling, copulas, spatial tail dependence,


high risk scenarios, climate change, extremes values, generalized extremes
values, generalized Pareto distribution.

XII
SIGLES, ABRÉVIATIONS ET
NOTATIONS

Sigles

• GP : Généralisée de Pareto.
• GVE : Généralisée des valeurs extrêmes.
• VaR : Valeur à Risque.
• TVE : Théorie des Valeurs Extrêmes.
• MDA : Max-Domaine d’attraction.
• TVaR : Tail Value-at-Risk.
• CVaR : Conditional Value-at-Risk.
• XTVaR : Excess Tail Value-at-Risk.

Abréviations

• i.i.d : indépendantes et identiquement distribuées.


• p.s : presque sûrement.
• v.a : variable aléatoire.
• c-à-d : c’est-à-dire.
• etc : Et cetera.
•˚C : Degré Celsius.

Notations

XIII
• P(A) : La probabilité de l’événement A.
• P(A|B) : La probabilité de l’événement A sachant l’événement B.
• I =[0,1] : L’intervalle unitaire.
• E(X) : L’espérance mathématique de la v.a X.
• Var(X) : La variance de la v.a X.
• σ(X) : L’écart type de la v.a X.
• Cov(X,Y) : La covariance de X et Y .
D
• X =Y : Les deux v.a X et Y sont égales en distribution.
p.s
• Xn −→ X : La suite de v.a (Xn )n converge presque sûrement vers X .
• min(A) : Le minimum de l’ensemble A.
• inf(A) : La borne inférieure de l’ensemble A.
• sup(A) : La borne supérieure de l’ensemble A.
• X ∧Y : Le minimum de X et Y .
• X ∨Y : Le maximum de X et Y .
• D(F ) : Le domaine d’attraction de la distribution F .
• 1A : La fonction indicatrice de A.
• (a, b] : {x; a < x ≤ b}
• [a, b) : {x; a ≤ x < b}
• (a, b) : {x; a < x < b}
• % : Croissant
• & : Décroissant

XIV
INTRODUCTION GÉNÉRALE

ette thèse porte sur l’étude de certains aspects de la modélisation de la dépendance


C dans la gestion des risques dans un cadre multidimensionnel. Les résultats obtenus
dans cette thèse s’inspirent des récents développements de la théorie de la gestion des
risques, de la théorie des valeurs extrêmes ou encore de la théorie des copules. Tout au
long de cette thèse nous avons utilisé des outils provenant de ces différentes branches de la
littérature existante, afin de proposer des modèles plus souples. Dans cette introduction,
nous présentons les travaux réalisés dans cette thèse tout en les situant par rapport aux
résultats existants.

Motivations : Pourquoi la théorie de la gestion des


risques multivariés ?
La perception du risque est cruciale. Pour lutter contre un risque, encore faut-il en être
conscient ! Cela appelle donc des procédures qui permettent d’identifier un risque, de le
mesurer, et de définir des mesures de prévention si on estime que le risque est trop grand.
Si cette démarche peut sembler simple, elle se révèle en pratique fort tortueuse. Nous
abordons la problématique de l’évaluation des risques climatiques et la comparaison entre
différents risques climatiques. L’intérêt de considérer l’interaction et la dépendance entre
les différents risques est également analysé. Le problème de base est de modéliser et (ou)
de prévoir l’occurrence d’événements de types extrêmes dans un système aléatoire. Des
exemples d’applications classiques de la théorie de la gestion du risque : des températures
maximales lors de vagues de chaleur, de la force des vents lors d’une tempête, des pluies
diluviennes dévastatrices , les épidémies , les crises boursières etc.

Le risque se définit et se mesure. Le problème est qu’on ne s’entend toujours pas sur
ce que le mot risque veut dire. Le dictionnaire Littré le définit ainsi
«Étymologie : a. italien risco, risque, prob. du latin resecum, objet coupant, écueil, d’où
risque couru par les navires, de resecare, couper
«Risque, n. m. Péril dans lequel entre l’idée de hasard. « Encore même qu’on ne court

1
nul risque de la vie », Pascal. »

Le Larousse définit le risque ainsi


À Risque, n. m. (ital. risco). 1. Danger, inconvenient plus ou moins probable auquel on
est exposé. ♦ À risque(s) : prédisposé à certains inconvénients ; exposé à un danger, à
une perte, à un échec ; qui présente un danger. 2. Préjudice, sinistre éventuel que les
compagnies de l’assurance garantissent moyennant le paiement d’une prime.

Risques : Comment les évaluer ?


Les risques étant modélisés par des variables aléatoires positives, mesurer un risque
correspond à donner une fonction R entre l’espace de variables aléatoires et R+ . Les
mesures de risque apparaissent ainsi comme des outils de quantification de risque. Elles
permettent d’évaluer le niveau de dangerosité d’un risque mais également de comparer
des risques entre eux et de les classer selon leur niveau de dangerosité.

La gestion des risques climatiques


Le climat a toujours réglé le mode de vie des êtres vivants sur la terre, y compris les
humains. Au cours de son histoire l’homme a su s’y adapter en exploitant les ressources
naturelles desquelles il tire de l’énergie et se nourrit. En outre, depuis un peu plus d’un
siècle, l’homme est devenu acteur de la machine climatique. Par ses activités, il modifie le
climat. En changeant la couverture végétale du sol, par exemple, il modifie ses capacités
d’absorption et de reflection du rayonnement solaire, et influe ainsi le bilan radiatif et hy-
drologique. En émettant des polluants, il change la composition chimique de l’atmosphère,
et donc ses propriétés d’absorption des radiations solaires ou du rayonnement terrestre.
En particulier, l’augmentation de la concentration de dioxyde de carbone due, en majeure
partie, à l’utilisation des combustibles fossiles, augmente l’effet de serre naturel et entraîne
une hausse de la température du globe.

Le Quatrième Rapport du GIEC (Groupe d’experts Intergouvernemental sur l’Evolu-


tion du Climat) conclut, sur la base des faits observés, que de nombreux systèmes naturels,
sont touchés par des changements climatiques régionaux (Cas de l’Afrique de l’ouest), par-
ticulièrement par des augmentations de température. Au cours de ces dernières années, les
extrêmes climatiques ne cessent pas de battre des records. Le changement climatique en
Afrique de l’ouest est révélé par les changements concernant le niveau de la mer, hausse
des températures et les précipitations (Inondations au Burkina Faso, Côte d’Ivoire, au
Mali, etc ).

La thèse s’articule essentiellement autour de trois chapitres auxquels s’ajoutent une


introduction et une conclusion.

2
Dans le premier chapitre, nous rappelons des notions de base utilisées en théorie des
gestions des risques multivariés, de la théorie des valeurs extrêmes et de la théorie des
copules pour une compréhension plus aisée des chapitres qui suivent.

Le deuxième chapitre porte sur la modélisation de la dépendance de queue des co-


pules Archimax en dimension plus élevée dans un domaine spatial. Spécifiquement, nous
proposons une caractérisation des marges bivariées de la copule spatiale Archimax où
les coefficients de dépendances de queue multivariée supérieure et inférieure spatiale sont
modélisés, respectivement, pour les copules Archimédiennes et Archimax. Une propriété
de stabilité est donnée en utilisant des transformations convexes de la copule spatiale de
survie d’une famille archimédienne. Nous présentons également les résultats obtenus sur
plusieurs jeux de données de climat.

Dans le troisième chapitre nous présentons les propriétés des mesures dérivées de la
VaR, des propriétés de la TVaR et de l’écart type. De plus, nous caractérisons une nouvelle
version des scénarii de haut risque via l’approche des copules.

3
CHAPITRE 1
ENVIRONNEMENT ET OUTILS DE
TRAVAIL

Sommaire
1.1 Éléments de dépendance stochastique . . . 5
1.1.1 Mesures de dépendance linéaire . . . . . . . . . . . . . . . . . . 5
1.1.2 Mesures de corrélation non linéaire . . . . . . . . . . . . . . . . 8
1.1.3 Dépendance de queue . . . . . . . . . . . . . . . . . . . . . . . 9
1.2 La copule comme outils de dépendance sto-
chastique . . . . . . . . . . . . . . . . . . . . . 10
1.2.1 Préliminaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.2 Présentation des copules multidimensionnelles . . . . . . . . . . 12
1.2.3 La copule dans la dépendance stochastique . . . . . . . . . . . 13
1.2.4 Propriétés élémentaires des fonctions copules . . . . . . . . . . 14
1.2.5 Copules, corrélation non linéaire et dépendance de queue . . . 17
1.2.6 Quelques familles de copules paramétriques . . . . . . . . . . . 20
1.2.7 La famille de copules des valeurs extrêmes . . . . . . . . . . . . 29
1.3 Éléments de la statistique des extrêmes . . 31
1.3.1 Préliminaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.3.2 Modèle des blocs des maxima . . . . . . . . . . . . . . . . . . . 34
1.3.3 Modèle de dépassement de seuil . . . . . . . . . . . . . . . . . . 37

4
1.1 Éléments de dépendance stochastique

ans ce chapitre nous présentons les outils stochastiques et mathématiques à la


D modélisation spatiale via les techniques d’analyse statistiques des extrêmes, les
copules et les modèles de risques.

1.1 Éléments de dépendance stochastique


Dans la vie quotidienne, plusieurs phénomènes environnementaux, financiers, clima-
tiques etc, résultent de l’effet conjoint de phénomènes marginaux aléatoires. De nom-
breuses situations nécessitent de prendre en compte la dépendance stochastique entre
variables aléatoires. La modélisation de la dépendance conjointe est un sujet central et
fondamental dans les domaines des statistiques et des probabilités. Par exemple, dans le
domaine de l’économie, l’analyse financière, la macroéconomie et autre économétrie, il
existe très souvent beaucoup d’informations sur les lois et comportements marginaux des
phénomènes mais très peu sur l’effet conjoint sur les comportements simultanés. La mo-
délisation stochastique nous permet en effet de disposer d’outils pour quantifier la force
de cette dépendance : les mesures de dépendance et de structures de dépendance.
Mathématiquement la dépendance entre les variables aléatoires est exprimée par un
changement de la distribution conditionnelle de l’une des variables lorsque l’on dispose
d’informations précises sur les autres variables.
Il existe de nombreuses formes de dépendance stochastique dont la dépendance de
Markov est la forme de dépendance stochastique la plus étudiée. Elle modélise une situa-
tion dans laquelle un événement donné dépend dans une certaine mesure des événements
récents précédents. Si les variables aléatoires ne sont pas mutuellement indépendants, elles
ont à un degré plus ou moins la propriété de dépendance stochastique. Les mesures de
dépendance peuvent être linéaires, non linéaires, asymptotiques ou locales.

1.1.1 Mesures de dépendance linéaire


Lorsqu’on cherche à mettre en évidence les relations éventuelles qui existent entre une
variable et un groupe de variables, on s’intéresse à deux types d’analyses : la mesure du
degré de liaison et la mesure de l’effet d’une variable sur une autre. On réalise ordinaire-
ment une régression linéaire simple, voire une régression non linéaire (modèle puissance,
modèle exponentiel).

1.1.1.1 La corrélation linéaire


Le coefficient de corrélation est la mesure principale de la corrélation entre deux va-
riables.

Définition 1.1 (Coefficient de corrélation linéaire)


Pour deux variables aléatoires X1 et X2 le coefficient de corrélation est le nombre réel

Cov (X1 , X2 ) E([X1 − E(X1 )][X2 − E(X2 )])


ρ (X1 , X2 ) = q =q (1.1)
V ar (X1 ) V ar (X2 ) E([X1 − E(X1 )]2 )E([X2 − E(X2 )]2 )

5
1.1 Éléments de dépendance stochastique


Cov (X1 , X2 ) = E (X1 X2 ) − E (X1 ) E (X2 )
est la covariance des deux variables.

Les propriétés de la corrélation sont résumées par la propriété suivante

Propriétés 1.1
Soient X1 et X2 deux variables aléatoires de lois F1 et F2 respectivement.
(i) Si X1 et X2 sont indépendantes alors ρ (X1 , X2 ) = 0, mais la réciproque est fausse
(ii) ρ n’intègre que la dépendance linéaire entre les deux variables.
(iii) ρ est invariant par transformation linéaire des variables. Cependant ρ ne l’est pas
pour toute transformation monotone.
(iv) Par ailleurs ρ vérifie l’inégalité de Tchen :
h i h i
Cov F1−1 (U ) , F2−1 (1 − U ) Cov F1−1 (U ) , F2−1 (U )
q ≤ ρ (X1 , X2 ) ≤ q
V (X1 ) V (X2 ) V (X1 ) V (X2 )

où U est la loi uniforme unitaire.

Preuve.
En effet,
• (i) Pour X1 N (0, 1) et X2 = X12 , on vérifie que cov (X1 , X2 ) = E (X13 ) = 0 or
X1 et X2 ne sont pas indépendantes. En particulier

E (X1 X2 ) − E (X1 ) E (X2 )


ρ (X1 , X2 ) = 0 ⇐⇒ = 0.
σ (X1 ) σ (X2 )

Janos Aczel a montré que la solution de l’équation est telle que X1 et X2 sont de lois
gaussiennes.
• (ii) Le coefficient peut être élevé alors qu’il n’y a aucune relation de cause à effet
entre les deux variables.
• (iii) Il faut noter que la propriété (iii) signifie en particulier que ρ dépend des
distributions marginales. Plus généralement, soit f et g des transformations (fonctions).

ρ (f (X1 ) , g (X2 )) = ρ (X1 , X2 )


E (f (X1 ) g (X2 )) − E(f (X1 )) E (g (X2 )) E (X1 X2 ) − E (X1 ) E (X2 )
= (1.2)
σ(f (X1 ))σ (g (X2 )) σ (X1 ) σ (X2 )

La solution de l’équation est telle que fX1 (x1 ) = ax1 + b et fX2 (x2 ) = cx2 + d avec
ac > 0. En effet,
r(aX1 + b; cX2 + d) = sign(ac)r(X1 , X2 )
C’est pourquoi cette mesure est dite linéaire

6
1.1 Éléments de dépendance stochastique

1.1.1.2 Concordance
Les notions de concordance et d’association sont strictement aussi des concepts de
dépendance.

Définition 1.2 (de la concordance)


Soit (X, Y ) un couple de variables aléatoires continues. Deux réalisations (x1 , y1 ) et (x2 , y2 )
de ce copule sont dites :
• Concordantes si : (x1 − x2 )(y1 − y2 ) > 0 i.e

{x1 > x2 et y1 > y2 } ou { x1 < x2 et y1 < y2 }

• Discordantes si : (x1 − x2 )(y1 − y2 ) < 0 i.e

{x1 > x2 et y1 < y2 } ou {x1 < x2 et y1 < y2 }

De manière plus générale, soient (x1 , y1 ), . . . , (xd , yd ) un échantillon de réalisations de


(X, Y ). Il existe Cd2 paires distinctes de couples (xi , yi ) et (xj , yj ) qui sont, soit concor-
dantes, soit discordantes.

Définition 1.3 (fonction de la concordance)


La fonction de concordance entre deux couples (X1 , Y1 ) et (X2 , Y2 ) est définie par :

Q = P [(X1 − X2 ) (Y1 − Y2 ) > 0] − P [(X1 − X2 ) (Y1 − Y2 ) < 0]

c-à-d la différence entre la probabilité de concordance et celle de discordance.

Définition 1.4 (mesure de concordance)


Une mesure numérique K d’association entre deux variables aléatoires X et Y est une
mesure de concordance si elle vérifie les propriétés suivantes
(P1 ) K est définie pour tout couple (X, Y) de variables aléatoires continues

(P2 ) Symétrie : K(X, Y ) = K(Y, X)

(P3 ) Normalisation : −1 ≤ K (X, Y ) ≤ 1

(P4 ) −1 = K (X, −X) et K (X, X) = 1 pour toute variable aléatoire continue X.

(P5 ) K(X , Y ) = 0 si et seulement si X et Y sont indépendantes

(P6 ) K (X, −Y ) = K (−X, Y ) = −K (X, Y )

(P7 ) Si f et g sont des fonctions strictement monotones respectivement sur ImX et


ImY alors K (f (X) , g (Y )) = K (X, Y ) .

7
1.1 Éléments de dépendance stochastique

1.1.2 Mesures de corrélation non linéaire


Il existe des situations où la corrélation linéaire ne modélise pas fidèlement la dépen-
dance (variables ordinales, discrètes, valeurs extrêmes, loi pas normale, etc). On fait alors
recours aux corrélations des rangs c’est-à-dire qui n’utilisent pas les valeurs des observa-
tions mais leurs rangs. Ces mesures constituent une alternative au coefficient linéaire.

1.1.2.1 Le tau de Kendall


Définition 1.5 (Le tau de Kendall)
Soient (X1 , X2 ) et (Y1 , Y2 ) deux couples de variables aléatoires de loi F. On définit le tau
de Kendall par :

τXY = P [(X1 − X2 )(Y1 − Y2 ) > 0] − P [(X1 − X2 )(Y1 − Y2 ) < 0] .

ou encore
Z
τXY = 2P [(X1 − X2 )(Y1 − Y2 ) > 0] − 1 = 4 F dF − 1.

En particulier pour une série de n observations bivariées, le tau de Kendall peut


s’exprimer en fonction des observations sous la forme :
2 XX
τXY = sign(xi − xk )(yi − yk )
n(n − 1) i k

où sign(z) = 1 si z > 0 ; sign(z) = −1 si z < 0 et sign(0) = 0.


On montre également que malheureusement si τ = 0 les variables X et Y ne sont pas
forcément indépendantes.

1.1.2.2 Le rhô de Spearman


Ce coefficient noté ρS , est équivalent au coefficient de corrélation de Spearman.
Définition 1.6 (Le rho de Spearman)
Soient (X1 ; Y1 , (X2 ; Y2 ) et (X3 ; Y3 ) trois vecteurs aléatoires indépendantes d’un couple
aléatoire (X, Y ) de loi F. Le coefficient de corrélation de Spearman est défini par :

ρS = 3(P [(X1 − X2 )(Y1 − Y3 ) > 0] − P [(X1 − X2 )(Y1 − Y3 ) < 0]). (1.3)

ou encore Z Z
ρs = ρ(F1 (X), F2 (Y )) = 12 F1 (X)F2 (Y )dF (X, Y )
[0,1]2

En particulier, pour un échantillon (x1 , y1 ),...,(xn , yn ) de réalisations du couple (X, Y ), on


a: n   
X 
Ri − R̄ Si − S̄
i=1
ρs = v v (1.4)
n 
u n
uX 2 uX  2
u
t Ri − R̄ t Si − S̄
i=1 i=1

8
1.1 Éléments de dépendance stochastique

n
X n
X
Où Ri = 1{xk ≤xi } est le rang de xi , Si = 1{yk ≤yi } celui de yi , R̄ et S̄ en sont des
k=1 k=1
moyennes respectives.

1.1.3 Dépendance de queue


La dépendance de queue ou dépendance asymptotique, fournit une description de la
dépendance au niveau des queues de distribution. C’est aussi une approche locale pour
étudier la survenance simultanée d’événements rares de valeurs extrêmes.

Définition 1.7 (Coefficient de dépendance de queue)


Soient X1 et X2 les variables aléatoires continues de distribution conjointe H dont les
marges H1 et H2 sont supposées identiques. On appelle coefficient de dépendance

• de queue supérieure de (X1 , X2 ), le nombre réel λS tel que

λS = lim P (X1 > t|X2 > t) = lim− P (H1 (X1 ) > u|H2 (X2 ) > u) .
t→+∞ u→1

• de dépendance de queue inférieure de (X1 , X2 ) ,le nombre réel λI tel que

λI = lim P (X1 < t|X2 < t) = lim+ P (H1 (X1 ) < u|H2 (X2 ) < u) .
t→−∞ u→0

C’est donc la probabilité que X2 soit extrême sachant que X1 est déjà extrême. En
particulier
· Si λS = 0 alors X1 et X2 sont asymptotiques indépendantes (l’apparition d’un extrême
en X1 n’a pas d’influence sur l’apparition d’un extrême en X2 ).
· Si 0 < λS ≤ 1 alors X1 et X2 ont une dépendance asymptotique, les extrêmes sont
parfaitement dépendants ou corrélés.
Soit X1 , . . . , Xn un vecteur aléatoire de fonction de répartition F = (F1 , . . . , Fn ). En
dimension multiple, le coefficient de dépendance de queue multivariée se généralise comme
suit.

Définition 1.8 (Coefficient de dépendance de queue multivariée)


On appelle coefficient de dépendance de queue supérieure d’un ensemble de k variables
conditionnellement à l’ensemble de n − k variables, le réel
 
λU,k = lim− P X1 > F1−1 (u) , . . . , Xk > Fk−1 (u) |Xk+1 > Fk+1
−1
(u) , . . . , Xn > Fn−1 (u)
u→1
(1.5)
De façon analogue, on définit le coefficient de dépendance de queue inférieure
 
λL,k = lim+ P X1 ≤ F1−1 (u) , . . . , Xk ≤ Fk−1 (u) |Xk+1 ≤ Fk+1
−1
(u) , . . . , Xn ≤ Fn−1 (u)
u→0
(1.6)

9
1.2 La copule comme outils de dépendance stochastique

1.2 La copule comme outils de dépendance stochas-


tique
L’introduction des copules dans la modélisation de la dépendance stochastique multi-
variée a été motivée essentiellement par certaines insuffisances de l’outil traditionnel de
mesure de dépendance : le coefficient linéaire de Bravais-Pearson. En effet, il faut noter
que cet outil de dépendance comporte quelques limites dans la pratique :
- les moments d’ordre 2 doivent être finis pour que ce coefficient soit défini.
- il n’intègre que la dépendance linéaire (rare en finance et environnement).
- une corrélation nulle n’implique pas nécessairement l’indépendance.
- le cadre de travail est gaussien (restriction sur la structure de dépendance).
Par ailleurs, la méthode classique d’analyse stochastique multivariée admet générale-
ment des lois marginales identiques.
• Les copules permettent de résoudre un autre problème : l’élaboration des modèles non
gaussiens et non nécessairement identiques (par exemple une distribution avec une
marginale gaussienne et une marginale uniforme ou une inverse gaussienne et une
Beta).
• Les copules représentent une manière de tester pour extraire la structure de la dépen-
dance à partir de la fonction de distribution jointe et de séparer la dépendance et
le comportement des marginales.
• La copule permet une décomposition de la loi multivariée en ses distributions margi-
nales univariées et en une fonction de dépendance, rendant possibles des extensions
naturelles de certains résultats obtenus dans le cas univarié.

1.2.1 Préliminaires
1.2.1.1 Inverse généralisé d’une fonction de répartition
Soit X une v.a de fonction de répartition F . On prolonge F à R̄ = R∪ {−∞, +∞}
par F (−∞) = 0 et F (+∞) = 1. Par suite ; pour une v.a continue, F R̄ = [0, 1] = I ,
l’intervalle unitaire.
• Si F est continue et strictement croissante sur R alors elle admet un inverse F −1
défini sur [0, 1] à valeurs dans R̄.
• Dans les autres cas, on définit un pseudo-inverse ou inverse généralisé F (−1) de F de
la façon suivante
(
(−1) x ∈ R̄ /F (x) = t, si t ∈ ImF
F (t) =
inf {x/F (x) ≥ t} = sup {x/F (x) ≤ t} , si t ∈
/ ImF,
Remarque 1.1 Si la fonction F est strictement croissante alors la notion de pseudo-
inverse coincide avec la notion d’inverse c-à-d F (−1) ≡ F −1 .
La fonction pseudo-inverse possède les propriétés suivantes
n o
(i) {F (x) ≤ t} ⇐⇒ x ≤ F (−1) (t) (en effet, si F est% alors F −1 %)
   
(ii) Si t ∈ F R̄ alors F F (−1) (t) = t et F (−1) (F (x)) = x, x ∈ R̄.

10
1.2 La copule comme outils de dépendance stochastique

1.2.1.2 Rappel sur la loi de probabilité multivariée


Une distribution ou fonction de répartition n-dimensionnelle est une fonction F :
n
R → I = [0, 1] telle qu’il existe un espace de probabilité et un vecteur aléatoire X =
(X1 , . . . , Xn ) tels que, pour toute réalisation x = (x1 , ..., xn ) ∈ Rn de X, on a
F (x) = F (x1 , ..., xn ) = P (X ≤ x) = P (X1 ≤ x1 ; ...; Xn ≤ xn ) . (1.7)
Théorème 1.1 (distribution multivariée)
Une fonction F : Rn → I est une distribution
 n-dimensionnelle si et seulement si
 lim F (x1 , ..., xi−1 , t, xi+1 , ..., xn ) = 0
(i) Pour tout xi , i = 1, ..., n, on a :  t→−∞
lim ... lim F (t1 , ..., tn ) = 1
t1 →+∞ tn →+∞
(ii) Pour tout (x1 , ..., xn ) ∈ Rn et (y1 , ..., yn ) ∈ Rn , on a
∆(1) (m)
x1 ,y1 ...∆xn ,yn F (y1 , ..., yn ) ≥ 0
n
où l’opérateur ∆(i)
xi ,yi est défini pour tout t∈ R par :

∆(i)
xi ,yi F (t) = F (t1 , ..., ti−1 , yi , ti+1 , ..., tn ) − F (t1 , ..., ti−1 , xi , ti+1, ..., tn ) .

Remarque 1.2 · La propriété (ii) signifie en particulier que F est croissante par rapport
à chaque variable. Dans le cas bidimensionnel équivaut à l’inégalité du rectangle que doit
vérifier toute fonction de répartition F c-à-d sur tout rectangle :
[x1 ≤ x2 ] × [x01 ≤ x02 ] avec (x1 , x2 ) ∈ R2 , (x01 , x02 ) ∈ R2 .
on a :
F (x01 , x02 ) − F (x01 , x2 ) − F (x1 , x02 ) + F (x1 , x2 ) ≥ 0
• Lorsque les variables X1 , ..., Xn sont mutuellement indépendantes, alors on a
n n
F (x) = Π P (Xi ≤ xi ) = Π Fi (xi ) ,
i=1 i=1

où Fi est la distribution marginale univariée de la composante Xi , i = 1, ..., n.


• Si en particulier X est un vecteur continu, alors pour tout x = (x1 , ...xn ) ∈ Rn , on
a Z x Z xn Z x1
F (x) = f (x) dx = ... f (t1 , ..., tn ) dt1 ...dtn ,
−∞ −∞ −∞
où la fonction positive f est la densité de probabilité conjointe de X, définie par
∂ n F (x1 , ..., xn )
f (x) = , x = (x1 , ..., xn ) ∈ Rn .
∂x1 .....∂xn
• Les fonctions densités marginales univariées fi de f sont données par
Z +∞ Z +∞
fi (xi ) = ... f (u1 , ..., ui−1 , xi , ui+1 , ..., un ) dun ...dui+1 dui−1 ...du1.
−∞ −∞

De façon similaire, on a par exemple


Z +∞ Z +∞
f1,2 (x1 , x2 ) = ... f (x1 , x2 , u3 , ..., un ) dun ...du4 du3
−∞ −∞

11
1.2 La copule comme outils de dépendance stochastique

1.2.2 Présentation des copules multidimensionnelles


Les résultats précédents se généralisent au cas multidimensionnel de façon assez di-
recte ; on va présenter la copule multidimensionnelle ainsi que quelques propriétés fonda-
mentales correspondantes.

1.2.2.1 Loi uniforme multivariée


On considère un vecteur aléatoire continu X = (X1 , ..., Xn ) de loi F = (F1 , ..., Fn )

C : [0, 1]n −→ [0, 1]


(u1 , ..., un ) −→ F [F1−1 (u1 ), ..., Fn−1 (un )].

Le résultat suivant résume les propriétés de C.

Propriétés 1.2
La fonction C est une copule de dimension n, bien définie de [0, 1]n dans [0, 1] et vérifie
les propriétés suivantes :
(Pi ) C(u1 , . . . , ui−1 , 0, ui+1 , . . . , un ) = 0 pour tout vecteur aléatoire u ∈ [0, 1]n .
(Pii )
C(1, . . . , 1, ui , . . . , 1) = ui ∀ ui ∈ [0, 1], i = 1, . . . , n
(Piii ) C est n-croissante c’est-à-dire ∀ u ∈ [0, 1]n tels que ui ≤ vi pour i = 1, . . . , n on a :
2 2
(−1)i1 +i2 +...+in × C(xi1 , . . . , xin ) ≥ 0
X X
...
i1 =1 id =1

où x1j = uj , x2j = vj ∀j ∈ {1, . . . , n}.

1.2.2.2 Définition de la copule


Définition 1.9
On appelle copule multivariée toute fonction C définie de I n = [0, 1]n dans I vérifiant les
propriétés (Pi ), (Pii ) et (Piii ) ci-dessus.

En particulier, en dimension deux, on obtient la définition suivante

Définition 1.10 (Copule bivariée)


On appelle copule bivariée toute fonction C définie de I 2 = [0, 1]2 dans I vérifiant les
propriétés suivantes :
· (i) Pour tout u ∈ I, on a : C(u, 0) = C(0, u) = 0
· (ii) Pour tout u ∈ I,on a : C(u, 1) = C(1, u) = u
· (iii) C est 2-croissante i.e. C(u0 , v 0 ) − C(u0 , v) − C(u, v 0 ) + C(u, v) ≥ 0 ; ∀u, u0 , v, v 0 ∈
I,avec u ≤ u0 et v ≤ v 0

Proposition 1.1
∀u, v ∈ I la fonction (u, v) = uv définit une copule.
Q

12
1.2 La copule comme outils de dépendance stochastique

En effet,
1. ∀ u, v ∈ I on a
Q Q
(u, 0) = (0, v) = 0
2. ∀ u, v ∈ I
Q Q
(u, 1) = u et (1, v) = v
3. ∀ u1 , u2 , v1 , v2 ∈ I avec u1 ≤ v1 ; u2 ≤ v2 on a :

v1 (v2 − u2 ) ≥ u1 (v2 − u2 ) ⇒ v1 v2 − v1 u2 ≥ u1 v2 − u1 u2
Y Y Y Y
⇒ (v1 , v2 ) − (v1 , u2 ) ≥ (u1 , v2 ) − (u1 , u2 )
Y Y Y Y
⇒ (v1 , v2 ) − (v1 , u2 ) − (u1 , v2 ) + (u1 , u2 ) ≥ 0
Q
Par suite est une copule.

1.2.3 La copule dans la dépendance stochastique


L’outil fondamental de l’analyse des copules est le théorème de Sklar, voir [21]) ou [17].
Il établit le lien entre la définition formelle ci-dessus des copules et les variables aléatoires,
permettant ainsi leur application dans la modélisation statistique et stochastique.

Théorème 1.2 [Théorème de Sklar]


Soit F une fonction de répartition de fonctions marginales F1 , F2 , . . . , Fd . Il existe une
copule C telle que

F (x) = C(F1 (x1 ), . . . , Fd (xd )) ∀ x = (x1 , . . . , xd ) ∈ Rd (1.8)


Si les fonctions F1 , . . . , Fd sont continues alors C est déterminée de manière unique sur
(ImF1 ) × . . . × (ImFd ).

Inversement, si C est une copule et F1 , . . . , Fd des fonctions de distribution univariées


alors la fonction F définie par le théorème 1.2 est la fonction de distribution conjointe
dont les fonctions marginales sont F1 , . . . , Fd . Avant de prouver le théorème donnons sa
réciproque.

Théorème 1.3 (Réciproque du théorème de Sklar)


Soient C, F et F1 , . . . , Fd les fonctions définies dans le théorème 1.2 et F1 , . . . , Fd sont
(−1) (−1)
continues. Si F1 , . . . , Fd sont les inverses généralisés de F1 , . . . , Fd respectivement,
alors :
(−1) (−1)
C(u1 , . . . , ud ) = F (F1 (u1 ), . . . , Fd (ud ))

Preuve.
• Dans le cas où les variables aléatoires sont continues, on rappelle qu’alors Fi (R) =
[0, 1], ∀ i = 1, . . . , d. La propriété 1.2 montre alors l’existence d’une fonction copule.
L’unicité résulte du fait que si pour deux copules C et C 0 nous avons

∀ x1 , x2 , . . . , xd ∈ R C(F1 (x1 ), . . . , Fd (xd )) = C 0 (F1 (x1 ), . . . , Fd (xd ))

13
1.2 La copule comme outils de dépendance stochastique

ainsi,
∀ ui ∈ [0, 1] ∃xi ∈ R Fi (xi ) = ui
donc
∀ u1 , u2 , . . . , ud ∈ [0, 1] C(u1 , . . . , ud ) = C 0 (u1 , . . . , ud )
• Dans le cas où les variables aléatoires peuvent être discontinues c-à-d Fi (R) peut
être strictement inclus dans [0, 1]. La propriété 1.2 montre Y
l’existence et l’unicité d’une
fonction C qui vérifie les axiomes des fonctions copules sur Fi (R).
i
Nous allons donc prolonger cette fonction
Y à tout [0, 1]d . En général, il n’y a pas d’unicité.
Comme C est lipschitzienne sur Fi (R), C se prolonge naturellement en une fonction
i
Y
lipschitzienne sur Fi (R). Le complémentaire dans [0, 1] de chaque Fi (R) est un ouvert
i
qui s’écrit donc comme réunion dénombrable d’intervalles ouverts deux à deux disjoints.
d
Y (k) (k)
Nous venons donc de prolonger C sur chacun de ces pavés ]ai , bi [ pour k = 1, 2, . . .,
i=1
d
Y
il suffit de la faire sur le premier pavé ]ai , bi [. On montre que le prolongement par
i=1
interpolation linéaire convient c-à-d :
d
Y
pour x ∈ ]ai , bi [ xi = λi ai + (1 − λi )bi pour λi ∈]0, 1[
i=1

0n a :

C(x1 , . . . , xd ) = λ1 . . . λd C(a1 , . . . , ad ) + (1 − λ1 )λ2 . . . λd C(b1 , a2 , . . . , ad )


+ . . . + (1 − λ1 )(1 − λ2 ) . . . (1 − λd )C(b1 , . . . , bd )

Il reste à montrer que (ii) et (iii) de la propriété 1.2 sont vraies pour C.
Y (1) (2)
• Il suffit de montrer que la fonction d’ensemble µ définies sur les pavés ]xi , xi ]
i
par :
d
X
d
! ij
Y (1) (2) X (i ) (i )
µ ]xi , xi ] = (−1)j=1 C(F1 (x1 1 ), . . . , Fd (xd d ))
i=1 (i1 ,...,id )∈{1,2}d

peut bien s’étendre sur une tribu borélienne de Rd en une mesure de probabilité et que
les marginales ont les fonctions de répartitions Fi

1.2.4 Propriétés élémentaires des fonctions copules


Le résultat suivant résume les propriétés fondamentales des copules.

14
1.2 La copule comme outils de dépendance stochastique

1.2.4.1 Continuité des copules


Le résulat suivant montre, via la condition de Lipstchiz, que toute copule est absolu-
ment continue.
Théorème 1.4
Soit C une copule bivariée ; pour tout u1 , u2 , v1 , v2 ∈ [0, 1] avec u1 ≤ u2 et v1 ≤ v2 . On a :

|C(u2 , v2 ) − C(u1 , v1 )| ≤ |u2 − u1 | + |v2 − v1 | (1.9)


Preuve. Nous déduisons ce résultat du fait que C est 2−croissante. Soient u1 , u2 , v1 , v2
dans [0,1] tel que u1 ≤ u2 et v1 ≤ v2 .
Soient γ1 le graphe passant par les points (u1 , v1 ) et (u2 , v1 ) et γ2 le graphe passant
par les points (u2 , v1 ) et (u2 , v2 ). Il existe plusieurs copules Cγ1 et Cγ2 telles que :
C(u1 , v1 ) = Cγ1 (u1 , v1 )
C(u2 , v2 ) = Cγ2 (u2 , v2 )
C(u2 , v1 ) = Cγ1 (u2 , v1 ) = Cγ2 (u2 , v1 )
Par la suite on obtient :
|C(u2 , v2 ) − C(u1 , v1 )| ≤ |C(u2 , v2 ) − C(u2 , v1 )| + |C(u2 , v1 ) − C(u1 , v1 )|
= |Cγ2 (u2 , v2 ) − Cγ2 (u2 , v1 )| + |Cγ1 (u2 , v1 ) − Cγ1 (u1 , v1 )|
≤ |u2 − u1 | + |v2 − v1 |
D’où le résultat
Plus généralement, on établit que
d
∀ u, v ∈ [0, 1]d |C(u) − C(v)| ≤
X
|ui − vi |
i=1

1.2.4.2 Différentiabilité, densité de copule


Théorème 1.5
Soit C une copule bivariée ∀ u1 , u2 ∈ [0, 1]
∂C(u1 , u2 )
1. Les dérivées partielles existent p.s et
∂uj
∂C(u1 , u2 )
0≤ ≤1 j = 1, 2
∂uj
∂C(u, v) ∂C(u, v)
2. Les fonctions u 7−→ et v 7−→ sont bien définies et décroissantes
∂v ∂u
sur [0, 1] p.s.
3. Indéfiniment différentiable Si X = (X1 , X2 , . . . , Xd ) est distribuée suivant F et si
C est de classe C d alors la densité de X est :

d
∂ dC Y
f (x1 , . . . , xd ) = (F1 (x1 ), . . . , Fd (xd )) fi (xi ) (1.10)
∂u1 . . . ∂ud i=1

15
1.2 La copule comme outils de dépendance stochastique

Application : la densité de la copule normale bivariée


Pour tous réels x et y on a la loi normale bivariée généralisée qui est donnée par :
( 2 !)
Z x Z y
−1 t1 − m1
  2
Hρ (x, y) = 1√
exp - 2ρ(t1 −mσ11σ)(t2 2 −m2 ) + t2 −m2
σ2
dt1 dt2 .
2πσ1 σ2 1−ρ2 −∞ −∞ 2(1 − ρ2 ) σ1

En supposnt que Hρ est la loi conjointe de v.a. normales X1 N (m1 , σ1 ) et X2


N (m2 , σ2 ) alors on établit que la copule associée ∀u, v ∈ I
Z Φ−1 (u) Z Φ−1 (v)   2 
1 2
y−m2 2
 
Cρ (u, v) = 1√
exp −1
2(1−ρ2 )
x−m1
σ1
- 2ρ(x−m1 )(y−m2 )
σ1 σ2
+ σ2
dxdy
2πσ1 σ2 1−ρ2 −∞ −∞

où Φ−1
i ; i = 1, 2 est la fonction quantile de la loi N (mi , σi ).
En particulier si X1 ≡ X2 N (0, 1) loi normale standard de corrélation ρ on obtient la
copule de Gauss de corrélation ρ.
Z Φ−1 (u) Z Φ−1 (v) ( )
1 x2 − 2ρxy + y 2
Cρ (u, v) = √ exp − dxdy
2π 1 − ρ2 −∞ −∞ 2(1 − ρ2 )
Comme sa distribution, la copule de Gauss est souvent caractérisée par sa densité cρ .
Soit hρ la densité associée à la distribution Hρ ,de sa représentation canonique on déduit
que : ∀x, y ∈ R; hρ (x, y) = f (x)g(y)cρ (F (x), G(y)); d’où
( ) ( )
n
x2 −2ρxy+y 2
o 1 x2 1 y2
hρ (x, y) = √1 exp − 2(1−ρ2 )
= √ exp − √ exp − cρ (F (x), G(y)).
2π 1−ρ2 2π 2 2π 2
d’où le résultat suivant
La densité de la copule normale bivariée de corrélation ρ est donnée par suite pour
tous réels x, y on a :
2 −2ρxy+y 2 x2 +y 2
n o
cρ (F (x), G(y)) = √ 1 exp − x 2(1−ρ2 )
+ 2
1−ρ2

ou plus généralement, ∀u,(v ∈ I, )


−1 (u) 2 −2ρ Φ−1 (v) Φ−1 (u) + Φ−1 (v) 2 −1 (u) 2 + Φ−1 (v) 2
[ Φ ] [ ][ ] [ ] [ Φ ] [ ]
cρ (u, v)) = √ 1 2 exp − 2(1−ρ2 )
+ 2
1−ρ

1.2.4.3 Les bornes de Fréchet


Théorème 1.6
Soit F une fonction de répartition d’un vecteur aléatoire (X1 , X2 ) de fonctions de répar-
tition marginales F1 et F2 . Pour toute copule bivariée C associée à F et ∀ (u, v) ∈ [0, 1]2
on a :
W (u, v) = max(u + v − 1, 0) ≤ C(u, v) ≤ min(u, v) = M (u, v) (1.11)

En effet on a :
(
C(u, v) ≤ C(u, 1) = u
∀ u, v ∈ [0, 1] ⇒ C(u, v) = min(u, v) = M (1.12)
C(u, v) ≤ C(1, v) = v

16
1.2 La copule comme outils de dépendance stochastique

De (Piii ) la propriété 1.2 et ∀ u, v ∈ [0, 1], on a :

C(u, v) ≥ C(u, 1) + C(1, v) − C(1, 1) ⇒ C(u, v) ≥ u + v − 1 et ∀ u, v ∈ [0, 1] C(u, v) ≥ 0


⇒ C(u, v) ≥ max(u + v − 1, 0) = W (u, v) (1.13)

En combinant (1.12) et (1.13) on obtient :

W (u, v) ≤ C(u, v) ≤ M (u, v)

Toute copule C satisfait : ∀ u = (u1 , . . . , ud ) ∈ [0, 1]d


d
!
X
Wd (u) = max ui + d − 1, 0 ≤ C(u) ≤ min(ui ) = Md (u)
i i
i=1

Les copules W et M sont appelées borne inférieure (respectivement borne supérieure)


de Fréchet-Hoeffding ou copule minimale (respectivement copule maximale).

1.2.4.4 Invariance par transformations monotones


L’un des résultats essentiels dans la théorie des copules est le fait qu’elles restent
invariantes par transformations strictement croissantes des marges. En particulier en di-
mension deux

Proposition 1.2
Soient deux v.a. continues X et Y de copule associée CXY. et α et β des fonctions définies
sur Im(X) et Im(Y ) respectivement.
i) Si α et β sont des fonctions strictement croissantes alors on a : Cα(X)β(Y ) = CXY.
ii) Si α est strictement croissante (%) et β strictement décroissante (&) alors
∀u, v ∈ I;
Cα(X)β(Y ) (u, v) = u − CXY (u, 1 − v).
iii) Si α est strictement & et β strictement % alors

Cα(X)β(Y ) (u, v) = v − CXY (1 − u, v).

iv) Si α et β sont strictement & alors

Cα(X)β(Y ) (u, v) = u + v − 1 + CXY (1 − u, 1 − v) = C(u,


e v) .

1.2.5 Copules, corrélation non linéaire et dépendance de queue


La copule étant une paramétrisation, une normalisation de la distribution conjointe
après avoir éliminé les effets des marges, elle permet donc des estimations des différents
moyens d’étudier cette dépendance à travers les mesures de concordance (corrélation li-
néaire, la concordance, tau de Kendall et rho de spearman, le coefficient de dépendance).

17
1.2 La copule comme outils de dépendance stochastique

1.2.5.1 Concordance et copule


Théorème 1.7
Soient (X1 , Y1 ) et (X2 , Y2 ) deux couples de v.a. de distributions conjointes H1 et H2 avec
des marges communes F et G respectivement. Soient C1 et C2 les copules associées aux
distributions H1 et H2 respectivement. Alors :
Z 1Z 1
Q = Q(C1 , C2 ) = 4 C2 (u, v) dC1 (u, v) − 1. (1.14)
0 0
Le corrollaire suivant résume les propriétés essentielles de la fonction Q.
Corollaire 1.1
Soit C1 , C2 et Q donnés par le théorème 1.7 Alors
i) Q est symétrique c-à-d : Q(C1 ,C2 ) = Q(C2 , C1 )

ii) Q concerve l’ordre c-à-d si C1 < C10 et C2 < C20 alors Q(C1 , C2 ) < Q(C10 ,C20 )

iii) Q est invariante par rapport à la survie c-à-d Q(C1 , C2 ) = Q(Cb1 , Cb20 )

1.2.5.2 Copule et tau de kendall


Si C est la copule associée au couple (X, Y ), la conséquence immédiate du théorème
1.7 est donnée par :
Théorème 1.8 Soit X et Y deux variables aléatoires continues de copule C alors le tau
de Kendall de X et Y est donné par :
Z Z
τXY = τc = Q (c, c) = 4 C (u, v) dC(u, v) − 1.
I2
Z Z
En fait, l’intégrale C (u, v) dC(u, v) est la moyenne de la variable aléatoire C(U, V )
I2
où U et V sont uniformément distribuées sur I ; donc
Z Z
C (u, v) dC(u, v) = E [C (U, V )]
I2
. Ainsi, on peut écrire
Z 1 Z 1
τc = 4E [C (U, V )] = 4 dFc (t) − 1 = 3 − 4 Fc (t) dt
0 0
où Fc est la loi de la v.a C(U, V ).
Des expressions équivalentes peuvent éventuellement être établies suivant la particu-
larité de la famille de la copule C. Par exemple :
Z 1
ϕ (t)
τc = 1 + 4 dt
0 ϕ0 (t)

si C est archimédienne de générateur ϕ (voir Genest et Mackay 1986a,b) alors que


l’expression
Z 1Z 1
∂C(u, v) ∂C(u, v)
τc = 1 − 4 . dudv
0 0 ∂u ∂v
convient mieux lorsque la copule est singulière ou présente à la fois une composante
singulière et une composante absolument continue.

18
1.2 La copule comme outils de dépendance stochastique

1.2.5.3 Copule et rho de Spearman


Théorème 1.9
Soit (X, Y ) un couple de variables continues de copule. la version population du rho de
Spearman pour X et Y est donnée par :
Z Z Z Z
ρXY = ρC = 3Q(C, Π) = 12 uvdC(u, v) − 3 = 12 C(u, v)dudv − 3
I2 I2

1.2.5.4 Copule et mesure de dépendance de queue


En notant λ(α) la mesure de dépendance de queue supérieure, on obtient

λ(α) = P (X2 > F2−1 (α)|X1 > F1−1 (α)) (1.15)

1 − 2α + C(α, α)
Et on établit alors que : λ(α) =
1−α
En effet, c’est la probabilité conditionnelle que X2 soit supérieure au quantile F2−1 (α)
sachant que X1 est supérieure au quantile F1−1 (α). Ces deux quantiles correspondent au
même seuil α. Nous avons

λ(α) = P (X2 > F2−1 (α)|X1 > F1−1 (α))


P (X2 > F2−1 (α), X1 > F1−1 (α))
=
P (X1 > F1−1 (α))
P (F2 (X2 ) > α, F1 (X1 ) > α)
=
P (F1 (X1 ) > α)
1 − P (F1 (X1 ) ≤ α) − P (F2 (X2 ) ≤ α) + P (F1 (X1 ) ≤ α, F2 (X2 ) ≤ α)
=
1 − P (F1 (X1 ) ≤ α)
1 − 2α + C(α, α)
=
1−α
On obtient alors les carctérisations suivantes

Théorème 1.10
Si une copule bivariée C est telle que :
1. La limite
C(u, u) 1 − 2u + C(u, u)
lim− = lim− =λ (1.16)
u−→1 1−u u−→1 1−u
existe, alors C a une dépendance de queue (upper tail dependence) si λ ∈ (0; 1] et
n’a pas de dépendance de queue si λ = 0.
2. La limite
C(u, u)
lim+=λ (1.17)
u−→0 u
existe, alors C a une dépendance de queue (lower tail dependence) si λ ∈ (0; 1] et
n’a pas de dépendance de queue si λ = 0.

19
1.2 La copule comme outils de dépendance stochastique

1.2.6 Quelques familles de copules paramétriques


Il existe un grand nombre de copules adaptées à différentes situations. Ces grandes
familles sont entre autres :

1.2.6.1 Les copules usuelles


Les trois fonctions fondamentales liées aux copules sont :
pour tout (u1 , · · · , ud ) ∈ I d

• M (u1 , · · · , ud ) = min(u1 , · · · , ud ), la borne supérieure de Fréchet.

• (u1 , · · · , ud ) = u1 · · · ud , la copule produit.


Q

• W (u1 , · · · , ud ) = max(u1 + · · · + ud − d + 1, 0), la borne inférieure de Fréchet.

1.2.6.2 La famille copules archimédiennes


La notion de copule archimédienne définie par GENEST et MACKAY (1986) regroupe
un certain nombre de copules (Clayton, Gumbel, Franck). L’idée d’une copule archimé-
dienne de générateur ϕ est que la transformation ω(exp(−ϕ(u))) appliquée aux marginales
rend les composantes indépendantes.
d
Y
ω(C(u1 , . . . , ud )) = ω(ui ) (1.18)
i=1

Définition 1.11 ([17])


Une fonction g(t) est complètement monotone sur un intervalle J si elle est continue sur
J et a ses dérivées de tout ordre qui alternent en signe sur J, de telle sorte que
dk
k
(−1) k g(t) ≥ 0
dt
Pour tout t ∈ J et k = 0, 1, 2, . . .

Définition 1.12 ([17])


La copule archimédienne de générateur complètement monotone ϕ est définie par l’égalité :

C(u1 , . . . , ud ) = ϕ−1 (ϕ(u1 ) + . . . + ϕ(ud )) (1.19)


d
X
dès lors que ϕ(ui ) ≤ 0 et C(u1 , . . . , ud ) = 0 sinon.
i=1

Les copules archimédiennes peuvent être définies via un conditionnement par une
variable de structure Z. A cet effet, on se donne une variable aléatoire positive Z dont la
transformée de Laplace 1 est ψ = ϕ−1 .
1. La transformée de Laplace LΘ d’une variable aléatoire Θ à valeurs dans [O, +∞[ avec une fonction
R +∞
de distribution FΘ est définie par LΘ = E(e−sΘ ) = 0 e−st dFΘ (s)

20
1.2 La copule comme outils de dépendance stochastique

Conditionnellement, à Z les variables Xi sont indépendantes, c-à-d

P (Xi ≤ x|Z) = ω(FXi (x))Z . (1.20)

Alors la copule du vecteur (X1 , . . . , Xd ) est

C(u1 , . . . , ud ) = ϕ−1 (ϕ(u1 ) + . . . + ϕ(ud )). (1.21)

L’idée importante ici est que, via un conditionnement, on retrouve la situation d’indépen-
dance.

Le tableau suivant regroupe les caractéristiques des familles archimédiennes les plus
connues. On rappelle que le paramètre θ mesure le degré de dépendance entre les risques.
Plus il est élevé plus la dépendance est forte et une valeur positive de θ indique une
dépendance positive.

Famille Générateur Copule


 h i1/θ 
Gumbel (− ln u)θ , θ ≥ 1 exp − (− ln u)θ + (− ln v)θ
e−θu − 1 (e−θu − 1)(e−θv − 1)
! " #
1
Franck − ln , θ 6= 0 − ln 1 +
eθ − 1 a e−θ − 1
u−θ − 1
Clayton , θ>1 (u−θ + u−θ − 1)−1/θ
θ
Table 1.1 – Quelques copules archimédiennes.

• La copule de Gumbel n’appréhende que des dépendances positives et possède la carac-


téristique de pouvoir représenter des risques dont la structure de dépendance est
plus accentuée sur la queue supérieure. Elle est à ce titre particulièrement adaptée
pour étudier les risques climatiques.

• La copule de Franck permet de modéliser les dépendances aussi bien positives que né-
gatives. On note qu’il n’existe pas de dépendance de queue pour cette copule.

• Comme la copule de Gumbel, la copule de Clayton ne permet de modéliser que les


dépendances positives. A l’inverse de la copule de Gumbel, elle vise à rendre compte
d’une dépendance sur les événements de faible intensité.

21
1.2 La copule comme outils de dépendance stochastique

Figure 1.1 – Densité et contour de la copule de Gumbel (respectivement à gauche et à


droite) avec θ = 6.

Figure 1.2 – Distribution et contour de la copule de Gumbel (respectivement à gauche


et à droite) avec θ = 6.

Figure 1.3 – Densité et contour de la copule de Franck (respectivement à gauche et à


droite) avec θ = 6.

22
1.2 La copule comme outils de dépendance stochastique

Figure 1.4 – Distribution et contour de la copule de Franck (respectivement à gauche et


à droite) avec θ = 6.

Figure 1.5 – Densité et contour de la copule de Clayton (respectivement à gauche et à


droite) avec θ = 6.

Figure 1.6 – Distribution et contour de la copule de Clayton (respectivement à gauche


et à droite) avec θ = 6.

23
1.2 La copule comme outils de dépendance stochastique

1.2.6.3 Cas particulier : la famille archimax


La famille des copules Archimax est une nouvelle famille de copules introduite par
Capéra, Fougères et Genest. Cette nouvelle famille offre plus de flexibilité pour la modé-
lisation du fait que l’on peut connaître à priori les différents domaines d’attraction.

Définition 1.13
Une fonction bivariée est une copule Archimax si et seulement si elle est de la forme :
" !#
−1 φ(u)
Cφ,A (u, v) = φ (φ(u) + φ(v))A (1.22)
φ(u) + φ(v)

pour tout u, v ∈ [0, 1] , où


h i
• A : [0, 1] −→ 12 , 1 telle que : max(t, 1 − t) ≤ A(t) ≤ 1 pour tout 0 ≤ t ≤ 1;
• φ :]0, 1[−→ [0, +∞[ est une fonction convexe, décroissante qui vérifie φ(1) = 0. On
adoptera la notation φ(0) = lim φ(t) et φ−1 (s) = 0 pour s ≥ φ(0).
t−→−∞
Cas particuliers
• Pour φ(t) = − ln t on obtient
" !#
ln u
Cφ,A (u, v) = CA (u, v) = exp −(ln u + ln v)A (1.23)
ln u + ln v

avec u, v ∈ [0, 1] . C’est la forme générale des copules des valeurs extrêmes.
• En choisissant A ≡ 1 on retrouve la forme générale des copules archimédiennes
c’est-à-dire :

Cφ,A (u, v) = Cφ (u, v) = φ−1 (φ(u) + φ(v)) (1.24)

1.2.6.4 La famille des copules elliptiques


a) Caractérisation
Les copules elliptiques sont les copules associées aux distributions elliptiques multi-
variées. Dans ce qui suit, nous donnons quelques définitions de la distribution elliptique
ainsi que les deux exemples les plus connus de cette famille, la copule Gaussienne et la
copule de Student.

Définition 1.14 ([17])


Un vecteur aléatoire X = (X1 ; . . . ; Xd ) est de distribution elliptique s’il admet la repré-
sentation suivante :
X = µ + RAU (1.25)

– µ = (µ1 , . . . , µd ) ∈ Rd .
– R est un vecteur aléatoire indépendant de U .
– U est un vecteur aléatoire uniforme dans la sphère unité dans Rd .

24
1.2 La copule comme outils de dépendance stochastique

– A une matrice de dimension d × d tel que = AAT est non singulière.


P

Définition 1.15 ([17])


La fonction de densité d’une distribution elliptique, si elle existe, est donnée par
f (x) = |Σ|−1/2 g((x − µ)T Σ−1 (x − µ)) x ∈ Rd (1.26)
où g est une fonction définie de R+ −→ R dite générateur de densité, uniquement déter-
minée par la fonction de distribution de R.
Toutes les fonctions marginales d’une distribution elliptique sont identiques, et ont une
distribution elliptique. L’unique copule associée à une distribution elliptique s’appelle la
copule Elliptique, qui peut être obtenue au moyen de la méthode d’inversion. Si H est
une distribution elliptique de d variables aléatoires, avec la même distribution marginale
F alors, la d-copule elliptique correspondante est donnée par :
C(u1 , . . . , ud ) = H(F −1 (u1 ), . . . , F −1 (ud )) (1.27)

b) La copule gaussienne
La copule associée à la distribution normale est dite la copule Gaussienne ou la copule
normale.
Définition 1.16 ([17])
Soit X = (X1 , . . . , Xd ) un vecteur aléatoire gaussien (X ∼ N (0; Σ)), avec Σ une matrice
de covariance. Notons par ΦΣ et Φ les fonctions de distributions de X et Xi , i = 1, . . . , d
respectivement. Le vecteur aléatoire Gaussien possède une copule donnée par
CΣ (u) = ΦΣ (Φ−1 (u1 ), . . . , Φ−1 (ud )) ∀ u = (u1 , . . . , ud ) (1.28)
appelée copule Gaussienne.

c) Autre définition plus explicite de la copule gaussienne


Définition 1.17 ([17])
Une copule Gaussienne de dimension d et de matrice de covariance Σ est définie comme
suit :
Z Φ−1 (u1 ) Z Φ−1 (ud )
1 1
 
T −1
CΣ (u1 , . . . , ud ) = ... exp − (W Σ W ) dw1 . . . dwd
−∞ −∞ |Σ|1/2 (2π)d/2 2
(1.29)
Où  
σ1,1 ... σ1,d
 .. 

 . 

 . . .
Σ =  .. . . σj,i .. 


 (1.30)

. 
σi,j . .
 
 
σn,1 ... σd,d
avec σi,i = V (Xi ) et σi,j = cov(Xi , Xj ) si i 6= j. |Σ| représente le déterminant de Σ et
W = (w1 , . . . , wd ).

25
1.2 La copule comme outils de dépendance stochastique

Le théorème suivant nous donne la densité d’une copule Gaussienne :


Théorème 1.11 ([14])
La densité d’une copule Gaussienne multivariée est donnée par :
1 1
 
cΣ (u1 , . . . , ud ) = exp − (W T Σ−1 − IW ) (1.31)
|Σ|(2π)d/2 2

avec W = (w1 , . . . , wd ) = (Φ−1 (u1 ), . . . , Φ−1 (ud ))


Preuve. En utilisant la relation (1.10) et les fonctions de distributions gaussienne univa-
riée et multivariée, on obtient :
d
!
1 1 T −1 1 2
  Y  
exp − x Σ x = c(Φ(x1 ), . . . , Φ(xd )) exp − xi
|Σ|1/2 (2π)d/2 2 i=1 2

Où x = (x1 , . . . , xd ). En posant ui = Φ(xi ), i = 1, . . . , d on trouve :


1 1
 
d/2
exp − W T Σ−1 W
|Σ| (2π)
1/2 2
cΣ (u1 , . . . , ud ) = 1

1 T

exp − W W
(2π)d/2 2
1 1
 
T −1
= exp − (W Σ − IW )
|Σ|(2π)d/2 2

avec W = (w1 , . . . , wd ) = (Φ−1 (u1 ), . . . , Φ−1 (ud ))

Définition 1.18 ([25])


On appelle copule Gaussienne de paramètre ρ ∈] − 1; 1[ la copule définie comme suit :

C(u1 , u2 ; ρ) = Φρ (φ−1 (u1 ), φ−1 (u2 )) (1.32)

Cov(X, Y )
avec ρ = le coefficient de corrélation de Pearson.
σX σY
Proposition 1.3 ([17])
Dans le cas bivariée, la copule Cρ associée à une loi Gaussienne, de coefficient de corré-
lation ρ ∈ [0; 1], est donnée par :
Z Φ−1 (u1 ) Z Φ−1 (u2 ) " #
1 (s2 + t2 − 2ρst)
Cρ (u1 , u2 ) = q exp − dsdt. (1.33)
−∞ −∞ 2π (1 − ρ2 ) 2(1 − ρ2 )

Cas particuliers
1. Le cas où ρ = 0 correspond au cas d’indépendance et la copule C0 = uv.
2. Si ρ = −1 alors C−1 = W .
3. Si ρ = 1 alors C1 = M .

26
1.2 La copule comme outils de dépendance stochastique

Figure 1.7 – Distribution et contour de la copule Gaussienne (respectivement à gauche


et à droite) avec ρ = 0, 5.

Figure 1.8 – Densité et contour de la copule Gaussienne (respectivement à gauche et à


droite) avec ρ = 0, 5.

d) La copule de student ou t-copule


La copule t (ou copule de Student) est la fonction de dépendance associée à la distri-
bution t multidimensionnelle.

Définition 1.19 ([17])


Soit tν la fonction de distribution de loi de Student univariée à ν degré de liberté (d.d.l).
Notons tΣ,ν la fonction de distribution de Student multivariée de matrice de corrélation Σ
et à ν degré de liberté. La copule de Student multivariée associée à tΣ,ν est définie de la
façon suivante :
Cν,ρ (u1 , . . . , ud ) = tΣ,ν (t−1 −1
ν (u1 ), . . . , tν (ud )). (1.34)

27
1.2 La copule comme outils de dépendance stochastique

Où t−1ν dénote l’inverse de la fonction de distribution de Student univariée à ν degrés de


liberté.

D’une manière équivalente, la définition suivante est souvent employée :

Définition 1.20 ([17])


La copule de Student multivariée de dimension d, de matrice de corrélation linéaire Σ et
à ν degrés de liberté est donnée par :
Z t−1 Z tν−1 (ud )
ν (u1 ) Γ((ν + d)/2)(1 + W T Σ−1 W/ν)−(ν+d)/2
Cν,ρ (u1 , . . . , ud ) = ... dw1 . . . dwd
−∞ −∞ |Σ|1/2 Γ(ν/2)(νπ)d/2
(1.35)
où Γ est la fonction gamma.

Figure 1.9 – Distribution et contour de la copule de student (respectivement à gauche


et à droite) avec ν = 1.

On utilise les mêmes étapes que la copule Gaussienne pour trouver la densité de la copule
de Student :

Théorème 1.12 ([14])


La densité de la copule de Student multivariée est donnée par :

Γ((ν + d)/2)[Γ(d/2)]d−1 (1 + W T Σ−1 W/ν)−(ν+d)/2


cΣ,ν (u1 , . . . , ud ) = (1.36)
|Σ|1/2 [Γ(ν + 1)/2]d di=1 (1 + wi2 /ν)(ν+1)/2
Q

avec (w1 , . . . , wd ) = (t−1 −1


ν (u1 ), . . . , tν (ud )) et ν > 0.

28
1.2 La copule comme outils de dépendance stochastique

Figure 1.10 – Densité et contour de la copule de student (respectivement à gauche et à


droite) avec ν = 1.

Remarque 1.3 La distribution de Student multivariée est formée par la combinaison de


la copule de Student avec des lois marginales de Student.

1.2.6.5 La copule empirique


Soit (X, Y ) un couple de variables aléatoires continues. Considérons un échantillon de
taille n de ce couple. Les copules des valeurs extrêmes font l’objet d’une sous section, vu
l’importance de cette famille dans notre travail (voir Deheuvels (1987) ou Joe H. (1997)).
Posons : En = {(xk , yk ), k = 1, ..., n} La copule empirique associée à cet échantillon est la
fonction Cn donnée par :
i j p q
XX  
Cn ( , ) = fn ,
n n n n
où est la fonction fréquence définie par :
(
i j 1
n
si (xi , yj ) ∈ En
fn ( , ) =
n n 0 sinon

1.2.7 La famille de copules des valeurs extrêmes


Une autre classe particulière des copules est celle des valeurs extrêmes. Dans le cas
bidimensionnel, Geoffroy (1958), Tiago de Olivera (1958) et Sibuya (1960) ont donné
la forme générale des copules des valeurs extrêmes. La famille des copules des valeurs
extrêmes peut être interprétée comme limites des copules C ∗ quand n tend vers l’infini.

1.2.7.1 Définition et caractérisation


Définition 1.21 ([17]) Une copule C∗ est dite de valeurs extrêmes s’il existe une copule
CF qui vérifie :
1/n 1/n
lim CF (u1 , . . . , ud )n −→ C∗ (u1 , . . . , ud ) (1.37)
n−→+∞

29
1.2 La copule comme outils de dépendance stochastique

∀ (u1 , . . . , ud ) ∈ [0, 1]d . La copule CF ∈ M DA(C∗ ).


Théorème 1.13
Une copule d-variée est dite max-stable si elle satisfait la relation suivante
1/m 1/m m
C(u1 , . . . , ud ) = CF (u1 , . . . , ud ) (1.38)
m ∈ N+ et ∀ (u1 , . . . , ud ) ∈ [0, 1]d .
Théorème 1.14
Une copule C∗ est dite de valeurs extrêmes si et seulement si elle est max-stable.
Preuve. Tout copule max stable est une copule des valeurs extrêmes. Inversement, si C
est une copule des valeurs extrêmes et pour un entier fixé m ≥ 1 et pour n = mk, on a
1/n 1/n
C∗ (u1 , . . . , ud ) = CF (u1 , . . . , ud )n
1/mk 1/mk mk
= CF (u1 , . . . , ud )
1/m 1/m
= CF ((u1 )1/k , . . . , (ud )1/k )mk
et en passant à la limite on obtient :
1/m 1/k 1/m 1/k mk 1/k 1/k
lim CF ((u1 ) , . . . , (ud ) ) = C∗k (u1 , . . . , ud )
m−→+∞
= C∗ (u1 , . . . , ud )

La famille des copules des valeurs extrêmes peut être interprétée comme limites des
copules C∗ quand n tend vers l’infini.

1.2.7.2 Fonction de dépendance


Une manière alternative pour décrire la structure de dépendance pour des lois limites
multivariées se fait par l’intermédiaire de la fonction de dépendance de Pickands. Donc, on
peut représenter la copule de valeurs extrêmes en utilisant cette fonction de dépendance.
Soit (Xi1 , . . . , Xid ), i = 1, . . . , n l’échantillon défini précédemment . Notons
4d−1 = {(w1 , . . . , wd ) ∈ [0, ∞)d :
X
wj = 1}
j

Théorème 1.15 ([16])


Une copule C de dimension d est dite de valeurs extrêmes si et seulement si il existe une
mesure finie de Borel H sur 4d−1 dite mesure spectrale, telle que
C(u1 , . . . , ud ) = exp(−l(− log u1 , . . . , − log ud )), (u1 , . . . , ud ) ∈ (0, 1]d (1.39)
où l : [0, ∞) −→ [0, ∞) est la fonction de dépendance de queue telle que
Z
l(x1 , . . . , xd ) = max (wj xj )dH(w1 , . . . , wd ) (x1 , . . . , xd ) ∈ (0, 1]d (1.40)
4d−1 1≤j≤d

La mesure spectrale H satisfait


Z
H(4d−1 ) = d et wj dH(w1 , . . . , wd ) = 1 j = 1, . . . , d (1.41)
4d−1

30
1.3 Éléments de la statistique des extrêmes

Dans le cas bivarié, nous identifions le simplexe unitaire 41 = {(1 − t, t), t ∈ [0, 1]}.

Théorème 1.16 ([5], représentation de la fonction de dépendance)


Soit C une copule de valeurs extrêmes, alors
!!
ln v
C(u, v) = exp ln(uv)A
ln(uv)
pour un choix approprié de la fonction A. En particulier, les contraintes suivantes doivent
être vérifiées
1. max{t, 1 − t} ≤ A ≤ 1 ;
2. A est convexe.

Dans le cas multivariée, la copule de valeurs extrêmes C s’écrit donc en fonction de A.


C(u1 , . . . , ud ) = exp(−l(− log u1 , . . . , − log ud ))
  !
d
 X log u1 log ud 
= exp  log uj  A Pd , . . . , Pd
j=1 log uj j=1 log uj

j=1

avec 0 ≤ uj ≤ 1.

1.3 Éléments de la statistique des extrêmes


1.3.1 Préliminaires
1.3.1.1 Lois de probabilité multivariées
Soit F une distribution ou fonction de répartition d-dimensionnelle d’un vecteur aléa-
toire X = (X1 , . . . , Xd ) à valeurs dans Rd . La loi de X peut être caractérisé par :
– sa fonction de répartition,
P (X ≤ x) = P (X1 ≤ x1 , . . . , Xd ≤ xd ) = F (x); ∀ x = (x1 , . . . , xd ) ∈ Rd
– Les lois marginales ou marginales de X : ce sont les lois des Xi prises séparément
qui sont décrites par
Fi (xi ) = P (Xi ≤ xi )
= lim F (x)
xj −→+∞,j6=i

= lim ... lim lim ... lim F (x1 , . . . , xj−1 , xi , xj+1 , . . . , xd )


x1 −→+∞ xj−1 −→+∞ xj+1 −→+∞ xd −→+∞

– sa densité (si elle existe),


∂ d F (x1 , . . . , xd )
f (x) = ; ∀ x = (x1 , . . . , xd ) ∈ Rd
∂x1 . . . ∂xd
– Pour un vecteur à valeurs discrètes F (x) = P (X1 = x1 , . . . , Xd = xd ).
– sa fonction génératrice ψ(t) = E(eitX ) ; dès lors que l’espérance existe.

31
1.3 Éléments de la statistique des extrêmes

1.3.1.2 Fonction de survie d’une loi multivariée


Comme dans le cas univarié, l’utilisation de la fonction de survie d’une distribution
est fréquente dans l’analyse des extrêmes multivariés. Si F est la distribution associée
à un vecteur aléatoire X, alors la fonction de survie de F est donnée, en tout point
x = (x1 , . . . , xd ) ∈ Rd par
F (x) = P (X > x) = P (X1 > x1 , . . . , Xd > xd )
Remarque 1.4 Il faut noter que dans l’analyse multivariée, le sens de fonction de survie
requiert une attention particulière. En effet, on a
F (x) = P (X > x) 6= 1 − F (x) (x1 , . . . , xd ) ∈ Rd
Pour tout (x1 , . . . , xd ) ∈ Rd , on a
(−1)|K| FK (xK , K ∈ O)
X
F (x) = P (X1 > x1 , . . . , Xd > xd ) = 1 + (1.42)
K∈O

où O est l’ensemble des sous-ensembles non vides de {1, 2, . . . , d} et {FK , K ∈ O} dési-


gnant l’ensemble des distributions marginales de F .

1.3.1.3 Points terminaux d’une distribution multivariée


Pour une distribution multivariée F , on définit les points terminaux inférieur xF et
supérieur xF respectivement par
xF = (x1,F , . . . , xd,F ) tel que xi,F = inf{Fi > 0} ≥ −∞
et
xF = (xF1 , . . . , xFd ) tel que xFi = sup{Fi < 1} ≤ +∞

1.3.1.4 Le théorème central limite


Le théorème de la limite centrale est un ensemble de résultats sur la convergence faible
d’une suite de variables aléatoires en probabilité. D’après ces résultats, toute somme de
variables i.i.d tend vers une certaine variable aléatoire.
Théorème 1.17 (Théorème Central Limite)
Soient X1 , X2 , . . . , Xd un ensemble de variables aléatoires définies sur le même espace de
probabilité, i.i.d de variance σ 2 finie et de moyenne µ.
Loi √
On pose Sn = X1 + X2 + · · · + Xd . Alors Sd −→ N (dµ, σ × d) c’est-à-dire
Sd − dµ Loi
√ −→ N (0, 1)
σ d
Sd − dµ
Il s’agit d’une convergence en loi c’est-à-dire en notant Zd = √ on a :
σ d
∀ z ∈ R, P (Zd ≤ z) = Φ(z) où Φ est la fonction de répartition de la loi N (0, 1).
L’intérêt du théorème central limite est qu’il nous permet de conclure à partir des données
sans devoir investiguer sur la distribution de probabilités qui a généré ces données.

32
1.3 Éléments de la statistique des extrêmes

1.3.1.5 Processus stochastique max-stables


On peut définir un processus stochastique comme étant une famille {Xt }t∈T de va-
riables aléatoires indexées par le temps t. Les mots processus et stochastique signifient
respectivement fonction et aléatoire. Alors qu’une variable aléatoire X associe à chaque
ω ∈ Ω une réalisation X(ω), un processus stochastique {Xt }t∈T associe à chaque ω une
fonction {Xt (ω)}t∈T :

T −→ E
t 7−→ Xt (ω)

où E est l’espace d’arrivée des variables aléatoires Xt . Passer des variables aléatoires aux
processus stochastiques revient à passer en analyse des points aux fonctions. Les situations
réelles pouvant être modélisés par des processus stochastiques sont nombreuses. En voici
quelques exemples : Problème de la ruine, problème de l’extinction d’une population,
séries temporelles ou chronologiques, file d’attente, etc.

Définition 1.22
Un processus max-stable Z(x) est le processus limite des maxima de champs aléatoires
Yi (x) i.i.d, x ∈ Rd . Plus précisément :

max Yi (x) − bn (x)


Z(x) = lim , x ∈ Rd (1.43)
n−→+∞ an (x)

où an (.) et bn (.) sont deux suites de fonctions C 0 (Rd ).

Les processus max-stable sont la généralisation des distributions des valeurs extrêmes
au contexte spatial. Ce sont donc des candidats idéaux pour la modélisation des extrêmes
spatiaux

1.3.1.6 Fonction à variations régulières


Définition 1.23 Soit F une fonction mesurable et positive. On dit que F est à variation
régulière (en l’infini) d’indice α, α ∈ R et on note F ∈ V R(α), si :

i) F est définie sur un voisinage [xo , +∞[ de l’infini.


F (tx)
ii) lim = xα pour tout x > 0.
t−→+∞ F (t)
Par exemple, on vérifie que les fonctions logarithmes et leurs itérations définies par

ln(ln(x)); exp [(ln x)α ] ; xα ; xα ln (1 + x) ; (x ln (1 + x))α ; xα ln (ln(1 + x))

sont à variation régulière en l’infini d’indice α avec α ∈]0, 1[.

33
1.3 Éléments de la statistique des extrêmes

Cas particuliers
· si α = 0, F est dite fonction à variation lente.
· si α = +∞, F est dite fonction à variation rapide
Par conséquent, on vérifie aisément que toute fonction F à VR(α) a la représentation
suivante : F (x) = xα L (x) où L est une fonction à variation lente. Les résultats suivants
résument les propriétés fondamentales de représentation et de stabilité des fonctions à
variations régulières.

stabilité par variation régulière


La notion de variation régulière est stable par intégration, différentiation, produit,
sommation et par composition.
· Si f ∈ V R(α) avec α > −1, alors pour toute primitive F de f , F ∈ V R(α + 1).
· Si f ∈ V R(α) alors si sa dérivée f 0 (x) est monotone pour x > 0, alors f 0 ∈ V R(α − 1).
· Si f ∈ V R(α) alors f k ∈ V R(αk); k ∈ N.
· Si f ∈ V R(α) et g ∈ V R(β) alors f + g ∈ V R(max(α, β) ) et f ◦ g ∈ V R(αβ).
Le résultat suivant résume les principales propriétés d’une variable aléatoire à variation
régulière.

1.3.2 Modèle des blocs des maxima


1.3.2.1 La théorie des valeurs extrêmes univariée
Nous allons nous intéresser au comportement du maximum de variables aléatoires.
Ainsi, étant donné une suite (Xi )i∈N de variables aléatoires indépendantes et identique-
ment distribuées (i.i.d) selon la loi de probabilités F (x), nous noterons le maximum du
bloc des d premières observations par :

Md = max{X1 , ..., Xd } (1.44)


A partir de la distribution F , il est facile de dériver la fonction de distribution pour la
variable aléatoire Md . Soient X1 , X2 , . . . , Xd des variables aléatoires i.i.d de loi F et de
densité f .
On définit la statistique d’ordre i notée Xi:d par :

X1:d ≤ X2:d ≤ Xi:d ≤ · · · ≤ Xd:d

En posant Wd = X1:d = min(X1 , . . . , Xd ) et Md = Xd:d = max(X1 , . . . , Xd ).


Les variables Wd et Md définissent des statistiques d’ordre extrême. L’écart des statistiques
d’ordre Wi;j:d = Xj:d −Xi:d (i < j). L’écart W = W1;d:d = Xd:d −X1:d = Md −Wd est appelé
déviation extrême. La dualité entre le maximum et le minimum est donnée par la relation :

max(X1 , . . . , Xd ) = − min(−X1 , . . . , −Xd )

34
1.3 Éléments de la statistique des extrêmes

Le résultat suivant donne la distribution de la statistique d’ordre :

Proposition 1.4
La fonction de répartition Fi:d de Xi:d est donnée pour tout x ∈ R, par :

d
Cdi [F (x)]i [1 − F (x)]d−i
X
Fi:d (x) = P (Xi:d ≤ x) = (1.45)
i=1
et la densité fi:d de Xi:d est liée à la densité commune f des Xi par :
d!
fi:d (x) = [F (x)]i−1 [1 − F (x)]d−i f (x) (1.46)
(i − 1)!(d − i)!
Les lois des statistiques extrêmes Md et Wd s’en déduisent aisément, x ∈ R par :
• FMd (x) = [F (x)]d et fM (x) = d[F (x)]n−1 f (x) (pour la loi du maximum)
• FWd (x) = 1 − [1 − F (x)]d et fW (x) = d[1 − F (x)]d−1 f (x) (pour la loi du minimum)

La fonction de répartition de X étant souvent inconnue, il n’est généralement pas pos-


sible de déterminer la distribution du maximum à partir de ce résultat. Comme les valeurs
extrêmes se trouvent, à droite et à la fin du support de la distribution, intuitivement le
comportement asymptotique de Md doit permettre de prendre compte de la queue de
distribution. On a
(
0 Si 0 ≤ F (x) < 1 ;
lim FMd (x) =
d−→+∞ 1 Si F (x) = 1.
On constate que la loi asymptotique de Md est dégénérée. Il est nécessaire de choisir les
constantes afin que la loi ne soit pas dégénérée.
Définition 1.24 (Distributions de même type)
Deux lois sont de même type s’il existe des constantes a > 0, b ∈ R telles que :

def
Y = aX + b

Si F et G désignent les distributions de X et de Y respectivement,alors


∀ x ∈ R, F (ax + b) = G(x).
Un des résultats fondamentaux de la théorie des valeurs extrêmes est le théorème
suivant établi en 1928 par Fisher et Tippet.

Théorème 1.18 (Fisher-Tippet-1928)


S’il existe des suites de constantes de normalisation an > 0 et bn ∈ R et une distribution
Md − bn Loi
non-dégénérée G telles que : −→ G. Alors G est de même type qu’une des dis-
an
tributions suivantes :

35
1.3 Éléments de la statistique des extrêmes

x−µ
   
• Λ(x) = exp − exp − avec −∞ < x < +∞ (Loi de Gumbel)
σ

1
  
  − 
x−µ

 
   



 exp − 1 + ξ ξ si x > 0


 
 σ + 


• Φξ (x) =




(Loi de Fréchet)






0 si x < 0
( −θ )
x−µ
  
exp − − si x < µ



σ

+



• Ψθ (x) = (Loi de Weibull)






1 si x ≥ µ

En posant µ = 0 et σ = 1 on obtient les expressions sous forme standard de ces lois.


Λ(x) = exp(− exp(−x)) avec x ∈ R (Gumbel).
−θ
Φθ (x) = exp(−x ) avec x > 0; θ > 0 (Fréchet).
−θ
Ψθ (x) = exp(−(−x )) x ≤ 0; θ ≥ 0 (Weibull).

1.3.2.2 La théorie des valeurs extrêmes multivariée


Soit (Xi1 , . . . , Xid ), i = 1, . . . , n un échantillon de n vecteurs aléatoires i.i.d de fonction
de repartition F et de marginales F1 , . . . , Fn et de copule CF . Soit Mn le vecteur aléatoire
dont les composantes sont les statistiques du maximum :
Mn = (Mn,1 , . . . , Mn,d ) tel que Mn,j = max Xi,j
1≤i≤n

Définition 1.25
Une loi de probabilité est dite une distribution multivariée de valeurs extrêmes du maxi-
mum si sa fonction de répartition F peut s’obtenir comme limite de la suite de distribution
de maxima convenablement normalisé c’est-à-dire s’il existe des vecteurs de suite de nor-
malisation an = {(an,1 , . . . , an,d ); an,j ∈ R} ; bn = {(bn,1 , . . . , bn,d ); bn,j ∈ R+
∗ } tels que :

! !
Mn − bn Mn,1 − bn,1 Mn,d − bn,d
lim P ≤x = lim P ≤ x1 , . . . , ≤ xd
n−→+∞ an n−→+∞ an,1 an,d
= lim [F (an,1 x1 + bn,1 , . . . , an,d xd + bn,d )]n
n−→+∞
!
Mn − bn
lim P ≤x = F ∗ (x1 , . . . , xd ) (1.47)
n−→+∞ an
avec F ∗ est la fonction de répartition de Mn dont les lois marginales F1∗ , . . . , Fd∗ as-
sociées à Mn,1 , . . . , Mn,d ne sont pas dégénérées, alors F ∗ est appelée loi multivariée de
valeurs extrêmes de maximum. On dit alors que la fonction de répartition F ∈ M DA(F ∗ ).

36
1.3 Éléments de la statistique des extrêmes

1.3.3 Modèle de dépassement de seuil


Cette seconde approche de la TVE appelée méthode de dépassement de seuil consiste
à utiliser les observations qui dépassent un certain seuil et plus particulièrement les diffé-
rences entre ces observations et le seuil, appelées excès.

1.3.3.1 Formulation de la méthode


Dans l’approche des blocs de maxima, les blocs de tailles identiques sont constitués puis
seulement le maximum de chaque bloc est utilisé pour ajuster une loi GEV. Le problème
avec la méthode précédente sur les maxima de blocs est qu’il représente une perte car
nous n’ajustons le modèle que sur les maximas des blocs et non sur toutes les valeurs
considérées comme extrême. Une alternative à la méthode des maxima par bloc consiste
à conserver toutes les observations qui dépassent un certain niveau assez élevé puis à
ajuster une loi de Pareto Généralisée au dépassement de seuil. Il s’agit de la méthode des
dépassements de seuil (Peak over threshold (POT)). Nous allons maintenant aborder une
autre manière d’établir un modèle adéquat pour la prévision de valeurs extrêmes d’un
processus stationnaire. Le terme que l’on désigne par extrême représente un événement
hors du commun, inhabituel. Ainsi, lorsque nous parlons de valeurs extrêmes, nous voulons
désigner des observations qui dépassent un certain seuil relativement élevé. Dans le cas du
changement climatique, une valeur extrême représente la quantité de variable climatique
(pluviométrie, température, etc ) qui excède un certain niveau. Il faut donc déterminer le
seuil au-délà duquel on a affaire à des valeurs extrêmes. Supposons que le seuil choisi soit
u. Sachant que X est une valeur extrême (X > u), nous aimerions donc pouvoir estimer
la probabilité d’observer une valeur de X supérieur à u + y (pour y > 0). En fait, nous
aimerions caractériser la loi qui génère les valeurs extrêmes.
Soient X1 , . . . , Xd une suite de variables aléatoires iid selon la fonction de répartition
F . Il s’en suit qu’une description des événements extrêmes est donnée par la probabilité
conditionnelle suivante :
1 − F (u + y)
P (X > u + y|X > u) = , y>0 (1.48)
1 − F (u)

Si la distribution F était connue, la distribution des dépassements du seuil serait éga-


lement connue. Cependant, ce n’est pas le cas dans les applications pratiques et des
approximations sont recherchées pour des hautes valeurs de seuil.

1.3.3.2 Distribution Généralisée de Pareto


Théorème 1.19
Soit X1 , . . . , Xd une suite de variables aléatoires indépendantes ayant la même distribution
F , telle que la variable Md = max(X1 , . . . , Xd ) possède une loi limite aux valeurs extrêmes
généralisée : (  )
x − µ −1/ξ
 
G(x) = exp − 1 + ξ (1.49)
σ

37
1.3 Éléments de la statistique des extrêmes

Alors sous ces conditions, pour un seuil suffisamment élevé u, la fonction de distribution
de (X − u) conditionnée à X > u est approximativement :
!−1/ξ
ξx
H(x) = 1 − 1 + (1.50)
σ + ξ(u − µ)

Définition 1.26 (Distribution GPD)


On dit qu’une variable aléatoire X appartient à la famille de distributions généralisée
GPD(Generalized Pareto Distribution) si sa fonction de distribution FX (x) peut être mise
sous la forme :
!−1/ξ
ξx
FX (x) = 1 − 1 + (1.51)
σ̃


σ̃ = σ + ξ(u − µ) (1.52)

Nous pouvons obtenir une loi limite lorsque ξ −→ 0. Cela nous conduit à la formule sui-
vante (ξ −→ 0) :
x
FX (x) = 1 − exp(− ) (1.53)
σ
Si les maxima de blocs ont approximativement une distribution GEV, alors les excès de
seuil ont une distribution approximative correspondante appartenant à la famille géné-
ralisée Pareto. L’approche utilisée pour ajuster un modèle GPD aux données consiste à
effectuer la procédure suivante : nous possédons des réalisations x1 , . . . , xd supposées indé-
pendantes et censées parvenir d’une distribution commune FX . Les événements extrêmes
sont identifiés en fixant un seuil élevé u et en déterminant les observations qui excèdent
le seuil u.

38
CHAPITRE 2
MODÉLISATION DE LA DÉPENDANCE
SPATIALE PAR LES COPULES

Sommaire
2.1 Géostatistique et copules spatiales . . . . . 40
2.1.1 Statistique spatiale et géostatistique . . . . . . . . . . . . . . . 40
2.1.2 La copule comme modèle de dépendance spatiale . . . . . . . . 41
2.2 Modèle de dépendance spatiale et asymp-
totique . . . . . . . . . . . . . . . . . . . . . . 42
2.2.1 Caractérisation des processus stochastiques Archimax . . . . . 42
2.2.2 Copules et dépendance de queue multivariée spatiale . . . . . . 44
2.2.3 Dépendance spatiale et queue des copules Archimédiennes . . . 45
2.2.4 Dépendance spatiale et queue des copules Archimax . . . . . . 47
2.2.5 Stabilité spatiale des copules Archimédiennes de survie . . . . . 48
2.3 Applications aux données climatiques . . . 50
2.3.1 Données : analyse préliminaire . . . . . . . . . . . . . . . . . . 50
2.3.2 Transformation des données . . . . . . . . . . . . . . . . . . . . 51

39
2.1 Géostatistique et copules spatiales

es données à référence spatiale sont de plus en plus exploitées, et ce, dans divers
D domaines de recherche. Qu’il s’agisse de précipitations mesurées à des stations mé-
téorologiques, de la densité d’un minerais dans des échantillons de sol ou de la concentra-
tion de gaz carbonique dans l’air en certains sites, ces données possèdent toutes un point
en commun : elles sont localisées dans l’espace géographique. Le traitement statistique
de ce type de données demande une attention particulière car l’hypothèse classique selon
laquelle les observations sont indépendantes et identiquement distribuées est rarement
vérifiée. Des méthodes statistiques adaptées à l’analyse de données à référence spatiale
ont été développées (Ripley, (1981) ; Cressie, (1993)).
En statistiques spatiales, les données sont collectées en des lieux dont on a relevé la
position géographique dans le but d’utiliser cette information spatiale dans la modélisa-
tion statistique. En particulier, on cherche à modéliser ce que l’expérience courante nous
enseigne : deux données proches géographiquement tendent à être similaires en valeur.
Cette modélisation nous permettra de réaliser des prédictions spatiales ou de tester des
hypothèses en intégrant explicitement cette dépendance spatiale dans les calculs.

2.1 Géostatistique et copules spatiales


2.1.1 Statistique spatiale et géostatistique
La statistique spatiale étudie des phénomènes dont l.observation est un processus
aléatoire Z = {Zs , s ∈ S} indexé par un ensemble spatial S, Zs appartenant à un espace
d’états D. Ces techniques se sont développées d’abord en géostatistique (au départ la
statistique pour géologues). Néanmoins on fait souvent références à la statistique spatiale
pour désigner l’ensemble de ces méthodes.
L’outil de modélisation des données géoréférencées est le champ aléatoire. Ajoutons
à cet effet, que pour les données de type géostatistique, la position observée n’est pas
modélisée comme aléatoire car elle est choisie par le statisticien.
Par exemple, un jeu de données météorologiques sera observé sur une collection de
stations météorologiques, des données de pollutions atmosphériques sur une collection
de lieux où l’on a implanté des appareils de mesure. Par ailleurs, l’unité géographique
associée à la donnée est ici ponctuelle : repérer la latitude et la longitude des stations
météo ou des appareils de mesure. Plus formellement, pour le champ aléatoire servant
à modéliser notre phénomène, l’espace des indices sera un domaine D de Rd contenant
un rectangle de volume strictement positif et l’indice s varie donc continûment dans cet
espace. Par contre, dans la pratique, les observations du champ sont faites en un nombre
fini de points déterministes si ∈ D. Ceux-ci peuvent dans certains modèles constituer une
grille régulière mais ce n’est pas le cas en général.
On distingue principalement trois types de données spatiales :
a) Données ponctuelles :
On observe les positions d’occurrence d’un phénomène ponctuel spatial. Lorsque ce
sont les coordonnées qui portent l’information principale (positions des arbres dans une
forêt, points d’impact de la foudre dans une région, etc.), on parle de processus de points.

40
2.1 Géostatistique et copules spatiales

b) Les données de réseaux


Lorsque, par leur nature même, les données sont liées à un réseau (pour des images
ou des données récoltées sur des entités administratives,
etc.), il est certes possible d’utiliser le formalisme de la géostatistique, mais celui des
champs de Markov est souvent plus adapté. S est discret fini, Zs intégrant la variable
d’intérêt sur l’unité géostatistique S ;
c) Données géostatistiques
Lorsque S ⊂ R2 est un sous-ensemble continu, Z est réel observé sur un sous-ensemble
fini. Dans ce cas les données sont échantillonnées irrégulièrement mais peuvent en prin-
cipe être mesurées en tout point d’un domaine continu (les teneurs en matière organique
dans un champ agricole) on utilise le formalisme des champs aléatoires continus ; c’est le
domaine habituel de la géostatistique.

2.1.2 La copule comme modèle de dépendance spatiale


L’introduction de la théorie des copules dans la modélisation spatiale est assez récente
et commence dans les années 2000 avec les travaux de Bardosa (2006) et Hannes Kazianka
(2008) par des travaux d’interpolations de quantités extrêmales.

2.1.2.1 La notion de copule spatiale


Définition 2.1
Une copule spatiale (ou spatio-temporelle) est une copule qui décrira la dépendance spatiale
(ou spatio-temporelle) entre deux sites s1 , s2 ou ((s1 , t1 ), (s2 , t2 )) du processus aléatoire Z
défini sur la région S (ou S × T ).
Par exemple, au lieu de considérer le processus bivarié de la vitesse du vent et de la
température sur un site, nous considérons la vitesse du vent et la température sur deux
sites s1 , s2 . En général, pour une copule spatiale nous devons :
1. exclure de changer la structure de dépendance pour différents points alignés,
2. avoir l’information de la copule sur un site (distance ou la direction).
3. avoir besoin d’une fonction h : S −→ Θ où Θ désigne l’espace des paramètres des
copules paramétriques.

2.1.2.2 Appartenance de la copule spatiale à une famille


Une façon de définir la copule spatiale (ou spatio-temporelle) est d’étudier une famille
de copules particulières. Dans ce cas on a juste besoin de trouver une fonction h : S −→ Θ
qui reproduit le changement de dépendance sur l’espace. La famille de copule choisie doit
vérifier deux propriétés :
1. prendre la copule produite et la borne supérieure de Fréchet M pour tout paramètre
θ ∈ Θ. La copule produite peut alors être choisie pour l’étude de la dépendance pour
des sites éloignés et M pour des sites très proches.
2. assez de flexibilité pour représenter toutes les structures de dépendances.

41
2.2 Modèle de dépendance spatiale et asymptotique

2.2 Modèle de dépendance spatiale et asymptotique


Dans cette section nous apportons de nouvelles définitions et propriétés sur la dépen-
dance de queue multivariée et des copules de survie d’Archimax.

2.2.1 Caractérisation des processus stochastiques Archimax


Soit Xs = {(Xs,1 , . . . , Xs,d )} un vecteur aléatoire continu observé en des nombres finis
de sites Sm = {s1 , . . . , sm }, si ∈ R2 , avec pour distribution jointe Fs = (Fs,1 , . . . , Fs,d ) et
la copule paramétrique associée {Cs , s ∈ S}.
Pour des raisons de simplification, notons Xs,i = Xis (ce qui est différent de Xis , qui
est la s-ième puissance de Xi ). En utilisant cette notation précédente, le processus Xs est
donné par
Xs = {(X1s , . . . , Xsd ), s ∈ S}
et
Fs = (F1s , . . . , Fds )
nous étendons le concept de copule Archimax comme suit

Définition 2.2
Un processus {Xs , s ∈ S} est dit « 2-marginalement Archimax » si et seulement si pour
s
tout couple (Xis , Xjs ) la distribution bimarginale Fi,j = (Fis , Fjs ) est une copule Archimax
Cϕ,A avec un générateur complètement monotone ϕs .

Considérons, par exemple, le processus {Xs , s ∈ S} qui est associé à un modèle de


copule hiérarchique :

Cm,ϕ (us1 , . . . , usm ) = ϕ[ϕ−1 (us1 ) + ϕ−1 (Cm−1,ϕ (us2 , . . . , usm ))]. (2.1)

pour tout (us1 , . . . , usm ) ∈ [0, 1]m où Cm,ϕ est une copule archimédienne de générateur ϕ.
Dans le cas où ϕθ (xi ) = (− ln xi )θ , θ ≥ 1, la copule bimarginale est alors le modèle de
Gumbel, tel que, pour tout site s ∈ S et pour tout i, j ∈ {1, . . . , d}
 h i1/θ 
Cs,θ (usi , usj ) = exp − (− ln usi )θ + (− ln usj )θ . (2.2)

qui appartient à la classe du modèle Archimax pour A(s) = 1, s ∈ [0, 1] avec i, j ∈


{1, . . . , d}.
Considérons un processus {Xs , s ∈ S} « 2-marginalement Archimax » avec pour dis-
tribution jointe la fonction Fs , supposons que Xs vérifie la propriété de régularité avec
pour index α > 0 et notons que Fs ∈ V R(α). Cela signifie en particulier qu’il existe un
vecteur aléatoire Ys sur le simplexe paramétrique,
d
( )
Rd+ ;
X
∆s,d = xs ∈ ||xs || = xs,i = 1 ; (2.3)
i=1

42
2.2 Modèle de dépendance spatiale et asymptotique

tel que, pour chaque s > 0 et tout ensemble de Borel Bs ⊂ ∆s,d ,

P (||Xs || > tys , Ys /||Ys || ∈ Bs )


lim = P (Ys ∈ Bs )t−α (2.4)
ys −→+∞ P (||Ys || > ys )

où ||.|| est une norme, (voir Nelsen [21]).


Le résultat suivant caractérise la distribution 2-marginale des processus Archimax.

Proposition 2.1
Soit {Xs , s ∈ S} un processus « 2-marginalement Archimax » avec une distribution jointe
Fs et generée par Z
ϕs (t) = e−w dFs,1 (w), (2.5)
K

s’il existe m > 0 tel que ϕs (1 − 1/x) ∈ RV (−m), alors toute distribution marginale
s
bivariée Fi,j de Fs avec 1 ≤ i, j ≤ s est donnée par
  
 
 X  ϕ (F s (xs )) 
s
s
Fi,j (xsi , xsj ) = ϕ−1 ϕs (Fks (xsk )) .A∗s,m  X i s i s   ; (2.6)
  
s 
k=i,j
 ϕs [Fk (xk )] 

k=i,j

où A∗s,m est une fonction convexe spatiale définie de [0; 1] à valeurs dans [1/2; 1]m−1

Preuve. Supposons que les processus {Xs , s ∈ S} ont une distribution bimarginale
commune, ainsi pour chaque site s ∈ S,
s
Fi,j = (Fis , Fjs ) = (F1s , F2s ) avec i, j ∈ {1, . . . , d} (2.7)

et notons Cϕs ,A la copule Archimax associée à la distribution bimarginale commune de


Fs .
Alors, il vient que, pour tout i, j ∈ {1, . . . , d},
  
 
ϕs ([Fi ] (ui )) s −1 s
Cϕs ,A (usi , usj ) = ϕ−1 ϕs ([Fks ]−1 (usk )) .A 
 X  
s −1 s  ; (2.8)
 
s   X
k=i,j ϕ s ([F k ] (u k ))
k=i,j

Z +∞
où ϕs est tel que ϕ−1
x (1 − t/r) ∈ RV (−α) avec ϕ−1
x = (1 − t/r)m−1 dr.
t
Selon le théorème de Sklar via la relation (1.8), pour tout 1 ≤ i, j ≤ d, il vient que

Cϕs ,A ([Fis ](xi ), [Fjs ](xj )) = Fi,j


s
(xsi , xsj ). (2.9)

Par conséquent, pour tout (xi , xj ) ∈ R2 ,


  
 
ϕs (Fi (xi )) s s
s
(xsi , xsj ) = ϕ−1 ϕs (Fks (xsk )) A 
 X  
Fi,j s 

 X s s 
 (2.10)
k=i,j ϕ s (F k (x k ))
k=i,j

43
2.2 Modèle de dépendance spatiale et asymptotique

De plus, Genest et al [15] montrent que si une copule Archimax C ∗ de fonction de dé-
pendance A∗ appartenant au domaine d’attraction (MDA) d’une autre copule Archimax
donnée, alors il existe α ∈ [0, 1] ; tel que
" #
t1/α
A∗ (t) = [t1/α + (1 − t)1/α ]α A1/α (2.11)
t1/α + (1 − t)1/α

Ainsi, en combinant (1.8) et (1.22), il vient que, pour tout (xi , xj ) ∈ R2


  
 
ϕs (Fi (xi )) s s
Cϕs ,A (Fis (xi ), Fjs (xj )) = ϕ−1 ϕs (Fks (xsk )) A 
 X  
s 

 X s s 
 (2.12)
k=i,j ϕ s (Fk (x k ))
k=i,j

En particulier, dans le contexte spatial bivarié, il vient que, pour tout i, j ∈ {1, . . . , d}
  
 
 X  ϕ (F s (xs )) 
s
Cϕs ,A (Fis (xi ), Fjs (xj )) = ϕ−1 ϕs (Fks (xsk )) .A∗s,m  X i i
(2.13)
  
s  s s 


k=i,j
 ϕs (Fk (xk ))
k=i,j

A∗ est la fonction de dépendance de Pickands.


Finalement, en combinant (1.8) et (2.13), nous obtenons l’expression suivante où A∗
est noté A∗s,m (notation spatiale) :
  
 
ϕs (Fi (xi )) s s
s
(xsi , xsj ) = ϕ−1 ϕs (Fks (xsk )) .A∗s,m 
 X  
Fi,j s 

 X s s  ,
 (2.14)
k=i,j ϕ s (F k (x k ))
k=i,j

ce qui permet de vérifier la proposition (2.6)

Définition 2.3 La fonction A∗s,m est appelée fonction de dépendance spatiale d’Archimax.

2.2.2 Copules et dépendance de queue multivariée spatiale


Étant donné deux v.a X et Y de loi jointe FX,Y = (FX , FY ), le coefficient de la
dépendance de queue supérieure peut être aussi vu comme la probabilité conditionnelle
λU (si elle existe) pour que Y soit plus grand que le 100α − ième centile de FY sachant
que X est plus grand que le 100α − ième centile de FX tel que α tend vers 1 ; ainsi on a,
  
λU = lim − P Y > FY−1 (α) X > FX−1 (α) (2.15)
α−→1

Par analogie, la dépendance de queue inférieure est définie, si elle existe, par
  
λL = lim + P Y < FY−1 (α) X < FX−1 (α) (2.16)
α−→0

Quelques approches de la généralisation du coefficient de la dépendance de queue dans


le cas multivarié ont été données par les relations (2.6) et (2.7). La généralisation du

44
2.2 Modèle de dépendance spatiale et asymptotique

coefficient de la dépendance de queue dans le cas multivarié consiste à considérer k (k < d)


variables et de quantifier la probabilité conditionnelle de chacune des k variables qui
prennent leurs valeurs depuis la queue de la distribution sachant que les n − d variables
restantes prennent aussi leurs valeurs sur la queue de la distribution.

Définition 2.4 ([6] et [13])


Pour k donné, le coefficient de queue supérieure généralisé coorrespondant est donné par :

λU,k = lim− P (X1 > F1−1 (u), . . . , Xk > Fk−1 (u)|Xk+1 > Fk+1
−1
(u), . . . , Xd > Fd−1 (u))
u−→1
(2.17)
Par analogie, la dépendance de queue inférieure est définie, par

λL,k = lim+ P (X1 ≤ F1−1 (u), . . . , Xk ≤ Fk−1 (u)|Xk+1 ≤ Fk+1


−1
(u), . . . , Xd ≤ Fd−1 (u))
u−→0
(2.18)

2.2.3 Dépendance spatiale et queue des copules Archimédiennes


Une des propriétés importantes des copules est qu’elles sont invariantes par transfor-
mations strictement croissantes des lois marginales. La version copule de la relation (2.17)
est donnée par :
!
U,k C k (1 − u, . . . , 1 − u)
λ = lim− ∀ u ∈ [0, 1] (2.19)
u−→1 C d−k (1 − u, . . . , 1 − u)

où C est la copule de survie de la copule C. Alors, dans un contexte paramétrique, on a


le résultat ci-dessous.

Proposition 2.2
Soit {Cϕs , s ∈ S} une copule spatiale archimédienne de générateur ϕs , alors pour tout k,
k < d, le coefficient de dépendance de queue supérieure est donné analytiquement par
  
d
(−1)k  X
λU,k
X
= 1 + lim  Cϕs (us,ik ); ik ∈ Sk  (2.20)
k=1 1 − us,k
us,i −→1
sk ⊂N

pour des éléments spécifiques de l’ensemble Sk qui est un sous ensemble non vide de
N = {1, . . . , d}.

Preuve. Supposons que la copule Cϕs est une copule spatiale archimédienne, pour un
s ∈ S donné. Ceci signifie en particulier que, pour tout (us1 , . . . , usd ) ∈ [0, 1]d ,

Cϕs (us1 , . . . , usd ) = ϕ−1 s s


s [ϕs (u1 ) + . . . + ϕs (ud )]. (2.21)

De plus, étant donné que toute copule est une fonction de répartition avec des marges
uniformes, notons alors Ceϕt la co-copule de X (c’est-à-dire la distribution de survie de la
distribution C).

45
2.2 Modèle de dépendance spatiale et asymptotique

Alors, dans un contexte spatial, il vient que

Ceϕs (us1 , . . . , usd ) = P (F1s (xs1 ) > us1 , . . . , Fds (xsd ) > usd )

soit
Ceϕs (us1 , . . . , usd ) = C ϕs (1 − us1 , . . . , 1 − usd ) (2.22)
De plus, d’après Charpentier et al (voir [2]), il vient que
  
d
Ceϕs (us1 , . . . , usd ) k
X X
= (−1)  Cϕs (v1 , . . . , vd ) (2.23)
k=0 v(us1 ,...,usd )∈Zs (d−k,n,1)

d
X
où Zs (M, N, ε) représente l’ensemble {v ∈ [0, 1]d ; vi ∈ {us , ε}, 1{ε} (vi ) = M }.
i=1
Alors, pour (us1 , . . . , usd ) ∈ [0, 1]d , nous pouvons réécrire plus simplement la formule
(2.8) comme suit
  
d
Ceϕs (us1 , . . . , usd ) k
Cϕs (us1 , . . . , usd );
X X
= (−1)  ij ∈ Sk  (2.24)
k=0 Sk ⊂N

où {i1 , . . . , ik } contient k éléments du sous ensemble non vide de N = {1, . . . , d} avec


usij = 1 pour tout ij ∈ Sk .
Ainsi, en utilisant simultanément (2.23) et (2.24), il vient que, pour tout (us1 , . . . , usd ) ∈
[0, 1]d ,   
d
Ceϕs (us1 , . . . , usd ) = (−1)k  Cϕs (1 − usi1 , . . . , 1 − usid )
X X
(2.25)
k=0 Sk ⊂N

où Sk est tel que uij = 0, ∀ ij ∈


/ Sk .
Spécialement, en remplaçant la copule archimédienne dans (2.25) par sa forme analy-
tique (2.21), il vient que
   
d d
Ceϕs (us1 , . . . , usd ) = (−1)k  ϕ−1 s 
X X X
ϕs  s (1 − uij ) (2.26)
k=0 Sk ⊂N j=1

De plus, en utilisant (2.1) dans un cas paramétrique, on a :

C ϕs (1 − us , . . . , 1 − us )
λU,k = lim
us −→1 1 − us
soit     
d k d
X (−1) 
λU,k = ϕ−1 s 
X X
lim   ϕs  s (1 − u ij ) (2.27)
us −→1  1 − us
k=0 Sk ⊂N j=1

Finalement, en utilisant la forme analytique de C ϕs dans (2.19), on obtient la relation


(2.20)

46
2.2 Modèle de dépendance spatiale et asymptotique

2.2.4 Dépendance spatiale et queue des copules Archimax


En modelisant la dépendance stochastique, Schmitz a établi la consistance des copules
associées au processus stochastique. Particulièrement, cela signifie que dans la classe ar-
chimédienne, les copules de marginales situées sur la queue inférieure sont toujours des
copules archimédiennes.
De même, la version copule de la relation (2.18) est donnée par
!
L,k Cd (u, . . . , u)
λ = lim , ∀ u ∈ [0, 1] (2.28)
u−→0 Cd−k (u, . . . , u)
Le résultat suivant généralise la version spatiale du coefficient de dépendance de queue
où le domaine a ses marges Archimax.

Proposition 2.3
Soit ϕs un générateur Archimax bivarié de processus {Xs , s ∈ S}. Pour tout k < d le
coefficient de dépendance de queue inférieure se généralise comme suit
(i)
λL,k
s ≤ lim+ R(ϕs (us )) (2.29)
u−→0

où R est un ratio spécifique dans ]0, 1[ si Cϕs est strictement archimédienne.


(ii)
λL,k
s = lim+ exp{−Dϕs (us )} (2.30)
u−→0

Pour une mesure conditionnelle spécifique Dϕs si Cϕs est strictement extréme.

Preuve. Dans un contexte paramétrique et spatial la formule (2.28) devient


!
Cϕs (us , . . . , us )
λL,k
s = lim , ∀ us ∈ [0, 1] (2.31)
us −→0 Cϕs ,d−k (us , . . . , us )
où Cϕs est une copule Archimax.
En d’autre termes, Cϕs peut être une copule archimédienne ou satisfaire la propriété
de max-stabilité des copules extrêmes.
(i) Pour un site s donné supposons Cϕs une copule archimédienne de générateur ϕs véri-
fiant :
k
ϕ−1
( )
k∂ s (t)
ϕs : [0, +∞] −→ [0, 1]; ϕs (0) = 1; ϕs (∞) = 0; (−1) (2.32)
∂tk

avec ϕ−1
s (y) = inf{t ∈ [0, 1], ϕs (t) ≤ y}. Alors, il vient que
 ! 
k
X
 ϕ−1 ϕs (us ) 
 s 
i=1
λL,k
 
ss = lim     
us −→0  Xd 

 ϕ−1  ϕs (us ) 
s
i=k+1

47
2.2 Modèle de dépendance spatiale et asymptotique

soit
ϕ−1
" #
s (kϕs (us ))
λL,k
s = lim −1
(2.33)
us −→0 ϕs ((d − k)ϕs (us ))
où ϕs vérifie (2.32).
Alors, ϕ−1 est strictement croissante de [0, +∞] −→ [0, 1] et ϕ(0) = 1 et alors
λL,k
s = R(ϕs (us )) < 1 est vérifiée.
(ii) Supposons que Cϕs est une copule des valeurs extrêmes.
La version spatiale de la représentation de Pickands donne
( d !)
X ues,i ues,d−1
C(u1 , . . . , ud ) = exp ues,i AC Pd , . . . , Pd (2.34)
i=1 i=1 ues,i i=1 u
es,i

où AC est la fonction de dépendance de Pickands de C définie sur Sd et vérifiant les


propriétés données dans Nelsen (voir [21]).
Ainsi, la formule (2.34) donne
" ( k !
uei ued−1
λL,k
X
s = lim exp ues,i AC Pk , . . . , Pk
i=1 u i=1 u
us −→0 es,i es,i
i=1
d
!)#
X uek+1 ued−1
− ues,i ACd−k Pd , . . . , Pd (2.35)
i=k+1 i=k+1 u es,i i=k+1 u es,i

où ACd−k est la fonction de Pickands de Cd−k .


Finalement, il vient que la mesure convexe Dϕs : [(R∪{±∞})d ]2 −→ [0, 1] est définie
comme suit
k
!
X uei ued−1
Dϕs (us ) = ues,i AC Pk , . . . , Pk
i=1 i=1 u
es,i i=1 u
es,i
d
!
X uek+1 ued−1
− ues,i ACd−k Pd , . . . , Pd (2.36)
i=k+1 i=k+1 u es,i i=k+1 u es,i

Alors la relation (2.30) est vérifiée

2.2.5 Stabilité spatiale des copules Archimédiennes de survie


Les copules archimédiennes bivariées ont été largement développées par Genest et Mac-
kay ([10]). La famille des copules archimédiennes multivariées présente le double avantage
d’avoir une forme analytique explicite et de tenir compte de toutes les dépendances entre
les variables aléatoires unidimensionnelles
Définition 2.5
Une copule multidimensionnelle C est une copule Archimédienne, s’il existe une fonction
convexe ϕ continue et strictement décroissante, le générateur de C, dans la classe des
fonctions monotones
∂ k ϕ−1 (t)
( )
ϕ : [0, +∞] −→ [0, 1]; ϕ(0) = 1; ϕ(∞) = 0; (−1)k ≥ 0; k ∈ N (2.37)
∂tk

48
2.2 Modèle de dépendance spatiale et asymptotique

(k)
où (φ−1 ) est la dérivée d’ordre k de φ−1 ,avec l’inverse généralisé ϕ−1 (y) = inf{t ∈
[0, 1], ϕ(t) ≤ y} tel que

C(u1 , . . . , ud ) = ϕ−1 (ϕ(u1 ) + ϕ(u2 ) + . . . + ϕ(ud )) ∀ (u1 , u2 , . . . , ud ) ∈ [0, 1]d

Proposition 2.4
Soit Xs = {(X1,s , . . . , Xd,s ), s ∈ S} un processus « 2-marginalemnt » Archimax de ge-
nerateurs l’ensemble {ϕs , s ∈ S} associée aux copules {Ci,ϕs ; s ∈ S; 1 ≤ i ≤ d}.
Soit {C i,ϕs ; s ∈ S; 1 ≤ i ≤ d} l’ensemble des copules de survie spatiales des copules
{Ci,ϕs ; s ∈ S; 1 ≤ i ≤ d}. Sous les conditions des copules extrêmes strictes Ci,ϕs et pour
tout α = (α1 , . . . , αm ) ∈ ∆m , la combinaison géométrique
1α 2 α m−1 α αm
Cϕs ,α (us , vs ) = C 1,ϕ s
(us , vs ) × C 2,ϕ s
(us , vs ) × . . . × C m−1,ϕ s
(us , vs ) × C m,ϕs (us , vs ) (2.38)

fournie un paramètre spatial de la copule extrême bivariée.

Preuve. La preuve de la Proposition 2.4 consiste à établir premièrement, pour tout


α, que la copule Cϕs ,α est une copule des valeurs extrêmes. En suivant Diakarya [6] et
Liebscher [11], on peut utiliser une transformation gji pour j ∈ {1, . . . , m} et i ∈ {1, . . . , d}
de [0, 1] vers [0, 1] tel que gji (s) = sαj . Dans un domaine à d dimensions pour tout
α = (α1 , . . . , αm ) ∈ Sm et pour tout (u1 , . . . , ud ) ∈ [0, 1]d , la transformation géométrique
m m
Cj (gj,1 (us1 ), . . . , gj,d (usd )) = Cj ((us1 )α1 , . . . , (usd )αd )
Y Y
(2.39)
j=1 j=1

ce qui donne
m
Cj (gj,1 (us1 ), . . . , gj,d (usd )) = C1 ((us1 )α1 , . . . , (usd )αd )×. . .×Cm ((us1 )α1 , . . . , (usd )αd ) (2.40)
Y

j=1

est toujours une copule pour toute famille d dimensionnelles de copules C1 , . . . , Cm radia-
lement symétrique.
Par conséquent, dans le cas bivarié spatial, la transformation suivante est toujours une
copule :

Cϕs ,α (us , vs ) = C1,ϕs (uαs 1 , vsα1 )×C2,ϕs (uαs 2 , vsα2 )×. . .×Cm−1,ϕs (uαs m−1 , vsαm−1 )×Cm,ϕs (usαm , vsαm )
(2.41)
De plus, chaque copule Ci,ϕs est une copule des valeurs extrêmes et est max-stable. On a
la propriété suivante dans le cas bivarié
k
Cj,ϕs
(us , vs ) = Cj,ϕs (uks , vsk ) ∀ (us , vs ) ∈ [0, 1]2 , k > 0. (2.42)

Alors, en utilisant la relation (2.42), il vient, pour tout (α1 , . . . , αm ) ∈ ∆m , que


α1 α2 m−1 α αm
Cϕs ,α (us , vs ) = C1,ϕ s
(us , vs ) × C2,ϕ s
(us , vs ) × . . . × Cm−1,ϕ s
(us , vs ) × Cm,ϕ s
(us , vs ) (2.43)

En outre, en utilisant la symétrie radiale des copules {Ci,ϕs ; 1 ≤ i ≤ d} et (2.42), on a :


1α 2 α m−1 α αm
Cϕs ,α (us , vs ) = C 1,ϕ s
(us , vs ) × C 2,ϕ s
(us , vs ) × . . . × C m−1,ϕ s
(us , vs ) × C m,ϕs (us , vs ). (2.44)

49
2.3 Applications aux données climatiques

Une condition suffisante est de montrer que Cϕs ,α vérifie la propriété de max-stabilité,
pour tout k > 0,
kα kα kα
m−1 kαm
Cϕs ,α (us , vs ) = C 1,ϕ1s (us , vs ) × C 2,ϕ2s (us , vs ) × . . . × C m−1,ϕ s
(us , vs ) × C m,ϕs (us , vs ). (2.45)

Ce qui donne, par la formule (2.43), pour tout k > 0,


kα1 kα2 m−1kα kαm
Cϕs ,α (us , vs ) = C1,ϕ s
(us , vs ) × C2,ϕ s
(us , vs ) × . . . × Cm−1,ϕs
(us , vs ) × Cm,ϕ s
(us , vs ). (2.46)

Utilisons encore le fait que Ci,ϕs sont des modèles des valeurs extrêmes.
Ainsi, pour tout (u1 , . . . , ud ) ∈ [0, 1]d et k > 0
α1 α
Cϕs ,α (us , vs ) = C1,ϕ s
(uks , vsk ) × C2,ϕ
α2
s
(uks , vsk ) × . . . × Cm−1,ϕ
m−1
s
(uks , vsk ) × Cm,ϕ
αm
s
(uks , vsk ). (2.47)

En utilisant (2.11), il vient que


α α α αm
1
Cϕs ,α (us , vs ) = C 1,ϕ s
(uks , vsk ) × C 2,ϕ
2
s
(uks , vsk ) × . . . × C m−1,ϕ
m−1
s
(uks , vsk ) × C m,ϕs (uks , vsk ). (2.48)

Ainsi Cϕs ,α satisfait (2.42) qui caractérise les copules des valeurs extrêmes

2.3 Applications aux données climatiques


2.3.1 Données : analyse préliminaire
Nous disposons de 19 longues séries de température (en ◦ C) de la direction de la mé-
téorologie du Burkina Faso et de la banque mondiale. En effet, La base de données de la
banque mondiale nous offre 15 longues séries de température (15 capitales Ouest africaines
sauf Ouagadougou) auxquelles nous ajoutons 4 longues séries de température (Ouagadou-
gou, Bobo-Dioulasso, Fada N’Gourma, Dori et Po.) de la direction de la météorologie du
Burkina Faso. Chacune fournit, au moins, 30 ans de mesures mensuelles de Janvier 1981
à décembre 2010, et les données manquantes n’excèdent pas 1% dans les séries.

Figure 2.1 – Carte de l’Afrique de l’ouest.

Cette étude examine les changements régionaux dans des séries de température ex-
trêmes en Afrique de l’ouest, dont la modélisation multivariée est réalisée par des fonctions

50
2.3 Applications aux données climatiques

copules. L’analyse multivariée des températures extrêmes sera illustrée par des applica-
tions (cas bivarié) dans la zone notée A. les stations de la zone A sont les stations de
Ouagadougou et de Yamoussoukro.
Dans une région donnée contenant d stations, considérons le vecteur aléatoire (X1 , . . . , Xd )
de dimension d. Par exemple, Xi représente la variable aléatoire « température maximale
mensuelle à la station i ». Nous nous intéressons ici à la loi jointe F du vecteur aléatoire :

F (x1 , . . . , xd ) = P (X1 ≤ x1 , . . . , Xd ≤ xd )

Notons Fi les fonctions de répartition marginales et fi les densités associées.


On remarque que les séries de données issues de stations voisines (sur un rayon d’au
plus 1500 km) sont fortement corrélées. Une approche intéressante consiste alors à utiliser
des copules, qui sont des fonctions permettant de modéliser la structure de dépendance
indépendamment des distributions marginales. Les copules permettent de décrire le com-
portement individuel de chaque station, et couplent les lois marginales pour obtenir la loi
jointe et la structure de dépendance sera donnée par la copule.

2.3.2 Transformation des données


2.3.2.1 Ajustement des lois marginales de la zone A
Les données que nous possédons révèlent toutes les mesures des température faites
chaque mois durant une période de 30 ans. Pour commencer, nous allons tenter d’ajuster
un modèle GEV aux données. Pour cela, nous regroupons les données par blocs, y extraire
chaque maximum, puis ensuite ajuster le modèle GEV aux maxima des blocs. Dans notre
cas, nos données reposent sur une période de 30 ans donc il est plus judicieux de choisir
une taille des blocs qui correspond aux maxima mensuels. Nous réalisons ce travail avec
le package "extRemes" du logiciel R.

51
2.3 Applications aux données climatiques

Figure 2.2 – Maxima mensuels pour les données de la station de Ouagadougou et de


Yamoussoukro.

Nous possédons donc sur chacun des deux sites 30 × 12 = 360 maxima mensuels.
Après estimation des paramètres par le maximum de vraisemblance, nous arrivons aux
résultats suivants :
1. Pour le site de Ouagadougou,
ˆ = (34.1938292, 2.6661321, −0.2629578)
(µ̂, σ̂, ξ)

ˆ vaut −871.2992 et la matrice


La valeur de la log-vraisemblance estimée à (µ̂, σ̂, ξ)
de variance-covariance des paramètres nous est donnée par :
 
0.027035651 0.003935926 −0.004199073
Σ =  0.003935926

0.015549140 −0.004309121 

−0.004199073 −0.004309121 0.002744872

Les intervalles de confiance à 95% sont les suivants :


(a) On a : µ ∈ [33.8715617, 34.5160967]
(b) On a : σ ∈ [2.4217320, 2.9105321]
(c) On a : ξ ∈ [−0.3656433, −0.1602722]
Nous voyons donc que nous pouvons ajuster les données avec une loi de weibull
(ξ < 0).

52
2.3 Applications aux données climatiques

Figure 2.3 – Ajustement des températures de la station de Ouagadougou

2. Pour le site de Yamoussoukro,


ˆ = (25.92409794, 1.08348388, −0.04993918)
(µ̂, σ̂, ξ)

ˆ vaut −590.2174 et la matrice


La valeur de la log-vraisemblance estimée à (µ̂, σ̂, ξ)
de variance-covariance des paramètres nous est donnée par :
 
0.004769307 0.001609300 −0.002029439
Σ =  0.001609300

0.002771822 −0.001687564 

−0.002029439 −0.001687564 0.003442793

Les intervalles de confiance à 95% sont les suivants :


(a) On a : µ ∈ [25.7887425, 26.05945338]
(b) On a : σ ∈ [0.9802955, 1.18667224]
(c) On a : ξ ∈ [−0.1649407, 0.06506234]
Nous voyons donc que nous ne pouvons pas déterminer de manière fiable si nous
avons plutôt affaire avec une loi de Gumbel (ξ = 0), une loi de Fréchet (ξ > 0) ou
une loi de Weibull (ξ < 0). Une autre manière d’obtenir un intervalle de confiance
pour ξ est de calculer la log-vraisemblance pour ξ (voir 2.4). La démarche consiste
à fixer la valeur de ξ et de maximiser la log-vraisemblance par rapport au vecteur
(µ, σ), puis de répéter ce procédé pour une suite de valeurs de ξ.

53
2.3 Applications aux données climatiques

Figure 2.4 – Log-vraisemblance profilée pour le paramètre de forme ξ.

La valeur maximale de la log-vraisemblance est atteinte pour ξ < 0. Ainsi, les données
sont ajustées par la loi de Weibull.

Figure 2.5 – Ajustement des températures de la station de Yamoussokro.

54
2.3 Applications aux données climatiques

```
Periodes
`` ``` de retour
10 50 100
Sites
```
``` `
Ouagadougou [38.34346, 39.10123] [39.98106, 41.41654] [40.38850, 42.22818]
Yamoussokro [27.96830, 28.49234] [29.09832, 30.43245] [29.45319, 31.30124]

Table 2.1 – Intervalle de confiance à 95% des niveaux de retour pour des périodes de
retour données (en mois).

2.3.2.2 Loi extrêmes bivariée de la zone A


Dans cette section, nous utilisons le modèle logistique bivarié de Gumbel pour estima-
tion de la dépendance spatiale entre les sites de Ouagadougou et de Yamoussoukro. On
obtient les figures suivantes :

Figure 2.6 – Test d’adéquation des ajustements par la GEV de la zone A (site de Oua-
gadougou à gauche et le site de Yamoussoukro à droite).

Après estimation des paramètres, à l’aide du package "evd", on obtient le paramètre


de dépendance qui vaut 0.30555 avec une erreur standard de ±0.01788 et la fonction
dépendance de Pickands se représente comme suit :

55
2.3 Applications aux données climatiques

Figure 2.7 – Représentation de la fonction de dépendance de Pickands pour la zone A


(la représentation non paramétrique en pointillé et la représentation paramétrique (avec
θ = 0.30555) en trait plein).

Figure 2.8 – Représentations spatiales des quantiles extrêmes de la zone A.

2.3.2.3 Ajustement des données de la zone A par des copules archimédiennes,


elliptiques et archimax
Dans cette section nous ajustons les données de la zone A par des copules spatiales qui
capturent la dépendance des événements extrêmes. les copules choisies pour cet ajustement

56
2.3 Applications aux données climatiques

sont : la copule Gaussienne, la copule de Gumbel, la copule de Student et la copule de


Franck.
Pour ajuster les données par les différentes copules, nous commençons par rendre les
données uniforme sur [0, 1]. On obtient ainsi la figure suivante :

Figure 2.9 – Transformation des données en valeur uniforme sur [0,1]

Après transformation des données on remarque une dépendance positive. Une fois les
données rendues uniformes nous procédons à une estimation paramétrique des copules.
Nous choisissons l’estimation par la méthode de vraisemblance et on obtient les valeurs
suivantes :
1. Pour la copule Gaussienne on a ρ̂ = 0.88569.
2. Pour la copule de Gumbel on a θ̂ = 2.915 ;
3. Pour la copule de Student on a ρ̂ = 0.88634 et ν̂ = 15.65979 ≈ 16.
4. Pour la copule de Franck on a θ̂ = 10.9535.
Ainsi, à partir des paramètres estimés ci-dessus on obtient les graphiques suivants :

57
2.3 Applications aux données climatiques

Figure 2.10 – A gauche : Distribution de la loi jointe de la zone A (construite à partir


d’une copule Gaussienne). A droite : Densité de la loi jointe de la zone A (construite à
partir d’une copule Gaussienne.

Figure 2.11 – A gauche : Distribution de la loi jointe de la zone A (construite à partir


d’une copule de Gumbel). A droite : Densité de la loi jointe de la zone A (construite à
partir d’une copule de Gumbel.

58
2.3 Applications aux données climatiques

Figure 2.12 – A gauche : Distribution de la loi jointe de la zone A (construite à partir


d’une copule de Student). A droite : Densité de la loi jointe de la zone A (construite à
partir d’une copule de Student.

Figure 2.13 – A gauche : Distribution de la loi jointe de la zone A (construite à partir


d’une copule de Franck). A droite : Densité de la loi jointe de la zone A (construite à
partir d’une copule de Franck).

59
2.3 Applications aux données climatiques

Aperçu des différentes copules utilisées pour l’ajustement

Figure 2.14 – Densités des copules Gaussienne, Gumbel, Student et Franck ajustées aux
séries de températures max mensuelles (1981-2010) des stations de Ouagadougou et de
Yamoussoukro.

2.3.2.4 Estimation des périodes de retour pour les températures extrêmes


bivariées.
Soit t = (t1 , t2 ) ∈ R2 un couple de températures extrêmes avec t1 une température
extrême de la station de Ouagadougou et t2 une température extrême de la station de
Yamoussoukro. La période de retour associée à l’événement bivarié t est le réel T défini
par
1 1
T = = (2.49)
P (X > t1 , Y > t2 ) 1 − F (x) − G(y) + H(x, y)
où H est la distribution jointe de (X, Y ) et F, G les distributions marginales de H.
La relation (2.49) peut encore s’écrire via les copules :
1 1
T = = (2.50)
P (X > t1 , Y > t2 ) 1 − F (x) − G(y) + C(F (x), G(y))
où C est une copule associée à la distribution bivariée des températures H. On définit
ainsi la zone H de températures à haut risque de niveau α par :
Hα = {(x, y) ∈ R2 , H(x, y) > α}

60
2.3 Applications aux données climatiques

Ainsi, nous cherchons à déterminer la période de retour du couple de température maxi-


male des deux stations. Pour la station de Ouagadougou, la température maximale sur
les 30 ans est t1 = 40.9◦ C et pour celle de Yamoussoukro la température maximale est de
t2 = 30.17533◦ C.

t Gaussienne Gumbel Student Franck


(t1 , t2 ) 132.58 97.2 125.19 518.59
(37,30) 65.63 65 65.2 70

Table 2.2 – Périodes de retour, en mois, des événements t pour les stations de Ouaga-
dougou et Yamoussoukro.

Figure 2.15 – Quantile plot des marges après ajustement par la copule de Gumbel.

Figure 2.16 – Quantile plot des marges après ajustement par la copule de student.

Le tableau 2.2 ci-dessus rapporte, en mois, les périodes de retour de l’événement t, en



C, des stations de Ouagadougou et de Yamoussoukro pour chacune des quatre modéli-
sations Gaussienne, Gumbel, Student et Franck. Si la Figure 2.14 montre que les copules

61
2.3 Applications aux données climatiques

de Student et Gumbel semblent mieux modéliser la dépendance des valeurs rares que la
copule gaussienne et la copule de Franck. Le tableau 2.2 montre que les conséquences du
choix de la copule sur les périodes de retour sont importantes. Par exemple, pour l’évé-
nement (t1 , t2 ), la période de retour est estimée à 207 mois pour la copule Gaussienne, et
à 80.12 mois pour la copule de Gumbel, soit plus du double. Ce qui est logique puisque
on se trouve alors dans la catégorie des événements rares dépendants, et que la copule
Gaussienne suppose l’indépendance de tels événements.

Remarque 2.1 (cas d’indépendance)


Si nous supposons que les événements rares sont indépendants (cas où on ajuste les don-
nées avec la copule de gumbel avec θ = 1) alors la période de retour du couple de tempé-
rature maximale des deux stations est T = 4914.80 mois avec une probabilité d’apparition
mensuelle P = 0.0002 ce qui est improbable au vu des températures rélévées sur ces 30
ans.

Conclusion
Les copules de Student et de Gumbel semblent mieux modéliser la dépendance des
valeurs rares que la copule gaussienne et la copule de Franck. Les figures 2.15 et 2.16 per-
mettent d’affirmer que La copule de Gumbel devrait être la mieux adaptée pour modéliser
la dépendance des températures extrêmes.

62
CHAPITRE 3
QUELQUES APPROCHES DE
MODÉLISATION DES RISQUES

Sommaire
3.1 Généralités sur les risques . . . . . . . . . . 64
3.1.1 Quelques types de risques . . . . . . . . . . . . . . . . . . . . . 64
3.1.2 Quantification des risques . . . . . . . . . . . . . . . . . . . . . 66
3.2 Approche de la Valeur à Risque . . . . . . . 67
3.2.1 Caractérisation de la valeur à risque . . . . . . . . . . . . . . . 67
3.2.2 Extension multivariée de la VaR . . . . . . . . . . . . . . . . . 68
3.2.3 Les bornes de la VaR . . . . . . . . . . . . . . . . . . . . . . . 69
3.2.4 La VaR et certaines mesures de risque . . . . . . . . . . . . . . 70
3.2.5 Pseudo-convexité des mesures dérivées de la VaR . . . . . . . . 72
3.2.6 Propriétés de la déviation standard empirique . . . . . . . . . . 74
3.3 Approche géométrique des scénarios de risques 75
3.4 Approches de la période de retour . . . . . 79
3.4.1 Notion de période de retour . . . . . . . . . . . . . . . . . . . . 79
3.4.2 Interprétation de la période de retour . . . . . . . . . . . . . . 80

63
3.1 Généralités sur les risques

a perception du risque est très importante et capitale dans toute activité de ges-
L tion. La gestion ou management du risque peut se définir comme une démarche qui
consiste à identifier les risques, les évaluer et définir des mesures de prévention si on estime
que le risque est trop grand. La gestion des risques traite les risques méthodiquement, de
manière coordonnée et économique tout en mettant l’accent sur l’identification des as-
pects fragiles d’un dispositif pour en estimer la pobabilité de survenance d’une situation
risquée.
Dans la modélisation stochastique, il existe plusieurs procédés pour gérer un risque en
passant par l’identification et l’évaluation pour permettre de réduire l’impact des certains
événements extrêmes. La maîtrise des risques est ainsi devenue un sujet de préoccupation
dans les sciences climatiques et se prémunir contre les risques devient alors très préoccu-
pant afin d’anticiper des crises. Il faut noter cependant qu’une des plus grandes difficultés
de l’analyse stochastique en général et dans celle des risques en particulier réside dans
la mesure de la dépendance entre les variables modélisant ces risques. Et étant donné le
fait que toute fonction de répartition continue peut être paramétrée par une copule via
la relation de Sklar (voir relation 1.8), on comprend alors aisément le rôle important que
joue l’utilisation des copules dans l’analyse stochastique des risques.
Dans ce chapitre, nous rappelons d’abord quelques généralités sur les risques avant de
proposer quelques propriétés de la valeur à risque. Une propriété vient étendre la notion
des scénarios à haut risque aux copules dérivées.

3.1 Généralités sur les risques


3.1.1 Quelques types de risques
Le risque peut être aussi défini comme étant une exposition à un danger potentiel que
peut être associée à une situation où il y a une incertitude sur l’issue d’une opération. En
terme d’occurrence, le risque est considéré comme étant la probabilité que les conséquences
néfastes, les dommages se matérialisent effectivement.
D’après l’encyclopédie Wikipédia par exemple, la gestion des risques est la discipline
qui s’attache à identifier, évaluer et prioriser les risques relatifs aux activités d’une orga-
nisation, quelles que soient la nature ou l’origine de ces risques, pour les traiter métho-
diquement de manière coordonnée et économique, de manière à réduire et contrôler la
probabilité des événements redoutés, et réduire l’impact éventuel de ces événements.
La gestion des risques devient de plus en plus une discipline à part entière et permet
d’évaluer les risques concernant certains domaines comme les sciences climatiques, la
finance, l’assurance, l’environnement, etc.

3.1.1.1 Risque financier


La notion du risque en finance concerne l’éventualité d’observer des évolutions défavo-
rables d’une variable du marché. C’est donc un danger lié à une source financière, comme

64
3.1 Généralités sur les risques

le prix d’actifs sur les marchés financiers ou encore la santé financière de contrepartie de
transaction avec la firme.
Pour qu’un risque soit qualifié de financier, il doit comporter trois éléments :
1. un individu (ou une organisation) qui est exposé(e) à une perte.
2. un actif ou un revenu dont la destruction (ou la perte) causera une perte financière.
3. un danger qui peut causer la perte.
On distingue essentiellement trois grands types de risques financiers
• Le risque de crédit ou de contrepartie
C’est l’incapacité d’un client (entreprise, institution financière, particulier ....) à res-
pecter et remplir ses obligations financières vis à vis de l’établissement financier
• Le risque de marché
C’est le risque de perte suite à une évolution défavorable des paramètres de marché
impactant négativement les positions de l’établissement financier. Ce risque est composé
entre autre du risque de taux d’intérêt, du risque d’échange et du risque de modèle.
• Le risque opérationnel
C’est un risque résultant d’une inadéquation ou d’un échec au niveau des processus,
des personnes, des systèmes (erreurs humaines, pannes systèmes, fraudes, litiges etc) ou
pertes résultant d’événements externes (catastrophes naturelles, incendies ...).

3.1.1.2 Risque environnementaux


On peut citer quelques exemples de problèmes récents liés aux risques environnemen-
taux : inondations dues à des précipitations extrêmes, crise de la vache folle, pollution de
l’air (ozone), du sol (nitrates), des eaux (métaux lourds, composés chimiques, dérivés du
pétrole).
Les définitions précédentes du risque s’appliquent évidemment aux risques environne-
mentaux. En particulier, on peut entendre par risques environnementaux :
1. les risques industriels ou technologiques générés par l’entreprise (risques internes)
impactant l’environnement : eau, air, sites et sols, bruit, etc.
2. les risques d’agressions extérieures (risques externes) dont la dimension environ-
nementale impacte l’entreprise tels que : les risques naturels (inondation, mouve-
ment de terrain, tempête, foudre, sécheresse...), les accidents extérieurs à l’origine de
dommages environnementaux (rupture de digue, accident provoqué par une activité
dangereuse avoisinante. . . ).

3.1.1.3 Risque sanitaire


Le risque sanitaire correspond à la probabilité pour que survienne un événement nui-
sible à la santé d’un individu ou d’un groupe d’individus. C’est un risque immédiat ou à
long terme représentant une menace directe pour la santé des populations nécessitant une

65
3.1 Généralités sur les risques

réponse adaptée du système de santé. Par exemple, le risque sanitaire intervient lorsque
les eaux sont polluées et deviennent impropres à l’utilisation qui en est faite : la consom-
mation de l’eau, de produits vivants. Parmi ces risques, on recense notamment les risques
infectieux pouvant entrainer une contamination de la population (Ébola, pandémie grip-
pale...).

3.1.1.4 Risque de changement climatique


Un certain nombre de risques sont directement liés aux conditions climatiques : tem-
pêtes, sécheresses, feux de forêts, inondations ou encore canicules. Selon la synthèse 2014
du GIEC, les effets du changement climatique très probables sont :
1. Hausse des précipitations violentes à l’origine d’un risque croissant d’inondations «
éclairs » à l’intérieur des terres, événements de coulée de boue ou de glissement de
terrain plus fréquents.
2. Une hausse du niveau des mers plus importante que ce qui était prévu dans les
analyses antérieures ; des événements climatiques extrêmes (sécheresses, pluies dilu-
viennes, tempêtes. . . ) plus violents et plus fréquents ;
3. Une hausse des températures moyennes supérieure à 2◦ C d’ici 2100.

3.1.2 Quantification des risques


Une mesure de risque doit pouvoir vérifier un certain nombre de propriétés élémen-
taires ; mais il n’existe pas de consensus dans la littérature sur ces propriétés. Dans cette
section, la variable aléatoire d’intérêt dont l’on souhaite quantifier le risque sera notée
X. Elle désignera également la variable aléatoire du montant de perte. On note R la
fonction qui quantifie le niveau de danger inhérent au risque X. De grandes valeurs de
R(X) indiqueront que X est dangereux dans un sens que l’on précisera. Nous rappelons
dans ce qui suit la définition d’une mesure de risque.

Définition 3.1
On appelle mesure de risque une fonction R associant à X un réel positif ou nulle :

R : X → R+

De grandes valeurs de R(X) indiqueront que X est dangereux R(X) peut être vu comme
le capital à détenir pour faire face aux pertes X.

Pour deux risques quelconques X et Y , les propriétés suivantes peuvent être formulées :
L
1. Invariance en loi : Si X = Y alors R(X) = R(Y ).
2. Invariance par translation : R(X + c) = R(X) + c. Ajouter un certain montant au
risque implique l’ajout de ce même montant à la mesure du risque.
3. Homogénéité positive : R(λX) = λR(X) pour λ ≥ 0. Le fait de mesurer une
proportion d’un risque revient à considérer la proportion de la mesure du risque
seul.

66
3.2 Approche de la Valeur à Risque

4. Monotonie : X ≤ Y =⇒ R(X) ≥ R(Y ). Elle permet de s’assurer que si le risque dû


à X est presque sûrement plus grand que celui dû à Y alors X est plus dangereux
au sens de la mesure de risque que Y .
5. Sous additivité : R(X + Y ) ≤ R(X) + R(Y ). La sous-additivité traduit le fait
que considérer deux risques simultanément est moins risqué que traiter les risques
séparément.
6. Convexité : pour tout β ∈ [0, 1], on a : R(βX + (1 − β)Y ) ≤ βR(X) + (1 − β)R(Y ).
Il existe d’autres propriétés des risques dans la littérature. On peut citer par exemple
• La propriété de borne supérieure : R(X) ≤ max (−X) ;
• Le conservatisme : R(X) = R(X − ) où X − = min(X, 0) ;
• la pertinence : pour toute variable X ≤ 0 ;on a : R(X) ≤ 0.

3.2 Approche de la Valeur à Risque


3.2.1 Caractérisation de la valeur à risque
La notion de valeur à risque (VaR ) est apparue pour la première fois dans le secteur
de l’assurance. Elle désigne le niveau de perte potentielle maximale d’un portefeuille ou
d’un actif pour un horizon temporel donné et pour un niveau de confiance fixé à priori.
Elle exprime donc la perte potentielle qui peut survenir à la suite de mouvements ad-
verses de prix des actions. Mathématiquement la VaR est considérée comme étant la
distribution des gains et des pertes pour un niveau de confiance donné. La VaR synthé-
tise en une seule mesure une vision sur le risque global et permet de déterminer le capital
(avoir propre) minimal qu’il faut maintenir pour ne pas exposer son entreprise à la faillite.

Définition 3.2
La VaR d’une variable aléatoire X de fonction de répartition FX sur un horizon donné T
et pour un niveau de confiance α ∈ [0, 1] est défini par :
V aR(X; α) = − inf{x ∈ R/FX (x) > 1 − α} (3.1)
correspondant au capital minimal pour éviter d’être en ruine avec une probabilité 1 − α.
De manière similaire nous avons :
V aR(X; α) = inf{x ∈ R/FX (x) > α} (3.2)
Ceci peut être représenté en fonction de la quantile FX−1 nous avons par suite :
V aR(X; α) = −FX−1 (1 − α) = FX−1 (α) (3.3)
où FX est une fonction continue et strictement croissante.
La VaR est stable par transformation croissante (non linéaire) : quels que soient le niveau
de probabilité α ∈ [0, 1] et la fonction croissante et continue h on a
V aR[h(X); α] = h(V aR[X; α]) (3.4)

67
3.2 Approche de la Valeur à Risque

De manière générale la proposition suivante donne les propriétés d’une transformation


croissante de la VaR.

Proposition 3.1 ([1])


Pour tout niveau de probabilité α ∈ [0, 1], fixé,
- Si h est une fonction strictement croissante et continue à gauche, alors on a :
−1
V aR[h(X); α] = Fh(X) (α) = h(FX−1 (α)) = h(V aR[X; α]). (3.5)

- De la même manière si h est une fonction strictement décroissante, continue à droite


et si FX est bijective on a :
−1
V aR[h(X); α] = Fh(X) (α) = h(FX−1 (1 − α)) = h(V aR[X; 1 − α] (3.6)

Pour mieux cerner le concept de la VaR, il semble logique de spécifier trois paramètres
très importants pour l’interprétation du chiffre de la VaR.

3.2.1.1 Le niveau de confiance


Il correspond à l’erreur de première espèce α ∈ [0, 1], dans la théorie des tests ou au
seuil de signification dans l’estimation par intervalle de confiance. Il s’agit d’un paramètre
compris entre 0 et 1 (en général 95% ou 99%) qui correspond à la probabilité d’observer
une perte de portefeuille ou de l’actif inférieure ou égale à la VaR.

3.2.1.2 Horizon temporel choisi


L’horizon temporel choisi ou période de détention, est un paramètre qui correspond à
la période sur laquelle la variation de valeur du portefeuille est mesurée. D’une manière
générale, aucune règle impose le choix de cette période de détention car ceci dépend de la
nature des instruments dans le portefeuille, de l’objectif de la modélisation, des besoins
spécifiques des sociétés et de l’horizon de gestion.

3.2.1.3 La distribution des profits et des pertes


Cette distribution a souvent été considérée comme étant gaussienne or les données des
profits et des pertes à partir desquelles on calcule la VaR sont généralement exprimées
sous forme de rendements qui par ailleurs dans la réalité du marché les distributions de
rendements ne sont généralement pas normales. En effet, l’asymétrie de données doit aussi
être pris en compte.

3.2.2 Extension multivariée de la VaR


La VaR est considérée comme indicateur de référence en matière de mesure de risque.

68
3.2 Approche de la Valeur à Risque

3.2.2.1 Définition
Soit X une variable aléatoire de fonction de répartition (donc F (x) = P (X ≤ x) )
modélisant par exemple, un gain ou une perte.

Définition 3.3 (de la Valeur à risque univariée)


La valeur à risque (VaR) d’un placement se définit par la perte plausible dont le dépasse-
ment est peu probable à brève échéance. Plus formellement, la VaR de niveau α ∈ (0, 1)
est la grandeur QX (α) définie par

V aR(X; α) = inf{x, P (X ≤ x) ≥ α} = FX−1 (α) = QX (α)

où QX est la fonction quantile de X.


De façon équivalente, on a :

Rα (X) = V aR(x; α) = xα où P (X ≤ xα ) = α.

Définition 3.4 (Valeur à risque multivariée)


Pour α ∈ (0, 1), on définit la VaR multivariée de niveau α par :
 
E[X1 |X ∈ ∂L(α)]

V aRα (X) = E[X|X ∈ ∂L(α)] =  .. 
,

. 
E[Xd |X ∈ ∂L(α)]

où ∂L(α) est le bord de l’ensemble de niveau α de F .


Analogiquement
 
E[X1 |F (X) = α]

V aRα (X) = E[X|F (X) = α] =  .. 
.

. 
E[Xd |F (X) = α]

3.2.3 Les bornes de la VaR


Cette sous-section caractérise les bornes de la VaR dans l’optique de prendre en consi-
dération la VaR agrégeant plusieurs sources de risques et compte tenu de la difficulté
liée à la détermination d’une approche analytique permettant d’estimer la VaR sur cette
position de manière générale. Ainsi que les chercheurs ont tenté de définir les bornes à
l’intérieur desquelles la VaR agrégée se situe. Particulièrement pour la somme de deux
risques. Nous avons essentiellement entre autres le théorème de Makarov.

Théorème 3.1
Soient deux v.a X et Y de distributions FX et FY respectivement.
1. Pour tout z ∈ R, on a :

P[X + Y ≤ z] ≥ sup C − (FX (x), FY (y)) := Ψ(z). (3.7)


x+y=z

69
3.2 Approche de la Valeur à Risque

2. Soit Ψ−1 (α) = inf{z/Ψ(z) ≥ α},α ∈ (0, 1) l’inverse généralisé de Ψ. Alors

Ψ−1 (α) = inf {FX−1 (u) + FY−1 (v)}. (3.8)


M (u,v)=α

3. La plus grande borne supérieure pour la VaR est

V aR[X + Y ; α] ≤ Ψ−1 (α). (3.9)

Il faut remarquer que dans le cas où X et Y sont obtenues l’une de l’autre par une
transformation monotone, on a :

V aR[X + Y ; α] = V aR[X; α] + V aR[Y ; α]. (3.10)

Mais il existe des cas où V aR[X + Y ; α] est beaucoup plus grande que la somme des
quantiles uni-variés V aR[X; α] + V aR[Y ; α]. Cela s’explique par le fait que VaR n’est pas
sous-additive.

Définition 3.5 (zone de défaillance)


On définit la zone de défaillance multivariée par :
1
{(x1 , · · · , xN ) ∈ RN /u1 = F1 (x1 ), · · · , uN = FN (xN ), C̄(u1 , · · · , uN ) < } (3.11)
t

N
[(−1)n
X X
C̄(u1 , · · · , uN ) = C(u)] (3.12)
n=0 u∈Z(N −n,N )
PN
et Z(N − n, N ) représente l’ensemble {u ∈ [0, 1]N / n=1 x{1} (un ) = M }. En effet, en
dimension 2 nous avons :

C̄(u1 , u2 ) = C(1, 1) − C(u1 , 1) − C(1, u2 ) + C(u1 , u2 ) = 1 − u1 − u2 + C(u1 , u2 ).

L’évaluation et la construction des scénarios de crise multidimensionnels s’avèrent très


délicats car la zone de défaillance fournit un ensemble dans l’espace RN . Dans ce cas on est
souvent confronté à un problème lié au choix du scénario parmi une infinité des scénarii
possibles. L’intérêt des copules est de quantifier les scénarii économiques et de comprendre
leur cohérence c’est-à-dire de déceler les incohérences du scénario. Cette approche se fait
alors par le biais du temps de retour implicite défini par : pour un vecteur (x1 , · · · , xN ) ;

t(x1 , · · · , xN ) = C̄−1 (F1 (x1 ), · · · , FN (xN )). (3.13)

3.2.4 La VaR et certaines mesures de risque


D’autres mesures dérivant de la VaR ont été élaborées pour estimer la probabilité de
survenance d’un "danger". C’est dans ce contexte qu’il faut situer des outils tels que la
VaR de queue de distribution (ou tail Value-at-risk (TVaR), en anglais), la XTVaR, etc.

70
3.2 Approche de la Valeur à Risque

3.2.4.1 La VaR de queue


Une des insuffisances de la VaR est le fait qu’il ne renseigne pas sur l’ampleur ou la
magnitude de la perte au délà du seuil. En effet, par exemple deux variables peuvent avoir
la même VaR à un seuil donné alors l’une à une queue épaissse et soit par conséquent plus
risquée que l’autre. La TVaR palie à cela car précise le degré de l’échec et il est affecté
par les valeurs extrêmes dans la queue.

Définition 3.6 (La TVaR)


La Tail Value-at-Risk au niveau α, notée T V aR(X; α) est définie comme la moyenne des
VaR de niveau supérieur à αc’est-à-dire :
1 Z1 1 Z α 
T V aR(X; α) = V aR(X; t) dt = E(X) − V aR(X; ξ) dξ .
1−α α 1−α 0

La Tail-Value-at-Risk, s’intéresse essentiemment à ce qui se passe en moyenne lorsque


ces événements extrêmes surviennent.

3.2.4.2 La VaR conditionnelle


Dans la modélisation des risques la VaR est une mesure de risque qui été beaucoup
critiqué puisque ne vérifiant pas la sous-additivité de théorie d’Artezner et al, et numé-
riquement sophistiqué, à cause de la non convexité. Ainsi parmi les mesures de risque
de perte introduites à la fin de vingtième siècle qui est l’Expected Shortfall notée éga-
lement sous le nom du Conditional Value-at-Risk (CVaR) et Expected tail loss (ETL).
Cet outil s’avère plus pertinent et aussi puissant que la VaR car tenant compte des ca-
tastrophes des événements de grands dommages encourus. La CVaR répond à la question
suivante : quelle est la situation qui prévaut en moyenne quand les événements extrêmes
surviennent ? Elle est considérée comme étant la moyenne des pertes au-delà d’un niveau
de confiance donné.

Définition 3.7 (La CVaR)


Pour une variable aléatoire X et pour tout niveau de probabilité α, l’Expected Shortfall
ES(X; α) peut être défini comme l’espérance de perte lorsque cette perte dépasse la VaR.
Elle est donné par :
Z
ES(X; α) = CV aRα (X) = E{X|X ≥ V aRα (X)} = zFXα (z)dz avec FXα (z) (3.14)
R

où z ≥ V aRα .
Pour un niveau de confiance α ∈]0, 1[, Rockafellar et al. [22] caractérise la CVaR par

E(X − a)+ F α (z) − α


CV aRα (X) = E{X|X ≥ V aRα (X)} = inf{a + ; a ∈ R} = X .
1−α 1−α
L’une de ces propriétés les plus importantes est qu’elle vérifie les propriétés de cohé-
rence c’est-à-dire c’est une mesure cohérente. Elle permet de capter l’épaisseur de la queue
de pertes de la distribution des profits et des pertes.

71
3.2 Approche de la Valeur à Risque

3.2.5 Pseudo-convexité des mesures dérivées de la VaR


L’Experted Shortfall est parfois appelée Tail VaR ou encore Conditional VaR avec
parfois de définitions différentes.

Proposition 3.2
La CVaR est une mesure de risque cohérente dans le sens basique. De plus, pour un niveau
de confiance α ∈]0, 1[, il existe une fonction QX telle que la combinaison pseudo-convexe
suivante soit vérifiée
(1 − α)QX (α) + αQX (1 − α) = 0. (3.15)

Preuve. La cohérence de la CVaR est déjà prouvée dans [22]. Mais nous apportons une
autre approche de la démonstration afin de prouver la proposition.
· Pour toute constante C, on a : CV aRα (C) = C.
Par définition,
1Zα
CV aRα [(1 − λ)X + λY ] = V aRβ ((1 − λ)X + λY )dβ
α 0
ce qui donne
1Zα 1Zα
CV aRα ((1 − λ)X + λY ) ≤ V aRβ ((1 − λ)X) dβ + V aRβ (λY ) dβ
α 0 α 0
De plus, on vérifie aisément que
Z α Z α Z α Z α
V aRβ ((1 − λ)X)dβ+ V aRβ (λY )dβ = (1 − λ) V aRβ (X)dβ+λ V aRβ (Y )dβ
0 0 0 0

c’est à dire

CV aRα ((1 − λ)X + λY ) ≤ (1 − λ)CV aRα (X) + λCV aRα (Y ). (3.16)

Par ailleurs, la monotonie de la VaR implique que : pour toutes variables X ≤ Y et


pour tout réel α 6= 0,
1Zα 1Zα
V aRβ (X) ≤ V aRβ (Y ) =⇒ V aRβ (X) dβ ≤ V aRβ (Y ) dβ
α 0 α 0
Ainsi,
CV aRα (X) ≤ CV aRα (Y ).
D’autre part, pour tout k ∈ N, l’inégalité (3.16) équivaut à :

CV aRα (X) = CV aRα (X − X k + X k ) ≤ CV aRα (X − X k ) + CV aRα (X k )

soit alors,

CV aRα (X) ≤ CV aRα (X − X k ) puisque avec CV aRα (X k ) ≤ 0.

CV aRα (X) ≤ CV aRα (X − X k ) ≤ CV aRα (||X k − X||2 ) −→ 0

72
3.2 Approche de la Valeur à Risque

Pour tout λ > 0 ;


1Zα λZα
CV aRα (λX) = V aRβ (λX) dβ = V aRβ (X) dβ
α 0 α 0
Ainsi, on conclut que la CVaR est une mesure de risque cohérente dans un sens basique.
De plus, on a

E(X) = −αCV aR1−α (−X) + (1 − α)CV aRα (X).

et
E(−X) = −αCV aR1−α (X) + (1 − α)CV aRα (−X)
alors,

−αCV aR1−α (−X) + (1 − α)CV aRα (X) = −αCV aR1−α (X) + (1 − α)CV aRα (−X);

Finalement, en posant QX (α) = CV aR1−α (−X), on retrouve la relation (3.15). Ce qui


conclut la preuve

Proposition 3.3
La CV aRα est une combinaison pseudo-convexe de la VaR, la TVaR et de la XTVaR.

Preuve. La XTVaR est la somme de deux mesures de risque cohérentes dans le sens
basique. On a :
XT V aRα (X) = T V aRα (X) − V aRα (X)
alors, il vient que
1
T V aRα (X) − V aRα (X) = (CV aR1 (X) − CV aRα (X)) − V aRα (X).
1−α
Ce qui est équivalent à :
1
T V aRα (X) − V aRα (X) = (CV aR1 (X) − CV aRα (X)) − V aRα (X)
1−α
en outre,
1
XT V aRα (X) = (CV aR1 (X) − αAV aRα (X)) − V aRα (X)
1−α
alors il vient que,
1
XT V aRα (X) = (CV aR1 (X) − αAV aRα (X) − (1 − α)V aRα (X)).
1−α
Ainsi
CV aR1 (X) = (1 − α)(XT V aRα (X) + V aRα (X)) + αAV aRα (X)
est une pseudo-combinaison de la VaR, la TVaR et de la XTVaR

73
3.2 Approche de la Valeur à Risque

3.2.6 Propriétés de la déviation standard empirique


Proposition 3.4
La déviation standard σ(X) d’une variable X donnée est une mesure de déviation dans
la sens basique.
q
Preuve. Par construction, pour un X donné, σ(X) = E([X − E(X)]2 ) > 0. Il vient
q
que pour toute constante C ∈ R, il vient que σ(C) = V ar(C) = 0.
Soit X et Y deux vecteurs aléatoires, pour tout λ ∈ [0, 1]

σ((1 − λ)X + λY ) = (E[((1 − λ)X + λY )2 ] − E[(1 − λ)X + λY ]2 )1/2

alors,

(E[((1 − λ)X + λY )2 ] − E[(1 − λ)X + λY ]2 )1/2 = ((1 − λ)2 E(X 2 ) + 2λ(1 − λ)E(XY )
−(1 − λ)2 (E(X))2 − 2λ(1 − λ)E(X)E(Y ) − λ2 (E(Y ))2 )1/2

On obtient l’égalité suivante :



(E[((1 − λ)X + λY )2 ] − E[(1 − λ)X + λY ]2 )1/2 = (1 − λ)2 (E(X 2 ) − E 2 (X))
1/2
+λ2 (E(Y 2 ) − E 2 (Y )) + λ(1 − λ)cov(X, Y )

si de plus cov(X, Y ) = 0, il vient que


!1/2
2 2 2 2 2 2
σ((1 − λ)X + λY ) = (1 − λ) (E(X ) − E (X)) + λ (E(Y ) − E (Y ))

finalement,
!1/2 !1/2
2 2 2 2
σ((1 − λ)X + λY ) ≤ (1 − λ) (E(X ) − E (X)) + λ (E(Y ) − E (Y ))

La convexité est donnée par

σ((1 − λ)X + λY ) ≤ (1 − λ)σ(X) + λσ(Y )

Pour une variable aléatoire X donnée et un nombre réel k, il vient que


!1/2
2 2 1/2 k k 2 k k 2
(E(X ) − E (X)) = E((X − X + X ) ) − (E(X − X + X ))

alors,

σ(X) = E((X − X k )2 ) − 2E(X k (X − X k )) + E((X k )2 )

 1/2
!

− E((X − X k )2 ) + 2E(X k )E(X − X k ) + E((X k )2 )

74
3.3 Approche géométrique des scénarios de risques

En utilisant le fait que E((X − X k )2 ) −→ 0. Il vient que :


!1/2
k 2 2 k k k k k k 2
σ(X) ≤ E((X ) )−E (X )−2(E(X (X −X ))+E(X )E(X −X ))−(E(X −X ))

donc
!1/2
k 2 2 k k k k k
σ(X) ≤ E((X ) ) − E (X ) − 2(E(X (X − X )) + E(X )E(X − X ))

ce qui est équivalent à :


!1/2
k 2 2 k k
σ(X) ≤ E((X ) ) − E (X ) − 2cov(X, X − X )

Particulièrement, pour une mesure de déviation dans le sens basique, cov(X, Y ) = 0 et


cov(X, X − X k ) = 0, il vient que :
!1/2
σ(X) ≤ E((X k )2 ) − E 2 (X k ) = σ(X k ) ≤ d

La fonctionnelle σ(X) est appelée une mesure de risque monétaire dans le sens basique si
cov(X, Y ) = 0 et cov(X, X − X k ) = 0. q
La dernière propriété devient évidente. En effet, σ(λX) = E([λX − E(λX)]2 )
q q
σ(λX) = λ2 E([X − E(X)]2 ) = λ E([X − E(X)]2 ) = λσ(X).

On conclut alors que σ(X) est une mesure de déviation dans le sens basique

3.3 Approche géométrique des scénarios de risques


Pour modéliser cette dépendance multivariée, plusieurs structures ont été développées
ces dernières années Pickands utilise une fonction convexe pour caractériser la dépendance
des distributions extrêmes avec des marges exponentielles. Par rapport à l’approche de
dépassement de seuil, Balkema et Embrechts [4] ont abordé une approche géométrique
pour modéliser les risques. Dans ce qui suit, nous apportons notre contribution à cette
approche en utilisant les copules conditionnelles et les densités de copules.
Cependant, malgré cette diversité de structure dans cette section, on considère H un
demi-plan fermé associé à un vecteur aléatoire Z de densité dπ et P (Z ∈ H) > 0. Le
résultat suivant donne la relation entre Z et sa copule associée.

Proposition 3.5
Soit Z un vecteur aléatoire de Rd et H ⊂ Rd un demi-plan fermé avec P (Z ∈ H) > 0 et
C une copule multivariée associée à Z. Le scenario de haut risque Z H est défini comme le

75
3.3 Approche géométrique des scénarios de risques

vecteur Z et appartenant au demi-plan fermé H. Si π représente la distibution du vecteur


Z, alors la distribution du scénario de haut risque π H de Z H est donnée par
d
dπ H (z1 , . . . , zd ) = c(π1H1 (z1 ), . . . , πdHd (zd ))
Y
1Hi (zi )dπi (zi )/πi (Hi ) (3.17)
i=1

où πiHi , pour tout i = 1, . . . , d sont les fonctions marginales des distributions π H et c la


densité de la copule C.

Preuve. En utilisant le théorème de Sklar via la relation (1.8), la fonction de densité


f = (f1 , . . . , fd ) associée à la fonction de répartition F est liée à la densité de la copule
associée à F , pour tout (x1 , . . . , xd ) ∈ Rd par
∂ d C(F1 (x1 ), . . . , Fd (xd ))
f (x) =
∂x1 . . . ∂xd
= f1 (x1 ) × . . . × fd (xd ) × c(F1 (x1 ), . . . , Fd (xd )) (3.18)

En d’autres termes, pour tout (u1 , . . . , ud ) ∈ [0, 1]d , il vient que


f (F1−1 (u1 ), . . . , Fd−1 (ud ))
c(u1 , . . . , ud ) =
f1 (F1−1 (u1 )) × . . . × fd (Fd−1 (ud ))
Si nous utilisons la relation (3.18) et si π H est la distribution des scénarios de haut risque
Z H , on peut écrire :

H ∂ d C(π1H1 (z1 ), . . . , πdHd (zd ))


dπ (z1 , . . . , zd ) =
∂z1 . . . ∂zd
finalement,
d
dπ H (z1 , . . . , zd ) = c(π1H1 (z1 ), . . . , πdHd (zd ))
Y
1Hi (zi )dπi (zi )/πi (Hi )
i=1

ainsi la relation (3.17) est vérifiée

Corollaire 3.1
Soit Z ∈ Rd de densité f et c la densité de la copule multivariée C. Soit H un demi-plan
fermé tel que P (Z ∈ H) = α > 0. Alors Z H a pour densité
d
f H (z1 , . . . , zd ) = c(z¯1 , . . . , z¯d )
Y
1Hi (zi )f (zi )/αi (3.19)
i=1

où FiHi = z¯i pour tout i = 1, . . . , d sont les fonctions marginales de la distribution F H .

Preuve. Soit Z ∈ Rd de densité f et c la densité de la copule multivariée C. Soit H un


demi plan fermé tel que P (Z ∈ H) = α > 0. notons que P (Zi ∈ Hi ) = αi , ∀ i = 1, . . . , d.
Alors,
∂ d C(F1H1 (z1 ), . . . , FdHd (zd ))
f H (z1 , . . . , zd ) =
∂z1 . . . ∂zd

76
3.3 Approche géométrique des scénarios de risques

ce qui donne :
d
f H (z1 , . . . , zd ) = c(F1H1 (z1 ), . . . , FdHd (zd )) Hi
Y
fi (zi )
i=1

et finalement
d
f H (z1 , . . . , zd ) = c(F1H1 (z1 ), . . . , FdHd (zd ))
Y
1Hi (zi )f (zi )/αi
i=1

considérons alors que FiHi = z¯i pour tout i = 1, . . . , d, alors on a :


d
f H (z1 , . . . , zd ) = c(z¯1 , . . . , z¯d )
Y
1Hi (zi )f (zi )/αi
i=1

la relation (3.19) est ainsi vérifiée


Le résultat suivant donne une relation entre Z et sa copule associée.

Proposition 3.6
Soient Z un vecteur de Rd , H = H1 × . . . × Hd ⊂ Rd un demi plan fermé avec P (Z ∈
H) > 0, C une copule multivariée et supposons que zi ∈ ℵ = H1 ∩ . . . ∩ Hd , pour tout
i = 1, . . . , d. Si les distributions marginales des scenarios de haut risque π H sont toutes
continues, alors la densité de la copule C est donnée par
 
Hd
1H dπ ūH
1 , . . . , ūd
1
/π(H)
c(u1 , . . . , ud ) =     (3.20)
dπ1 ūH
1
1
× . . . × dπd ūH
d
d
/(π1 (H1 ) × . . . × πd (Hd ))

où (πiHi )(−1) (ui ) = ūH Hi


i ,pour tout i = 1, . . . , d, sont les réciproques des distributions πi .
i

Preuve. Supposons que les marges des scénarios de haut risque π1H1 , . . . , πdHd sont conti-
nues. En utilisant la relation (3.17), il vient que

dπ H (z1 , . . . , zd )
c(π1H1 (z1 ), . . . , πdHd (zd )) = d
Y
1Hi (zi )dπi (zi )/πi (Hi )
i=1

si zi ∈ ℵ, ∀ i = 1, . . . , d, alors on obtient la relation suivante


 
dπ H (π1H1 )(−1) (u1 ), . . . , (πdHd )(−1) (ud )
c(u1 , . . . , ud ) = d
Y
1Hi (zi )dπi (zi )/πi (Hi )
i=1

ce qui donne
 
1H dπ (π1H1 )(−1) (u1 ), . . . , (πdHd )(−1) (ud ) /π(H)
c(u1 , . . . , ud ) =    
1ℵ dπ1 (π1H1 )(−1) (u1 ) × . . . × dπd (π1Hd )(−1) (ud ) /(π1 (H1 ) × . . . × πd (Hd ))

77
3.3 Approche géométrique des scénarios de risques

ou encore
 
1H dπ (π1H1 )(−1) (u1 ), . . . , (πdHd )(−1) (ud ) /π(H)
c(u1 , . . . , ud ) =    
dπ1 (π1H1 )(−1) (u1 ) × . . . × dπd (π1Hd )(−1) (ud ) /(π1 (H1 ) × . . . × πd (Hd ))

d
\
puisque 1ℵ = 1, alors il vient que zi ∈ ℵ = Hi . Finalement, on obtient
i=1
 
Hd
1H dπ ūH
1 , . . . , ūd
1
/π(H)
c(u1 , . . . , ud ) =    
dπ1 ūH
1
1
× . . . × dπd ūH
d
d
/(π1 (H1 ) × . . . × πd (Hd ))

la relation (3.20) est ainsi vérifiée


Considérons en particulier le modèle bivariée de Gauss. Cette famille appartient à la
classe des distribution des valeurs extrêmes elliptiques.

Corollaire 3.2
La fonction de densité du modèle de Gauss bivariée et de coefficient de corrélation ρ est
tel que, pour tout (u1 , u2 ) ∈ [0, 1]2 ,

(ūH H2 2 H1 H2
(ūH H2 2
( )
1 2 1 2
F1 (H1 )F2 (H2 ) 1 ) + (ū2 ) − 2ρū1 ū1 1 ) + (ū2 )
cρ (u1 , u2 ) = √ exp − +
F (H) 1 − ρ2 2(1 − ρ2 ) 2
(3.21)

Preuve. Soit Z = (X, Y ) ∈ (R+ )2 admettant pour fonction de distribution, la distribution


de Gauss bivariée avec pour marges F1 et F2 . Z a pour densité
( )
1 x2 + y 2 − 2ρxy
fρ (x, y) = √ exp −
2π 1 − ρ2 2(1 − ρ2 )

Ainsi, pour la famille de Gauss on a :


( )
F1 (H1 )F2 (H2 ) x2 + y 2 − 2ρxy x2 + y 2
cρ (F1H1 (x), F2H2 (y)) = √ exp − +
F (H) 1 − ρ2 2(1 − ρ2 ) 2

Soient H = H1 × H2 ∈ R+ × R+ un demi-plan fermé tel que P (Z ∈ H) = F (H) > 0. Le


scénario de haut risque Z H a pour densité

fρH (x, y) = 1H (x, y)fρ (x, y)/F (H)

soit
( )
1 x2 + y 2 − 2ρxy



 √ exp − si (x, y) estdansH

2πF (H) 1 − ρ2 2(1 − ρ2 )
fρH (x, y) =  .


0 sinon

78
3.4 Approches de la période de retour

Comme pour la distribution de Gauss, la copule gaussienne est souvent caractérisée par
sa densité cρ . Alors, on peut écrire, pour tout (x, y) ∈ R2

fρH (x, y) = f1H1 (x)f2H2 (y)cρ (F1H1 (x), F2H2 (y))

ce qui équivaut
( )
1H (x, y) x2 + y 2 − 2ρxy
fρH (x, y) = √ exp −
2πF (H) 1 − ρ2 2(1 − ρ2 )
ou encore
( ) ( )
1H1 (x) x2 1H2 (y) y2
fρH (x, y) = √ exp − √ exp − cρ (F1H1 (x), F2H2 (y)).
F1 (H1 ) 2π 2 F2 (H2 ) 2π 2

Par ailleurs, on a :

fρH (x, y) = f1H1 (x)f2H2 (y)cρ (F1H1 (x), F2H2 (y))


( )
1H (x, y) x2 + y 2 − 2ρxy
= √ exp −
2πF (H) 1 − ρ2 2(1 − ρ2 )

soit ( ) ( )
1H1 (x) x2 1H2 (y) y2
fρH (x, y) = √ exp − √ exp − cρ (F1H1 (x), F2H2 (y))
F1 (H1 ) 2π 2 F2 (H2 ) 2π 2
De plus,
H1 ∩ H2 = R+ =⇒ 1H1 (x)1H2 (y) = 1et1H (x, y) = 1.
Ainsi,
( )
k x2 + y 2 − 2ρxy x2 + y 2
cρ (F1H1 (x), F2H2 (y)) =√ exp − + (3.22)
1 − ρ2 2(1 − ρ2 ) 2

En posons F1H1 (X1 ) = U et F2H2 (X2 ) = V alors (U, V ) ⊂ [0, 1]2 , alors la relation (3.22)
devient
(ūH H2 2 H1 H2
(ūH H2 2
( )
1 2 1 2
k 1 ) + (ū2 ) − 2ρū1 ū1 1 ) + (ū2 )
cρ (u1 , u2 ) = √ exp − +
1 − ρ2 2(1 − ρ2 ) 2

F1 (H1 )F2 (H2 )


où la constante k est telle que : k = .
F (H)

3.4 Approches de la période de retour


3.4.1 Notion de période de retour
Dans le cadre de notre problème de prédiction des risques climatiques, on aimerait bien
pouvoir déterminer la valeur qui sera dépassée en moyenne après un nombre donné d’an-
nées ou de mois. On voudrait obtenir la probabilité qu’une valeur extrême soit observée

79
3.4 Approches de la période de retour

après un certain temps ou alors, au contraire, étant donné une probabilité d’occurrence,
on aimerait bien connaître la période pour laquelle il serait probable qu’un seuil donné soit
dépassé au moins une fois durant cette période. Cela nous permettrait d’établir des pré-
dictions sur la fréquence des éventuels risques au cours du temps. Les termes fréquemment
utilisés sont connus sous les noms de période de retour et de niveau de retour.

Définition 3.8
On définit la période de retour T d’une variable aléatoire X, associée à son niveau de
retour Z, comme étant l’intervalle de temps moyen entre deux événements, dont l’intensité
atteint ou dépasse un certain seuil s.

Cela veut dire que sur un intervalle de temps T , il y’a en moyenne un événement
d’intensité supérieure ou égale à s. T est comptée dans une unité de temps arbitraire ;
dans l’étude des événements extêmes climatiques c’est le plus souvent l’année. On a :
1 1 1
T = = =
p P (X > x) 1 − P (X ≤ x)
où p est la probabilité d’occurrence.

Figure 3.1 – Définition de la notion de période de retour

3.4.2 Interprétation de la période de retour


1
Un événement de période de retour T a en moyenne une probabilité de se produire
T
chaque année. La période de retour doit être interprétée comme la probabilité statistique.
Par exemple, si une accumulation sur 24 heures de 83 mm est une pluie de période de
retour 10 ans (ou décennale), c’est que cette pluie s’est produite statistiquement à la fré-
quence d’une fois tous les dix ans. Cela ne veut pas dire qu’une telle pluie se produira
régulièrement à chaque dix années mais que statistiquement, elle a 10% de chance de se
produire (ou de dépasser) durant une année particulière.

80
3.4 Approches de la période de retour

Ainsi un événement extrême climatique de période de retour de 50 ans, qui a donc


une probabilité de 2% durant une année, peut se produire plusieurs fois dans une même
année ou une fois durant un certain nombre d’années consécutives puis ne plus se produire
durant 40 ans.

Remarque 3.1
Soit u∗ un événement extrême climatique de periode de retour centennale (ou 100 ans)
d’une variable aléatoire X de fonction de répartition FX . On a :
1 1
 

F X (u ) = ⇐⇒ u∗ = FX−1 1 − = V aR(X, 0.99)
100 100

81
PUBLICATIONS

82
ARTICLE 1

Titre : Spatial Tail Dependence and Survival Stability


in a Class of Archimedean Copulas
Auteurs : Diakarya Barro, Moumouni Diallo and Remi Guillaume
Bagré
Dans cet article, nous considérons une famille de copules archimédiennes en géné-
ral. Nous y proposons une autre caractérisation de la sous-famille des copules Archimax
bivariées dans un contexte spatialisé. On a établi en particulier qu’une combinaison géo-
métrique et convexe de copules de survie extrême est toujours une copule extrême. Nous
avons en outre étendu le concept de dépendance de queue dans le cas multivarié pour
des copules archimédiennes et avons introduit la définition de processus stochastique 2-
marginalement Archimax. L’article est publié dans le journal "International Journal of
Mathematics and Mathematical Sciences".
ISSN :161-1712 ; 1687-0425/E). DOI : http ://dx.doi.org/10.1155/2016/8927248 ;
Vol. 2016 Article ID 8927248, 8 pages.
Bases d’indexation : MathsCinet / Mathematics Registry ; ZbMath (q=se :00000456)
/ Scopus - (Elsevier).

83
Hindawi Publishing Corporation
International Journal of Mathematics and Mathematical Sciences
Volume 2016, Article ID 8927248, 8 pages
http://dx.doi.org/10.1155/2016/8927248

Research Article
Spatial Tail Dependence and Survival Stability in
a Class of Archimedean Copulas

Diakarya Barro,1 Moumouni Diallo,2 and Remi Guillaume Bagré3


1
UFR-SEG, Université Ouaga II, 12 BP 417, Ouagadougou 12, Burkina Faso
2
FSEG, Université des SSG, BP 2575, Bamako, Mali
3
UFR-ST, Université de Koudougou, BP 376, Koudougou, Burkina Faso

Correspondence should be addressed to Diakarya Barro; [email protected]

Received 27 February 2016; Accepted 17 May 2016

Academic Editor: Radko Mesiar

Copyright © 2016 Diakarya Barro et al. This is an open access article distributed under the Creative Commons Attribution License,
which permits unrestricted use, distribution, and reproduction in any medium, provided the original work is properly cited.

This paper investigates properties of extensions of tail dependence of Archimax copulas to high dimensional analysis in a spatialized
framework. Specifically, we propose a characterization of bivariate margins of spatial Archimax processes while spatial multivariate
upper and lower tail dependence coefficients are modeled, respectively, for Archimedean copulas and Archimax ones. A property
of stability is given using convex transformations of survival copulas in a spatialized Archimedean family.

1. Introduction to copulas and dependence modeling with an emphasis on


statistical and mathematical foundations in spatial context.
In stochastic multivariate modeling, the use of copulas Arising naturally in the context of Laplace Transforms
provides a powerful method of analysing the dependence (see Joe [2]), Archimedean copulas form a prominent class
structure of two or more random variables. Copulas were of copulas which leads to the construction of multivariate
first introduced via a pioneering result of Abe Sklar (see distributions involving one-dimensional generator functions
Durante and Sempi [1]) by means of a theorem which bears (Charpentier and Segers [4]). Particularly, an 𝑛-dimensional
his name and which constitutes the fundamental tool of copula 𝐶 is an Archimedean copula, if there exists a continu-
copulas applications to dependence modeling in statistics. ous and strictly decreasing convex function 𝜙, the generator
Since then, the copula functions appear implicitly in any of 𝐶, in the class of completely monotone functions:
multivariate distributions as a structure that allows separat-
ing the marginal distributions and the dependence model.
Specifically, the 𝑛-dimensional copula 𝐶 associated with a {𝜙 : [0, +∞] 󳨀→ [0, 1] ; 𝜙 (0) = 1; 𝜙 (∞)
random vector (𝑋1 , . . . , 𝑋𝑛 ) with cumulative distribution 𝐹 = (2)
(𝐹1 , . . . , 𝐹𝑛 ) is given by the probability integral transformation 𝜕𝑘 𝜙−1 (𝑡)
mapping R𝑛 to [0, 1] via the Sklar representation (see [2]); = 0; (−1)𝑘 ≥ 0; 𝑘 ∈ N} ,
𝜕𝑡𝑘
such that, for all (𝑥1 , . . . , 𝑥𝑛 ) ∈ R𝑛 ,
with generalized inverse 𝜙−1 (𝑦) = inf {𝑡 ∈ [0, 1], 𝜙(𝑡) ≤ 𝑦}
𝐹 (𝑥1 , . . . , 𝑥𝑛 ) = 𝐶 (𝐹1 (𝑥1 ) , . . . , 𝐹𝑛 (𝑥𝑛 )) . (1) such that
𝐶 (𝑢1 , . . . , 𝑢𝑛 ) = 𝜙−1 [𝜙 (𝑢1 ) + ⋅ ⋅ ⋅ + 𝜙 (𝑢𝑛 )] ;
Several approaches of construction of multivariate copulas (3)
have been developed and many surveys of copulas theory ∀ (𝑢1 , . . . , 𝑢𝑛 ) ∈ [0, 1]𝑛 .
and applications have appeared in the literature to date. For
instance, Joe [2] and Nelsen [3] are two key textbooks on Standard properties of Archimedean copulas can be found
copulas analysis, providing clear and detailed introductions in McNeil and Nešlehová [5]. Particularly Nelsen ([6] or
2 International Journal of Mathematics and Mathematical Sciences

[3]) provides a list of common one-parameter Archimedean 2.1. Multivariate Tail Dependence Coefficient. The concept
generator functions while Whelan [7] and Hofert and Scherer of tail dependence of two random variables is related to
[8] studied algorithms for sampling Archimedean copulas. the magnitude of the occurrence that one component is
The class of Archimedean copulas started a wide range of extremely large assuming that the other component is also
applications for a number of properties like their computa- extremely large. For two random variables 𝑋 and 𝑌 with
tional tractability and their flexibility to model dependences joint distribution function 𝐹𝑋,𝑌 = (𝐹𝑋 , 𝐹𝑌 ), the upper tail
between random variables. One of the most salient properties dependence coefficient (TDC) is the conditional probability
is the exchangeability induced by the algebraic associativity; 𝜆 𝑈 (if it exists) that 𝑌 is greater than the 100𝛼th percentile of
that is, in bivariate case, 𝐹𝑌 given that 𝑋 is greater than the 100𝛼th percentile of 𝐹𝑋 as
𝛼 approaches 1; that is,
𝐶 (𝑢1 , 𝐶 (𝑢2 , 𝑢3 )) = 𝐶 (𝐶 (𝑢1 , 𝑢2 ) , 𝑢3 )
(4) 𝐹𝑌−1 (𝛼)
∀ (𝑢1 , 𝑢2 , 𝑢3 ) ∈ [0, 1]3 . 𝜆 𝑈 = lim− 𝑃 (𝑌 > > 𝐹𝑋−1 (𝛼)) . (7)
𝛼→1 𝑋
However, for many other applications like risk managment, Similarly, the lower TDC is defined, if it exists, by
the exchangeability turns out to be restrictive. To overcome
this drawback researchers have developed other approaches 𝐹𝑌−1 (V)
of modeling. For example, Joe [2] and Hofert and Scherer [8] 𝜆 𝐿 = lim+ 𝑃 (𝑌 < < 𝐹𝑋−1 (V)) . (8)
V→0 𝑋
use Laplace Transforms (LT) to derive more asymmetric and
flexible extensions of multivariate Archimedean copulas. In Several approaches of generalization of TDC to high
the same vein and with the aim to construct Archimedean dimensional cases have been proposed.
copulas belonging to given domain of attraction, Charpentier
et al. (see [9]) introduced, in bivariate context, the family Definition 1 (see Diakarya [12] or [13]). A multivariate gen-
of Archimax copulas by combining the extreme values and eralization of the TDC consists in considering 𝑘 (𝑘 < 𝑛)
Archimedean copulas classes into a single class. A member of variables and to quantify the conditional probability that each
this class with generator 𝜙 has the following representation: of the 𝑘 variables takes values from the tail given that the
remaining 𝑛 − 𝑘 variables take values from the tail too. For
𝜙 (𝑢) a given 𝑘, the corresponding generalized upper TDC is given
𝐶𝜙,𝐴 (𝑢, V) = 𝜙−1 {(𝜙 (𝑢) + 𝜙 (V)) 𝐴 ( )} ,
𝜙 (𝑢) + 𝜙 (V) (5)
by
2
(𝑢, V) ∈ [0, 1] , 𝜆𝑈,𝑘 = lim− 𝑃 (𝑋1 ≻ 𝐹1−1 (𝑢) ; . . . ; 𝑋𝑘 ≻ 𝐹𝑘−1 (𝑢) | 𝑋𝑘+1
𝑢→1
(9)
where 𝜙 satisfies relation (1) and 𝐴 is a convex dependence −1
≻ 𝐹𝑘+1 (𝑢) ; . . . ; 𝑋𝑛 ≻ 𝐹𝑛−1 (𝑢)) .
function mapping [0, 1] to [1/2, 1] and verifying max (𝑡; 1 −
𝑡) ≤ 𝐴(𝑡) ≤ 1. Similarly, the lower TDC is given by
Particularly, in stationary geostatistical context, we have
𝜆 𝐿,𝑘 = lim+ 𝑃 (𝑋1 ≤ 𝐹1−1 (𝑢) ; . . . ; 𝑋𝑘 ≤ 𝐹𝑘−1 (𝑢) | 𝑋𝑘+1
−1 −1 𝑢→0
𝑃 (𝑋 < 𝑥, 𝑌 < 𝑦) = 𝐶𝜙,𝐴 ℎ (𝜙 (𝑥) , 𝜙 (𝑦)) , (6) (10)
−1
≤ 𝐹𝑘+1 (𝑢) ; . . . ; 𝑋𝑛 ≤ 𝐹𝑛−1 (𝑢)) .
where ℎ = |𝑥 − 𝑦| is the distance between the two sites.
The main contribution of this paper is to model multi-
variate tail dependence by extending this asymptotic result 2.2. Radial Symmetry of Survival Distributions Functions. In
to spatial framework. Property of spatial stability of survival multivariate modeling with Archimedean copulas in actu-
Archimax copulas is also proved. The paper is organized as arial fields or duration analysis in economics, it is more
follows: Section 2 gives the basic definitions and properties appropriate to use the stochastic behaviours by means of
that will be needed for our results. Section 3 presents our survival function 𝐹 of the distribution 𝐹 associated with the
main results. Thus, the parametric tail dependence is also underlying copula.
generalized. Specifically, the upper parameter is analytically
modeled via the LT-generator of the process and the lower Definition 2 (Cherubini et al. [14]). The survival function
parameter is characterized both for strictly Archimedean and of the cumulative distribution function 𝐹 associated with
for strictly extremal subclasses in parametric context. a random vector denoted as 𝐹 represents, if evaluated at
𝑥 = (𝑥1 , . . . , 𝑥𝑛 ), the joint probability that 𝑋 is greater than
2. Materials and Methods 𝑥1 , . . . , 𝑥𝑛 , respectively,

In this section we collect the important definitions and prop- 𝐹 (𝑥1 , . . . , 𝑥𝑛 ) = 𝑃 [𝑋1 > 𝑥1 , . . . , 𝑋𝑛 > 𝑥𝑛 ]
erties on multivariate tail dependence and survival Archimax (11)
copulas that turn out to be necessary for our approach. = 1 + ∑ (−1)|𝐾| 𝐹𝐾 (𝑥𝐾 , 𝐾 ∈ ∇) ,
𝐾∈∇
The reader which is interested in bivariate statements of
Archimedean copulas is referred to Genest and MacKay [10] where ∇ is the set of nonempty subsets of {1, 2, . . . , 𝑛} while
and the software R and Evanesce [11] implements Archimax {𝐹𝐾 , 𝐾 ∈ ∇} denotes the set of lower marginal distributions
models proposed by Joe [2]. of 𝐹.
International Journal of Mathematics and Mathematical Sciences 3

Thus, we derive from relation (11) the survival version of Definition 3. The process {𝑋𝑠 , 𝑠 ∈ 𝑆} is called 2-marginally
Sklar’s representation (1) as Archimax if for all 𝑖, 𝑗 ∈ {1, . . . , 𝑛} every bivariate marginal
𝑠̌
−1 −1
distribution 𝐹𝑖,𝑗 = (𝐹𝑖𝑠̌; 𝐹𝑗𝑠̌) can be associated with an Archi-
𝐶 (𝑢1 , . . . , 𝑢𝑛 ) = 𝐹 [(𝐹1 (𝑢1 ) , . . . , 𝐹𝑛 (𝑢𝑛 ) ] , max copula 𝐶𝜙𝑠 ,𝐴 with a completely monotone function 𝜙𝑠 .
(12)
∀ (𝑢1 , . . . , 𝑢𝑛 ) ∈ [0, 1]𝑛 , Consider, for example, the process {𝑋𝑠 , 𝑠 ∈ 𝑆} whose
underlying copula is the following nested model:
−1
where 𝐹𝑖 are the generalized pseudoinverses of 𝐹𝑖 (see Joe
[2]). 𝐶𝑚,𝜙 (𝑢1𝑠̌ , . . . , 𝑢𝑚
𝑠̌
)
Note that, in stochastic analysis, care needs to be taken (17)
when dealing with survival concept in multivariate case. = 𝜙 [𝜙−1 (𝑢1𝑠̌ ) + 𝜙−1 (𝐶𝑚−1,𝜙 (𝑢2𝑠̌ , . . . , 𝑢𝑚
𝑠̌
))]
Indeed, it follows that, for 𝑛 ≥ 2,
for all (𝑢1𝑠̌ , . . . , 𝑢𝑚
𝑠̌
) ∈ [0, 1]𝑚 , where 𝐶𝑚,𝜙 is an 𝜙-Archimedean
𝐹 (𝑥1 , . . . , 𝑥𝑛 ) = 𝑃 (𝑋1 > 𝑥1 , . . . , 𝑋𝑛 > 𝑥𝑛 ) copula. For the simple case where 𝜙𝜃 (𝑥𝑡 ) = (− ln 𝑥𝑡 )𝜃 , 𝜃 ≥
1, the bivariate marginal copulas are the models of Gumbel,
≠ 1 − 𝐹 (𝑥1 , . . . , 𝑥𝑛 ) , (13) such that, for all site 𝑠 ∈ 𝑆 and for all 𝑖, 𝑗 ∈ {1, . . . , 𝑛},
∀𝑥 = (𝑥1 , . . . , 𝑥𝑛 ) ∈ R𝑛 . 𝜃 𝜃 1/𝜃
𝐶𝑠,𝜃 (𝑢𝑖𝑠̌; 𝑢𝑗𝑠̌ ) = exp {− [(− ln 𝑢𝑖𝑠̌) + (− ln 𝑢𝑗𝑠̌ ) ] } , (18)
By analogy, in copulas framework, there is no confusion
between the suvival copula 𝐶 of 𝑋 (the copula of the survival which belongs to the class of Archimax models for 𝐴(𝑠) ≡
function of 𝑋) and the cocopula 𝐶 ̃ of 𝑋 (the survival 1, 𝑠 ∈ [0, 1] with 𝑖, 𝑗 ∈ {1, .., 𝑛}.
distribution of the distribution 𝐶). Consider a 2-marginally Archimax process {𝑋𝑠 , 𝑠 ∈ 𝑆}
Then, for all (𝑢1 , . . . , 𝑢𝑛 ) ∈ [0, 1]𝑛 , it follows that with joint distribution function 𝐹𝑠 . Assume that 𝑋𝑠 satisfies
the regularly varying property with index 𝛼 (𝛼 > 0),
̃ (𝑢1 , . . . , 𝑢𝑛 ) = 𝑃 (𝑈1 > 𝑢1 , . . . , 𝑈𝑛 > 𝑢𝑛 )
𝐶 written as 𝐹𝑠 ∈ RV(𝛼). That means particularly that there
(14) exists a random vector 𝑌𝑠 , distributed on the unit spatialized
= 𝐶 (1 − 𝑢1 , . . . , 1 − 𝑢𝑛 ) . parametric simplex,
𝑛
󵄩 󵄩
Particularly in analysis with Archimedean copulas, sur- Δ 𝑠,𝑛 = {𝑥𝑠 ∈ R𝑛+ ; 󵄩󵄩󵄩𝑥𝑠 󵄩󵄩󵄩 = ∑𝑥𝑠,𝑖 = 1} (19)
vival distributions are often used to characterize exchange- 𝑖=1
ability or the radial symmetry which is a key tool among the
possibilities in which sense random vectors are symmetric. such that, for any 𝑠 > 0 and any Borel-set 𝐵𝑠 ⊂ Δ 𝑠,𝑛 ,
Following Nelsen [3], the random vector (𝑋1 , . . . , 𝑋𝑛 ) is said 󵄩 󵄩 󵄩 󵄩
𝑃 (󵄩󵄩󵄩𝑋𝑠 󵄩󵄩󵄩 > 𝑡𝑦𝑠 , 𝑌𝑠 / 󵄩󵄩󵄩𝑌𝑠 󵄩󵄩󵄩 ∈ 𝐵𝑠 ) V
to be radially symmetric about (𝑎1 , . . . , 𝑎𝑛 ) ∈ R𝑛 if its joint 󵄩󵄩 󵄩󵄩 󳨀󳨀󳨀󳨀󳨀→ 𝑃 (𝑌𝑠 ∈ 𝐵𝑠 ) 𝑡−𝛼 , (20)
𝑃 (󵄩󵄩𝑌𝑠 󵄩󵄩 > 𝑦𝑠 ) 𝑦𝑠 →+∞
distribution function 𝐹 satisfies
where V symbolizes vague convergence and ‖⋅‖ is an arbitrary
𝐹 (𝑥1 + 𝑎1 , . . . , 𝑥𝑛 + 𝑎𝑛 ) = 𝐹 (𝑎1 − 𝑥1 , . . . , 𝑎𝑛 − 𝑥𝑛 ) norm of R𝑛 (see Nelsen [3]).
(15)
∀ (𝑥1 , . . . , 𝑥𝑛 ) ∈ R𝑛 , The following result characterizes the bivariate marginal
distributions of Archimax processes.
where 𝐹 is the survival function of 𝐹. In terms of copulas Proposition 4. Let {𝑋𝑠 , 𝑠 ∈ 𝑆} be a 2-marginally Archimax
relation (15) means that process, with joint distribution 𝐹𝑠 , and generated by
𝐶 (𝑢1 , . . . , 𝑢𝑛 ) = 𝐶 (𝑢1 , . . . , 𝑢𝑛 ) +∞
(16) 𝜙𝑠 (𝑡) = ∫ 𝑒−𝑤 𝑑𝐹𝑠,1 (𝑤) . (21)
𝑛 0
∀ (𝑢1 , . . . , 𝑢𝑛 ) ∈ [0, 1] .
If there exists 𝑚 > 0 such as 𝜙𝑠 (1 − 1/𝑥) ∈ 𝑅𝑉(−𝑚), then every
𝑠̌
3. Main Results bivariate marginal distribution 𝐹𝑖,𝑗 of 𝐹𝑠 , related to (𝑖, 𝑗) with
1 ≤ 𝑖, 𝑗 ≤ 𝑠, is given by
3.1. Spatial Dependence of Marginal Archimax Process. Let
𝑋𝑠 = {(𝑋𝑠,1 , . . . , 𝑋𝑠,𝑛 ), 𝑠 ∈ 𝑆} be a continuous stochastic ran-
dom vector observed at a finite number of locations 𝑆𝑚 = {𝑠1 ,
𝑠̌
𝐹𝑖,𝑗 (𝑥𝑖𝑠̌, 𝑥𝑗𝑠̌ ) = 𝜙𝑠−1 [( ∑ 𝜙𝑠 (𝐹𝑘𝑠̌ (𝑥𝑘𝑠̌ )))
. . . , 𝑠𝑚 }, 𝑠𝑖 ∈ R2 , with joint distribution 𝐹𝑠 = (𝐹𝑠,1 , . . . , 𝐹𝑠,𝑛 ) [ 𝑘=𝑖,𝑗
whose underlying parametric copula is {𝐶𝑠 , 𝑠 ∈ 𝑆}. (22)
For simplicity reasons, let us note 𝑋𝑠,𝑖 = 𝑋𝑖𝑠̌ (which is 𝜙𝑠 (𝐹𝑖𝑠̌ (𝑥𝑖𝑠̌))
⋅ 𝐴∗𝑠,𝑚 ( )] ,
different from 𝑋𝑖𝑠 , the 𝑠th power of 𝑋𝑖 ). ∑𝑘=𝑖,𝑗 𝜙𝑠 [𝐹𝑘𝑠̌ (𝑥𝑘𝑠̌ )]
Under this notational assumption, the process 𝑋𝑠 is given ]
by 𝑋𝑠 = {(𝑋1𝑠̌ , . . . , 𝑋𝑛𝑠̌ ), 𝑠 ∈ 𝑆} and 𝐹𝑠 = (𝐹1𝑠̌, . . . , 𝐹𝑛𝑠̌ ). We where 𝐴∗𝑠,𝑚 is a space-varying, convex appropriate function
extend the concept of Archimax copula as follows. mapping [0, 1] to [1/2, 1]𝑚−1 .
4 International Journal of Mathematics and Mathematical Sciences

Proof. Suppose that the processes {𝑋𝑠 , 𝑠 ∈ 𝑆} have a common In particular, in a bivariate spatial context, it follows that,
bivariate marginal distribution; that is, for any site 𝑠 ∈ 𝑆, for all 𝑖, 𝑗 ∈ {1, .., 𝑛},

𝑠̌
𝐹𝑖,𝑗 = (𝐹𝑖𝑠̌, 𝐹𝑗𝑠̌) = (𝐹1𝑠̌, 𝐹2𝑠̌) with 𝑖, 𝑗 ∈ {1, . . . , 𝑛} (23) 𝐶𝜙𝑠 ,𝐴 (𝐹𝑖𝑠̌ (𝑥𝑖 ) , 𝐹𝑗𝑠̌ (𝑥𝑗 )) = 𝜙𝑠−1 [[ ∑ 𝜙𝑠 (𝐹𝑘𝑠̌ (𝑥𝑘𝑠̌ ))]
[[𝑘=𝑖,𝑗 ]
and let 𝐶𝜙𝑠 ,𝐴 denote the Archimax copula associated with the (29)
common bivariate margins of 𝐹𝑠 . 𝜙𝑠 (𝐹𝑖𝑠̌ (𝑥𝑖𝑠̌))
Then, it follows that, for all 𝑖, 𝑗 ∈ {1, . . . , 𝑛}, ⋅ 𝐴∗𝑠,𝑚 ( )] ,
∑𝑘=𝑖,𝑗 𝜙𝑠 (𝐹𝑘𝑠̌ (𝑥𝑘𝑠̌ ))
]
𝐴∗ is the Pickands dependence function to which the copula
[[ 𝑠̌ −1 in its domain of attraction 𝐶 belongs.
𝐶𝜙𝑠 ,𝐴 (𝑢𝑖𝑠̌, 𝑢𝑗𝑠̌ ) [ ∑ 𝜙𝑠 ([𝐹𝑘 ] (𝑢𝑘 ))]
𝑠̌
= 𝜙𝑠−1
𝑘=𝑖,𝑗 Finaly, by combining (1) and (29), we have the following
[[ ]
where 𝐴∗ is expressed in terms of 𝐴∗𝑠,𝑚 :
(24)
−1
𝜙𝑠 ([𝐹𝑖𝑠̌] (𝑢𝑖𝑠̌)) ]
⋅ 𝐴( −1
)] 𝑠̌
𝐹𝑖,𝑗 (𝑥𝑖𝑠̌, 𝑥𝑗𝑠̌ ) = 𝜙𝑠−1 [[ ∑ 𝜙𝑠 [𝐹𝑘𝑠̌ (𝑥𝑘𝑠̌ )]]
∑𝑘=𝑖,𝑗 𝜙𝑠 ([𝐹𝑘𝑠̌ ] (𝑢𝑘𝑠̌ ))
] [[𝑘=𝑖,𝑗 ]
(30)
𝜙𝑠 (𝐹𝑖𝑠̌ (𝑥𝑖𝑠̌))
whenever 𝜙𝑠 is such that 𝜙𝑥−1 (1 − 𝑡/𝑟) ∈ RV(−𝛼) with 𝜙𝑥−1 (𝑡) = ⋅ 𝐴∗𝑠,𝑚 ( )] .
+∞
∫𝑡 (1 − 𝑡/𝑟)𝑚−1 𝑑𝑟. ∑𝑘=𝑖,𝑗 𝜙𝑠 [𝐹𝑘𝑠̌ (𝑥𝑘𝑠̌ )]
]
According to Sklar’s theorem via relation (1), for all 1 ≤
Thus, we obtain (22) which is satisfied as asserted.
𝑖, 𝑗 ≤ 𝑛, it comes that
Definition 5. The function 𝐴∗𝑠,𝑚 is called a spatial dependence
𝐶𝜙𝑠 ,𝐴 ([𝐹𝑖𝑠̌] (𝑥𝑖 ) , [𝐹𝑗𝑠̌] (𝑥𝑗 )) = 𝑠̌
𝐹𝑖,𝑗 (𝑥𝑖𝑠̌, 𝑥𝑗𝑠̌ ) . (25) Archimax function.

Therefore, for all (𝑥𝑖 , 𝑥𝑗 ) ∈ R2 , 3.2. Spatial Upper Tail Dependence of Archimedean Copulas.
One of the key properties of copulas is that they remain
invariant under strictly increasing transformations of the
marginal laws. Therefore, the tail dependence parameter
𝑠̌
𝐹𝑖,𝑗 (𝑥𝑖𝑠̌, 𝑥𝑗𝑠̌ ) = 𝜙𝑠−1 [[ ∑ 𝜙𝑠 (𝐹𝑘𝑠̌ (𝑥𝑘𝑠̌ ))] becomes a pure property of the copula associated with the
[[𝑘=𝑖,𝑗 ] random vector, that is, independent of marginal laws. Then,
(26) from Durante and Sempi [1] the copula-based version of
𝜙𝑠 (𝐹𝑖𝑠̌ (𝑥𝑖 )) relation (9) is given by
⋅ 𝐴( )] .
∑𝑘=𝑖,𝑗 𝜙𝑠 (𝐹𝑘𝑠̌ (𝑥𝑘𝑠̌ ))
] 𝐶𝑘 [1 − 𝑢, . . . , 1 − 𝑢]
𝜆𝑈,𝑘 = lim− ( ) ∀𝑢 ∈ [0, 1] , (31)
𝑢→1 𝐶𝑛−𝑘 [1 − 𝑢, . . . , 1 − 𝑢]
Furthermore, while characterizing extensions of Archi-
max distributions, Genest et al. [15] showed that if an where 𝐶 is the survival copula of 𝐶. Then, in parametric
Archimax copula 𝐶∗ with Pickands dependence function 𝐴∗ context it follows this result.
belongs to the max-domain of attraction (MDA) of another
given Archimax copula 𝐶, then there exists 𝛼 ∈ [0, 1], such Proposition 6. Let {𝐶𝜙𝑠 , 𝑠 ∈ 𝑆} be a spatial Archimedean
that copula with generator 𝜙𝑠 . Then, for all 𝑘, 𝑘 < 𝑛, the parametric
generalization to 𝑘 of the upper TDC is given analytically by
𝛼 𝑡1/𝛼 𝜆𝑈,𝑘 = 1
𝐴∗ (𝑡) = [𝑡1/𝛼 + (1 − 𝑡)1/𝛼 ] 𝐴1/𝛼 [ ] . (27)
𝑡1/𝛼 + (1 − 𝑡)1/𝛼
𝑛
(−1)𝑘 (32)
Consequently, combining (1) and (5), it follows that, for + lim [ ∑ ( ∑ 𝐶𝜙𝑠 (𝑢𝑠,𝑖𝑘 ) ; 𝑖𝑘 ∈ 𝑆𝑘 )] ,
𝑢𝑠,𝑖 →1 1 − 𝑢𝑠,𝑘 𝑆 ⊂𝑁
all (𝑥𝑖 , 𝑥𝑗 ) ∈ R2 , [𝑘=1 𝑘 ]
for specific elements 𝑆𝑘 of the set of nonempty subsets of
{1, 2, . . . , 𝑛}.
𝐶𝜙𝑠 ,𝐴 (𝐹𝑖𝑠̌ (𝑥𝑖 ) , 𝐹𝑗𝑠̌ (𝑥𝑗 )) = 𝜙𝑠−1 [[ ∑ 𝜙𝑠 (𝐹𝑘𝑠̌ (𝑥𝑘𝑠̌ ))]
Proof. Assume that the copula 𝐶𝜙𝑠 is a spatial Archimedean
[[𝑘=𝑖,𝑗 ]
(28) one, for a given 𝑠 ∈ 𝑆. That means particularly that, for all
𝜙𝑠 (𝐹𝑖𝑠̌ (𝑥𝑖 )) (𝑢1𝑠̌ , . . . , 𝑢𝑛𝑠̌ ) ∈ [0, 1]𝑛 ,
⋅ 𝐴( )] .
∑𝑘=𝑖,𝑗 𝜙𝑠 (𝐹𝑘𝑠̌ (𝑥𝑘𝑠̌ )) 𝐶𝜙𝑠 (𝑢1𝑠̌ , . . . , 𝑢𝑛𝑠̌ ) = 𝜙𝑠−1 [𝜙𝑠 (𝑢1𝑠̌ ) + ⋅ ⋅ ⋅ + 𝜙𝑠 (𝑢𝑛𝑠̌ )] . (33)
]
International Journal of Mathematics and Mathematical Sciences 5

Moreover, noting that every copula is also a cumulative Furthermore, using relation (17) in a parametric case, it
̃𝜙 be
distribution function (with uniform margins), we let 𝐶 follows that
𝑡

the survival distribution 𝐶𝜙𝑡 .


𝐶𝜙𝑠 (1 − 𝑢𝑠 , . . . , 1 − 𝑢𝑠 )
Then, using relation (14) in a space-varying context, it 𝜆𝑈,𝑘 = lim
follows that 𝑢𝑡 →1 1 − 𝑢𝑠
(39)
̃𝜙 (𝑢𝑠̌ , . . . , 𝑢𝑠̌ )
𝐶 { 𝑛 (−1)𝑘 𝑛 }
𝑠 1 𝑛 = lim { ∑ [ ( ∑ 𝜙𝑠 ( ∑ 𝜙𝑠−1 (𝑢𝑠,𝑖𝑗 )))]} .
𝑢𝑡 →1 1 − 𝑢𝑡 𝑆 ⊂𝑁 𝑗=1
{𝑘=0 [ 𝑘 ]}
= 𝑃 (𝐹1𝑠̌ (𝑥1𝑠̌ ) > 𝑢1𝑠̌ , . . . , 𝐹𝑛𝑠̌ (𝑥𝑛𝑠̌ ) > 𝑢𝑛𝑠̌ ) (34)
Finally, using the analytical form of 𝐶𝜙𝑡 in (31), we obtain
= 𝐶𝜙𝑠 (1 − 𝑢1𝑠̌ , . . . , 1 − 𝑢𝑛𝑠̌ ) . (32) as asserted.

Furthermore, from Charpentier et al. (see in [9]), it comes 3.3. Spatial Lower Tail Dependence of Archimax Copulas.
that While modeling stochastic dependence Schmitz (see in [16])
established the consistency of the copulas associated with
𝑛 stochastic processes. Particularly, that means in a Archime-
̃𝜙 (𝑢𝑠̌ , . . . , 𝑢𝑠̌ ) = ∑ [(−1)𝑘
𝐶 dean class that the lower marginal copulas are still Archi-
𝑠 1 𝑛
𝑘=0
[ medean copulas.
(35) Similarly, the copula-based version of relations (10) is
given by
⋅( ∑ 𝐶𝜙𝑠 (V1 , . . . , V𝑛 ))] ,
V(𝑢1𝑠̌ ,...,𝑢𝑛𝑠̌ )∈𝑍𝑠 (𝑛−𝑘,𝑛,1) ] 𝐶𝑛 (𝑢, . . . , 𝑢)
𝜆𝐿,𝑘 = lim ( ) , ∀𝑢 ∈ [0, 1] , (40)
𝑢→0 𝐶𝑛−𝑘 (𝑢, . . . , 𝑢)
𝑛
where 𝑍𝑠 (𝑀, 𝑁, 𝜀) denotes the set {V ∈ [0, 1] ; V𝑖 ∈ {𝑢𝑠 ,
𝜀}, ∑𝑛𝑖=1 1{𝜀} (V𝑖 ) = 𝑀}. where 𝐶𝑛−𝑘 is the marginal copula underlying the marginal
Then, for (𝑢1𝑠̌ , . . . , 𝑢𝑛𝑠̌ ) ∈ [0, 1]𝑛 , we can rewrite more vector of (𝑛 − 𝑘) components 𝑋 ̃ 𝑠,𝑛−𝑘 such that 𝑋
̃ 𝑠,𝑛−𝑘 =
𝑠̌ 𝑠̌
simply formula (24) such that (𝑋𝑘+1 , . . . , 𝑋𝑛 ). The following result generalizes the space-
varying lower TDC in a marginal Archimax field.
̃𝜙 (𝑢𝑠̌ , . . . , 𝑢𝑠̌ )
𝐶 1 𝑛
𝑡
Proposition 7. Let 𝜙𝑠 be the generator of a 2-marginally
𝑛 (36) Archimax process {𝑋𝑠 , 𝑠 ∈ 𝑆}. Then, for all 𝑠 ∈ 𝑆 and 𝑘 (𝑘 < 𝑛),
= ∑ [(−1)𝑘 ( ∑ 𝐶𝜙𝑠 (𝑢𝑖𝑠1̌ , . . . , 𝑢𝑖𝑠𝑛̌ ) ; 𝑖𝑗 ∈ 𝑆𝑘 ))] , the generalized lower TDC, 𝜆𝐿,𝑘
𝑠 , is given by the following:
𝑘=0 𝑆𝑘 ⊂𝑁
[ ] (i)
where 𝑆𝑘 = {𝑖1 , . . . , 𝑖𝑘 } contains 𝑘 elements of the set of
𝜆𝐿,𝑘
𝑠 ≤ lim+ 𝑅 (𝜙𝑠 (𝑢𝑠 )) , (41)
nonempty subsets of 𝑁 = {1, 2, . . . , 𝑛} with 𝑢𝑖𝑠𝑗̌ = 1 for all 𝑢→0
𝑖𝑗 ∉ 𝑆𝑘 .
Therefore, using simultaneously (35) and (36), it comes where 𝑅 is a specific ratio in ]0, 1[ if 𝐶𝜙𝑠 is strictly
that, for all (𝑢𝑖𝑠1̌ , . . . , 𝑢𝑖𝑠𝑛̌ ) ∈ [0, 1]𝑛 , Archimedean.
(ii)
𝐶𝜙𝑡 (𝑢1𝑠̌ , . . . , 𝑢𝑛𝑠̌ )
𝜆𝐿,𝑘
𝑠 = lim+ exp {−𝐷𝜙𝑠 (𝑢𝑠 )} (42)
𝑢→0
𝑛 (37)
= ∑ [(−1)𝑘 ( ∑ 𝐶𝜙𝑡 (1 − 𝑢𝑖𝑠1̌ , . . . , 1 − 𝑢𝑖𝑠𝑛̌ ))] ,
𝑘=0 𝑆𝑘 ⊂𝑁 for a specific conditional measure 𝐷𝜙𝑠 if 𝐶𝜙𝑠 is strictly
[ ]
extremal.
where 𝑆𝑘 is rather such as 𝑢𝑖𝑗 = 0 for all 𝑖𝑗 ∉ 𝑆𝑘 .
Proof. From formula (40) in a parametric and spatial context,
Specifically, by replacing in (37) the Archimedean copula it follows that
by its analytical form (33), it comes that
𝐶𝜙𝑠 (𝑢𝑠 , . . . , 𝑢𝑠 )
𝜆𝐿,𝑘
𝑠 = lim ( ), ∀𝑢𝑠 ∈ [0, 1] , (43)
𝐶𝜙𝑠 (𝑢1𝑠̌ , . . . , 𝑢𝑛𝑠̌ ) 𝑢𝑠 →0 𝐶𝜙𝑠 ,𝑛−𝑘 (𝑢𝑠 , . . . , 𝑢𝑠 )

𝑛 𝑛 (38) where 𝐶𝜙𝑠 in Archimax copulas. In other terms, 𝐶𝜙𝑠 can either
= ∑ [(−1)𝑘 ( ∑ 𝜙𝑠 ( ∑ 𝜙𝑠−1 (1 − 𝑢𝑖𝑠𝑗̌ )))] . take a strictly Archimedean form or satisfy the max-stability
𝑘=0 𝑆𝑘 ⊂𝑁 𝑗=1
[ ] property of extremal copulas.
6 International Journal of Mathematics and Mathematical Sciences

(i) Let 𝐶𝜙𝑠 be strictly Archimedean copulas and so satisfy (ii) Suppose that 𝐶𝜙𝑠 are rather extreme values copulas.
formula (2); then it follows that Then the canonical representation of Pickands (see in [14])
shows that
𝜙−1 (∑𝑘𝑖=1 𝜙𝑠 (𝑢𝑠 )) 𝐶 (𝑢1 , . . . , 𝑢𝑛 )
𝜆𝐿,𝑘 = lim [ 𝑠 𝑛
]
𝑠 𝑢𝑠 →0 𝜙−1 (∑
𝑠 𝑖=𝑘+1 𝜙𝑠 (𝑢𝑠 ))
[ ] (44)
𝑛
̃ 𝑠,𝑖
𝑢 ̃ 𝑠,𝑛−1
𝑢
̃ 𝑠,𝑖 𝐴 𝐶 (
= exp {∑𝑢 𝑛 ,..., )} (45)
𝜙−1 (𝑘𝜙𝑠 (𝑢𝑠 )) 𝑖=1 ∑𝑖=1 𝑢̃ 𝑠,𝑖 ∑𝑛𝑖=1 𝑢
̃ 𝑠,𝑖
= lim [ −1 𝑡 ],
𝑢𝑠 →0 𝜙 [(𝑛 − 𝑘) 𝜙 (𝑢 )]
𝑠 𝑠 𝑠 ̃ 𝑠,𝑖 = log 𝑢𝑠,𝑖 ,
with 𝑢
when the function 𝜙𝑠 belongs to class (2). where 𝐴 𝐶 is the Pickands function of 𝐶 defined on 𝑆𝑛 and
Then, 𝜙−1 is stricly increasing from [0, +∞] to [0, 1] and subject to valid properties given in (Nelsen [3]).
𝜙(0) = 1 and then 𝜆𝐿,𝑘
𝑠 = 𝑅(𝜙𝑠 (𝑢𝑠 )) < 1 as asserted. Thus, formula (45) gives

𝑘 𝑛
̃𝑖
𝑢 ̃ 𝑛−1
𝑢 ̃ 𝑘+1
𝑢 ̃ 𝑛−1
𝑢
𝜆𝐿,𝑘 = lim [exp {∑𝑢
̃ 𝑠,𝑖 𝐴 𝐶 ( ,..., ̃ 𝑠,𝑖 𝐴 𝐶𝑛−𝑘 (
)− ∑ 𝑢 𝑛 ,..., 𝑛 )}] , (46)
𝑢𝑠 →0
𝑖=1 ∑𝑘𝑖=1 ̃ 𝑠,𝑖
𝑢 ∑𝑘𝑖=1 ̃ 𝑠,𝑖
𝑢 𝑖=𝑘+1
∑𝑖=𝑘+1 𝑢̃ 𝑠,𝑖 ∑𝑖=𝑘+1 𝑢̃ 𝑠,𝑖

where 𝐴 𝐶𝑛−ℎ is instead the Pickands function of 𝐶𝑛−𝑘 . 𝑛-dimensional fields for all 𝛼 = (𝛼1 , . . . , 𝛼𝑚 ) ∈ 𝑆𝑚 and for all
Finally, it follows that a convex measure 𝐷𝜙𝑠 mapping (𝑢1 , . . . , 𝑢𝑛 ) ∈ [0, 1]𝑛 , the geometric transformation
[(R ∪ {±∞})𝑛 ]2 to [0, 1] is as follows:
𝑚

𝐷𝜙𝑠 (𝑢𝑠 ) ∏𝐶𝑗 (𝑔𝑗,1 (𝑢1𝑠̌ ) , . . . , 𝑔𝑗,𝑛 (𝑢𝑛𝑠̌ ))


𝑗=1
𝑘 (49)
̃𝑖
𝑢 ̃ 𝑛−1
𝑢 𝑚
𝛼1 𝛼𝑛
̃ 𝑠,𝑖 𝐴 𝐶 (
= ∑𝑢 ,..., ) = ∏𝐶𝑗 ((𝑢1𝑠̌ ) , . . . , (𝑢𝑛𝑠̌ ) )
𝑖=1 ∑𝑘𝑖=1 𝑢
̃ 𝑠,𝑖 ∑𝑘𝑖=1 𝑢
̃ 𝑠,𝑖 (47)
𝑗=1
𝑛
̃ 𝑘+1
𝑢 ̃ 𝑛−1
𝑢
̃ 𝑠,𝑖 𝐴 𝐶𝑛−𝑘 (
− ∑𝑢 𝑛 ,..., 𝑛 ). which gives
𝑖=𝑘+1
∑𝑖=𝑘+1 𝑢̃ 𝑠,𝑖 ∑𝑖=𝑘+1 𝑢̃ 𝑠,𝑖
𝑚

Then 𝜆𝐿,𝑘 = lim𝑢𝑠 →0 exp{−𝐷𝜙𝑠 (𝑢𝑠 )} as asserted. ∏𝐶𝑗 (𝑔𝑗,1 (𝑢1𝑠̌ ) , . . . , 𝑔𝑗,𝑛 (𝑢𝑛𝑠̌ ))
𝑗=1

𝛼1 𝛼𝑛 (50)
3.4. Stability of Survival and Spatialized Archimedean Copulas. = 𝐶1 ((𝑢1𝑠̌ ) , . . . , (𝑢𝑛𝑠̌ ) ) × ⋅ ⋅ ⋅
Let {𝑋𝑠 , 𝑠 ∈ 𝑆} be a 2-marginally Archimax process with
generator 𝜙𝑠 . We obtain the following property. 𝛼1 𝛼𝑛
× 𝐶𝑚 ((𝑢1𝑠̌ ) , . . . , (𝑢𝑛𝑠̌ ) )
Proposition 8. Let {𝜙𝑠 ; 𝑠 ∈ 𝑆} be the generator of a 2-
marginally Archimax process 𝑋𝑠 = {(𝑋1,𝑠 ; ...; 𝑋𝑛,𝑠 ), 𝑠 ∈ 𝑆} with is still a copula for any family like in time series of 𝑛-
copulas {𝐶𝑖,𝜙𝑠 ; 𝑠 ∈ 𝑆; 1 ≤ 𝑖 ≤ 𝑛}. Let moreover {𝐶𝑖,𝜙𝑠 ; 𝑠 ∈ dimensional copulas 𝐶1 , . . . , 𝐶𝑚 radially symmetric.
𝑆; 1 ≤ 𝑖 ≤ 𝑛} denote the survival spatial copulas of the copulas Therefore, in a bivariate and space-varying framework,
𝐶𝑖,𝜙𝑠 of the process. Then, under the strictly extremal assumption the following transformation is still a copula:
of the copulas {𝐶𝑖,𝜙𝑠 } and for all 𝛼 = (𝛼1 , ..., 𝛼𝑚 ) ∈ Δ 𝑚 , the
geometric combination 𝐶𝜙𝑠 ,𝛼 (𝑢𝑠 ; V𝑠 ) = 𝐶1,𝜙𝑠 (𝑢𝑠𝛼1 ; V𝑠𝛼1 ) × 𝐶2,𝜙𝑠 (𝑢𝑠𝛼2 ; V𝑠𝛼2 ) × ⋅ ⋅ ⋅
𝛼
1
𝐶𝜙𝑠 ,𝛼 (𝑢𝑠 ; V𝑠 ) = 𝐶1,𝜙
𝛼 2
(𝑢𝑠 ; V𝑠 ) × 𝐶2,𝜙
𝛼
(𝑢𝑠 ; V𝑠 ) × ⋅ ⋅ ⋅ × 𝐶𝑚−1,𝜙
𝑚−1
𝑠
(𝑢𝑠𝛼𝑚−1 ; V𝑠𝛼𝑚−1 ) (51)
𝑠 𝑠
(48)
𝛼
𝑚−1 𝑚 𝛼 × 𝐶𝑚,𝜙𝑡 (𝑢𝑠𝛼𝑚 ; V𝑠𝛼𝑚 ) .
× 𝐶𝑚−1,𝜙𝑠
(𝑢𝑠 ; V𝑠 ) × 𝐶𝑚,𝜙𝑠
(𝑢𝑠 ; V𝑠 )
Moreover, any copula 𝐶𝑖,𝜙𝑠 is extremal one by assumption and
provides a space-parameter bivariate extremal copula.
therefore verifies particularly the copula-based max-stability
Proof. Proof of Proposition 8 consists in establishing first property given in bivariate parametric case as
that, for every 𝛼, the copula 𝐶𝜙𝑠 ,𝛼 is also an extreme value 𝑘
copula. Following Diakarya [12] or Liebscher [17], one can 𝐶𝑗,𝜙𝑠
(𝑢𝑠 ; V𝑠 ) = 𝐶𝑗,𝜙𝑠 (𝑢𝑠𝑘 ; V𝑠𝑘 )
use transformations 𝑔𝑗𝑖 for 𝑗 ∈ {1, . . . , 𝑚} and 𝑖 ∈ {1, . . . , 𝑛}, (52)
mapping [0, 1] to [0, 1] such as 𝑔𝑗𝑖 (𝑠) = 𝑠𝛼𝑗 to show that, in ∀ (𝑢𝑠 , V𝑠 ) ∈ [0, 1]2 , 𝑘 > 0.
International Journal of Mathematics and Mathematical Sciences 7

Then, using relation (52), it follows, for all (𝛼1 , . . . , 𝛼𝑚 ) ∈ Δ 𝑚 , computability. Moreover, these results allow us to extend
that stochastic processes analysis to marginal Archimax families.
𝛼 𝛼 The particularity of our paper in stochastic processes analysis
𝐶𝜙𝑠 ,𝛼 (𝑢𝑠 ; V𝑠 ) = 𝐶1,𝜙
1
𝑠
(𝑢𝑠 ; V𝑠 ) × 𝐶2,𝜙
2
𝑠
(𝑢𝑠 ; V𝑠 ) × ⋅ ⋅ ⋅ is that it investigates both survival and conditional properties
(53) of Archimax copulas in a parametric spatial and parametric
𝛼 𝛼
× 𝐶𝑚−1,𝜙
𝑚−1
𝑠
(𝑢𝑠 ; V𝑠 ) × 𝐶𝑚,𝜙
𝑚
𝑠
(𝑢𝑠 ; V𝑠 ) . context.
Furthermore, using the radial symmetry of the copulas
{𝐶𝑖,𝜙𝑠 avec 1 ≤ 𝑖 ≤ 𝑛} we derive from (52) that Competing Interests
1𝛼 2 𝛼 The authors declare that there are no competing interests
𝐶𝜙𝑠 ,𝛼 (𝑢𝑠 ; V𝑠 ) = 𝐶1,𝜙𝑠
(𝑢𝑠 ; V𝑠 ) × 𝐶2,𝜙𝑠
(𝑢𝑠 ; V𝑠 ) × ⋅ ⋅ ⋅
(54) regarding the publication of this paper.
𝑚−1 𝛼 𝑚 𝛼
× 𝐶𝑚−1,𝜙𝑠
(𝑢𝑠 ; V𝑠 ) × 𝐶𝑚,𝜙𝑠
(𝑢𝑠 ; V𝑠 ) .
References
A sufficient condition is to prove that 𝐶𝜙𝑠 ,𝛼 verifies the
copula-based max-stability property, for all 𝑘 > 0, [1] F. Durante and C. Sempi, Principles of Copula Theory, Chapman
& Hall-CRC, Boca Raton, Fla, USA, 2016.
𝑘𝛼 𝑘𝛼
𝐶𝜙𝑠 ,𝛼 (𝑢𝑠 ; V𝑠 ) = 𝐶1,𝜙1𝑠 (𝑢𝑠 ; V𝑠 ) × 𝐶2,𝜙2𝑠 (𝑢𝑠 ; V𝑠 ) × ⋅ ⋅ ⋅ [2] H. Joe, Multivariate Models and Dependence Concepts, vol. 73 of
(55) Monographs on Statistics and Applied Probabilty, Chapman and
𝑚−1 𝑘𝛼 𝑘𝛼 Hall, London, UK, 1997.
× 𝐶𝑚−1,𝜙𝑠
(𝑢𝑠 ; V𝑠 ) × 𝐶𝑚,𝜙𝑚𝑠 (𝑢𝑠 ; V𝑠 ) ,
[3] R. B. Nelsen, An Introduction to Copulas, vol. 139 of Springer
which then gives, due to formula (53), for all 𝑘 > 0, Series in Statistics, Springer, New York, NY, USA, 2nd edition,
1999.
𝑘𝛼 𝑘𝛼 [4] A. Charpentier and J. Segers, “Tails of multivariate Archi-
𝐶𝜙𝑠 ,𝛼 (𝑢𝑠 ; V𝑠 ) = 𝐶1,𝜙1𝑠 (𝑢𝑠 ; V𝑠 ) × 𝐶2,𝜙2𝑠 (𝑢𝑠 ; V𝑠 ) × ⋅ ⋅ ⋅
medean copulas,” Journal of Multivariate Analysis, vol. 100, no.
(56)
𝑘𝛼 𝑘𝛼 7, pp. 1521–1537, 2009.
× 𝐶𝑚−1,𝜙
𝑚−1
𝑠
(𝑢𝑠 ; V𝑠 ) × 𝐶𝑚,𝜙𝑚𝑠 (𝑢𝑠 ; V𝑠 ) .
[5] A. J. McNeil and J. Nešlehová, “Multivariate Archimedean
copulas, d-monotone functions and ℓ1 -norm symmetric distri-
Let us use again the fact that 𝐶𝑖,𝜙𝑠 are extreme values models.
butions,” The Annals of Statistics, vol. 37, no. 5, pp. 3059–3097,
So, for all (𝑢1 , . . . , 𝑢𝑛 ) ∈ 𝐼𝑛 and 𝑘 > 0, 2009.
𝛼 𝛼 [6] A. Di Ciaccio, M. Coli, and J. M. Angulo Ibanez, Eds., Advanced
𝐶𝜙𝑠 ,𝛼 (𝑢𝑠 ; V𝑠 ) = 𝐶1,𝜙
1
𝑠
(𝑢𝑠𝑘 ; 𝑢𝑠𝑘 ) × 𝐶2,𝜙
2
𝑠
(𝑢𝑠𝑘 ; 𝑢𝑠𝑘 ) × ⋅ ⋅ ⋅ Statistical Methods for the Analysis of Large Data-Sets, Selected
(57) Papers of the Statistical Societies, Springer, Berlin, Germany,
𝛼 𝛼
× 𝐶𝑚−1,𝜙
𝑚−1
𝑠
(𝑢𝑠𝑘 ; 𝑢𝑠𝑘 ) × 𝐶𝑚,𝜙
𝑚
𝑠
(𝑢𝑠𝑘 ; 𝑢𝑠𝑘 ) . 2012.
[7] N. Whelan, “Sampling from Archimedean copulas,” Quantita-
Using a second time (27) it follows that tive Finance, vol. 4, no. 3, pp. 339–352, 2004.
𝛼 𝛼 [8] M. Hofert and M. Scherer, “CDO pricing with nested
1
𝐶𝜙𝑠 ,𝛼 (𝑢𝑠 ; V𝑠 ) = 𝐶1,𝜙 (𝑢𝑠𝑘 ; 𝑢𝑠𝑘 ) × 𝐶2,𝜙
2
(𝑢𝑠𝑘 ; 𝑢𝑠𝑘 ) × ⋅ ⋅ ⋅
𝑠 𝑠 Archimedean copulas,” Quantitative Finance, vol. 11, no. 5, pp.
(58) 775–787, 2011.
𝛼 𝛼
𝑚−1
× 𝐶𝑚−1,𝜙 (𝑢𝑠𝑘 ; 𝑢𝑠𝑘 ) × 𝐶𝑚,𝜙
𝑚
(𝑢𝑠𝑘 ; 𝑢𝑠𝑘 ) .
𝑠 𝑠 [9] A. Charpentier, A.-L. Fougères, C. Genest, and J. G. Nešlehová,
“Multivariate archimax copulas,” Journal of Multivariate Analy-
Hence 𝐶𝜙𝑠 ,𝛼 satisfies relation (52) which characterizes the sis, vol. 126, pp. 118–136, 2014.
extremal copulas.
[10] C. Genest and R. J. MacKay, “Copules archimédiennes et
familles de lois bidimensionnelles dont les marges sont
4. Conclusion and Discussion données,” The Canadian Journal of Statistics, vol. 14, no. 2, pp.
145–159, 1986.
The results of this study provide important properties on [11] EVANESCE Extreme value analysis employing statistical copula
parametric copulas and tail dependence in a spatial context. estimation, by René Carmona, http://www.orfe.princeton.edu/
Properties have been proposed on spatial dependence for ∼rcarmona.
stochastic processes with bivariate marginal copulas in the [12] B. Diakarya, “Analysis of stochastic spatial processes via copulas
Archimax class. More specifically, in a spatialized framework and measures of extremal dependence,” Archives des Sciences,
the characterization of the tail dependence concept has been vol. 65, no. 12, pp. 665–673, 2012.
extended to multivariate Archimedean copulas, for the upper [13] F. Schmid, R. Schmidt, Th. Blumentritt, S. Gaier, and M. Rup-
coefficient, and to 𝑛-dimensional copulas with Archimax pert, “Copula-based measures of multivariate association,” in
bivariate marginal, for the lower tail coefficient. Otherwise Copula Theory and Its Applications: Proceedings of the Workshop
spatialized bivariate Archimedean copulas have been shown Held in Warsaw, 25–26 September 2009, vol. 198 of Lecture Notes
to be stable under geometric combinations. in Statistics, pp. 209–236, Springer, Berlin, Germany, 2010.
These are very interesting results for a number of rea- [14] U. Cherubini, E. Luciano, and W. Vecchiato, Copula Methods in
sons. For example, the characterization of the tail depen- Finance, Wiley Finance Series, John Wiley & Sons, Chichester,
dence parameters provides an explicit form involving more UK, 2004.
8 International Journal of Mathematics and Mathematical Sciences

[15] C. Genest, K. Ghoudi, and L.-P. Rivest, “A semiparametric esti-


mation procedure of dependence parameters in multivariate
families of distributions,” Biometrika, vol. 82, no. 3, pp. 543–552,
1995.
[16] V. Schmitz, Copulas and stochastic processes [Ph.D. thesis],
Aachen University, Aachen, Germany, 2003.
[17] E. Liebscher, “Modelling and estimation of multivariate copu-
las,” Working Paper, University of Applied Sciences Merseburg,
2006.

View publication stats


ARTICLE 2

Titre : Multivariate risks modeling for financial port-


folio management and climate applications
Auteurs : Yves Bernadin Vini Loyara, Remi Guillaume Bagré,
Diakarya Barro
Dans ce papier nous établissons quelques nouvelles propriétés d’un des principaux ou-
tils de mesures de risque aussi bien en finance que dans le dommaine du climat : la valeur
à risque. Nous y avons caractérisaé autrement la VaR dans un contexte de processus max-
stable processes. Des scenarii de hauts risques sont également donnés via les copules.
L’article est publié dans le jounal "Far East Journal of Mathematical Sciences"
ISSN : 0972-0871 - DOI : http ://dx.doi.org/10.17654/MS101040909 , Volume
101, Number 4, 2017, Pages 909-929 impact factor (2015) :0,987
Indexations :
ZentralbL Math : https ://zbmath.org/journals/ ?q= :se :00002631
Scopus/Elsevier http ://www.scimagojr.com/journalsearch.php ?q=17900156722&tip=sid&clean=0

92
Far East Journal of Mathematical Sciences (FJMS)
© 2017 Pushpa Publishing House, Allahabad, India
http://www.pphmj.com
http://dx.doi.org/10.17654/MS101040909
Volume 101, Number 4, 2017, Pages 909-929 ISSN: 0972-0871

MULTIVARIATE RISKS MODELING FOR FINANCIAL


PORTFOLIO MANAGEMENT AND CLIMATE
APPLICATIONS

Yves Bernadin Vini Loyara, Remi Guillaume Bagré and


Diakarya Barro∗

BP: 2253 Bobo Dioulasso


Université Ouaga1 Pr JKZ
Burkina Faso
e-mail: [email protected]

UFR-ST
UK. BP 376 Koudougou
Burkina Faso
e-mail: [email protected]

UFR-SEG 12 BP: 417 Ouagadougou


Burkina Faso
e-mail: [email protected]

Abstract

This paper investigates some properties of derivative measures of the


Value at Risk (VaR) of random variables modeling the stochastic
behavior of a portfolio asset. Specifically, coherentness and convex
properties of the conditional, the tail VaR and the standard deviation
Received: September 20, 2016; Accepted: November 1, 2016
2010 Mathematics Subject Classification: 91B30, 91G80, 60G20, 60G60, 62P99, 60G70.
Keywords and phrases: risk management, Value at Risk, copulas, extreme values distribution,
Pareto distributions.

Corresponding author
910 Yves Bernadin Vini Loyara et al.
are established. Moreover, a new version of high risk scenario is
characterized and bivariate densities are modeled via copula approach.

1. Introduction

The goal of risk management is to measure and to manage risks across


diverse sectors of activities: insurance, finance, bank, security, investment
companies, and climate applications, etc. The VaR is commonly used in
many engineering areas involving uncertainties, such as military, nuclear,
material, airspace, finance, etc. for instance, finance regulation, like Basel I
and Basel II, use VaR deviation. Indeed, in real life one constantly has to
make decisions under uncertainty or risk. In actuarial and financial sciences
for example, the VaR quantifies numerically the size of loss for which there
is a small probability of exceedance. In financial sector particularly, risk
modeling can be analyzed into two parts: the model of the joint dependence
of risk factor returns and the individual risk factors. Using VaR, traders can
perform a quick calculation to find the impact of a proposed trade on their
VaR limit. Specifically in banking sector, since the end of 1990s, Basel
Committee (see [6]) has required that banks compute periodically the VaR
and maintain sufficient capital in order to pay the eventual losses projected
by VaR. Given the cumulative distribution function (cdf ) of a random
variable X, the VaR associated with a confidence level α ∈ ] 0, 1 [ is defined
as the lower α-quantile

VaRα ( X ) = inf {z | FX ( z ) ≥ α} = FX−1(α ) , (1.1)

where FX−1 is the right continuous inverse of FX such as FX−1 (u ) =


inf {x ∈ R, FX ( x ) ≥ u}.
More generally, in the multivariate study, for a random vector X
satisfying the regularity conditions, we define the multidimensional VaR at
probability level α by:

⎛ E[ X 1 | X ∈ ∂L(α )] ⎞
⎜ ⎟
VaRα ( X ) = E[ X | X ∈ ∂L(α )] = ⎜ ⎟; (1.2)
⎜ E[ X | X ∈ ∂L(α )]⎟
⎝ m ⎠
Multivariate Risks Modeling for Financial Portfolio Management … 911

where ∂L(α ) is the boundary of the α-level set of F. The vector

VaRα ( X ) = (VaRα(1) ( X ), ..., VaRα( m ) ( X ))

is such that: VaRα(i ) ( X ) = E[ X i | F ( X ) = α]; 1 ≤ j ≤ m.

Multivariate risks management also uses extreme values theory (EVT).


This theory deals with multivariate asymptotical distribution resulting from
vectors of maxima conveniently normalized. Specifically, a multivariate
function G is an extreme values distribution (EVD), if there exists a random
vector X = {( X 1 , ..., X m )} of m-dimensional independent identically
distributed (i.i.d) random with cumulative distribution function (cdf ) FX and
normalizing vectors sequence σ n = {(σ j , n ); σ j , n > 0} and μ n = {(μ j , n );
μ j , n ∈ R} with 1 ≤ j ≤ m, such that for x = ( x1 , ..., xm ) ,

⎡ m ⎛ M j, n − μ j, n ⎞⎤
n → +∞ ⎢ ∩
lim P ⎢ ⎜⎜
σ j, n
≤ x j ⎟⎟⎥ = lim FXn (σ n x + μ n ) = G ( x ) , (1.3)
⎠⎥⎦ n → +∞
⎣ j =1 ⎝

where M n = { max ( X j )} defines the vector of maxima.


1≤ j ≤ m

An alternative approach for EVT is the Peaks-Over-Thresholds (POT)


method to describe stochastic extremal behaviors. These models resulting
from the asymptotic estimation lead to Pareto distributions. Among the
earlier studies on extreme values estimation, POT approach appears
implicitly in Tajvidi [25]. Through all these papers it appears that the
generalized Pareto distribution (GPD) H associated to the same sample of
i.i.d vector with extreme value distribution G defined on the domain is given
by
G( x )
log ⎧⎨ ⎫ if x ∈ supp {G}.
1
H ( x) = ⎬ (1.4)
−log G (0) ⎩ G ( min ( x , 0 )) ⎭
The main contribution of this study is to propose new properties of
derivatives measures of the so-called VaR. Section 2 of the paper gives an
overview of the basic properties necessary for our approach. Section 3 deals
with one dimensional variable modeling behavior of a portfolio asset. Some
912 Yves Bernadin Vini Loyara et al.

properties of derivative risks measures such as conditional VaR, the Tail VaR
and the empirical standard deviation are established. In Section 4, a new
version of high risk scenario is characterized and multivariate dependence is
modeled via copula approach.

2. Materials and Methods

In this section, we collect important definitions and useful properties


which are essential in our study. We refer to Joe [16] and Nelsen [22] for
more detailed treatments of copulas. Degen [12] deals with insurances issues
of risks while Uryasev [27] and Balkema and Embrechts [7] stay standard
references for probabilistic and statistical applications for financial risk
management.
2.1. Extension of Sklar theorem to conditional copulas
Copulas are canonical parameterization of multivariate cdf which capture
the properties of the joint model and which remain invariant under strictly
increasing transformations of univariate marginals. In risk management,
usual measures can be also properties of the copulas associated to the random
assets. Sklar established (see Nelsen [22]) that the joint distribution FX =
( F1, ..., Fn ) of a continuous multivariate random vector X = ( X 1 , ..., X n )
can be expressed in terms of a copula C X such as, for all (u1 , ..., u n ) ∈

[0, 1]n ,
C X (u1 , ..., u n ) = FX ( F1−1 (u1 ), ..., Fn−1 (u n )). (2.1)

Particularly, if FX satisfies (2.1), the n-dimensional copula C X is an extreme


value one and satisfies the following max-stability property, for all
(u1, ..., u n ) ∈ [0, 1]n ,

C X (u1; ...; u n ) = C X (u11 k ; ...; u1n k )k with k > 0. (2.2)

While modeling dependence of asymmetric time-varying exchange rate,


Patton [3, 4] pointed out the importance of conditional copulas in financial
market analysis.
Multivariate Risks Modeling for Financial Portfolio Management … 913

Theorem 1 (Patton [3, 4]). Let {Fi , W ; i = 1, 2} be the conditional


distributions of X i | W and FW the joint conditional distribution of
( X 1, X 2 ) W . Assume that Fi, W are continuous on R. Then, there exists a
unique conditional copula CW such as, for all ( x1 , x2 ) ∈ ( R )2 ,

FW ( x1 , x2 | w) = CW ( F1, W ( x1 | w), F2, W ( x2 | w) | w); w ∈ W. (2.3)

Conversely, if we let Fi, W be the conditional distribution of X i | W and CW


be a conditional copula, then the function FW is a conditional bivariate
distribution function with conditional marginal distribution Fi , W .

In the same vein in a time-varying context, Diakarya [9, 10]


characterized the conditional copula where the random stochastic vector is an
Archimedean process {X t , t ∈ χ}.

Proposition 1 (Diakarya [9, 10]). For a given conditioning set Wt , the


conditional copula CWt of X t | Wi , where X t , i | Wt ~ Ft , i ; 1 ≤ i ≤ n exists

and it coincides with the joint distribution function of U i ≡ Ft , i ( X t | Wi );


1 ≤ i ≤ k given Wt . Moreover if, for the bivariate case, the Archimax copula
Cϕt is an extremal model, then CWt is a conditional extremal copula.

2.2. Risk and deviation measures and high scenario of risk


There is no common agreement on the definition of risk. For Rachev et
al. [5], the risk is the quantifiable likelihood of loss or less-than-expected
returns while the Concise Oxford English Dictionary defines it as a hazard, a
chance of bad consequence, loss or exposure to mischance.
2.3. An overview on coherent and multivariate risk measures
Formally a risk measure is a mapping from a set of random variables
describing stochastically risks to the real line giving numerically the
magnitude of risk or uncertainty of the variable. Particularly, Rockafellar
[23] defined a functional R : L2 → R as a coherent risk measure if, for any
two risks X1 and X 2 , it satisfies the following four economically coherent
914 Yves Bernadin Vini Loyara et al.

axioms:

R1. Convexity: R((1 − λ ) X 1 + λX 2 ) ≤ (1 − λ ) R( X 1 ) + λR( X 2 ).


Particularly, the subadditivity: R( X 1 + X 2 ) = R( X 1 ) + R( X 2 )
means that if one combines two risks, the capital requirement is not
be greater than for the risks treated separately.

R2 . Monotonicity: If X1 ≤ X 2 with probability 1, then R( X 1 ) ≤


R( X 2 ). This says that the value of the risk measure is greater than
for risks considered more risky.

R3. Positive homogeneity: For any positive constant λ > 0, R(λX ) >
λR( X ). Thus the risk exposure of a company proportionately
increases or decreases by an equal proportionate value.

R4 . Translation invariance: For any positive constant a > 0,


R( X + a ) = R( X ) + a. It means that increasing or decreasing the
risk by a constant should accordingly increase or decrease the risk
measure by an equal amount.

Referring to Serraino et al. [15], a functional D : L2 → [0, ∞ ] is called a


deviation measure in the extended sense, if it satisfies:
D1. D(C ) = 0 for constant C, but D( X ) > 0 for non-constant X;

D2 . D((1 − λ ) X + λY ) ≤ (1 − λ ) D( X ) + λD(Y ) for λ ∈ ] 0, 1 [


(convexity);

D3 . D( X ) ≤ d when X k − X 2 → 0 with D( X k ) ≤ d (closedness).

Moreover, if it is positively homogeneous, that is;

D4 . D(λX ) = λD( X ) for λ > 0 (positive homogeneity).

2.4. An overview on conditional geometric high risk

If FX is the cdf of the variable X in (1.3), then the univariate marginal


limit is given for all 1 ≤ j ≤ m,
Multivariate Risks Modeling for Financial Portfolio Management … 915

F jn (σ j , n x j + μ j , n ) → G j ( x j )

⎧ ⎧ −1 ⎫
⎪ ⎡
⎪exp − 1 + ξ ⎜ ⎛ x j − μ j ⎞ ⎤ ξ j ⎪
⎪⎪ ⎨ ⎢ j⎜ ⎟⎟⎥ ⎬ if ξ j ≠ 0,
= ⎨ ⎪⎩ ⎣ ⎝ σ j ⎠⎦ ⎪ (2.4)

⎪ ⎧ ⎧ ⎛ x j − μ j ⎞ ⎫⎫
⎪exp⎨− exp⎨− ⎜⎜ ⎟⎟⎬⎬ if ξ j = 0.
⎩⎪ ⎩ ⎩ ⎝ σ j ⎠ ⎭⎭
According to the Fisher-Tippet Theorem (see [21]), every margin Gi may
be a univariate extremal distribution and so is of the type1 of a family of the
following three distribution functions: Φ α (Fréchet), Ψα (Weibull), Λ
(Gumbel).
While modeling risk with multivariate GPDs and point process models of
risk scenarios, Degen [13] has introduced the concept of closed half space H
associated to a random vector Z as follows.

Definition 1 [13]. Let Z be a random vector in R d and H ⊂ R d a closed


half space with P( Z ∈ H ) > 0. The high risk scenario Z H is defined as the
vector Z conditioned to lie in the half space H. If Z has the distribution
π = P Z −1, then Z H has the high risk distribution π H given by

dπ H ( z ) = δ H ( z ) dπ( z ) π( H ) , (2.5)

where δ H i is the indicator function.

Balkema and Embrechts [7] studied the asymptotic behaviour of high


risk scenarios

P( Z H ≤ z Z ∈ H ) (2.5)

for some risk level α = P( Z ∈ H ) tending to zero and shown how this leads
to an alternative multivariate theory of exceedances.

1
Two distribution functions FX and FY are of the same type if there exist a > 0 and b ∈ R
such that X = aY + b.
916 Yves Bernadin Vini Loyara et al.

3. Properties of Derivatives Risks Measures of the VaR

Among the reasons motivating the interest of practitioners to VaR, there


are mathematical properties: the stability of statistical estimation, the
simplicity of optimization procedures and the comprehensiveness. However,
despite of this, the VaR has some disadvantages by not satisfying a key
property taken by metric risks: the additiveness. Indeed, for a fixed
confidence level, the VaR calculation does not provide information about the
magnitude of the losses larger than the VaR-level. In order to overcome these
shortcomings of risks managers have introduced other derivative risks from
the later: the conditional VaR (CVaR), the Tail VaR (TVaR) the VaR, etc.

3.1. Pseudo-convexity properties of derivatives of the VaR


An alternative percentile measure of risk is the CVaR. For a random
variable with continuous cdf, the CVaRα ( X ) equals the conditional
expectation of X subject to X ≥ VaRα ( X ). Let X be a random variable with
the cdf FX modeling the stochastic behavior either of loss or gain. Then
CVaR which is also the expected shortfall is given by

FXα ( z ) − α
CVaRα ( X ) = ∫R zFXα ( zdz ) with FXα ( z ) =
1− α
, where z ≥ VaRα .

The CVaR has superior mathematical properties versus VaR such that
risk management with CVaR functions can be done very efficiently. For a
given confidence level α ∈ ] 0, 1 [, Rockafellar [23] characterized the CVaR
by

⎧ E ( X − a )+ ⎫
CVaRα ( X ) = E{X | X ≥ VaRα ( X )} = inf ⎨a + ; a ∈ R ⎬ , (3.1)
⎩ 1 − α ⎭

where u + = max(u , 0) and FXα being the generalized α-tail distribution.

Furthermore, Sergy [24] have defined alternatively as the convex


combination

CVaRα ( X ) = λ α ( X )VaRα ( X ) + [1 − λ α ( X )]CVaRα+ ( X );


Multivariate Risks Modeling for Financial Portfolio Management … 917

when CVaRα+ is such as:

CVaRα+ ( X ) = {CVaRα ( X ) X > VaRα ( X )}


and
FX (VaR( X ) − α )
λα ( X ) = .
1− α
Proposition 2. The CVaR is a coherent risk measure in the basic sense.
Moreover, for a given confidence level α ∈ ] 0, 1 [, there exists a risky
function Q X such as the following pseudo-convex combination is satisfied:

(1 − α ) Q X (α ) + αQ X (1 − α ) = 0. (3.2)

Proof. The coherentness of the CVaR has already been proved by


Rockafellar [23]. But here we provide another approach of the demonstration
in order to prove (3.2).
( R1 ) Obviously, for any constant C, we have: CVaRα (C ) = C.
( R2 ) By definition,
1 α
CVaRα ((1 − λ ) X + λY ) = ∫
α 0
VaRβ ((1 − λ ) X + λY ) dβ,

which gives
1 α 1 α
CVaRα ((1 − λ ) X + λY ) ≤
α 0∫VaRβ ((1 − λ ) X ) dβ +
α 0 ∫
VaRβ (λY ) dβ.

Moreover, we can check easily that


α α
∫ 0 VaRβ ((1 − λ ) X ) dβ + ∫ 0 VaRβ (λY ) dβ
α α
= (1 − λ ) ∫0 VaRβ ( X ) dβ + λ ∫0 VaRβ (Y ) dβ.
Then
CVaRα ((1 − λ ) X + λY ) ≤ (1 − λ ) CVaRα ( X ) + λCVaRα (Y ).

( R3 ) If we use the monotonicity properties of VaR, it comes that, for all


X ≤ Y,
918 Yves Bernadin Vini Loyara et al.

1 α 1 α
VaRβ ( X ) ≤ VaRβ (Y ) ⇒
α 0∫VaRβ ( X ) dβ ≤
α 0 ∫
VaRβ (Y ) dβ.

Therefore
CVaRα ( X ) ≤ CVaRα (Y ). (3.3)

( R4 ) To prove the closedness, note that for any k ∈ N,

CVaRα ( X ) = CVaRα ( X − X k + X k ).

Therefore, using the inequality (3.3), we have:

CVaRα ( X − X k + X k ) ≤ CVaRα ( X − X k ) + CVaRα ( X k ) with

CVaRα ( X k ) ≤ 0.

Then

CVaRα ( X ) ≤ CVaRα ( X − X k ).

Consider X k − X 2 → 0, and have

CVaRα ( X ) ≤ CVaRα ( X − X k ) ≤ CVaRα ( X k − X 2 ) → 0.

( R5 ) For λ > 0;

1 α 1 α
CVaRα (λX ) =
α 0∫VaRβ (λX ) dβ = λ
α 0 ∫
VaRβ ( X ) dβ.

Thus, we conclude that the CVaR is a coherent risk measure and deviation
for basic sense (see Rockafellar [23]).
Moreover, we have:

⎧E[ X ] = −αCVaR1− α (− X ) + (1 − α ) CVaRα ( X ) ,



⎩E[− X ] = −αCVaR1− α ( X ) + (1 − α ) CVaRα (− X ).
Then
−αCVaR1− α (− X ) + (1 − α ) CVaRα ( X )

= αCVaR1− α ( X ) + (α − 1) CVaRα (− X ).
Multivariate Risks Modeling for Financial Portfolio Management … 919

Finally by setting Q X (α ) = CVaR1− α (− X ) , it follows the relation (1.1)


as asserted. ~

For a given confidence level α ∈ ] 0, 1 [, the TVaR of X is the function


such that
1

1
TVaRα ( X ) = VaRα ( X , ξ ) dξ
1− α α

⎡ α ⎤

1
=
1− α ⎢ E ( X ) − 0 VaRα ( X , ξ ) dξ⎥ . (3.4)
⎣ ⎦

The following is the key result of this paper.

Proposition 3. The CVaRα is a pseudo-convex combination of the VaR,


the TVaR and the XVaR.

Proof. The XTVaR being the sum of two a coherent risk measure and
deviation for basic sense, then XTVaR is a coherent risk measure and
deviation for basic sense showing that it does not check the property under
additivity

XTVaRα ( X ) = TVaRα ( X ) − VaRα ( X ).

Then, it comes that


1
TVaRα ( X ) − VaRα ( X ) = [CVaR1 ( X ) − CVaRα ( X )] − VaRα ( X ).
1− α
Equivalently,

(1 − α ) [TVaRα ( X ) − VaRα ( X )] = CVaR1 ( X ) − CVaRα ( X ) − VaRα ( X ).


Therefore
1
XTVaRα ( X ) = [CVaR1 ( X ) − αAVaRα ( X )] − VaRα ( X ).
1− α
Thus
1
XTVaRα ( X ) = [CVaR1 ( X ) − αAVaRα ( X ) − (1 − α )VaRα ( X )]
1− α
920 Yves Bernadin Vini Loyara et al.

that is

CVaR1 ( X ) = (1 − α ) ( XTVaRα ( X ) + VaRα ( X )) + αAVaRα ( X ) ,

which is a pseudo-combination of the VaR, the TVaR and the XVaR. ~

3.2. Properties of the empirical standard deviation

A deviation measure in the extended or basic sense is called a coherent


measure in the extended or basic sense if it additionally satisfies D5 : D( X )
≤ sup X − E[ X ] for all X (upper range boundedness).

Proposition 4. The standard deviation σ( X ) of a given uncertain


variable X is a deviation measure of basic sense.

Proof. ( D1 ) By construction, for a given random variable X, σ( X ) =

E([ X − E[ X ]])2 > 0. Equivalently, it is obvious that for any constant


C ∈ R, it follows that: σ(C ) = Var (C ) = 0.

( D2 ) Let X and Y be two random vectors, for any λ ∈ [0, 1],

σ((1 − λ ) X + λY ) = (E[(1 − λ ) X + λY − E[(1 − λ ) X + λY ]]2 )1 2 .

So,

(E[((1 − λ ) X + λY )2 ] − (E[ (1 − λ ) X + λY ])2 )1 2

= ((1 − λ )2 E[ X 2 ] + 2λ(1 − λ ) E[ XY ] + λ2E[Y 2 ]

− (1 − λ )2 (E[ X ])2 − 2λ(1 − λ ) E[ X ] E[Y ] − λ2 (E[Y ])2 )1 2 .

We obtain the following equality:

(E[((1 − λ ) X + λY )2 ] − (E[ (1 − λ ) X + λY ])2 )1 2

= ((1 − λ )2 (E[ X 2 ] − (E[ X ])2 ) + λ2 (E[Y 2 ] − (E[Y ])2 )

+ λ(1 − λ ) cov( X , Y ))1 2 .


Multivariate Risks Modeling for Financial Portfolio Management … 921

Since cov( X , Y ) = 0, it follows that

σ((1 − λ ) X + λY ) = ((1 − λ )2 (E[ X 2 ] − (E[ X ])2 ) + λ2 (E[Y 2 ] − (E[Y ])2 ))1 2 .

Therefore,

σ((1 − λ ) X + λY ) ≤ (1 − λ ) (E[ X 2 ] − (E[ X ])2 )1 2 + λ(E[Y 2 ] − (E[Y ])2 )1 2 .

Finally, the convexity is given by

σ((1 − λ ) X + λY ) = (1 − λ ) σ( X ) + λσ(Y ).

( D3 ) For a given random variable X and given real number k, it follows


that

(E( X 2 ) − (E[ X ])2 )1 2 = (E(( X − X k + X k )2 ) − (E[ X − X k + X k ])2 )1 2 .


Then,

σ( X ) = (E[( X − X k )2 ] − 2E[ X k ( X − X k )] + E[( X k )2 ]

− ((E[ X − X k ])2 + 2E[ X k ] E[ X − X k ] + (E[ X k ])2 ))1 2 .


It gives

σ( X ) = (E[( X − X k )2 ] − (E[ X − X k ])2 + E[( X k )2 ] − (E[ X k ])2

2(E[ X k ( X − X k )] + E[ X k ] E[ X − X k ])1 2 .

Using the limit E[( X − X k )2 ] → 0.

So, it comes that:

σ( X ) ≤ (E[( X k )2 ] − (E[ X k ])2 − 2(E[ X k ( X − X k )]

+ E[ X k ] E[ X − X k ]) − (E[ X − X k ])2 )1 2 .
Therefore,

σ( X ) ≤ (E[( X k )2 ] − (E[ X k ])2 − 2(E[ X k ( X − X k )]

+ E[ X k ] E[ X − X k ]))1 2 ,
922 Yves Bernadin Vini Loyara et al.

which is equivalent to

σ( X ) ≤ (E[( X k )2 ] − (E[ X k ])2 − 2 cov( X , X − X k ))1 2 .

Particularly, for a deviation measure in the basic sense cov( X , Y ) = 0

and cov( X , X − X k ) = 0, and hence it follows that

σ( X ) ≤ (E[( X k )2 ] − (E[ X k ])2 )1 2 = σ( X k ) ≤ d .

A functional σ( X ) is called a deviation measure in the basic sense if

cov( X , Y ) = 0 and cov( X , X − X k ) = 0 (closedness).

( D4 ) The last property being obvious, σ( X ) satisfies properties as


asserted. ~

4. Conditional Geometric High Risk Modeling Scenarios

Let H be a closed half space associated to a random vector Z has density


f, P( Z ∈ H ) = α > 0. Then the following result gives the relation between Z
and its associated copula, that is, the copula-based high risk scenario.

Proposition 5. Let Z be a random vector in R m and H ⊂ R m a closed


half space with P( Z ∈ H ) > 0 and C a multivariate copula. The high risk

scenario Z H is defined as the vector Z conditioned to lie in the half space H.


If π denotes the distribution of Z, then the high risk distribution π H of Z H is
given by, for all i = 1, ..., m,
d
H H

dπ H ( z1 , ..., z d ) = c(π1 1 ( z1 ), ..., π d d ( z d ))
i =1
δ H ( zi ) dπi ( zi ) πi ( H i ) ,
i

(4.1)
Hi
where πi are the marginals distributions functions of the distribution π H
and c is the density of the copula C.

Proof. From the Sklar theorem, it yields that the density function f =
( f1, ..., f d ) associated to any continuous cdf F is linked with the density of
Multivariate Risks Modeling for Financial Portfolio Management … 923

the corresponding copula, for all x = ( x1, ..., xm ) ∈ R m by

∂ nC ( F1 ( x1 ), ..., Fm ( xm ))
f (x) =
∂x1 ∂xm

= c( F1 ( x1 ), ..., Fm ( xm )) f1 ( x1 ) f m ( x m ). (4.2)

In other words, for all (u1 , ..., u n ) ∈ [0, 1]n it comes that

f ( F1−1 (u1 ), ..., Fm−1 (u m ))


c(u1 , ..., u m ) = .
f1 ( F1−1 (u1 )), ..., f m ( Fm−1 (u m ))

If we use the relation and if π H is the distribution of high risk Z H , we


can write
∂ d C ( π1 1 ( z1 ), ..., π d d ( z d ))
H H
dπ ( z1 , ..., z d ) =
H
.
∂z1 ∂z d
Finally
d
dπ H ( z1 , ..., z d ) = c(π1 1 ( z1 ), ..., π d d ( z d ))
H H

i =1
δ H i ( zi ) dπi ( zi ) πi ( H i ).

Hence, this relation is a copula-based high risk scenario. ~

Corollary 1. Let f Z the density f and c be the density of the multivariate

copula C. Let H be a closed half space so that P( Z ∈ H ) = α > 0. Then Z H


has the density function
d
f H ( z1 , ..., z d ) = c( ~z1 , ..., ~z d )∏
i =1
δ H i ( zi ) f ( zi ) α i , (4.3)

where Fi
Hi
( zi ) = ~zi , for all i = 1, ..., d are the marginals of the cdf F H .
Proof. Let H be a closed half space so that P( Z ∈ H ) = α > 0. We
remark that P( Z i ∈ H i ) = αi , ∀i = 1, ..., d . Then

∂ m C ( F1 1 ( z1 ), ..., FmH m ( z m ))
H
f H ( z1 , ..., z m ) =
∂z1 ∂z m
924 Yves Bernadin Vini Loyara et al.

which gives:
m
f H
( z1 , ..., z d ) = c( F1 1 ( z1 ),
H
..., FmH m ( z m )) ∏
i =1
f i i ( z i ).
H

And finally
m
f H ( z1 , ..., z d ) = c( F1 1 ( z1 ), ..., FmH m ( z m ))
H

i =1
δ H i ( z i ) f i ( zi ) α i .

Let us consider Fi
Hi
( zi ) = ~zi , for all i = 1, ..., d , then we have
m
f H
( z1, ..., z m ) = c(~z1, ..., ~z m ) ∏
i =1
δ H i ( z i ) f ( zi ) α i . ~

The following result gives the relation between Z and associated copula.

Proposition 6. Let Z be a random vector in R m , H = H1 × × Hm

⊂ R m be a closed half space with P( Z ∈ H ) > 0, C be a multivariate


copula and let us suppose that zi ∈ ℵ = H1 ∩ ∩ H d , for all i = 1, ..., m.

If the marginals distributions of the high risk scenarios distribution π H are


all continuous, then the density of the copula C is given by

δ H dπ( u~1 1 , ..., u~mH m ) π( H )


H
c(u1 , ..., u m ) = , (4.4)
dπ1 ( u~1 1 ) × × dπ m ( u~mH m ) (π1 ( H1 ) × × π m ( H m ))
H

where u~i i = ( πi i )( −1) (ui ) , the inverses of the marginals distributions


H H

( πiH1 ).
H H
Proof. Suppose that the high risk scenarios margins π1 1 , ..., π d d are
continuous. Using the relation, it comes that

dπ H ( z1 , ..., z d )
c( π1 1 ( z1 ), ..., π d d ( z d )) =
H H
.
∏i =1 δ H ( zi ) dπi ( zi ) πi ( H i )
d
i
Multivariate Risks Modeling for Financial Portfolio Management … 925

If zi ∈ ℵ, ∀i = 1, ..., d , then we get this relation

dπ H ( u~i i , ..., u~d d )


H H
c(u1 , ..., u d ) = ,

d
δ ( z ) dπi ( zi ) πi ( H i )
i =1 H i i

where πi i ( zi ) = ui or zi = ( πi i )( −1) (ui ). This gives


H H

δ H dπ( u~1 1 , ..., u~mH m ) π( H )


H
c(u1 , ..., u d ) = .
δℵdπ1 ( u~1 1 ) × × dπ d ( u~mH m ) ( π1 ( H1 ) × × π m ( H m ))
H

d
Since δℵ = 1, it follows that zi ∈ ℵ = ∩i =1 H i .
Finally, we obtain

δ H dπ( u~1 1 , ..., u~mH m ) π( H )


H
c(u1 , ..., u d ) = . ~
dπ1 ( u~1 1 ) × × dπ m ( u~mH m ) (π1 ( H1 ) × × π m ( H m ))
H

Consider, in particular, the Gaussian bivariate model. This family lies in


the class of elliptical EVDs. While studying the stochastic dependence
modeling for elliptical processes, Diakarya [10] has recalled
Definition 2. An n-dimensional random vector X is elliptically distributed
if for some vector μ = (μ1 , ..., μ n ) ∈ R n , some n × n positive definite
symmetric matrix Σ and some function φ : R + → R, the characteristic
function ϕ X − μ of X − μ is of the form ϕ X − μ (t ) = φ(t T Σt ). We write

g n ⎧⎨ ( x − μ )t Σ −1 ( x − μ )⎫⎬ for
cn 1
X En (μ, Σ, φ ) , where ϕ( x ) =
det (Σ ) ⎩ 2 ⎭

appropriate cn and g n , for x = ( x1, ..., x ) ∈ R n .

Let F be the cdf of bivariate Gauss model with linear coefficient of


correlation ρ ∈ [0, 1 [.

Corollary 2. The density function of Gauss bivariate model with


correlation ρ is such that, for all (u1 , u 2 ) ∈ [0, 1]2 ,
926 Yves Bernadin Vini Loyara et al.

F (H ) F (H )
cρ (u1 , u 2 ) = 1 1 2 2
F ( H ) 1 − ρ2

⎧⎪ (u~ H1 )2 + (u~ H 2 )2 − 2ρu~ H1 u~ H 2 (u~ H1 )2 + (u~ H 2 )2 ⎫⎪


× exp⎨− 1 2 1 2 + 1 2
⎬. (4.5)
⎪⎩ 2(1 − ρ )2 2 ⎪⎭

Proof. Let Z = ( X , Y ) in (R + )2 have a bivariate Gaussian distribution


F with margins F1 and F2 . Without loss of generality, we may assume that Z
has density

1 ⎧ x 2 + y 2 − 2ρxy ⎫
f ρ ( x, y ) = exp⎨− ⎬.
2π 1 − ρ 2 ⎩ 2(1 − ρ 2 ) ⎭

For the Gauss family, we have

F1 ( H1 ) F2 ( H 2 )⎧ x 2 + y 2 − 2ρxy x 2 + y 2 ⎫
cρ ( F1 1 ( x ), F2 ( y )) =
H H2
exp ⎨− + ⎬.
F ( H ) 1 − ρ2 ⎩ 2(1 − ρ 2 ) 2 ⎭
(4.6)

Let H = H1 × H 2 ∈ R + × R + be a closed half space with P( Z ∈ H ) = F ( H )

> 0. The high risk Z H density is given by

f ρH ( x, y ) = δ H ( x, y ) f ρ ( x, y ) F ( H )

⎧ 1 ⎧ x 2 + y 2 − 2ρxy ⎫
⎪⎪ exp ⎨− ⎬ if ( x, y ) ∈ H ,
= ⎨ 2πF ( H ) 1 − ρ 2 ⎩ 2(1 − ρ 2 ) ⎭

⎪⎩0 otherwise.

Like Gauss distribution, the Gauss’s copula is often characterized by density


cρ . Then, we can write

f ρH ( x, y ) = f1 1 ( x ) f 2 ( y ) cρ ( F1H1 ( x ), F2H 2 ( y ))
H H2

δ H ( x, y ) ⎧ x 2 + y 2 − 2ρxy ⎫
= exp ⎨− ⎬.
2πF ( H ) 1 − ρ 2 ⎩ 2(1 − ρ 2 ) ⎭
Multivariate Risks Modeling for Financial Portfolio Management … 927

δ H1 ( x ) ⎧ x2 ⎫ δH2 ( y)
= exp⎨− ⎬
F1 ( H1 ) 2π ⎩ 2 ⎭ F2 ( H 2 ) 2π
⎧ y2 ⎫
⎬ cρ ( F1 1 ( x ), F2 2 ( y )) ,
H H
× exp⎨−
⎩ 2 ⎭

H1 ∩ H 2 = R + ⇒ δ H1 ( x ) δ H 2 ( y ) = 1 and δ H ( x, y ) = 1.

Hence,

k ⎧ x 2 + y 2 − 2ρxy x 2 + y 2 ⎫
cρ ( F1 1 ( x ), F2 ( y )) =
H H2
exp⎨− + ⎬. (4.7)
1 − ρ2 ⎩ 2(1 − ρ 2 ) 2 ⎭

Let F1 1 ( X 1 ) = U and F2
H H2
( X 2 ) = V . Then (U , V ) ⊂ [0, 1]2. The relation
(4.7) becomes
cρ (u , v )

k ⎧⎪ (u~ H1 )2 + (u~ H 2 )2 − 2ρu~ H1 u~ H 2 (u~ H1 )2 + (u~ H 2 )2 ⎫⎪


= exp ⎨− 1 2 1 2 + 1 2
⎬,
1−ρ 2 ⎪⎩ 2 (1 − ρ 2
) 2 ⎪⎭

F (H ) F (H )
where k = 1 1 2 2 . ~
F (H )

5. Conclusion and Discussion

The results of the study provide important characterizations of parametric


max-stable processes. In this paper, we have investigated some properties of
derivatives measures of the Value at Risk (VaR) of random variable
modeling the stochastic behavior of portfolio assets. Specifically,
coherentness and convex properties of the conditional, the tail VaR and the
standard deviation are shown. Moreover, a new version of high risk scenario
is characterized and bivariate densities are modeled via copula approach.

References

[1] A. Carbonaro, G. Metafune and C. Spina, Parabolic Schrödinger operators,


J. Math. Anal. Appl. 343 (2008), 965-974.
928 Yves Bernadin Vini Loyara et al.
[2] A. Cousin and Elena Di Bernardino, A multivariate extension of value-at-risk and
conditional-tail-expectation, 2012. <hal-00638382v2>.
[3] A. J. Patton, Applications of copula theory in financial econometrics, A
Dissertation, University of California, San Diego, 2002.
[4] A. J. Patton, Modelling asymmetric exchange rate dependence, Inter. Econ. Rev.
47(2) (2006), 527-556. http://dx.doi.org/10.1111/j.1468-2354.2006.00387.
[5] Svetlozar T. Rachev, Stoyan V. Stoyanov and Frank J. Fabozzi, A probability
metrics approach to financial risk measures, J. Risk and Insurance 83(2) (2011),
392.
[6] Basel Committee on Banking Supervision, 2010. Basel III: A Global Regulatory
Framework for More Resilient Banks and Banking Systems.
http://www.bis.org/publ/bcbs189_dec2010.pdf, December.
[7] Guus Balkema and P. Embrechts, High risk scenarios and extremes. A geometric
approach, ETH Zürich, EMS Zurich Lectures in Advanced Mathematics, Volume
5, 2007, 388 pp. DOI: 10.4171/035.
[8] J. Beirlant, Y. Goegebeur, J. Segers and J. Teugels, Statistics of Extremes: Theory
and Applications, John Wiley and Sons, Chichester, 2005.
[9] Barro Diakarya, Conditional dependence of trivariate generalized Pareto
distributions, Asian J. Math. Stat. 2(2) (2009), 20-32.
http://scialert.net/fulltext/?doi=ajms.2009.20.32.
[10] Barro Diakarya, Sampling a survival and conditional class of Archimedean
processes, J. Math. Res. 5(1) (2013), 53-60.
URL: http://dx.doi.org/10.5539/jmr.v5n1p53.
[11] Barro Diakarya, Diallo Moumouni and Bagré Remi Guillaume, Spatial tail
dependence and survival stability in a class of Archimedean copulas, Inter. J.
Math. Math. Sci. 2016 (2016), Article ID 8927248, 8 pp.
http://dx.doi.org/10.1155/2016/89272482.
[12] M. E. Degen, EVT-based estimation of risk capital and convergence of high
quantiles, Adv. Appl. Probab. 40(3) (2008), 696-715.
[13] M. Degen, On multivariate generalised Pareto distributions and high risk
scenarios, Diploma Thesis, Department of Mathematics, ETH Zürich, 2006.
|http://www.math.ethz.ch/˜degen/thesis.pdf.
[14] S. Doussou-Gbété, B. Somé and D. Barro, Modelling the dependence of
parametric bivariate extreme value copulas, Asian J. Math. Stat. 2(3) (2009),
41-54. http://scialert.net/fulltext/?doi=ajms.2009.41.54.
Multivariate Risks Modeling for Financial Portfolio Management … 929
[15] G. Serraino, U. Theiler and S. Uryasev, Risk return optimization with different
risk aggregation strategies, Groundbreaking Research and Developments in VaR,
G. N. Gregoriov, ed., forthcoming, Bloomberg Press, New York, 2009.
[16] H. Joe, Multivariate models and dependence concepts, Monographs in Statistics
and Probability 73, 1997.
[17] Jinwook Lee and Andrés Prékopa, Properties and calculation of multivariate risk
measures MVaR and MCVaR, Ann. Oper. Res. 211(1) (2013), 225-254.
link.springer.com/article/10.1007/s10479-013-1482-5.
[18] J. Peng, Value at risk and tail value at risk in uncertain environment, Proceedings
of the 8th International Conference on Information and Management Sciences,
Kuming and Banna, China, July 20-28, 2009, pp. 787-793.
[19] Michael G. Wacek, Consistent measurement of property-casualty risk-based
capital adequacy, Casualty Actuarial Society Forum, Volume: Spring, 2007, pp.
107-163. http://www.casact.org/pubs/forum/07spforum/07Sp113.pdf.
[20] H. Mamaysky, A. W. Lo and J. Wang, Foundations of technical analysis:
computational algorithms, statistical inference, and empirical implementation,
J. Finance 55(4) (2000), 1705-1770. https://doi.org/10.1111/0022-1082.00265.
[21] S. Coles, An Introduction to Statistical Modeling of Extreme Values, Springer-
Verlag, London, 2001. www.springer.com/us/book/9781852334598.
[22] R. B. Nelsen, An Introduction to Copulas, 2nd ed., Springer Series in Statistics,
Springer, New York, 2007.
[23] R. T. Rockafellar, Coherent approaches to risk in optimization under uncertainty,
Tutorials in Operations Research INFORMS, Institute for Operations Research
and the Management Sciences, Hanover, MD, 2007, pp. 38-61.
[24] Sarykalin Sergy, Value-at-risk vs. conditional value-at-risk in risk management
and optimization, Tutorials in Operations Research INFORMS.
doi: 10.1287/educ.1080.0052. Adv. Appl. Probab. 40(3) (2008), 696-715.
[25] N. Tajvidi, Multivariate generalized Pareto distributions, Characterisation and
Some Statistical Aspects of Univariate and Multivariate Generalized Pareto
Distributions, Ph.D. Thesis, Department of Mathematics, Chalmers, Goëteborg,
1996.
[26] D. T. Tangho, Dynamics copulas: applications to finance and economics, Thèse de
Doctorat, Ecole des Mines de Paris, 2007.
[27] S. Uryasev, Conditional value-at-risk: optimization algorithms and applications,
Engineering News, No. 14, February, 2000. www.ise.ufl.edu/uryasev/finnews.pdf.
CONCLUSION GÉNÉRALE

ans ce travail de thèse, nous avons apporté des contributions aux thèmes de la mo-
D délisation et de l’estimation des risques multidimensionnels. Plus précisement dans
le deuxième chapitre, nous avions étudié la dépendance de queue spatiale dans une classe
de copule archimédienne. Ainsi, nous nous sommes intérréssés au problème de l’indépen-
dance asymptotique dans le cas spatial.

Dans le troisième chapitre, nous avons abordé la problématique de l’extension de me-


sures de risque classiques dans un cadre multivarié : VaR et de TVaR. Les résultats
obtenus dans cette partie ont montré que nos mesures multidimensionnelles étendent cer-
taines propriétés vérifiées en dimension un, par rapport au changement du niveau du
risque et au changement de la structure de dépendance du vecteur. Ce chapitre a apporté
des éléments de réponse au problème de dépendance des scénarios de haut risque. Grâce
aux fonctions copules multivariées, nous avions une relation entre la densité des scénariis
de hauts risques et la densité de la copule dans cadre multidimensionnel.

Les perspectives de ces travaux sont nombreuses. Elles peuvent être essentiellement
fondées sur des développements théoriques des résultats présentés dans cette thèse ou
bien sur la mise au point dans des procédures d’évaluation de risque dans des contextes
d’assurance, de finance ou encore d’actuariat. Nous essayons ici d’explorer davantage dans
le détail quelques pistes possibles.

En ce qui concerne la théorie des scénarii de hauts risques, faire d’autres hypothèse
sur l’ensemble H (domaine à risque) : qu’obtient-on si le domaine n’est pas un demi-plan
fermé ? Une technique pour la détermination du domaine H.

Le travail de cette thèse offre un certain nombre de perspectives intéressantes. Il se-


rait bien d’utiliser ces mesures multivariées dans des études pratiques en assurance ou
en finance, pour analyser leur comportement avec des données réelles et leur possible
utilisation dans la gestion des risques.

114
ANNEXE A
ESTIMATION DE COPULES

a mise en oeuvre d’un modèle utilisant les copules nécessite l’élaboration d’une mé-
L thode capable d’estimer la structure de dépendance à partir des informations re-
cueillies sur le problème à modéliser. Les premiers travaux à ce sujet nous viennent de
Genest en 1987 et portait sur la copule de Franck. Il y a eu aussi l’article de Genest-Luis
Rivest en 1993 sur l’inférence des copules Archimédiennes. Dans la suite nous nous inté-
resserons aux principales méthodes d’inférences statistiques des copules, en les regroupant
en deux catégories : les méthodes paramétriques et non paramétriques.

A.1 Estimation non paramétrique


A.1.1 La copule empirique
La copule d’une loi multivariée possède une version empirique définie à partir d’un
échantillon d’observations issues de cette loi . Soit Xi = (X1,i , . . . , Xd,i ) pour tout i ≥ 1,
une suite de vecteurs aléatoires indépendants, identiquement distribués, de fonction de
répartition F et de marges F1 , . . . , Fd . Nous supposons que F est continue afin que la
copule C soit unique. Si δu correspond à la mesure de Dirac avec u ∈ Rd , nous définissons
la mesure empirique d’un échantillon de taille n ≥ 1 engendré par le vecteur aléatoire X
de la façon suivante
n
1X
µ= δX (A.1)
n j=1 j
On définit, pour n ≥ 1 la distribution empirique par
d
!
Y
F (x1 , . . . , xd ) = µ ] − ∞, xi ] (A.2)
i=1

Nous notons {xj:n,1 , . . . , xj:n,d } les statistiques d’ordre et {rj1 , . . . , rjd } les statistiques
de rang. Nous avons la correspondance suivante :

115
A.2 Estimation paramétrique

xrj,i :n,i = xj,i (A.3)


Nous pouvons introduire la copule empirique de l’échantillon comme la copule Ĉ de la dis-
tribution empirique F̂ . Le problème est que Ĉ n’est pas unique, c’est pourquoi Deheuvels
[1981] propose la solution suivante :

Définition A.1 ([17])


Toute copule Ĉ ∈ C définie sur le treillis L :
j1 jd
  
L= ,..., : 1 ≤ i ≤ d, ji = 0, . . . , d (A.4)
n n
par la fonction suivante :
n Y d
j1 jd 1X
 
Ĉ ,..., = 1r ≤j (A.5)
n n n j=1 i=1 j,i i

est une copule empirique.

A.1.2 La méthode de GENEST-RIVEST


Cette une méthode élaborée par Christian Genest et Louis-Paul Rivest en 1993. C’est
une méthode établie pour pouvoir sélectionner une copule appartenant à la famille Archi-
médienne. Elle se base directement sur le générateur de la copule. Soit X un vecteur de d
variables aléatoires. C est une copule associée au générateur ϕ et K(u) = P (C(U1 , U2 ) ≤
u) et on a :
K(u) = u − ϕ(u)/ϕ0 (u) (A.6)
Un estimateur non paramétrique de K est donné par :
n
1X
K̂(u) = 1{v ≤u} (A.7)
n j=1 j

avec n
1 X
vj = 1{x <x ,x <x } (A.8)
n − 1 k=1 k,1 j,1 k,2 j,2

A.2 Estimation paramétrique


A.2.1 La méthode des moments
C’est une méthode qui consiste à estimer les paramètres βi , i = 1, . . . , n des lois
marginales et le paramètre α de la copule par la méthode des moments :

116
A.2 Estimation paramétrique

1. Résoudre le système des n équations à n inconnues :




 Xt = f (β1 , . . . , βn )









St2 = g(β1 , . . . , βn )








(A.9)


µ3,t = h(β1 , . . . , βn )













.. .. ..



. . .

où n désigne la dimension de α ; f , g et h sont des expressions des moments


(ordinaires) d’ordre 1, 2 et 3 en fonction des paramètres βi . Répéter cette étape
pour toutes les marginales.
2. On inverse le tau de Kendall et le rhô de Spearman pour obtenir la copule.

A.2.2 Méthode du maximum de vraisemblance (MLE)


Cette méthode est classique. L’expression de la log-vraisemblance est
d
X n X
X d
l(θ) = ln c(F1 (xj,1 , θ), . . . , Fd (xj,d , θ); θ) + ln fi (xj,i ; θ) (A.10)
j=1 j=1 j=1

où θ est la valeur du paramètre (des marges et de la copule). L’estimateur du maximum


de vraisemblance correspond à :

θ̂M L = arg max l(θ) (A.11)

117
ANNEXE B
SIMULATIONS

library(acopula)
library(climextRemes)
library(copula)
library(evd)
library(extRemes)

B.1 Représentation des copules (Chapitre 1)


La copule Gaussienne
norm.cop = normalCopula(0.5)
norm.cop
dCopula(c(0.5, 0.5), norm.cop)
pCopula(c(0.5, 0.5), norm.cop)
u = rCopula(1000, norm.cop)
plot(u)
dCopula(u, norm.cop)
pCopula(u, norm.cop)
persp (norm.cop, dCopula, col="grey")
contour(norm.cop, dCopula, col="grey")
persp (norm.cop, pCopula, col="grey")
contour (norm.cop, pCopula, col="grey")

La copule de Student
t.cop = tCopula(c(0.5), dim = 2, dispstr = "toep", df = 1, df.fixed = TRUE)
t.cop
dCopula(c(0.5, 0.5), t.cop)

118
B.1 Représentation des copules (Chapitre 1)

u = rCopula(100, t.cop)
plot(u)
dCopula(u, t.cop)
pCopula(u, t.cop)
persp (t.cop, dCopula, col="grey")
contour(t.cop, dCopula, col="grey")
persp (t.cop, pCopula, col="grey")
contour(t.cop, pCopula, col="grey")

La copule de Clayton
ge = genClayton(parameters=6)
dCopula(c(0.3,0.5),ge)
x = seq(0,1,length.out=20)
y = seq(0,1,length.out=20)
persp(x,y,matrix(dCopula(expand.grid(x,y),ge),nrow=length(x)),col="grey",r=2,zlab="densité")
contour(x,y,matrix(dCopula(expand.grid(x,y),ge),nrow=length(x)),col="grey",r=2,zlab="")
pCopula(c(0.3,0.5),ge)
x = seq(0,1,length.out=20)
y = seq(0,1,length.out=20)
persp(x,y,matrix(pCopula(expand.grid(x,y),ge),nrow=length(x)),col="grey",r=2,zlab="")
contour(x,y,matrix(pCopula(expand.grid(x,y),ge),nrow=length(x)),col="grey",r=2,zlab="")

La copule de Gumbel
ge = genGumbel(parameters=6)
dCopula(c(0.3,0.5),ge)
x = seq(0,1,length.out=20)
y = seq(0,1,length.out=20)
persp(x,y,matrix(dCopula(expand.grid(x,y),ge),nrow=length(x)),col="grey",r=2,zlab="densité")
contour(x,y,matrix(dCopula(expand.grid(x,y),ge),nrow=length(x)),col="grey",r=2,zlab="")
pCopula(c(0.3,0.5),ge)
x = seq(0,1,length.out=20)
y = seq(0,1,length.out=20)
persp(x,y,matrix(pCopula(expand.grid(x,y),ge),nrow=length(x)),col="grey",r=2,zlab="")
contour(x,y,matrix(pCopula(expand.grid(x,y),ge),nrow=length(x)),col="grey",r=2,zlab="")

La copule de Clayton
ge = genClayton(parameters=6)
dCopula(c(0.3,0.5),ge)
x = seq(0,1,length.out=20)
y = seq(0,1,length.out=20)
persp(x,y,matrix(dCopula(expand.grid(x,y),ge),nrow=length(x)),col="grey",r=2,zlab="densité")
contour(x,y,matrix(dCopula(expand.grid(x,y),ge),nrow=length(x)),col="grey",r=2,zlab="")

119
B.2 Codes R des figures de l’application (Chapitre 2)

pCopula(c(0.3,0.5),ge)
x = seq(0,1,length.out=20)
y = seq(0,1,length.out=20)
persp(x,y,matrix(pCopula(expand.grid(x,y),ge),nrow=length(x)),col="grey",r=2,zlab="")
contour(x,y,matrix(pCopula(expand.grid(x,y),ge),nrow=length(x)),col="grey",r=2,zlab="")

La copule de Franck
ge = genFrank(parameters=6) dCopula(c(0.3,0.5),ge)
x = seq(0,1,length.out=20)
y = seq(0,1,length.out=20)
persp(x,y,matrix(dCopula(expand.grid(x,y),ge),nrow=length(x)),col="grey",r=2,zlab="densité")
contour(x,y,matrix(dCopula(expand.grid(x,y),ge),nrow=length(x)),col="grey",r=2,zlab="")
pCopula(c(0.3,0.5),ge)
x = seq(0,1,length.out=20)
y = seq(0,1,length.out=20)
persp(x,y,matrix(pCopula(expand.grid(x,y),ge),nrow=length(x)),col="grey",r=2,zlab="")
contour(x,y,matrix(pCopula(expand.grid(x,y),ge),nrow=length(x)),col="grey",r=2,zlab="")

B.2 Codes R des figures de l’application (Chapitre


2)
Études des lois marginales
Lois marginales 1 (Température de Ouagadougou)
tempouaga=read.table("tempouaga.txt")
Tempouaga=as.matrix(tempouaga)
length(Tempouaga)
maxouaga=apply(Tempouaga,1,max)
nb=360
X=1 :nb
opar = par(mfrow = c(1,2))
plot(X,maxouaga,type=’l’)
hist(maxouaga,main="")
title(main="Evolution des maxima à Ouagadougou",outer=TRUE,l=-1)
par(opar)
gevouaga=fevd(maxouaga,period.basis = "month")
plot(gevouaga)
opar = par(mfrow=c(2,2))
plot(gevouaga)
par(opar)
mu-ouaga = gevouaga$estimate[1]
sigma-ouaga = gevouaga$estimate[2]

120
B.2 Codes R des figures de l’application (Chapitre 2)

xi-ouaga = gevouaga$estimate[3]
q-ouaga = max(maxouaga)
m-ouaga = min(maxouaga)

Intervalles de confiances
ci(fevd(maxouaga), alpha = 0.05, type="parameter", return.period = c(10,50,100),period.basis
= "month")
ci(fevd(maxouaga), alpha = 0.05, type="parameter")
ci(fevd(maxouaga), alpha = 0.05,period.basis = "month", type="return.level", return.period
= c(10,50,100))

Lois marginales 2 (Température de Yamoussoukro)


tempciv=read.table("tempciv.txt")
Tempciv=as.matrix(tempciv)
length(Tempciv)
maxciv=apply(Tempciv,1,max)
nb=360
X=1 :nb
opar = par(mfrow = c(1,2))
plot(X,maxciv,type=’l’)
hist(maxciv,main="")
title(main="Evolution des maxima à Yamoussokro",outer=TRUE,l=-1)
par(opar)
gevciv=fevd(maxciv,period.basis = "month")
plot(gevciv)
opar = par(mfrow=c(2,2))
plot(gevciv)
par(opar)
mu-civ = gevciv$estimate[1]
sigma-civ = gevciv$estimate[2]
xi-civ = gevciv$estimate[3]
q-civ = max(maxciv)
m-civ = min(maxciv)
profliker(gevciv, type="parameter", which.par=3)

Études bivariées
Lois extrêmes bivariées
ouagaciv=cbind(Tempouaga,Tempciv)
length(Ouagaciv)
M1 = fbvevd(ouagaciv)

121
B.2 Codes R des figures de l’application (Chapitre 2)

M1
abvevd(dep = M1$estimate , model = "log", plot = TRUE)
abvnonpar(data = ouagaciv, add = TRUE, lty = 2)
plot(M1)

Ajustement par les copules


la copule Gaussienne
u.hat=pgev(Tempouaga,mu-ouaga,sigma-ouaga,xi-ouaga)
v.hat=pgev(Tempciv,mu-civ,sigma-civ,xi-civ)
n.cop=normalCopula(dim=2)
fit.n.cop=fitCopula(n.cop,cbind(u.hat,v.hat))
fit.n.cop
gof.test=gofCopula(n.cop,cbind(u.hat,v.hat))
gof.test
copnormal = mvdc ( normalCopula(fit.n.cop$estimate),c("gev","gev"),
list( list(loc=mu-ouaga,scale=sigma-ouaga,shape=xi-ouaga), list(loc=mu-civ,scale=sigma-
civ,shape=xi-civ)))
persp(copnormal,pMvdc, xlim = c(20,45),ylim=c(20,45), col="grey",main="Loi jointe")
contour(copnormal,pMvdc, xlim = c(20,45),ylim=c(20,45), col="grey",main="Contour de
la loi jointe")
persp(copnormal,dMvdc, xlim = c(20,45),ylim=c(20,45), col="grey",main="Densité de la
loi jointe")
contour(copnormal,dMvdc, xlim = c(30,41),ylim=c(24,31), col="grey",main="Copule Gaus-
sienne")

la copule de Gumbel
u.hat=pgev(Tempouaga,mu-ouaga,sigma-ouaga,xi-ouaga)
v.hat=pgev(Tempciv,mu-civ,sigma-civ,xi-civ)
n.cop=gumbelCopula(dim=2)
fit.n.cop=fitCopula(n.cop,cbind(u.hat,v.hat))
fit.n.cop
gof.test=gofCopula(n.cop,cbind(u.hat,v.hat))
gof.test
copgumbel = mvdc ( gumbelCopula(fit.n.cop$estimate),c("gev","gev"),
list( list(loc=mu-ouaga,scale=sigma-ouaga,shape=xi-ouaga), list(loc=mu-civ,scale=sigma-
civ,shape=xi-civ)))
persp(copgumbel,pMvdc, xlim = c(20,45),ylim=c(20,45), col="grey",main="Loi jointe")
contour(copgumbel,pMvdc, xlim = c(20,45),ylim=c(20,45), col="grey",main="Contour de
la loi jointe")
persp(copgumbel,dMvdc, xlim = c(20,45),ylim=c(20,45), col="grey",main="Densité de la
loi jointe")

122
B.2 Codes R des figures de l’application (Chapitre 2)

contour(copgumbel,dMvdc, xlim = c(30,41),ylim=c(24,31), col="grey",main="Copule de


Gumbel")

La copule de Student
u.hat=pgev(Tempouaga,mu-ouaga,sigma-ouaga,xi-ouaga)
v.hat=pgev(Tempciv,mu-civ,sigma-civ,xi-civ)
n.cop=tCopula(dim=2)
fit.n.cop=fitCopula(n.cop,cbind(u.hat,v.hat))
fit.n.cop
gof.test=gofCopula(n.cop,cbind(u.hat,v.hat))
gof.test
copstudent = mvdc ( tCopula(c(fit.n.cop$estimate[1]),df=fit.n.cop$estimate[2]),c("gev","gev"),
list( list(loc=mu-ouaga,scale=sigma-ouaga,shape=xi-ouaga), list(loc=mu-civ,scale=sigma-
civ,shape=xi-civ)))
persp(copstudent,pMvdc, xlim = c(20,45),ylim=c(20,45), col="grey",main="Loi jointe")
contour(copstudent,pMvdc, xlim = c(20,45),ylim=c(20,45), col="grey",main="Contour
de la loi jointe")
persp(copstudent,dMvdc, xlim = c(20,45),ylim=c(20,45), col="grey",main="Densité de
la loi jointe")
contour(copstudent,dMvdc, xlim = c(30,41),ylim=c(24,31), col="grey",main="Copule de
Student")

Copule de Franck
u.hat=pgev(Tempouaga,mu-ouaga,sigma-ouaga,xi-ouaga)
v.hat=pgev(Tempciv,mu-civ,sigma-civ,xi-civ)
n.cop=frankCopula(dim=2)
fit.n.cop=fitCopula(n.cop,cbind(u.hat,v.hat))
fit.n.cop
gof.test=gofCopula(n.cop,cbind(u.hat,v.hat))
gof.test
copfrank = mvdc ( frankCopula(fit.n.cop$estimate),c("gev","gev"),
list( list(loc=mu-ouaga,scale=sigma-ouaga,shape=xi-ouaga), list(loc=mu-civ,scale=sigma-
civ,shape=xi-civ)))
persp(copfrank,pMvdc, xlim = c(20,45),ylim=c(20,45), col="grey",main="Loi jointe")
contour(copfrank,pMvdc, xlim = c(20,45),ylim=c(20,45), col="grey",main="Contour de
la loi jointe")
persp(copfrank,dMvdc, xlim = c(20,45),ylim=c(20,45), col="grey",main="Densité de la
loi jointe")
contour(copfrank,dMvdc, xlim = c(30,41),ylim=c(24,31), col="grey",main="Copule de
Franck")

123
BIBLIOGRAPHIE

[1] A. Charpentier. Mesures de risque. Cours, chapitre 1.

[2] A. Charpentier, A. L. Fougères, C. Genest and J. G. Neslehova. Multivariate


Archimax copulas. Journal of Multivariate Analysis. 2014.

[3] Balkema A. A. and Embrechts, P. (2004) Multivariiate excess distributions.


Preprint, ETH Zürich.

[4] Balkema, A. A. and Embrechts, P. (2005). High risk scenarios and extremes. A
geometric approach. Preprint, ETH Zürich.

[5] Barro D. 2010. Contribution à la modélisation statistique des valeurs extrêmes


multivariées. Thèse de Doctorat de l’Université de Ouagadougou.

[6] Barro D. (2012). Analysis of Stochastic Spatial Process via copulas and
measures of Extremal Dependence. Archives Des sciences,Vol 65, No 12, Dec
2012,pp 665-673

[7] Barro D., Ouédraogo J-E, and Somé L. (2013). Survival Analysis by Sampling
Mixtures of Extremal Copulas. Int. J. Stat. Econ Vol 11, No.2 ; pp 73-82.

[8] Beirlant, J., Goegebeur, Y., Segers, J. and Teugels, J. (2004). Statistics of
Extremes. Wiley, Chichester.

[9] Denuit, M. Dhaene, J. Goovaerts, M. and Kaas, R. Actuarial theory for


dependent Risks Measures , Wiley, England, (2005).

124
BIBLIOGRAPHIE

[10] Diakarya Barro, Moumouni Diallo, and Remi Guillaume Bagré. Spatial Tail
Dependence and Survival Stability in a Class of Archimedean Copulas. Interna-
tional Journal of Mathematics and Mathematical Sciences. Volume 2016, Article
ID 8927248, 8 pages.
[11] E. Liebscher, Modelling and estimation of multivariate copulas, working paper,
University of applied Sciences Mersebug, 2006.

[12] Elena Di Bernardino, 8 décembre 2011. Modélisation de la dépendance et


mesures de risque multidimensionnelles. Thèse de doctorat.

[13] F. Schmid, R. Schimidt, Th. Blumentritt, S. Galer, and M. Rupert, Copulas-


based measures of multivariate association, in copula theory and its applica-
tions : proceedings of the workshop held in warsaw, 25-26 semptember 2009,
vol. 198 of lecture notes in statistcs, pp. 209-236, springer, Berlin, Germany
2010.

[14] Geert van der Wulp,Using Copulas in Risk Management, Thèse de Mas-
ter,(2003).

[15] Genest C., Ghoudi K. and Rivest L.P., ( 1995). A semiparametric estimation
procedure of dependence parameters in multivariate families of distributions,
Biometrika (1995), vol.82,no 3, pp 543-552.

[16] Gudendorf, G. and J. Segers. Extreme-Value Copulas. In : Jaworski, P., Du-


rante, F., Haerdle, W., Rychlik, T. :(eds).Copula Theory and Its Applications,
Proceedings of theWorkshop,Warsaw 25-26 sept 2009, Springer, Dordrecht
(2010) .

[17] Lounas Fadhila. Modélisation de la dépendance par les copules et applications.

[18] Matthias Degen, March 10, 2006. On Multivariate Generalised Pareto Distri-
butions and High Risk Scenarios. Diploma Thesis.

[19] Michel, R.(2006). Simulation and Estimation in Multivariate Generalized Pareto


Distributions - Dissertation, Fakultät für Mathematik, Universität Würzburg,
Würzburg.
[20] Michel, R.(2006). Simulation and Estimation in Multivariate Generalized
Pareto Distributions - Dissertation, Fakultät für Mathematik, Universität
Würzburg, Würzburg.

[21] Nelsen, R.B. An introduction to copulas, 2nd ed. New york : Springer (2006).

125
BIBLIOGRAPHIE

[22] R. T. Rockafellar. Coherent approaches to risk in optimization under uncer-


tainly. INFORMS.

[23] Resnick, S.I. (1987). Extreme Values, Regular Variation and Point Processes.
Springer, New york.

[24] Tajvidi, N. (1996). Multivariate generalized Pareto distributions. Ph.D. thesis,


Department of Mathematics, Chalmers University of Technology.

[25] Thierry Roncalli. Copules et Aspects Multidimensionnels du Risque. Cours


ENSAI de 3ème année.

[26] Yves.B.V.Loyara, Remi Guillaume Bagré and Diakarya Barro. Properties of


derivations of financial value at risk and copula-based high risk scenarios. Far
East Journal of mathematical Sciences (FJMS).

126
UNIVERSITE
ro OUAGA I PR JOSEPH KI-ZERBO
---------------
École Doctorale
Sciences et Technologies
---------------
Laboratoire d’Analyse Numérique d’Informatique
et de Bio-Mathématiques (LANIBIO)

N° d’ordre ………..

Thèse Présentée

Par LOYARA Vini Yves Bernadin

Pour obtenir le grade de

Docteur de l’Université Ouaga I Pr Joseph KI-ZERBO


Option : Sciences Appliquées

Spécialité : Statistique et Probabilités

MODÉLISATION DES RISQUES DE


PORTEFEUILLE PAR L ’APPROCHE DES
COPULES MULTIVARIÉES

Soutenue le 12 juin 2019 devant le jury composé de :

Président : Pr Blaise SOME, Professeur Titulaire, Université Ouaga I, Pr Joseph KI-ZERBO Burkina Faso
(Examinateur)

Membres :

 Pr Bisso SALEY, Professeur Titulaire, Université Abdou Moumini de Niamey (Rapporteur externe)

 Pr Sado TRAORE, Professeur Titulaire, Université Nazi Boni de Bobo Dioulasso, Burkina Faso

(Rapporteur interne)

 Pr Diakarya BARRO, Professeur titulaire, Université Ouaga II, Burkina Faso (Directeur de Thèse).

 Dr Longin SOME, Maître de conférences, à l’Université Ouaga I, Pr Joseph KI-ZERBO Burkina Faso
(Examinateur)
A
LOYARA Abdine Jacques (1993-2001).

i
R EMERCIEMENTS
Dans les lignes suivantes, j’adresse mes remerciements et ma gratitude à des personnes et
responsables de structures qui ont concouru à l’aboutissement de ce document. Sans leurs aides,
il ne fait guère doute que ce mémoire n’aurait vu le jour. A ce titre,
Je tiens à remercier tout d’abord le Directeur du Laboratoire d’Analyse Numérique d’Infor-
matique et de Biomathématiques (LANIBIO), le Professeur Blaise SOME, Professeur titulaire
de mathématiques à l’Université de Ouaga I Pr Joseph KI-ZERBO. Merci pour m’avoir accepté
comme étudiant au LANIBIO. Merci également pour avoir accepter de présider ce jury de thèse.

Mes sincères remerciements à mon Directeur de thèse, Professeur Diakarya BARRO, Profes-
seur titulaire de mathématiques appliquées à l’Université Ouaga II, pour tout ce qu’il m’a apporté
au cours de ces quatre dernières années de thèse ; notamment pour l’aide scientifique et le soutien
humain, pour les encouragements constants et les nombreuses discussions que nous avons pu
avoir.

Je tiens à remercier chaleureusement les professeurs ; Gane Samb LO, Professeur Titulaire, à
Université Gaston Berger du Sénégal (Rapporteurs externe), Bisso SALEY, Professeur Titulaire,
à l’Université Abdou Moumini de Niamey (Rapporteurs externe), Sado TRAORE, Professeur
Titulaire, à l’Université Nazi Boni (UNB) de Bobo Dioulasso (Rapporteurs interne). Pour avoir
accepté la lourde et contrainte tâche d’instruire cette thèse. La qualité de vos rapports m’a permis,
à travers les critiques et suggestions, d’améliorer très significativement la valeur scientifique du
document.
Je tiens à remercier également, Dr. Longin SOME, Maître de conférences, à l’Université
Ouaga I, Pr Joseph KI-ZERBO, pour sa participation en qualité d’examinateur. Merci beaucoup
monsieur le « Ministre ».

Aux enseignants chercheurs du LANIBIO qui n’ont ménagé aucun effort pour m’aider à at-
teindre mes objectifs, je dis merci pour leurs disponibilités.

A Monsieur Joseph BAYARA Maître de Conférences à l’UNB et Directeur de l’UFR-SJPEG,


ainsi qu’au corps enseignant de l’UFR-ST de l’UNB, merci pour le savoir inculqué à mes pre-
mières années universitaires.

Ma reconnaissance s’adresse également à mes deux enseignants de l’école primaire Bidou-


gousso B, M Paul TINGUERIE et feu M YELEMOU. Sans vous, je n’aurais pas pu avoir la base
nécessaire.

Je suis particulièrement reconnaissant à ma famille, mon Père, Monsieur Thélého LOYARA


et ma Mère, Mme Akissi Christine LOYARA/ LINGANI. Merci pour l’éducation et le soutien
indéfectible et inconditionnel, pendant toutes ces années d’études. Mes frères et Sœur (Patricia,
Kader, Aziz). Je vous reste reconnaissant.

ii
Mme Nadège Adeline LOYARA/BASSIERE ma femme et ma fille Métis, merci pour la com-
préhension et la patience dont vous avez fait preuve pendant ces dernières années.

Monseigneur Thomas KABORE, Evêque émérite de Kaya, fondateur de l’École Supérieure


Polytechnique de Kaya (ESPK), un grand visionnaire, trouvez ici l’expression de ma gratitude
pour votre bienveillance. L’ESPK m’a apporté l’expérience nécessaire pour devenir un être tech-
niquement compétent et humainement responsable.

Mes camarades et amis de l’Institut des Sciences Exactes et Appliquées (ISEA) aujourdhui
UFR des Sciences et Technologie (UFR-ST) de l’UNB ; Rodrigue SANOU, Lucas GNANOU,
Boukary KIENTEGA, Satafa SANOGO, Soulémane DIALLO, Arouna KIRAKOUYA, Cédric
SOME, SOMA MIFIAMBA, Dafoura Paul MILLOGO, Aziz COULIBALY, Karim SANKARA
etc. Merci pour la collaboration et les bons moments passés ensemble pendant nos deux premiers
cycles universitaires à Nasso.

Enfin, toutes les personnes qui ont contribué d’une manière ou d’une autre à ce projet de thèse
unique et qui n’ont pas été citées, recevez ici l’expression de ma profonde reconnaissance.

iii
Résumé
L’objectif principal de cette thèse est l’étude des mesures de risque et leurs applica-
tions en gestion de portefeuille . Pour ce faire, nous avons utilisé un outil de la théorie
des probabilités : la copule. Une nouvelle relation a été établie par l’intermédiaire de
la VaR et de ses mesures dérivées. Nous avons utilisé le produit scalaire pour mettre en
évidence un lien entre la copule conditionnelle et la notion de normes. Nous avons égale-
ment établi une relation entre la copule conditionnelle dépendante du temps et la valeur
à risque. Nous avons abordé la notion de titrisation en évoquant la notion de dérivé de
crédit et des outils connexes (ABS). Une autre contribution de notre travail porte sur les
copules archimédiennes imbriquées. Nous avons donné des expressions analytiques à
l’ordre quatre et l’ordre cinq de la copule archimédienne récursive. Ensuite, nous nous
intéressons à la corrélation par défaut de certaines copules archimédiennes. Nous nous
sommes inspirés des résultats existant sur les copules archimédiennes et les facteurs de
risque pour établir des majorations afin d’avoir d’intéressantes relations qui pourront
être interprétées en finance dans le cadre d’une optimisation.
Mots clés : Mesure de risque, Copules, dépendance, Valeur à risque, Porte-
feuille, Risque financier, CDO, CDS.

Abstract
The main objective of this thesis is the study of risk measures and their applications
in portfolio management. To do this, we use a tool of probability theory; the copula. A
new relationship has been established through VaR and its derived measures. We used
the scalar product to highlight a link between the conditional copula and the notion of
norms. We also established a relationship between conditional time-dependent copula
and value-at-risk. We discussed the notion of securitization by referring to the notion
of credit derivatives and related tools (ABS). Another contribution of our work is on
Archimedean copula. We have given analytic expressions to order four and order five
from recursive Archimedean copula. Next, we are interested in the default correlation
of some Archimedean copulas. We used Archimedean copula results and risk factors to
build up on them so that we could have interesting relationships that could be interpreted
in finance as part of an optimization.
Key words : Risk Measure, Copulas, dependence, Value at Risk, Portfolio,
Financial risk, CDO,CDS.

iv
Sigles et abréviations

ABS : Asset-Backet-Securities.
APT : Arbitrage Pricing Theory.
c-a-d : c’est à dire.
CBO : Collateralized Bond Obligation.
CDO : Collateralized Debt obligation.
CDS : Credits Defaults Swaps.
cfd : conditional function distribution.
CLO : Collateralized Loan Obligation.
CMBS : Commercial Mortage Backed Securities.
CVaR : Conditional Value-at-Risk.
ESPK : Ecole Supérieure Polytechnique de Kaya.
ETL : Expected Tail Loss.
i.i.d : indépendant et identiquement distribuées.
MEDAF : Modèle d’Équilibre des Actifs Financiers.
MLE : Méthode du maximum de vraisemblance.
RMBS : Résidential Mortage Backed Securities.
PP : Profit and Loss.
p.s : presque sûrement.
PWM : Pulse Width Modulation.
SPV : Special Purpose Vehicle.
TVaR : Tail Value-at-Risk.
TVE : Théorie des Valeurs Extrêmes.
v.a : variable aléatoire.
VaR : Valeurs à Risque.
XTVaR : Excess Tail Value-at-Risk.
POT : Pesks-Over-Thesholds

v
Notations

P (A) : Probabilité de l’événement A.


E [X] : Espérance mathématique de la variable aléatoire X.
Var (X) : Variance de la variable aléatoire X.
σ (X ) : Écart type de la variable aléatoire X.
Cov (X, Y) : Covariance des deux v.a X et Y.
F (·) : Fonction de répartition.
F−1 (·) : Inverse généralisé de la fonction de répartition F.
F̄ (·) : Fonction de survie associée à F.
min (A) : Minimum de l’ensemble A.
max (A) : Maximum de l’ensemble A.
inf (A) : Borne inférieure de l’ensemble A.
sup (A) : Borne supérieure de l’ensemble A.
I = [0, 1] : Intervalle unitaire.
VH (B) : H volume de l’ensemble B.
% : Croissant.
& : Décroissant.
(Ω, A, P) : Espace probabilisé formé d’un ensemble Ω, d’une tribu A sur Ω et d’une
mesure de probabilité P.
u+ = max (u, 0).

vi
Table des matières

Dédicace i

Remerciements ii

Résumé iv

Sigle, abréviation et notation v

Notations vi

Table des matières ix

Liste des figures x

Liste des tableaux xi

Liste des algorithmes 1

1 Cadre et outils de travail 4


1.1 Quelques outils de modélisation stochastique . . . . . . . . . . . . . . . . . 4
1.1.1 Quelques mesures de dépendance stochastique . . . . . . . . . . . 4
1.1.2 Rappels sur la mesure de corrélation linéaire . . . . . . . . . . . . . 5
1.1.3 Quelques mesures de dépendance non linéaire . . . . . . . . . . . . 6
1.2 La fonction copule dans la modélisation stochastique . . . . . . . . . . . . 8
1.2.1 Définition et premières propriétés des copules . . . . . . . . . . . . 8
1.2.2 Relation entre copules et variables aléatoires . . . . . . . . . . . . . 11
1.2.3 Quelques familles de copules usuelles . . . . . . . . . . . . . . . . . 12
1.2.4 Copules et mesure de dépendance et d’association . . . . . . . . . 23
1.3 Valeurs extrêmes unidimensionnelles . . . . . . . . . . . . . . . . . . . . . 26
1.3.1 Démonstration du théorème des trois types extrêmes . . . . . . . . 26
1.3.2 Distributions extrêmes multivariées . . . . . . . . . . . . . . . . . . 30
1.3.3 Fonction de survie d’une loi multivariée . . . . . . . . . . . . . . . 31
1.3.4 Modèles paramétriques multivariés usuels . . . . . . . . . . . . . . 32
1.4 Estimation non paramétrique d’une copule . . . . . . . . . . . . . . . . . . 33

vii
1.4.1 Copule empirique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.4.2 Procédure de Genest et Rivest . . . . . . . . . . . . . . . . . . . . . . 35
1.4.3 Estimation des paramètres d’une copule . . . . . . . . . . . . . . . 36
1.4.4 Estimation semi-paramétrique . . . . . . . . . . . . . . . . . . . . . 39
1.5 Cadre financier de la modélisation des risques. . . . . . . . . . . . . . . . . 41
1.5.1 Notion de risque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
1.5.2 Notion de portefeuille financier . . . . . . . . . . . . . . . . . . . . . 41

2 Modélisation des risques de portefeuilles financiers 46


2.1 Typologie de risques financiers . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.1.1 Le risque de marché . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.1.2 Le risque de contrepartie . . . . . . . . . . . . . . . . . . . . . . . . 47
2.1.3 Le risque de liquidité . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.1.4 Le risque opérationnel . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.1.5 Autres risques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.2 Mesures de risque en finance . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.2.1 Quelques définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.2.2 Propriétés axiomatiques des mesures de risques financiers . . . . . 49
2.2.3 Autres propriétés des mesures de risques . . . . . . . . . . . . . . . 50
2.2.4 Métriques couramment utilisées dans l’analyse du risque . . . . . . 53
2.3 Méthodes de calcul et d’approximation de la valeur à risque . . . . . . . . 54
2.3.1 Méthode variance-covariance . . . . . . . . . . . . . . . . . . . . . 55
2.3.2 Delta Approximation de Taylor . . . . . . . . . . . . . . . . . . . . 55
2.3.3 Méthode paramétrique ou analytique . . . . . . . . . . . . . . . . . 56
2.3.4 Méthode de simulation historique . . . . . . . . . . . . . . . . . . . 57
2.3.5 Estimation des bornes de la VaR par la copule . . . . . . . . . . . . 58
2.4 Analyse de la valeur à risque . . . . . . . . . . . . . . . . . . . . . . . . . . 59
2.4.1 Présentation et définition de la VaR unidimensionnelle . . . . . . . 59
2.5 Propriétés de Pseudo-convexité de la valeur à risque conditionnelle . . . . 61
2.5.1 La Valeur à risque conditionnelle . . . . . . . . . . . . . . . . . . . 61
2.5.2 Relation entre la mesures dérivées de la valeur à risque . . . . . . . 63
2.6 Écart-type empirique et hauts risques géométriques . . . . . . . . . . . . . 65
2.6.1 Propriétés de l’écart type empirique . . . . . . . . . . . . . . . . . . 65
2.6.2 Modèles de hauts Risques géométriques . . . . . . . . . . . . . . . 66
2.7 Copule conditionnelle et valeur à risque . . . . . . . . . . . . . . . . . . . 71
2.7.1 Définitions et propriétés . . . . . . . . . . . . . . . . . . . . . . . . . 71
2.7.2 Quelques propriétés de la copule conditionnelle . . . . . . . . . . . 72
2.7.3 La valeur à risque conditionnelle (CVaR) dans un espace euclidien 76
2.7.4 Estimation de la VaR par la méthode de Monte Carlo . . . . . . . . 77
2.7.5 Programmation de la VaR avec le logiciel R . . . . . . . . . . . . . . 78

viii
3 Copules Archimédiennes et modèles de Facteurs de risques 82
3.1 Récursivité sur les copules archimédiennes . . . . . . . . . . . . . . . . . . 82
3.1.1 Rappels et exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
3.1.2 Extension de la copules archimédienne imbriquée . . . . . . . . . . 84
3.1.3 Corrélations par défaut dans un cadre de récursivité . . . . . . . . 86
3.2 Tarification des facteurs de risque . . . . . . . . . . . . . . . . . . . . . . . . 87
3.2.1 Éléments de base de la tarification . . . . . . . . . . . . . . . . . . . 87
3.2.2 Facteurs d’escompte, primes prévues et primes par défaut d’un CDS 89
3.2.3 Tranche de trésorerie de la CDO annualisée . . . . . . . . . . . . . . 92
3.3 Modèle numérique de facteurs de risque . . . . . . . . . . . . . . . . . . . . 96
3.3.1 Primes prévues et primes par défaut du portefeuille CDS . . . . . . 96
3.3.2 Bonus actualisé escompté et la tranche CDO par défaut . . . . . . . 100
3.4 Rendements et distribution de Pertes et Profits d’un portefeuille . . . . . 103
3.4.1 Mesures de rendements et la distribution de Pertes et Profits . . . 104
3.4.2 Applications à des données boursières . . . . . . . . . . . . . . . . . 105

Conclusion générale 110

A Lignes de code R 115


A.1 Ligne de code R pour coefficient de corrélation . . . . . . . . . . . . . . . . 115
A.1.1 Coefficient de corrélation, copule indépendante . . . . . . . . . . . 115
A.1.2 Coefficient de corrélation, copule de clayton . . . . . . . . . . . . . 115
A.2 Ligne de code R pour implémentation de la valeur à risque . . . . . . . . . 116
A.3 Lignes de code simulation tarification CDO et CDS . . . . . . . . . . . . . 118
A.3.1 Lignes de code R pour CDS . . . . . . . . . . . . . . . . . . . . . . . 118
A.3.2 Lignes de code CDO . . . . . . . . . . . . . . . . . . . . . . . . . . . 120

ix
Table des figures

1.1 Densité et contour de la copule de Gumbel (respectivement à gauche et à


droite) avec θ = 6. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2 Densité et contour de la copule de Franck (respectivement à gauche et à
droite) avec θ = 6. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3 Densité et contour de la copule de Clayton (respectivement à gauche et à
droite) avec θ = 6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4 Densité de le copule Gaussienne ρ = 0.5 . . . . . . . . . . . . . . . . . . . . 17
1.5 Distribution et contour de la copule de student (respectivement à gauche
et à droite) avec ν = 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.6 Copule de Gumbel avec δ = 2 . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.7 Courbe 3D de la copule Hüsler et Reiss avec δ = 1 . . . . . . . . . . . . . . 20
1.8 Copules Empiriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.9 Les principaux intervenants dans la titrisation. La figure est issue du site
“Fimarkets” (de M. François Leroux) . . . . . . . . . . . . . . . . . . . . . . 44

2.1 Figure de la tracée d’une fonction excédentaire . . . . . . . . . . . . . . . . 79


2.2 répresentation graphique “Q-Q plot” pour la méthode ML . . . . . . . . . 80
2.3 représentation graphique “Q-Q plot” pour la méthode PWM . . . . . . . . 80

3.1 Arborescence d’une copule archimédienne entièrement imbriquée et triviale 84


3.2 Temps de paiement. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
3.3 Image des tk par la fonction des pertes f L . . . . . . . . . . . . . . . . . . . 98
3.4 nominale restante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
3.5 graphe du temps de paiement student . . . . . . . . . . . . . . . . . . . . . 101
3.6 Fonction perte f jL (tk ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
3.7 nominale restant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
3.8 Rendement géométrique (Rt ) des actions et des obligations . . . . . . . . 107

x
Liste des tableaux

1.1 Copules Archimédiennes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

2.1 Approximation Taylor des distributions normales et de Student . . . . . . 56


2.2 Valeurs opérationnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81

3.1 Tableau des montants nominaux . . . . . . . . . . . . . . . . . . . . . . . . 96


3.2 Tableau calendrier de paiement . . . . . . . . . . . . . . . . . . . . . . . . . 97
3.3 Image des tk par la fonction des pertes f L . . . . . . . . . . . . . . . . . . . . 97
3.4 Différences de pertes f L (tk ) − f L (tk−1 ) . . . . . . . . . . . . . . . . . . . . 98
3.5 Valeurs fonction nominale restante . . . . . . . . . . . . . . . . . . . . . . . 99
3.6 Tableau des montants nominaux . . . . . . . . . . . . . . . . . . . . . . . . 100
3.7 Tableau calendrier de paiement . . . . . . . . . . . . . . . . . . . . . . . . . 101
3.8 Fonction perte f jL (tk ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
3.9 Valeurs fonction nominale restante g jN (tk ) . . . . . . . . . . . . . . . . . . . 103
3.10 Tableau de moyenne et écart-type des actions et opbligations de la BRVM
DCBR, activité de 1998-2011 . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
3.11 Rt des actions et obligation de la BRVM DCBR, activité de 1998-2002 . . . 106
3.12 Rt des actions et obligation de la BRVM DCBR, activité de 2002-2011 . . . 107
3.13 Tableau récapitulatif de la VaR pour les actions et les obligations de la BRVM107
3.14 Rt des actions et obligations de la BRVM DCBR, activités de 1998-2002 . . 108
3.15 Rt des actions et obligations de la BRVM DCBR, activités de 2002-2011 . . 109

xi
Liste des Algorithmes

1 Cefficient de corrélation copule indépendante . . . . . . . . . . . . . . . . . 115


2 Cefficient de corrélation copule de clayton . . . . . . . . . . . . . . . . . . . 115
3 Ligne de code R pour dépendance de queue . . . . . . . . . . . . . . . . . . 116
4 Ligne de code R pour le graphique de le fonction moyenne . . . . . . . . . 116
5 ligne de code R pour calcul des paramètres . . . . . . . . . . . . . . . . . . . 116
6 Ligne de code R pour la réprésentation graphique de la VaR . . . . . . . . . 117
7 Ligne de code R pour CDS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
8 Ligne de code R pour CDS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120

1
Introduction générale

La modélisation et la gestion des risques consistent essentiellement, pour les institu-


tions financières, à identifier le risque, l’évaluer, le contrôler et le maîtriser. Les travaux
de recherche sur cette thématique ont été motivés d’une part par la crise financière par-
ticulièrement liée à une crise de confiance envers le secteur bancaire et d’autre part par
l’élaboration des outils statistiques et modèles probabilistes de plus en plus performants
tels que les copules, les processus stochastiques, des suites logicielles, proposant ainsi
des alternatives aux modèles commerciaux de ces risques. Dans la pratique, la mesure
et la gestion des risques financiers est dominée par le paradigme de la modélisation sta-
tistique des prix de marché des instruments financiers en considérant les rendements
des actifs financiers (prix, taux de change, taux d’intérêt, indices,...) comme des variables
aléatoires dont le modèle spécifique la distribution.

Pour Poncet. Portrait R [34], la théorie moderne du portefeuille a pour père fonda-
teur Harry Markowitz . Ce dernier introduit pour la première fois cette théorie (1952)
en partant du principe que le risque d’un portefeuille peut être correctement évalué à
l’aide de la variance de sa rentabilité. Mais Benoît Mandelbrot, à travers ses études sur
l’historique du cours du marché du coton pendant plus d’un siècle, remet totalement
en question la validité de la théorie de Harry Markowitz et de sa nouvelle version, le
Modèle d’Équilibre des Actifs Financiers (MEDAF), initié par William F. Sharpe. Benoît
Mandelbrot souligne que : Ces théories, venues de l’École de Chicago, aussi élégantes
soient-elles en apparence et si simples dans leur application, sont totalement déconnec-
tées de la réalité des marchés financiers. Plusieurs fois, leurs efficacités ont été remises
en cause. Les différents krachs boursiers sont bien un exemple de leurs incapacités à pré-
voir les événements non linéaire et qui ne suivent pas nécessairement une dispersion
normale.

C’est en 1959 que Abe Sklar [41] introduit pour la première fois la notion de copule
dans l’analyse stochastique. Les copules sont une solution aux problèmes de probabi-
lité énoncé par Maurice Fréchet dans le cadre des espaces métriques aléatoires (travaux
avec Berthold Schweizer). La copule est un outil de modélisation de la structure de dé-
pendance de plusieurs variables aléatoires. Il existe une grande diversité de copules
permettant ainsi la modélisation de la dépendance conjointe entre plusieurs variables
aléatoires. Un des paramètres de dépendance particulièrement utilisé dans le cadre de

2
la dépendance linéaire où l’univers est supposé gaussien, est la corrélation linéaire de
Bravais-Person. La mesure de dépendance la plus utilisée dans la modélisation de la dé-
pendance, est la corrélation linéaire de Bravais Pearson (1896). Cette corrélation évalue
la relation linéaire entre deux variables aléatoires X et Y , et peut prendre toute valeur
de l’intervalle [0; 1]. Il est beaucoup plus pratique avec les familles de distributions ellip-
tiques. En effet, pour ces distributions la non corrélations implique l’indépendance. Cet
indicateur étant pris dans un cadre linéaire ne répond pas à toutes les situations en fi-
nance. En particulier, pour les cas non linéaires, d’autres indicateurs de dépendance sont
mis au point. Il s’agit entre autres essentiellement du tau de Kendall, Rhô de Spearman,
la mesure de dépendance de queue.

Modéliser le risque de portefeuille multivarié, c’est aussi d’une part faire le choix des
outils mathématiques adéquats d’interprétation des données d’un portefeuille ; d’autre
part de fournir une interface au monde financier. Mais entre ces deux étapes un travail
rigoureux et précis devrait être mené. Le présent mémoire de thèse comporte essentielle-
ment trois (3) chapitres en dehors de l’introduction et de la conclusion.

Dans le chapitre 1, nous rappelons dans un premier temps les définitions et proprié-
tés fondamentales des copules en explicitant quelques copules paramétriques ou non
paramétriques. Par la suite notre intérêt se porte sur la Valeur-à-Risque (VaR) et nous
abordons le thème de mesure de risque monétaire.

Dans le chapitre 2, nous établissons quelques relations d’ordre analytique entre la va-
leur à risque et la copule conditionnelle. Ces relations ont été possibles grâce à certaines
propriétés métriques des espaces euclidiens (processus de Gram-Schimdt, Inégalité de
Cauchy-Schwartz). Nous terminons ce chapitre avec quelques simulations sur la valeur
à risque qui nous a été inspiré des travaux de John Muteba Mwanba [25]. Dans le cha-
pitre 2 également, une nouvelle notion de pseudo-convexité qui est une relation entre la
VaR et quelques mesures dérivées de la VaR.

Dans le chapitre 3, notre intérêt se porte dans un premier temps sur le calcul du ren-
dement géométrique (Rt ) et de la valeur-à-risques des Rt des actions et des obligations
de la Bourse régionale des valeurs (BRVM). Ensuite nous y développons de nouvelles
propriétés sur les défauts d’échange de crédit en anglais Crédit Default Swap (CDS) et
les tranches d’obligation adossé à des actifs en anglais Collateralized debt obligations
(CDO). Nous abordons également dans ce chapitre, la notion de copule Archimédienne
récursive. Les facteurs de risque et quelques essais de simulations sur des fonctionnelles
qui sont intrinsèquement liées aux facteurs de risques font l’objet de cette partie.

3
Chapitre 1

Cadre et outils de travail

Dans ce chapitre nous rappelons les outils mathématiques et de probabilité néces-


saires à une meilleure compréhension de notre travail. Le chapitre nous fournit égale-
ment les outils qui nous permettront de mettre en exergue une quantification des mesures
de dépendance et des mesures de risque. Plus précisément, nous abordons le concept de
copule en nous intéressant à la modélisation stochastique à travers l’étude de la dépen-
dance.

1.1 Quelques outils de modélisation stochastique


Le fait que la copule soit un outil de modélisation de la structure de dépendance de
plusieurs variables aléatoires en fait un outil relativement innovant. La relation entre la
distribution conjointe et la copule nous permet également de caractériser la structure
de dépendance entre deux variables aléatoires X et Y indépendamment de leurs lois
marginales. Dans cette section, nous sommes inspirés des travaux de de Bernadino E. D
[3], Cadoux D. et al. [6], Diakarya Barro [11] et [12], Embrechts, et al. [13] et [14], Nelsen
et al [29], Patton [30] et de toutes les références citées qui portent sur la modélisation
stochastique de la dépendance et des copules.

1.1.1 Quelques mesures de dépendance stochastique


La dépendance entre deux ou plusieurs variables aléatoires est exprimée par une mo-
dification de la distribution conditionnelle de l’une des variables lorsque l’on dispose
d’informations sur l’autre ou les autres variables. Il existe de nombreuses formes de dé-
pendance stochastique.
Plus particulièrement, X et Y deux variables aléatoires. X et Y sont indépendantes si
les informations sur l’une ne concernent en rien l’autre. De manière générale, les com-
posantes d’une famille de variables aléatoires ( Xi )i∈{1,...,n} sont mutuellement indépen-
dantes si , pour tout vecteur de réalisation ( x1 , ..., xn ) ;

4
" #
n n
P ( Xi ≤ x i ) = ∏ P [ Xi ≤ x i ] .
\

i =1 i =1

Dans la pratique, modéliser ou mesurer la dépendance stochastique entre deux va-


riables aléatoires consiste à trouver un indicateur synthétique sous la forme d’un scalaire
qui précise l’ensemble des liens qui pourraient exister entre ces variables aléatoires. Il
existe des mesures de dépendance linéaire, non linéaire et de queue de distribution.

1.1.2 Rappels sur la mesure de corrélation linéaire


Corrélation en dimension deux

Il faut noter que la notion de corrélation est strictement liée à celle de covariance.
En rappel, la covariance d’un couple de variables aléatoires ou statistiques X et Y est la
variance conjointe de X et de Y.

p q
∑ ∑ nij ( xi − X̄ ) y j − Ȳ

i =1 j =1
Cov ( X, Y ) = = E [ XY ] − E [ X ] E (Y ) ;
n

où X̄ et Ȳ désignent les moyennes respectives de X et de Y.


En particulier, pour des cas simples, on a :

∑ ni ( xi − x̄ ) (yi − ȳ) ∑ ni xi yi
Cov ( X, Y ) = = − x̄ ȳ.
n n

Lorsqu’on analyse simultanément deux caractères, on s’attaque généralement à deux


aspects à la fois : la mesure du degré de liaison (intensité) et la mesure de l’effet d’une variable
sur une autre.
Le coefficient de corrélation est la mesure principale de la corrélation entre deux va-
riables X et Y à travers une série d’observations. Il est noté r ( X, Y ) et est défini par la
formule :
p q
∑ ∑ nij ( xi − X̄ ) y j − Ȳ

Cov ( X, Y ) i =1 j =1
r ( X, Y ) = p =s s ,
Var ( X ) Var (Y ) p
2
q 2
∑ ni. ( xi − X̄ ) ∑ n.j y j − Ȳ
i =1 j =1

où Cov ( X, Y ) est la covariance entre X et Y ; Var ( X ) , Var (Y ) correspondant aux va-


riances respectives de X et de Y.
Le coefficient de corrélation est une mesure de dépendance linéaire. Dans le cas d’une
dépendance linéaire parfaite, Y = aX + b, ( a 6= 0, : b ∈ R), auquel cas |r ( X, Y )| = 1. Mais
de manière générale il vérifie la propriété de normalité suivante : −1 ≤ ρ ( X, Y ) ≤ 1.

5
Corrélation de plusieurs variables aléatoires

Dans l’analyse statistique, le coefficient de corrélation multiple mesure généralement


comment une variable donnée peut être prédite à travers une fonction linéaire de l’en-
semble de ses variables explicatives. En particulier, la corrélation entre une réalisation y
d’une variable dépendante Y et un vecteur de réalisations x = ( x1 , ..., xn ) est donnée par

le vecteur coefficients de corrélation c = r x1 y , r x2 y , ..., r xn y où r xi y est la corrélation entre
xi et y telle que :

E [ X i Y ] − E [ X i ] E (Y )
r x i y = r ( Xi , Y ) = r h irh i.
2 2
E [ Xi ] − (E [ Xi ])
2 E [Y ] − (E [Y ])
2

Plus généralement, la matrice de corrélation R xx entre les composantes du vecteur


prédicateur X est donnée par
 
r x1 x1 r x1 x2 ... r x 1 x n −1 r x1 x n

 r x2 x1 ... 

=  ... ..
 
R xx .
 
r xi xi r x i x i +1 .
...
 
r x i +1 x i
 
 
r x n x1 ... r xn xn

Dans ce cas, le carré du coefficient de corrélation multiple peut être calculé en utili-
sant le vecteur c tel que
R2 = c t R − 1
xx c,

où ct est la transposée de c et R− 1
xx la matrice inverse de R xx .
En particulier, si les composantes du vecteur sont indépendantes et identiquement
distribuées (i.i.d), alors la matrice de corrélation R xx est une matrice de covariance dont
les éléments diagonaux sont égaux à 1.

1.1.3 Quelques mesures de dépendance non linéaire


Dans cette section, nous nous intéressons à deux importantes mesures de dépendance
(concordance) à savoir, le tau de Kendall et le rho de Spearman. Ces deux mesures sont
aussi appelées coefficients de rang.

Tau de Kendall

Le tau de Kendall pour un vecteur aléatoire ( X, Y ) T est défini par :

τ ( X, Y ) = P Y − Ỹ > 0 − P X − X̃ Y − Ỹ < 0 ,
     
X − X̃ (1.1)

6
T
où X̃, Ỹ est un vecteur indépendant de ( X, Y ) T .
En particulier, pour une série de n observations bivariées, le tau de Kendall peut s’ex-
primer en fonction des observations, sous la forme :

2
n ( n − 1) ∑ ∑sign [(xi − xk ) (yi − yk )]
τ ( X, Y ) = (1.2)
i k

où 

 1 si z > 0





sign (z) = 0 si z = 0 .






−1 si z < 0

Fadhila L [19], montre également que malheureusement si τ = 0 les variables X et Y ne


sont pas forcément indépendantes.

Rho de Spearman

Le tau de Kendall est la différence entre la probabilité de concordance et de discor-


dance. Quant au rho de Spearman du vecteur aléatoire ( X, Y ) T , il est défini par :

ρS ( X, Y ) = 3 P X − X̃ Y − Y 0 > 0 − P X − X̃ Y − Y 0 < 0 ,
       

T T
où ( X, Y ) T , X̃, Ỹ et ( X 0 , Y 0 ) sont des vecteurs aléatoires indépendants.
En particulier, pour un échantillon ( x1 , y1 ) , ..., ( xn , yn ) de réalisations du couple ( X, Y ),
on a :
n
∑ ( Ri − R̄) (Si − S̄)
i =1
ρS ( X, Y ) = s s , (1.3)
n n 2
2
∑ ( Ri − R̄) × ∑ (Si − S̄)
i =1 i =1

n n
avec Ri = ∑ 1{ xk ≤ xi } est le rang de xi , Si = ∑ 1{yk ≤yk } le rang de yi et R̄ et S̄ sont les
k =1 k =1
moyennes respectives de R et S.

Le coefficient de dépendance de queue

Le concept de dépendance de queue est fondamental dans l’étude de la dépendance


asymptotique entre deux variables aléatoire (v.a). Il fournit une description du degré de
dépendance au niveau des queues de la distribution. C’est un outil approprié pour étu-
dier la survenance simultanée des valeurs extrêmes (dépendance de queue supérieure)
et des valeurs petites ( dépendance de queue inférieure). C’est une mesure locale de dé-
pendance dans la queue commune de la distribution bivariée contrairement au tau de

7
Kendall et le rho de Spearman qui mesurent la dépendance sur l’ensemble de la distri-
bution.
Soient X et Y deux v.a continues de fonctions de répartition F1 et F2 respectivement.
Le coefficient de dépendance de queue supérieure (upper tail dependent coefficient)
de X et Y est défini par :

λU = lim P( X > F1−1 (α)/Y > F2−1 (α)). (1.4)


α →1−

On dit que X et Y sont asymptotiquement dépendantes au niveau supérieure de la queue


de distribution si λU ∈]0, 1] et asymptotiquement indépendantes si λU = 0.
Le coefficient de dépendance de queue inférieure (Lower tail dependent coefficient)
de X et Y est défini par :

λ L = lim P( X ≤ F1−1 (α)/Y ≤ F2−1 (α)). (1.5)


α →0+

On dit que les variables aléatoires X et Y sont asymptotiquement dépendantes au niveau


inférieur de la queue de distribution, si λ L ∈]0, 1] et asymptotiquement indépendantes si
λ L = 0.
Le coefficient de dépendance de queue peut être exprimé en terme de copules.

1.2 La fonction copule dans la modélisation stochastique


Une copule est un instrument de la théorie des probabilités, qui nous aide à carac-
tériser la dépendance conjointe. Les liens entre les distributions conjointes et la copule
permettent d’élaborer la structure de dépendance entre un couple de variable aléatoire
( X; Y ) indépendamment de leurs lois marginales. La dépendance entre les variables aléa-
toires est décrite de manière judicieuse par leur distribution conjointe.

1.2.1 Définition et premières propriétés des copules


Dans cette section, nous rappelons une définition de la copule en fonction des vo-
lumes. Les définitions et propriétés de cette section s’inspire des travaux de Paul Em-
brechts, Filip Lindskog et Alexander McNeil [32].

Définition 1.2.1. Soient S1 , ..., Sn des sous ensembles non vides de R où R = [−∞, +∞] est la
droite réelle achevée. Soit H une fonction réelle de n variables définies sur DomH = S1 × ... × Sn .
Et pour tous a = ( a1 , ..., an ) et b = (b1 , ..., bn ) tel que a ≤ b (c’est à dire ak ≤ bk ; ∀ k ∈
{1, ..., n}), et B = [ a, b] = ([ a1 , b1 ] × ... × [ an , bn ]) un pavé de dimension n ayant ses sommets
dans DomH.

8
Alors le H − volume de B est donné par :

VH ( B) = ∑ sgn(ck ) H (ck ). (1.6)


ck ∈ B

(
1 k pair
sgn (ck ) = .
−1 k impair

De manière équivalente le H − volume d’une n − cube B = [ a, b] est la différence nième de H sur


B VH ( B) = 4ba H (t) = 4bann ...4ba11 H (t) ;où

4bakk H (t) = H (t1 , ...tk−1 , bk , tk+1 , ..., tn ) − H (t1 , ...tk−1 , ak , tk+1 , ..., tn ) .

En particulier, en dimension deux, le H − volume d’un rectangle B = [ a, b] × [c, d]


avec a, b, c des éléments de R est :

VH ( B) = H ( a, c) − H ( a, d) − H (b, c) + H (b, d) ≥ 0.

Définition 1.2.2. (Fonction de répartition multivariée)


Une fonction de répartition de dimension n d’une vecteur aléatoire X = ( X1 , ..., Xn ) est une
n
fonction H : R −→ [0, 1] telle que :
1. H est continue à droite relativement à chaque composante ;
n
2. pour tout ( a1 , ..., bn ) et (b1 , ..., bn ) de R tels que ai ≤ bi , i ∈ {1, ..., n}

4ba H (t) = 4bann ...4ba11 H (t) ≥ 0,

3. H (t1 , ..., ti−1 , 0, ti+1 , ..., tn ) = 0 pour i ∈ {1, ..., n} et H (∞, ..., ∞) = 1.
La kième fonction de répartition marginale d’une fonction de répartition H multivariée est la fonc-
tion Hk : [−∞, +∞] −→ [0, 1] telle que

Hk ( xk ) = H (∞, ..., ∞, xk , ∞, ..., ∞) , ∀k ∈ {1, ..., n} .

Dans la pratique nous parlerons plutôt de ”loi marginale” pour évoquer cette notion
de fonction de répartition marginale.
Définition 1.2.3. (Copule) Une copule de dimension n est une fonction C définie sur [0, 1]n à
valeur dans [0, 1] possédant les propriétés suivantes :
1. C (1, ...1, u, 1, ..., 1) = u.
2. C (u) = 0 si au moins une des composantes de u est nulle (u = (u1 , ..., ui−1 , 0, ui+1 , ..., un )).
3. C est n − croissantes, c’est à dire

2 2  
∑ ... ∑ (−1) k1 +...+k n
C u1k1 , ..., uknn ≥0
k 1 =1 k n =1

9
pour tout u1 = u11 , ..., u1n et u2 = u21 , ..., u2n tels que u1i ≤ u2i .
 

Les copules sont des fonctions des répartitions de la loi uniforme sur [0, 1]n . La copule C
induit une mesure de probabilité sur [0, 1]n via la relation suivante :

VC ([0, u1 ] × ... × [0, un ]) = C (u1 , ..., un ) . (1.7)

C’est une extension standard arbitraire (non nécessairement cubique) un sous ensemble
de Borel de [0, 1]n . Un résultat standard de la théorie des mesures dit qu’il existe une
unique mesure de probabilité sur le sous-ensemble de Borel de [0, 1]n qui coïncide avec
VC sur un ensemble cubique de dimension n de [0, 1]n . C’est la mesure de probabilité qui
définit VC .
En particulier, en dimension deux d’espace, la définition 1.2.3 donne ce qui suit.

Proposition 1.2.1. (Copule bivariée) Une copule bivariée est une fonction C définie de I 2 −→ I
qui possède les propriétés suivantes :
i) Pour tout u dans I,
C (u, 0) = C (0, u) = 0. (1.8)

ii) Pour tout u dans I


C (u, 1) = C (1; u) = u. (1.9)

iii) C est 2 − croissante c’est à dire que : Pour tout (u1 , u2 ) ∈ I 2 et (v1 , v2 ) ∈ I 2 avec
u1 ≤ v1 et u2 ≤ v2 . Alors,

C (u2 , v2 ) − C (v1 , u2 ) − C (u2 , v1 ) + C (u1 , u2 ) ≥ 0. (1.10)

Démonstration. Nous avons par définition

C (u1 , u2 ) = P [U1 ≤ u1 , U2 ≤ u2 ] .

Où ui U ([0, 1]), loi uniforme sur l’intervalle [0, 1].


i) On a :
P [U1 ≤ 0, U2 ≤ u2 ] = P [U1 ≤ u1 , U2 ≤ 0] = 0;

ii) Pour tout ui dans I

P [U1 ≤ 1, U2 ≤ u2 ] = P [U1 ≤ u1 , U2 ≤ 1] = u.

iii) Comme C est une distribution de probabilité, nous avons :

0≤ P [u1 ≤ U1 ≤ v1 , u2 ≤ U1 ≤ v2 ] = C (u2 , v2 ) − C (v1 , u2 ) − C (u2 , v1 ) + C (u1 ; u2 ) .

10
Cela signifie que C est une fonction de répartition bivariée avec des lois marginales
uniformes.

1.2.2 Relation entre copules et variables aléatoires


Le théorème suivant est connu sous le nom de théorème de Sklar. Il est le premier
résultat le plus important sur les copules.

Le théorème de Sklar (Sklar A. [41])

Théorème 1.2.1. Soit H une fonction de répartition n-dimensionnelle avec des marges H1 , ..., Hn .
n
Alors, il existe une n-copule C telle que pour tout x = ( x1 , ..., xn ) ∈ R ;

H ( x1 , ..., xn ) = C ( H1 ( x1 ) , ..., Hn ( xn )) . (1.11)

Si les H1 , ..., Hn sont toutes continues, alors C est unique. Sinon C est déterminée de manière
unique sur ImH1 × ... × ImHn . Inversement, si C est une n-copule et H1 , ..., Hn des fonctions
de distribution, alors la fonction H définie précédemment est n dimension et ses marges sont
H1 , ..., Hn .

Démonstration. Pour la preuve voir Sklar (1996) [41].

Du théorème de Lars nous pouvons observer que pour les fonctions de distributions
multivariées continues, les marges uni-variées et la structure de dépendance multiva-
riée peuvent être séparées, et la structure de dépendance peut être représentée par une
copule.

Conséquence du théorème de Sklar

Le résultat suivant est la réciproque du théorème 1.2.1.

Corollaire 1.2.1. Soit H une fonction de distribution n-dimensionnelle de marges continues


H1 , ..., Hn et C une copule. Alors ; pour tout u = (u1 , ..., un ) ∈ [0, 1]n ,
 
C (u1 , ..., un ) = H H1−1 (u1 ) , ..., Hn−1 (un ) . (1.12)

Soient X1 , ..., Xn des variables aléatoires continues avec des fonctions de distribution
H1 , ..., Hn respectivement, et de distribution conjointe H. Alors ( X1 , ..., Xn ) T a une unique
copule C donnée par (1.11) .
Les transformations Xi 7→ Hi ( Xi ) utilisant la représentation ci-dessus sont habituelle-
ment utilisées pour les transformations intégrales de probabilités (pour les cas continus)
et comme outil dans les méthodes de simulation.

11
Propriétés élémentaires des fonctions copules

1. ∀ (u1 , ..., ud ) ∈ [0, 1]d les fonction u 7−→ C (u1 , ..., ui−1 , u, ui+1 , ..., ud ) sont crois-
santes.
2. Les fonctions copules sont lipschitziennes : u = (u1 , ..., uk ) et v = (v1 , ..., vk ) dans
[0, 1]n ,
n
|C (v) − C (u)| ≤ ∑ |vk − uk | , (1.13)
k =1

d’où C est uniformément continue sur [0, 1]n .


3. Toute copule C satisfait, pour tout u = (u1 , ..., ud ) ∈ [0, 1]d à la propriété suivante :
!
d
Wd (u) = max
i
∑ ui + d − 1, 0 ≤ C (u) ≤ min (ui ) = Md (u) .
i
(1.14)
i =1

4. Si X = ( X1 , ..., Xd ) est distribuée suivant H et si C est de classe C d , alors la densité


de X est :
d
∂d C
h ( x1 , ..., xd ) =
∂u1 ...∂ud
( H1 ( x1 ) , ..., Hd ( xd )) × ∏ hi ( xi ) .
i =1

Pour la démonstration de ces propriétés, voir [37].

1.2.3 Quelques familles de copules usuelles


Le théorème de Sklar permet de construire des fonctions de répartition multivariées
à partir des marges données. Nous présentons dans cette partie les principales familles
de copules fréquemment utilisées dans la pratique, ainsi que leurs propriétés.

La copule indépendante

Lorsque les variables { Xi ; i = 1, ..., n} sont indépendantes, la copule associée est la


copule indépendante ou copule produit Π telle que :

Π (u1 , ..., un ) = u1 × ... × un ; (u1 , ..., un ) ∈ [0, 1]n .

Cette copule admet la densité constante 1 sur In .

La copule minimale et maximale

La relation (1.14) permet d’encadrer toute copule par deux autres.


— La copule minimale ou borne supérieure de Fréchet

M (u1 , ..., un ) = min (u1 , ..., un ) ; (u1 , ..., un ) ∈ I n .

12
Cette copule n’admet pas de densité bien qu’elle soit dérivable presque par-
tout.

— On vérifie que pour n = 2 et (u1 , ..., un ) ∈ I n , la fonction

∑ ui + n − 1, 0

W (u1 , ..., un ) = max

définit une copule. C’est la copule maximale ou borne inférieure de Fréchet. Elle
vérifie (voir [17]), pour tout (u1 , ..., un ) ∈ I n

W (u1 , ..., un ) ≤ C (u1 , ..., un ) ≤ M (u1 , ..., un ); (u1 , ..., un ) ∈ I n .

Les copules Archimédiennes

La copule archimédienne a été introduite pour la première fois par Christian GENEST
et John MACKAY [19]. La copule archimédienne de générateur ϕ ∈ L1 est la transforma-
tion ω (u) = exp (− ϕ(u)) appliquée aux marginales et rend les composantes indépen-
n
dantes : ω (C (u1 , ...., un )) = ∏ ω (ui ) .
i =1

Définition 1.2.4. La copule archimédienne de générateur ϕ est définie par l’égalité :

C (u1 , ..., un ) = ϕ−1 ( ϕ (u1 ) + .... + ϕ (un )) (1.15)

n
dès lors que ∑ ϕ (ui ) ≤ ϕ (0) et C (u1 , ..., un ) = 0 sinon. Le générateur doit être choisi de classe
i =1
C2 de sorte que ϕ (1) = 0, ϕ0 (u) ≤ 0 et ϕ00 (u) > 0.
Les copules archimédiennes peuvent être également définies via un conditionnement par une
variable de structure. A cet effet, soit Z une variable aléatoire positive telle que :
la transformée de Laplace 1 de Z est : ψ = ϕ−1 conditionnellement à Z les variables aléatoires
Z
Xi sont indépendantes P ( Xi ≤ x/Z ) = ω HXi ( x )
alors la copule du vecteur ( X1 , ..., Xn ) est

C (u1 , ..., un ) = ϕ−1 ( ϕ (u1 ) + .... + ϕ (un )) .

Une copule C est archimédienne si et seulement si elle est de la forme


" #
C (u1 , ..., um ) = φ−1 ∑ φ(ui ) ; (u1 , ..., um ) ∈ I m .
1≤ i ≤ m

où φ : [0, 1] −→ [0, +∞[ , appelé générateur archimédien, est une fonction continue
strictement décroissante telle que
— φ(1) = 0 et ϕ(0) = +∞ .
´ +∞
1. L{ f (t)} = 0− e− pt f (t) dt.

13
— φ−1 la pseudo-inverse de ϕ soit complètement monotone sur [0, +∞[ i.e
 (k)
k −1
∀t ≥ 0 et ∀k ≥ 0, (−1) φ (t) ≥ 0.

(k)
où φ−1 est la dérivée d’ordre k de φ−1 .
En particulier, la copule C ⊥ (u, v) = uv est archimédienne, de générateur −ln(t), qui
est un cas limite de copule de Gumbel ; en effet, la copule de Gumbel est archimédienne
de générateur (−ln (t))θ , avec θ ≥ 1. Les copules de Clayton et de Franck sont également
archimédiennes. Le tableau suivant présente les copules archimédiennes usuelles.

Famille Générateur, ϕθ (t) Copule C (u1 , u2 ); (u1 , u2 ) ∈ I 2


Indépendante ϕθ (t) = −lnt C ( u1 , u2 ) = Π ( u1 , u2 ) = u1 u2
  −1
ϕθ (t ) = t−θ − 1 Cθ (u1 , u2 ) = u1−θ + u2−θ − 1
θ
Clayton ;θ > 0
 
  1θ
Gumbel ϕθ (t) = (− ln t)θ ; θ ≥ 1 Cθ (u1 , u2 ) = exp − (− ln u1 ) + (− ln u2 )
θ θ
 
(e−θu1 −1)(e−θu2 −1)
 −θt 
−1 −1
Franck, θ 6= 0 ϕθ (t) = − log ee−θ − 1
Cθ (u1 , u2 ) = θ log 1 + e − θ −1

TABLE 1.1 – Copules Archimédiennes

F IGURE 1.1 – Densité et contour de la copule de Gumbel (respectivement à gauche et à


droite) avec θ = 6.

14
F IGURE 1.2 – Densité et contour de la copule de Franck (respectivement à gauche et à
droite) avec θ = 6.

F IGURE 1.3 – Densité et contour de la copule de Clayton (respectivement à gauche et à


droite) avec θ = 6

Les copules elliptiques

Définition 1.2.5. Soit Md (R) l’ensemble des matrices carrées réelles de taille d. Une loi conti-
nue est dite elliptique de paramètre de position µ = (µ1 , ..., µd ) ∈ Rd et de matrice, la forme
symétrique définie positive ∑ ∈ Md (R), si sa densité de probabilité f peut s’écrire, pour tout
x = ( x1 , ..., xd ) ∈ Rd :
 −1 !

 12 −1
f ( x ) = det ∑ g ( x − µ) ∑ ( x − µ)T . (1.16)

( x − µ)T étant la transposée du vecteur x − µ et g est une fonction à valeurs positives vérifiant
´ T dx = 1. On note ξ ( µ, , g ) cette famille de loi dite elliptique.


Rd g xx
Il existe essentiellement deux grandes familles de copule elliptique ; la copule normale
et la copule de Student.

15
a) La copule Gaussienne

La copule Gaussienne d − dimensionnelle s’écrit pour tout (u1 , ...., ud ) ∈ [0, 1]d :
 
C (u1 , ..., ud ) = Φ∑ Φ−1 (u1 ) , ..., Φ−1 (ud ) ; (1.17)

où la fonction Φ−1 est l’inverse de la distribution normale centrée réduite uni variée, la
fonction h i
exp − 12 x ∑ x T
Φ∑ ( x ) = (1.18)
(2π )d/2 det (∑)1/2
est la fonction de répartition de la loi normale centrée réduite et ∑ sa matrice de variance
covariance (égale à la matrice de corrélation dans ce cas) . C’est à dire que

Cov( X1 ,X j )
 
Cov( X1 ,Xn )
Var ( X1 ) ··· q ··· √
 Var ( X1 )Var ( X j ) Var ( X1 )Var ( Xn ) 
.. .. ..
 
..
. ···
 
 . . . 
 
Cov( Xi ,X j )
∑ √ Cov(Xi ,X1 ) ··· ··· √ Cov( Xi ,Xn )
 
= Var ( Xi )Var ( X1 )
q
Var ( Xi )Var ( Xn )
.
 Var ( Xi )Var ( X j ) 
 
.. .. .. ..
.
 

 . ··· . . 

Cov( Xn ,X j )
√ Cov(Xn ,X1 ) ··· ···
 
q Var ( Xn )
Var ( Xn )Var ( X1 ) Var ( Xn )Var ( X j )

La copule Gaussienne ne présente pas de dépendance de queue et n’est donc pas


adaptée à des valeurs extrêmes. L’importance de cette copule réside dans le fait qu’elle
est sous-jacente à la distribution normale multivariée. En effet, modéliser la structure de
dépendance d’un échantillon par une copule gaussienne est cohérent avec la mesure de
cette dépendance par le coefficient de corrélation linéaire.
En dérivant la formule définissant la copule gaussienne, on peut facilement extraire
la densité de la copule gaussienne d − vari ée qui s’écrit :
 
1 1   −1 
c (u1 , ..., ud ) = exp − β ∑ − Id β T
; (1.19)
det (∑)1/2 2

où Id est la matrice unité de Md (R) et β = Φ−1 (u1 ) , ..., Φ−1 (ud ) .




En particulier, la densité de la copule Normale bi-variée s’écrit :


!
1 x2 + x22 − 2ρx1 x2 x12 + x22
cρ,ν (u1 , u2 ) = p exp − 1 + (1.20)
1 − ρ2 2 (1 − ρ2 ) 2

avec xi = Φ−1 (ui )i=1,2 .


Par la suite, nous utilisons l’égalité (1.20) relative à la densité d’une copule

f ( x1 , x2 ) = c ( F1 ( x1 ) , F2 ( x2 )) × f 1 ( x1 ) × f 2 ( x2 ) ; x1 , x2 ∈ R,

16
pour déterminer l’expression de la densité de la copule normale

F IGURE 1.4 – Densité de le copule Gaussienne ρ = 0.5

b) Copule de Student :

La copule de Student (t − copula) est la copule sous-jacente à une distribution multi-


variée de Student. Cette structure de dépendance capte les dépendances extrêmes posi-
tives et négatives. Elle est construite de la même manière que la copule gaussienne mais
à partir de la distribution de Student centrée réduite. La fonction de densité de la copule
de Student d-variée, s’écrit pour tout (u1 , ..., ud )∈ [0, 1]d :

f v,∑ t− 1 −1 −1

v ( u1 ) , tv ( u2 ) , ...., tv ( ud )
c (u1 , ..., ud ) = . (1.21)
d  
−1
∏ f v t v ( ui )
i =1

La fonction t− 1
v est l’inverse de la distribution de Student centrée réduite uni variée à
v degrés de liberté. La fonction f v,∑ est la densité de probabilité de la loi de Student
centrée réduite, ∑ sa matrice de corrélation et f v est la densité uni-variée de la loi de
Student centrée réduite (∑ = 1).
A titre de rappel sa densité s’écrit ,pour tout x = ( x1 , ..., xd ) ∈ Rd , par
 
v+d
Γ − v+2 d
x ∑ xT

2
f v,∑ ( x ) =   q 1+ ; (1.22)
v d v
Γ (πv) det (∑)
2

où Γ est la fonction gamma 2 , x T étant la transposée de x .


La copule de Student multivariée en dimension d est donnée par :
´∞
2. Γ ( x ) = 0 e−t t x−1 dt

17
 − ν+d
ˆ ˆ

2
t− 1
v ( u1 ) t− 1
v (ud ) Γ ((ν + d) /2) 1 + w T ∑−1 w/ν
t
Cν,ρ (u1 , u2 , ..., ud ) = ...
d/2
dw1 ...dwd ,
∑1/2 Γ ν2 (νπ )

−∞ −∞

où w = (w1 , ..., wd ).
Dans le cas bi-varié, la copule est comme suit :

ˆ t− 1
v (u)
ˆ t− 1
v (v)
− ν+2 2
s2 − 2ρst + t2

t 1
Cν,ρ (u, v) = . 1+ dsdt, (1.23)
−∞ −∞ 2π (1 − ρ2 )
1/2 ν (1 − ρ2 )

où ρ est le coefficient de corrélation linéaire.

F IGURE 1.5 – Distribution et contour de la copule de student (respectivement à gauche et


à droite) avec ν = 1

Copules des valeurs extrêmes

Il existe plusieurs familles de copules. Vu le fait que dans ce travail, nous nous inté-
ressons à la modélisation des valeurs extrêmes multivariées, nous nous limiterons, dans
cette section à la définition et à la caractérisation des copules des valeurs extrêmes.

Définition 1.2.6. On appelle copule de valeurs extrêmes, toute copule C est telle que, pour tout
t > 0, (u1 , ..., un ) ∈ I n ;

1
C (u1 , ..., un ) = C t (u1t , ..., utn ).

L’appellation de ces copules s’explique par le fait que les distributions associées à ces copules
par le théorème de Sklar sont des modèles extrêmes multivariés (propriété de max-stabilité).

18
Par conséquent, toute copule des valeurs extrêmes peut être caractérisée par les me-
sures de dépendance associées à sa distribution. En particulier, on a le résultat suivant,
voir [6] ou [7] .

Théorème 1.2.2. Pour toute copule desh extrêmes


i multivariés, il existe une fonction convexe A
1
définie du simplexe unitaire Sm−1 dans n , 1 telle que, pour tout (u1 , ..., un ) ∈ I n ,

( ! )
n  
∑ log ui
log u1 log um−1
C (u1 , ..., un ) = exp A ∑in=1 log ui
, ..., ∑n log ui
. (1.24)
i =1
i =1

où A est la fonction de dépendance de Pickands de la copule C.

Par exemple, la copule associée au modèle logistique est la copule de Gumbel définie
par  " #1 
 θ

Cθ (u1 , ..., un ) = exp − ∑ (−lnui )θ ; (u1 , ..., un ) ∈ I n ; θ > 1.


1≤ i ≤ n
 

Cette copule présente l’avantage de mesurer la dépendance extrême (des événements


les plus rares).

a) La copule multivariée de Gumbel

La copule bivariée de Gumbel :


  1/δ 
C (u1 , u2 ; δ) = exp − ũ1δ + ũ2δ ; δ>1 (1.25)

avec δ ∈ [1, ∞[. Cette copule peut être étendue à des dimensions plus grandes par la
méthode de composition.

F IGURE 1.6 – Copule de Gumbel avec δ = 2

19
b) La copule multivariée de Hüsler et Reiss

La copule bivariée de Hüsler et Reiss (Hüsler et Reiss [1989]) (voir [37]) est donnée
comme suit :
     
−1 1 ũ2 ũ1
Cδ (u1 , u2 ) = C (u1 , u2 ; δ) = exp −ũ1 Φ δ + δln − ũ2 δln ; (1.26)
2 ũ1 ũ2

où δ ≥ 0 et ũi = −lnui = lnGi ( xi ).


Bien que la copule de Gumbel soit  caractérisée
 par (d − 1)paramètre, la copule mul-
d ( d −1) 
tivariée de Hüsler et Reiss contient 2 paramètres ( δi,j 1≤i< j≤d et δi,j = δj,i ) et
Φk (; ρ) correspond à la fonction multivariée, cumulative de Gauss de corrélation ρ.

F IGURE 1.7 – Courbe 3D de la copule Hüsler et Reiss avec δ = 1

La copule empirique

Soit Xi = ( X1,i ; ...; Xd,i ), pour tout i ≥ 1, une suite de vecteurs aléatoires indépendants,
identiquement distribués, de fonction de répartition F et de marges F1 , ..., Fd . Nous sup-
posons que F est continue afin que la copule C soit unique. Si δu correspond à la mesure
Dirac, nous définissons la mesure empirique d’un échantillon de taille n(n ≥ 1) engendré
par le vecteur aléatoire X de la façon suivante

1 n
n j∑
µ= δXj . (1.27)
=1

On définit, pour n ≥ 1 la fonction empirique marginale, respectivement, par :


!
d
1 n d
F ( x1 , ..., xd ) = µn ∏ ]−∞, xi ] = ∑ ∏1{ Xji ≤x j }
n i =1 j =1
(1.28)
i =1

20

1 n
Fj,n ( x ) = ∑ 1{X ≤x } ; 1 ≤ j ≤ d. (1.29)
n i =1 ji j

Les rangs des observations sont liés aux fonctions de répartitions empiriques margi-
nales, pour i ∈ {1, ..., d}, par l’identité

nFj,n X ji = R ji . (1.30)

La copule empirique est basée sur un échantillon X1 , ..., Xn avec comme fonction de
répartition C˜ à lois marginales uniformes dans [0, 1]d qui peut s’exprimer en fonction des
statistiques de rangs.
Dans le cas particulier où d = 2, on définit la fréquence de la copule empirique par :

 1 si
 
Xi,n , Yj,n ∈ {( Xk , Yk ) : 1 ≤ k ≤ n}
   
i i i i
cn , := ∆C̃ , = n
n n n n  0 sinon

ou X1,n ≤ .... ≤ Xn,n et Y1,n ≤ ... ≤ Yn,n désignent, respectivement les statistiques
d’ordre obtenues en rangeant par ordre croissant les n ≥ 1 premières observations des
suites X1 , ..., Xn et Y1 , ...., Yn de variables aléatoires indépendantes et de même loi. Dans
l’article de Deheuvels (1979), la relation entre les fonctions C e n et cn est donnée par :

  i j
i i p q
C˜n ,
n n
= ∑ ∑ cn ,
n n
. (1.31)
p =1q =1

En général, il est difficile d’extraire de l’information de cn ; c’est pour cette raison qu’il
est préférable de construire un dépendogramme 3 . La copule empirique C˜ offre l’avan-
tage de s’affranchir des fonctions de répartition marginales. En revanche, l’estimateur
empirique naturel de la copule fait lui appel aux lois marginales et s’exprime par l’iden-
tité suivante :
h i
−1
C˜n (u) := Fn F1,n −1
(u1 ) , ..., Fd,n (ud ) ; u = (u1 , ..., ud ) ∈ [0, 1]d

où les { Fi,n }1≤i≤d sont les marges empiriques uni variées.

3. Un dépendrogramme (du Grec dendron "arbre", -gramma "dessiner") est un diagramme fréquemment utilisé pour illustrer l’arrangement
de groupes générés par un regroupement hiérarchique ou hiérarchisant.

21
F IGURE 1.8 – Copules Empiriques

Copule Archimax

On considère une famille de copules introduite par Genest et al [2000] qui englobe les
copules Archimédiennes et toutes les copules de valeurs extrêmes. Cette nouvelle famille
offre plus de flexibilité pour la modélisation. Antoine Besat et al (2000)

Définition 1.2.7. Une fonction bivariée Cφ,A est une copule Archimax si et seulement si elle est
de la forme
φ( x )
Cφ,A ( x, y) = φ−1 [(φ( x ) + φ(y)) A( )]
φ( x ) + φ(y)
pour tout 0 ≤ x, y ≤ 1 avec,
— A : [0, 1] → [ 21 , 1] tel que max(t, 1 − t) ≤ A(t) ≤ 1 pour tout 0 ≤ t ≤ 1
— φ : (0, 1] → [0, ∞[ est une fonction convexe, décroissante qui vérifie φ(1) = 0. Nous
adapterons la convention φ(0) = limt→0+ φ(t) et φ−1 (s) = 0 pour s ≥ φ(0). φ est le
générateur de Cφ,A et A sa fonction de dépendance.

Remarque 1.2.1. Les copules Archimédiennes et celles de valeurs extrêmes sont des cas
particuliers des copules Archimax. En effet,
i) Pour φ(t) = ln( 1t ), nous obtenons

ln( x )
Cφ,A ( x, y) = C A ( x, y) = exp[ln( xy) A( )]
ln( xy)

pour tout 0 ≤ x, y ≤ 1. Qui est de la forme générale des copules bivariées de valeurs
extrêmes, relation (1.24) en dimension deux.

22
ii) Si on choisit maintenant de prendre A(t) = 1, on retrouve la forme générale des
copules Archimédiennes :

Cφ,A ( x, y) = Cφ ( x, y) = φ−1 (φ( x ) + φ(y)).

L’intérêt de la construction de la copule Archimax réside dans le fait qu’avec un choix


judicieux de φ et A, on obtient une copule qui sera dans le max-domaine d’attraction
(MDA)de n’importe quel "attracteur" C A∗ donné.

Théorème 1.2.3. C ∈ MDA(C ∗ ) si C satisfait la relation suivante

lim C t (u1t , · · · , utn ) = C ∗ (u1 , · · · , un ).


t→∞

Démonstration. Voir D. Barro [11].

Remarque 1.2.2. si C est une copule de valeur extrême, alors elle est dans le max domaine
d’attraction. En effet, nous avons
1 1
lim C t (u1t , · · · , utn ) = lim C ((u1t )t , · · · , (unt )t )
t→∞ t→∞
= lim C (u1 , · · · , un )
t→∞
= C ( u1 , · · · , u n )

La notion de max-domaine d’attraction renvoie à une démarche inverse de la re-


cherche des lois extrêmes associées à une distribution quelconque.

1.2.4 Copules et mesure de dépendance et d’association


Dans cette section, nous nous intéressons aux relations existant entre les copules et
les mesures de dépendance et d’association. La copule étant une paramétrisation, une
normalisation de la distribution conjointe après avoir éliminé les effets des marges, elle
permet donc des estimations des différents moyens d’étudier cette dépendance à travers
les mesures de concordance (corrélation linéaire, la concordance, tau de Kendall et rho
de Spearman, le coefficient de dépendance).

Copule et mesures de concordance

Définition 1.2.8. Soient ( x1 , y1 ) T et ( x2 , y2 ) T deux observations d’un vecteur de variables aléa-


toires. Alors ( x1 , y1 ) T et ( x2 , y2 ) T sont dit concordant si ( x1 − x2 ) (y1 − y2 ) > 0 et discordants
si ( x1 − x2 ) (y1 − y2 ) < 0 .

Le théorème suivant établit un lien entre la copule et la concordance. Le théorème


suivant, transforme la différence entre les probabilités de concordance et les probabilité
de discordance en une double intégrations de copules.

23
Théorème 1.2.4. Soient ( X1 , Y1 ) T et ( X2 , Y2 ) T des vecteurs aléatoires indépendants continues
avec pour loi conjointes H1 et H2 , respectivement, avec pour marges F (pour X et X̃) et G (
pour Y et Ỹ ). Soit C1 et C2 les copules de ( X1 , Y1 ) T et ( X2 , Y2 ) T , respectivement, telles que
H1 ( x, y) = C1 ( F ( x ) , G (y)) et H2 ( x, y) = C2 ( F ( x ) , G (y)). Soit Q la différence entre les
probabilités de concordance et de discordance de ( X1 , Y1 ) T et ( X2 , Y2 ) T , c’est à dire soit

Q = P {( X1 − X2 ) (Y1 − Y2 ) > 0} − P {( X1 − X2 ) (Y1 − Y2 ) < 0} (1.32)

Alors ; ˆ ˆ
Q=4 C2 (u, v) dC1 (u, v) − 1. (1.33)
[0,1]2

Démonstration. Pour la démonstration de ce théorème nous vous renvoyons à [8] et [9].

Les propriétés suivantes sont une conséquence du théorème 1.2.4. Elles sont obtenues
en considérant Q comme une fonction à deux variables et ses variables sont des copules.

Corollaire 1.2.2. Soit C1 , C2 et Q donnés dans le théorème 1.2.4. Alors,


1. Q est symétrique : Q (C1 , C2 ) = Q (C2 , C1 ).
2. Q est non décroissant : si C1 < C3 , alors Q (C1 , C2 ) < Q (C3 , C2 ).
3. Les copules peuvent être remplacées par les copules de survies dans Q : Q (C1 , C2 ) =

Q Ĉ1 , Ĉ2 .

Démonstration. Une démonstration de ce théorème se trouve dans [9]

Copule et coefficient de corrélation non linéaire

Théorème 1.2.5. Soit ( X, Y ) T un vecteur aléatoire continue ayant pour copule C. Alors, le tau
de Kendall pour ( X, Y ) T est donné par :
ˆ ˆ
τ ( X, Y ) = Q (C, C ) = 4 C (u, v) dC (u, v) − 1.
[0,1]2

Démonstration. Pour la preuve de ce théorème voir [9].

Remarquons que l’intégrale ci-dessus est la valeur attendue du couple aléatoire (U, V ),
ou U, V ∼ U (0, 1) avec pour fonction de distribution conjointe C, c’est-à-dire τ ( X, Y ) =
4E (C (U, V )) − 1.

Copule et mesures d’association

Définition 1.2.9. Une mesure d’association κ entre deux variables aléatoires continues X et Y
dont la copule est C, est une mesure de concordance si elle vérifie les propriétés suivantes :

24
1. P1 ) : κ est définie pour tout couple de variables aléatoires ( X, Y ).
2. P2 ) : Symétrie : κ ( X, Y ) = κ (Y, X ).
3. P3 ) : Normalisation : −1 ≤ κ ( X, Y ) ≤ 1.
4. P4 ) : Les Bornes : κ (− X, X ) = −1 et κ ( X, X ) = 1.
5. P5 ) : κ ( X, Y ) = 0 si et seulement si X et Y sont indépendantes.
6. P6 ) : κ (− X, Y ) = κ ( X, −Y ) = −κ ( X, Y ) .
7. P7 ) : Si f et g sont deux transformations strictement monotones définies respectivement
sur Im ( X ) et Im (Y ) alors

κ ( f ( X ) , g (Y )) = κ ( X, Y ) . (1.34)

Remarque 1.2.3. Les mesures de concordance sont des généralisations de la corrélation


linéaire dans le cas où la distribution bivariée n’est pas Gaussienne. Cependant, la corré-
lation linéaire n’est pas une mesure de concordance. En effet, rappelons que :

Cov ( X, Y ) E ( XY ) − E ( X ) E (Y )
ρ ( X, Y ) = = .
σ ( X ) σ (Y ) σ ( X ) σ (Y )
— P5 ) X et Y indépendantes implique que κ ( X, Y ) = 0. Puisque dans ce cas
E ( XY ) = E ( X ) E (Y ). La réciproque est fausse, en effet si nous prenons X
N (0, 1) et Y = X 2 on obtient
 
Cov ( X, Y ) = E X 3 = 0

Par conséquent ρ ( X, Y ) = 0 or X et Y ne sont pas indépendantes.


Plus généralement

ρ ( X, Y ) = 0 =⇒ E ( X, Y ) = E ( X ) E (Y )

La solution de cette équation en dehors du cas indépendant est telle que X,Y
N (0, 1) (J. Aczel 1990).
Remarque 1.2.4. La corrélation modélise la dépendance Gaussienne :
En effet 


 ρ ( X, Y ) = 0

X N ormale =⇒ X, Y sont indépendantes


 Y N ormale

De plus pour P7 , soient f et g deux fonctions strictement monotones sur respectivement


Im ( X ) et Im (Y )
ρ ( f ( X ) , g (Y )) = ρ ( X, Y ) . (1.35)

25
Les travaux de Jonas Aczel (travaux abordés dans [19]) montrent que si f , g sont affines
c’est à dire que f ( X ) = a1 X + b1 et g (Y ) = a2 Y + b2 telle que a1 × a2 > 0.
En effet, on a :
Cov ( X + b1 , Y + b2 ) = Cov ( X, Y )

et
Cov ( a1 X, Y ) = a1 × Cov ( X, Y )

ce qui permet d’avoir :

Cov ( a1 X + b1 , a2 Y + b2 ) = a1 × a2 × Cov ( X, Y )

Aussi,
σ ( a1 X + b1 ) = | a1 | × σ ( X ) ,

et donc

a1 × a2 × Cov ( X, Y ) a × a2 × Cov ( X, Y )
ρ ( f ( X ) , g (Y )) = = 1 car a1 × a2 > 0
| a 1 | × | a 2 | × σ ( X ) σ (Y ) a 1 × a 2 × σ ( X ) σ (Y )

d’où
ρ ( f ( X ) , g (Y )) = ρ ( X, Y ) .

C’est pourquoi la mesure de corrélation est dite linéaire. Les mesures de concordance
sont des généralisations de la corrélation linéaire dans le cas où la distribution bivariée
n’est pas Gaussienne.

1.3 Valeurs extrêmes unidimensionnelles

1.3.1 Démonstration du théorème des trois types extrêmes


Les statisticiens Fisher et Tippett trouvent en 1928 une réponse à la question posée
par la relation (1.40) au moyen du théorème suivant qui porte leurs noms et qui devient
par la suite le fondement de l’analyse statistique des valeurs extrêmes.

Théorème 1.3.1. (Fisher-Tippett) Soit ( Xi , i ≥ 1) une suite de variables aléatoires i.i.d. S’il
existe des suites de normalisation {σn > 0} et {µn ∈ R} et une distribution non-dégénérée G

26
vérifiant la relation (1.40), alors G est de la forme suivante :

x−µ
  
Gumbel, Λ ( x ) = exp −exp − ; x∈R 


 h σ 



 exp − 1 + ξ x−µ −1/ξ
  i 

si x > 0 

Fr échet, Φξ ( x ) = σ 


si x ≤ 0

0

 (1.36)
 1 
  

 exp − − x − µ
   

 ξ 
si x ≤ µ 

Weibull, Ψξ ( x ) =

 σ +


si x ≥ µ 
 
 

1
 

o ù {µ ∈ R} , {σ > 0} et {ξ ∈ R} sont les paramètres de la variable X.

Démonstration. La démonstration de ce théorème est longue et a été formulée plusieurs


fois. Une version plus moderne se trouve dans [19], proposition 0.3. Néanmoins, nous
donnons ici une autre démonstration mais suivant un autre raisonnement qui, d’une part,
permet d’introduire des quantités qui nous seront utiles par la suite dans l’estimation des
paramètres, et d’autre part, donne la forme générale des lois limites formulée plus loin
par le théorème1.3.
Supposons qu’il existe une suite de normalisation {(σn , µn ) , n ≥ 1} telle que σn > 0
et la suite de terme σn−1 ( Mn − µn ) converge en loi vers une loi limite G non constante.
Pour toute fonction g continue et bornée, on a
h  i
lim E g σn−1 ( Mn − µn ) = E ( g ( G )) .
n−→+∞

Supposons par simplicité que la loi X1 possède la densité f > 0. Alors, la loi de Mn
possède la densité nF ( x )n−1 f ( x ) d’après la proposition 1.1. On a donc
h  i ˆ 
x − µn

−1
In = E g σn ( Mn − µn ) = g nF ( x )n−1 f ( x ) dx.
R σn

Comme f > 0, la fonction F est inversible et d’inverse connue. On pose pour t > 1
 
−1 1
U (t) = F 1− .
t

En particulier, on a

1 1
U (t) = x ⇐⇒ 1 − = F ( x ) ⇐⇒ P ( X > x ) = .
t t

On effectue le changement de variable

v n
F ( x ) = 1 − , i.e x = U .
n v

27
On obtient ˆ !
n

U v − µn  v  n −1
In = g 1− 1]0,n] (v) dv.
R σn n
 v  n −1
Remarquons que 1 − 1]0,n] (v) converge en croissant vers e−v 1{v>0} . Comme par
n
hypothèse In converge pour tout g, il est naturel, mais érroné à priori, de penser que pour
tout v > 0, la suite de terme n
U − µn
Jn (v) = v
σn
converge.
 Supposons
 malgré tout que cette convergence ait lieu. On déduit en considé-
1
rant Jn − Jn (1) que pour tout w > 0,
w

U (wn) − U (n)
−→ h (w) .
σn n−→+∞

Comme la variable W est non triviale cela implique que la fonction h n’est pas égale à
une constante. Comme la fonction U est croissante, la fonction h est également croissante.
Supposons que plus généralement, on ait pour tout w > 0,

U (wx ) − U ( x )
−→ h (w) ,
σ (x) x →+∞

où σ ( x ) = σ[ x] pour x ≥ 1, [ x ] désignant la partie entière de x. Soit w1 , w2 > 0, on a

U ( w1 w2 x ) − U ( x ) U (w1 w2 x ) − U ( xw1 ) σ ( xw1 ) U (w1 x ) − U ( x )


= + .
σ (x) σ ( w1 x ) σ (x) σ (x)

σ ( xw1 )
En faisant tendre x vers l’infini dans l’égalité ci-dessus, on obtient que converge
σ ( xw1 )
pour tout w1 > 0. En notant l (w1 ) la limite, il vient que

h ( w1 w2 ) = h ( w2 ) l ( w1 ) + h ( w1 ) (1.37)

Par ailleurs, la fonction l est mesurable et localement bornée. Comme la fonction h est
croissante et non constante, on en déduit que l est strictement positive. De plus en posant
yw0 = x, on a pour w0 > 0

σ ( xw) σ (yw0 w) σ (y) l (w0 w)


l (w) = lim = lim = .
x −→+∞ σ ( x ) y−→+∞ σ ( y ) σ ( yw0 ) l (w0 )

Ainsi, pour tous w, w0 > 0, on a

l w0 w = l (w) l w0 ,
 

28
où l est une fonction strictement positive mesurable localement bornée. Le lemme précé-
dent garantit qu’il existe ξ ∈ R tel que l (w) = wξ , et donc de (1.7) on a

ξ
h (w1 w2 ) = h (w2 ) w1 + h (w1 ) pour tous w1 , w2 > 0.

On peut alors distinguer les cas suivants :

— Si ξ = 0 on obtient l’équation fonctionnelle.

h ( w1 w2 ) = h ( w2 ) + h ( w1 ) .

Et donc h (w) = c log (w) , c > 0.


— Si ξ 6= 0, par symétrie , on a

ξ ξ
h ( w1 w2 ) = h ( w2 ) w1 + h ( w1 ) = h ( w1 ) w2 + h ( w2 ) .

En particulier, on a
   
ξ ξ
h ( w1 ) 1 − w2 = h ( w2 ) 1 − w1 .

h (w)
Cela implique que h (w) = 0 si w = 1, et sinon est constant.
 1 − wξ
Par conséquent, on obtient h (w) = c wξ − 1 . À un changement d’échelle près, on peut
choisir c = 1ξ et à une translation près, on peut choisir U (n) = bn .
En définitive, il vient que

   v−ξ − 1

n

U v − µn 1 si ξ 6= 0
lim =h = ξ
n−→+∞ σn v
− log (v) si ξ = 0

On peut maintenant calculer la limite de In = E g σn−1 ( Mn − µn ) . Il vient par le


 

théorème de la convergence dominée


ˆ ˆ
v−ξ − 1 −v
 
−(1+ξy)−1/ξ
 
lim In = g e 1{v>0} dv = g (y) 1{1+ξy>0} d e ,
n−→+∞ ξ

v−ξ − 1
où on a posé y = si ξ 6= 0 et y = log (v) si ξ = 0.
ξ
−1/ξ
Ainsi, la distribution de la loi limite est Hξ ( x ) = e−(1+ξx) . C’est la forme standard
de la distribution définie plus loin par la relation (1.10)

29
1.3.2 Distributions extrêmes multivariées
Une distribution ou fonction de répartition m-dimensionnelle est une fonction F :
Rm → I = [0, 1] telle qu’il existe un espace de probabilité et un vecteur aléatoire X =
( X1 , ..., Xm ) tels que, pour toute réalisation x = ( x1 , ..., xm ) ∈ Rm de X, on a

F ( x ) = F ( x1 , ..., xm ) = P ( X ≤ x ) = P ( X1 ≤ x1 ; ...; Xm ≤ xm ) .

Le résultat suivant, démontré dans [13], résume les propriétés d’une distribution
multivariée.

Théorème 1.3.2. (Distribution multivariée)


Une fonction F : Rm → I est une distribution m-dimensionnelle si et seulement si
(i) Pour tout xi , i = 1, ..., m, on a

 lim F ( x1 , ..., xi−1 , t, xi+1 , ..., xm ) = 0
t→−∞
.
 et lim ... lim F (t1 , ..., tm ) = 1
t1 →+∞ tm →+∞

(ii) Pour tout ( x1 , ..., xm ) ∈ Rm et (y1 , ..., ym ) ∈ Rm , on a

(1) (1)
∆ x1 ,y1 ...∆ xm ,ym F (y1 , ..., ym ) ≥ 0 (1.38)

(i )
où l’opérateur ∆ xi ,yi est défini pour tout t∈ Rm par :

(i )
∆ xi ,yi F (t) = F (t1 , ..., ti−1 , yi , ti+1 , ..., tm ) − F (t1 , ..., ti−1 , xi , ti+1, ..., tm )

Remarque 1.3.1. La propriété (ii) signifie en particulier que F est croissante par rapport à
chaque variable.
Dans le cas bidimensionnel la relation (1.38) équivaut à l’inégalité du rectangle que
doit vérifier toute fonction de répartition bivariée F i.e

F x10 , x20 − F ( x10 , x2 ) − F ( x1 , x20 ) + F ( x1 , x2 ) ≥ 0



(1.39)

sous l’hypothèse

( x1 , x2 ) ∈ R2 , x10 , x20 ∈ R2 tels que x1 ≤ x10 et x2 ≤ x20 .



(1.40)

Lorsque les variables X1 , ..., Xm sont mutuellement indépendantes, alors on a

m m
F ( x ) = Π P ( Xi ≤ xi ) = Π Fi ( xi ) ,
i =1 i =1

où Fi est la distribution marginale uni-variée de la composante Xi , i = 1, ..., m.

30
Si en particulier X est un vecteur continu, alors, pour tout x = ( x1 , ...xm ) ∈ Rm , on a
ˆ x ˆ xm ˆ x1
F (x) = f ( x ) dx = ... f (t1 , ..., tm ) dtm ...dt1 ,
−∞ −∞ −∞

où la fonction positive f est la densité de probabilité conjointe de X, définie par

∂m F ( x1 , ..., xm )
f (x) = , x = ( x1 , ..., xm ) ∈ Rm .
∂x1 .....∂xm

Les fonctions densités marginales uni-variées f i de f sont données par


ˆ +∞ ˆ +∞
f i ( xi ) = ... f (u1 , ..., ui−1 , xi , ui+1 , ..., um ) dum ...dui+1 dui−1 ...du1.
−∞ −∞

De façon similaire, on a par exemple


ˆ +∞ ˆ +∞
f 1,2 ( x1 , x2 ) = ... f ( x1 , x2 , u3 , ..., um ) dum ...du4 du3 .
−∞ −∞

1.3.3 Fonction de survie d’une loi multivariée


Comme dans le cas uni-varié, l’utilisation de la fonction de survie d’une distribution
est fréquente dans l’analyse des extrêmes multivariés. Si F est la distribution associée à
une vecteur aléatoire X, alors la fonction de survie de F est donnée, en tout point x =
( x1 , ...xm ) ∈ Rm , par

F̄ ( x ) = P ( X > x ) = P ( X1 > x1 ; ..., Xm > xm ) .

Et si le vecteur X est continu de densité conjointe f, alors on a


ˆ +∞ ˆ +∞ ˆ +∞
F̄ ( x ) = f ( x ) dx = ... f ( x1 , ..., xm ) dx1 ...dxm .
x xm x1

Remarque 1.3.2. Il faut noter que dans l’analyse multivariée, le sens de fonction de survie requiert
une attention particulière. En effet, on a

F̄ ( x ) = P ( X > x ) 6= 1 − F ( x ) = P ( X 6≤ x ) , x = ( x1 , ...xm ) ∈ Rm .

Par exemple, pour tout ( x1 , x2 ) ∈ R2 , on a

F̄ ( x1 , x2 ) = P [ X1 > x1 , X2 > x2 ] = 1 − F1 ( x1 ) − F2 ( x2 ) + F ( x1 , x2 )

i.e
1 − F ( x1 , x2 ) = F̄1 ( x1 ) + F̄2 ( x2 ) − F̄ ( x1 , x2 ) .

31
Plus généralement, pour tout x = ( x1 , ...xm ) ∈ Rm , on a

F̄ ( x ) = P [ X1 > x1 , ..., Xm > xm ] = 1 + ∑ (−1)|s| Fs (xk, k ∈ S)


s∈S

où S est l’ensemble des sous-ensembles non vides de {1, 2, ..., m} et { Fs , s ∈ S} désignant l’en-
semble des distributions marginales de F.

Exemple 1.3.1. Cas du modèle logistique


La famille paramétrique extrême la plus utilisée est le modèle logistique multivarié (ou loi de
Gumbel). Elle provient d’une normalisation asymptotique de la loi de Pareto et sa forme générale
est :

1
 
  θ θ
 i =m −ξ 

  
 x µ 
Gθ ( x1 , ..., xm ) = exp −  ∑ 1 − ξ i i i i
 ; xi > 0; θ > 1.

 i =1
σi + 

 

où {µi ∈ R} , {ξ i ∈ R} et {σi > 0} sont les paramètres de la loi marginale Xi .

Dans cette section nous donnons quelques familles de modèles des valeurs extrêmes
multivariées. Les fonctions de dépendance de Pickands sont données.

1.3.4 Modèles paramétriques multivariés usuels


Nous donnons ici le modèle logistique multivarié et un exemple de chacun des types
d’extensions possibles de ce modèle.

Le modèle logistique multivarié

C’est le modèle défini pour tout ( x1 , ...xm ) ∈ Rm , par

( )1
θ
Gθ ( x1 , ...xm ) = exp − ∑ xiθ ; xi > 0; θ ≥ 1
1≤ i ≤ m

où θ est le paramètre de dépendance entre les variables uni-variées.

Extension négative du modèle logistique multivarié

C’est le modèle défini, pour tout ( x1 , ...xm ) ∈ Rm , par

 −1
(
m
−θij −θij

− ∑ xi + ∑
θij
Gθ ( x1 , ...xm ) = exp xi + xj
i =1 i< j
)
m k
+ ∑ (−1)k+1 ∑ B1...k ( xi , ..., xk , θ12 , ..., θ1k ;
k =3 i =1

32
où θ1,j ≥ 0 est le paramètre de dépendance entre les variables marginales X1 et X j .

Le modèle logistique gaussien ou normal

C’est le modèle défini, pour tout ( x1 , ...xm ) ∈ Rm , par

(
m n   
− ∑ xi + ∑ xi
θij
Gθ ( x ) = exp xi + x j − xi Φ 1
θij + 2 log xj
i =1 1≤ i < j ≤ m
ˆ ! 
  x o xi   

θij k
−xj Φ 1
θij + 2 log j
xi + (−1)|S|+1 Φ̄k−1 log x
xi + 2
δi2 ,i
;Γ dx ;
S:|S|≥3 0 j k

où Φ̄k−1 (., Γ) est la fonction de survie de la distribution


  normale (k − 1) − multivari ée
de matrice de variance-covariance Γ où Γ = Γ θi j ,ik est la matrice (k − 1)carrée où les
 
−2 −2 −2 −1
éléments (i, j ) sont tous égaux à 2 θi ,i + θi 0 ,i − θi ,i 0 avec 1 ≤ j, j0 ≤ k − 1 et θi,i
0 = 0.
j k j k j j

Le modèle logistique imbriqué multivarié

C’est le modèle défini, pour tout ( x1 , ...xm ) ∈ Rm , par

1 
 
θij  θ1ij



  θij  m θ 

Gθ ( x ) = exp − ∑ pi xiθ + p j x θj + ∑ νi pi xi
θ
1≤i<j≤m i =1

 

 

où pi = νi + m − 1, θ ≥ 1; θij ≥ 1, νi étant le degré de liberté des distributions margi-


nales uni variées.

Le modèle logistique asymétrique multivarié.

C’est le modèle défini, pour tout ( x1 , ...xm ) ∈ Rm , par

# −1 
 
i −1
"
 m m θ 
−θij θθ I j −δij θθ I j θij
 h
Gθ ( x ) = exp − ∑ xi + ∑ (−1)|S|+1 ∑ xi−θ _ ∑ pi xi + pj xj .
i =1 S:|S|≥1 i ∈S i < j; i,j∈S

 

1.4 Estimation non paramétrique d’une copule

1.4.1 Copule empirique


la copule empirique est principalement utilisée pour étudier les processus empiriques
et les tests d’indépendance. Cette approche se base sur les rangs des observations pour

33
extraire ensuite la structure de dépendance.

Définition 1.4.1. Soit {( xt1 , · · · , xtn )}tT un échantillon d’un vecteur aléatoire X de dimen-
sion n, la fonction de répartition empirique est donnée par :

T
1
Fn ( x1 , · · · , xn ) =
T ∑ 1(Xi1 <x1,··· ,Xin <xn ) , (1.41)
i =1

où 1(X1 < x1 ,··· ,X n < xn ) est la fonction indicatrice.


i i

La notion de la copule empirique a été introduite pour la première fois par Deheuvels
en (1979) dans [29], qui est connue sous le non " fonction de dépendance empirique ".

Cas des copules bivariées

Définition 1.4.2. Soit {( xk , yk )}nk=1 un échantillon de taille n d’un couple de variables aléatoires.
La copule empirique est la fonction Ĉ donnée par :

i j Nombre des paires ( x, y) dans l 0 echantillon tels que x ≤ x(i) et y ≤ y( j)


Ĉ ( , ) = ,
n n n
(1.42)
où x(i) et y( j) représentent des statistiques d’ordre associées à l’échantillon. La fonction densité
empirique de la copule C notée ĉ est donnée par :
(
i j 1
n si ( x(i) , y( j) ) est él ément de l 0 échantillon;
ĉ( , ) = (1.43)
n n 0 si non.

Elle est parfois appelée " fréquence de la copule empirique" ; il existe une relation entre Ĉ et ĉ
donnée par :
i j
i j p q
Ĉ ( , ) =
n n ∑ ∑ ĉ( n , n ) (1.44)
p =1 q =1

et
i j i j i−1 j i j−1 i−1 j−1
ĉ( , ) = Ĉ ( , ) − Ĉ ( , ) − Ĉ ( , ) + Ĉ ( , ) (1.45)
n n n n n n n n n n

Généralisation dans les cas des copules multivariées

En dimension T, {( xt1 , · · · , xtn )}tT=1 un échantillon de taille n, la copule empirique mul-


tivariée est définie de façon analogue au cas bivariée ; Ĉ est donnée comme suit :
(
1
t tn si ( xt1 ≤ x(1t ) , · · · , xtn ≤ x(nt ) );
Ĉ ( 1 , · · · , ) = T 1 n (1.46)
T T 0 si non.

Les copules empiriques peuvent être exploitées pour estimer les mesures de dépendance
à savoir le ρ de Spearman et le τ de Kendall.

34
Théorème 1.4.1. Soient Ĉ et ĉ la copule empirique et sa fonction de densité respectivement de
l’échantillon {( xk , yk )}nk=1 . Le tau de Kendall et le rho de Spearman sont estimés par les formules
suivantes :

j −1
2n n n i−1 i j p q i q p j
τ̂ = ∑ ∑ ∑ ∑ [ĉ( , )ĉ( , ) − ĉ( , )ĉ( , )]
n − 1 i =2 j =2 p =1 q =1 n n n n n n n n
(1.47)

n n
12 i j ij
ρ̂ = ( ) ∑ ∑
n 2 − 1 i =1 j =1
[ Ĉ ( ,
n n
) −
n2
] (1.48)

Nous trouvons la démonstration de ce théorème dans Nelsen (2006) ou Deheubels (1979). (Fadhila,2011)
[19].

1.4.2 Procédure de Genest et Rivest


Cette méthode a été proposée par Christian Genest et Louis-Paul Rivest (1993), pour
sélectionner une copule appartenant à la famille archimédienne. Cette approche se base
principalement sur le générateur de la copule.
Soit X un vecteur de n v.a, C la copule associée au générateur ϕ et K la fonction définie
par :
K (u) = P(C (u, v) ≤ u) (1.49)

On peut calculer pour une copule Archimédienne la quantité suivante :

ϕ(u)
K (u) = u − (1.50)
ϕ0 (u)

Un estimateur non paramétrique de K est donné par :

T
1
K̂ (u) =
T ∑ 1 vt ≤u , (1.51)
t =1


T
1
vt =
T−1 ∑ 1{x1j ≤xt1,x2j ≤xt2 } (1.52)
j =1

Remarque 1.4.1. La fonction K est liée au tau de Kendall par la relation :


ˆ 1
τ=4 (1 − K (u))du (1.53)
0

pour plus de précision consulter Genest (1993) ou Denuit (2005) [19].

35
1.4.3 Estimation des paramètres d’une copule
Nous nous plaçons dans le cas où la distribution conjointe dépend d’un paramètre
que l’on cherche à estimer. Plusieurs méthodes existent pour estimer ce paramètre. Dans
cette section, nous présentons la méthode du maximum de vraisemblance, la méthode
IFM (Inference Functions for Margins) et la méthode de moment

Méthode du maximum de vraisemblance

C’est la méthode d’estimation classique dont le principe est de maximiser une fonc-
tion dite fonction de vraisemblance de vraisemblance.
Soit l’échantillon {( x1t , · · · , xnt )}tT=1 des observations ; ` = (θ1 , · · · , θn , α) le vecteur de
paramètres à estimer avec θi le paramètre de la distribution marginale Fi et α le vecteur
de paramètres de copule C. Le théorème de Sklar nous donne les expressions suivantes :

F ( x1 , · · · , xn ) = C ( F1 ( x1 ), · · · , Fn ( xn ))

et
n
f ( x1 , · · · , xn , ) = c( F1 ( x1 ), · · · , Fn ( xn ); α) ∏ f i ( xi , θi )
i =1


∂C (u1 , · · · , un )
c ( u1 , · · · , u n ) =
∂u1 · · · ∂un
qui désigne la densité de la copule n-dimensionnelle C (u1 , · · · , un , `), et les f i les densités
de distributions marginales Fi . La fonction log-vraisemblance

T
L( x, `) = ∑ ln f (x1t , · · · , xnt )
t =1

de l’échantillon
{( x1t , · · · , xnt )}tT=1 est donnée par :

T n T
L( x, `) = ∑ ln c( F1 ( x1t ), · · · , Fn ( xnt ); α) + ∑ ∑ ln fi (xit , θi ) (1.54)
t =1 i =1 t =1

Cette expression de la vraisemblance pourrait être utilisée pour estimer les paramètres
des lois marginales et les paramètres de copules en une seule étape. L’estimateur de maxi-
mum de vraisemblance est donné par :

θ̂ ML = arg max L( x, θ ) (1.55)


θ ∈Θ

où Θ est l’espace des paramètres. On peut vérifier dans les conditions de régularité que
l’estimateur θ̂ ML existe, qu’il est sans biais, convergent, asymptotiquement efficace et

36
vérifie la propriété de la normalité asymptotique. On a alors

T (θ̂ ML − θ0 ) → N (0, I −1 (θ0 )) (1.56)

avec I (θ0 ) la matrice d’information de Fisher et θ0 la vraie valeur.


La méthode de maximum de vraisemblance peut entraîner des temps de calcul très
longs lorsqu’on a un grande dimension car elle nécessite le calcul de paramètres joints
pour les marginales et la dépendance.

Méthode IFM (inference functions for margins)

La méthode IFM ou méthode des fonctions d’inférence des marginales a été proposée
par Joe et Xu (1996) [24]. Elle consiste à séparer l’estimation des paramètres des lois mar-
ginales et ceux de la copule. Ainsi, la log-vraisemblance globale peut être exprimée de la
manière suivante :
T T n
L( x, θ ) = ∑ ln c( F1 ( x1t , θ1 ), · · · , Fn ( xnt , θn ); α) + ∑ ∑ ln fi (xit , θi ) (1.57)
t =1 t =1 i =1

où θ = (θ1 , · · · , θn ; α) le vecteur des paramètres contenant les paramètres θi de chaque


marginale Fi et les paramètres α de la copule. Joe et Xu (1996) [24] proposent alors d’es-
timer θ en deux temps. Dans un premier temps, on estime les paramètres de chaque
marginale indépendamment par la méthode de maximum de vraisemblance :

T
θˆi = arg max ∑ ln f i ( xit , θi ) (1.58)
i =1

Puis on estime α en tenant compte des estimations obtenues on a donc

T
α̂ = arg max ∑ ln c( F1 ( x1t , θˆ1 ), · · · , Fn ( xnt , θˆn ); α) (1.59)
i =1

Cet estimateur θ̂ IFM = (θˆ1 , · · · , θˆn ; α̂) présente des propriétés statistiques légèrement dif-
férentes de l’estimateur du maximum de vraisemblance mais elle est également convergent,
sans biais et vérifie la propriété de la normalité asymptotique. On a alors

T (θ̂ IFM − θ0 ) → N (0, v−1 (θ0 ))

avec v(θ0 ) la matrice d’information de Godambé selon Joe (1997) évoqué dans [19], cette
matrice s’écrit de la manière suivante
v(θ0 ) = D −1 M ( D −1 )0 avec D = E[ ∂θ

( g(θ )T )] ; M = E[ g(θ )T g(θ )]

∂L1 ∂Ln ∂L
g(θ ) = [ ,··· , ; ]
∂θ1 ∂θn ∂α

37

T
Lj = ∑ ln f (xi , θ j )
i =1

Cette méthode présente l’avantage de se reposer sur les calculs légers que ceux géné-
rés par la méthode de maximum de vraisemblance. Mais la détermination de la matrice
de Godambé pourrait s’avérer très délicat en raison des multiples calculs de dérivées.

Méthode de moment

Cette méthode consiste à estimer les paramètres θi ,i = 1, · · · , n des lois marginales et


le paramètre α de la copule à partir des moments. En effet, la première étape revient à
résoudre le système des n équations à n inconnues


 X̄t = f (θ1 , · · · , θn )

St2 = g(θ1 , · · · , θn )



 µ3,t = h(θ1 , · · · , θn )

 ..
.

Où n désigne la dimension de α ; f, g et h sont les expressions des moments d’ordre 1 ;


2 et 3 en fonction des paramètres θi . Répéter cette étape pour toutes les marginales. La
deuxième étape consiste à manier le tau de Kendall ou le rho de Spearman pour obtenir
le paramètre α de la copule.
Cette méthode n’assure aucune robustesse de l’estimateur. Dans la pratique, l’estima-
teur empirique du tau de Kendall est le plus souvent utilisé comme mesure de concor-
dance en raison de sa simplicité de calcul.
Par exemple pour la copule de Gumbel de paramètre θ, on a τ = 1 − 1θ on en déduit
que
1
θ= (1.60)
1−τ
connaissant l’estimateur τ̂ du tau de Kendall. Nous pouvons estimer le paramètre de la
copule en posant
1
θ̂ = (1.61)
1 − τ̂
Dans le cas général, l’estimateur non paramétrique du tau de Kendall est donné par

c−d
τ̂ = (1.62)
c+d

où c et d sont respectivement le nombre de paires disjointes concordantes et discordantes.

38
1.4.4 Estimation semi-paramétrique
L’approche semi-paramétrique suppose un modèle paramétrique pour la copule, C =
C (., .α) et non-paramétrique pour les marginales. Celle que nous étudions ici est connue
sous le nom de la méthode de maximum de vraisemblance canonique ou encore méthode
de pseudo maximum de vraisemblance (PML).

Méthode CML (Canonical Maximum Likelihood)

CML signifie la méthode de maximum de vraisemblance canonique. Elle est voisine


de la méthode IFM, la différence est qu’elle ne nécessite pas d’avoir recours à l’estimation
des marginales. Elle consiste d’abord à transformer l’échantillon {( x1t , · · · , xnt )}tT=1 en
des v.a uniformes {û1t , · · · , ûtn }. Puis en utilisant les fonctions de répartition empiriques
univariées :
1 T
F̂Xi ( x ) = ∑ 1{Xi ≤ xt } (1.63)
T t =1 i

où 1{Xi ≤ xt } est la fonction indicatrice. On peut estimer le paramètre α de la manière sui-


i
vante
T
α̂ = arg max ∑ ln c(û1t , · · · , ûtn ; α) (1.64)
t =1

avec ûit = F̂Xi ( xit ).


Cette méthode présente l’avantage de procéder à une estimation paramétrique de
la copule indépendamment de la forme paramétrique des lois marginales. En plus, elle
génère un temps de calcul limité.

Sélection d’une meilleure copule

L’une des étapes les plus importantes de l’utilisation pratique des copules est le choix
d’une meilleure copule. En effet, dans l’optique d’éviter un usage aveugle des copules,
cette sélection demeure indispensable car elle nous permet de choisir une copule répon-
dant aux exigences des données. Plusieurs approches sont disposées à guider cet choix.
Nous adoptons la méthode dite Test d’adéquation de Khi deux qui est basée sur un
ajustement bivariée entre la copule paramétrique et la copule empirique effectuée à par-
tir de la statistique de Khi-deux. Ce processus est décrit comme suit :
1. La première étape consiste à estimer le paramètre de la copule bivariée à partir de
la méthode CML afin de s’affranchir l’erreur de spécification des lois marginales.
On note Câcml (u1 ; u2 ) la copule paramétrique obtenue.
2. On définit un treillis d’ordre T adopté au nombre d’observation et aux contraintes

39
de temps de calcul puis on calcule la copule empirique bivariée sur ce treillis.

t T
t2  1
∑ 1x1t ≤x1(t1 ) ,x2t ≤x2(t2 ) 
1
Ĉ , = (1.65)
T T T t =1

3. Découpage de chacune des uniformes en k intervalles et la construction d’un ta-


bleau de contingence bivarié des effectifs. On note (bi−1 , bi ]ik=1 et (ci−1 , ci ]ik=1 les k
intervalles pour découper respectivement u1 et u2 .
4. On calcule les effectifs empiriques et théoriques sur chacun des k × k intervalles
bidimensionnels (bi−1 , b1 ] × (c j−1 , c j ] i,j=1,....,k. Pour ce faire, il convient de calcu-
ler les probabilités bivariés pi,j d’appartenance à un intervalle. Les effectifs empi-
riques issues de la copule empirique sont obtenus en multipliant les probabilités
(emp)
bivariées empiriques pi,j par le nombre total des observations avec

(emp)
pi,j = Ĉâcml (bi , c j ) − Ĉâcml (bi−1 , c j ) − Ĉâcml (bi , c j−1 ) + Ĉacml (bi−1 , c j−1 ) (1.66)

avec i,j=1,...,k. De même les effectifs théoriques issues de la copule théorique sont
(th)
obtenus en multipliant les probabilités bivariées théoriques pi,j par le nombre
total des observations avec

(th)
pi,j = C (bi , c j ) − C (bi−1 , c j ) − C (bi , c j−1 ) + C (bi−1 , c j−1 ). (1.67)

5. Certains effectifs théoriques peuvent être très faibles voire proche de zéro, il faut
donc procéder à un regroupement de k × k intervalles initiaux en n classes per-
mettant de respecter le critère Cochran qui recommande d’avoir des effectifs théo-
riques au moins supérieurs à 1% du nombre total d’observations dans chaque
classe, et supérieurs à 5% du nombre total d’observations dans au moins 80% des
classes.
6. Après avoir défini le regroupement en n classe vérifiant le critère de Cochran, on
calcule la statistique bivariée de Khi-deux comme suit :

n
(Oi + Ei )2
χ2obs = ∑ Ei
(1.68)
i =1

où Oi et Ei représentent respectivement les effectifs observés et attendus dans


chaque classe j, j=1,...,n. Cette statistique suit la loi de Khi-deux à (n-r-1) degrés de
liberté avec r le nombre de paramètres estimés de la copule. On se donne ensuite
un seuil critique α pour la zone de rejet et on calcule la p-valeur α̂ = P[χ2n−r−1 >
χ2obs ]. On rejette l’adéquation de la copule paramétrique si α̂ < α.

40
1.5 Cadre financier de la modélisation des risques.
Une mesure de risque doit pouvoir être vérifiée par un certain nombre de propriétés
élémentaires. Dans cette section, nous donnons les différentes définitions et caractéris-
tiques (d’un portefeuille, des actifs sous-jacents et de la notion de mesure de risque).

1.5.1 Notion de risque


D’après le dictionnaire Le petit Robert, le risque c’est un danger éventuel plus au
moins prévisible. C’est une éventualité d’un événement ne dépendant pas exclusivement
de la volonté des parties et pouvant causer la perte d’un objet ou tout autre dommage.
A titre d’exemple : événement contre la survenance duquel on s’assure (assurance qui
couvre le risque d’incendie, assurance tous risques etc.).
Le risque peut, entre autres, se définir comme suit (Hansson, 2004 ; Hansson, 2005a) :

— la probabilité d’apparition d’un événement indésirable (globalement, pour l’ensemble des


fumeurs, le risque de voir leur espérance de vie diminuer à cause de la cigarette est de x
%) ;
— le fait qu’une décision soit prise dans des conditions où les probabilités sont connues (dé-
cisions sous risques en opposition aux décisions sous incertitudes où les probabilités ne
sont pas connues par exemple : les probabilités liées aux différentes maladies associées au
tabac sont si bien connues que la décision de fumer ou non peut être considérée comme une
décision sous risques).

Dans notre contexte nous nous intéressons au risque financier. La quantification de


ces risques financier passe par la notion de mesure et de probabilité. La fonction quan-
tile est la mesure qui nous permettra de quantifier via la notion de valeur-à-risque la
probabilité de perte financière.
Intéressons nous pour l’instant à ce que l’on appelle portefeuille

1.5.2 Notion de portefeuille financier


Un portefeuille (en finance) désigne une collection d’actifs financiers détenus par un
établissement ou un individu. Cela peut aussi désigner des valeurs mobilières détenues à
titre d’investissements, de dépôts, de provisions ou de garanties. Ces actifs peuvent pro-
venir de différentes classes : actions, obligations, produits dérivés, matières premières,
fonds, cash, etc.

Caractérisations d’un portefeuille

Une caractéristique importante d’un portefeuille est son degré de diversification, qui
permet d’atteindre un juste milieu entre le risque, la volatilité et la rentabilité du porte-

41
feuille, tout en tenant compte de la durée prévue du placement (horizon de temps).
La répartition du portefeuille, tant en types d’actifs qu’en actifs individuels, est un
aspect crucial du placement boursier. Cette répartition va dépendre du degré d’aversion
au risque de l’investisseur.
Le portefeuille est dit équilibré, lorsqu’il prend peu de risques, mais qui peut assurer
un bon rendement à son détenteur (assez bonne diversification, valeurs “ sûres”...).
Un portefeuille dynamique (gestion active) est synonyme davantage de risques pour
son détenteur, mais peut conduire à des gains significatifs (l’investisseur choisit des en-
treprises de secteurs en pleine évolution ou en restructuration).
Un portefeuille dit sécurisé, est la traduction d’une sélection de valeurs représentant
des sociétés peu exposées aux variations cycliques de l’environnement économique.

Actions et obligations

Une action est un titre de propriété délivré par une société de capitaux. Par exemple
une société anonyme ou une société en commandite par actions. Elle confère à son dé-
tenteur la propriété d’une partie du capital, avec les droits qui y sont associés : intervenir
dans la gestion de l’entreprise et en retirer un revenu appelé dividende.
Une obligation est un titre de dette émis par une entreprise ou un état donnant droit
à l’investisseur au versement d’un intérêt annuel (coupon) et au remboursement du titre
à l’échéance. Il existe plusieurs types d’obligations : l’obligation d’état (on parle alors de
dette souveraine), l’obligation d’entreprise (on parle dans ce cas de dette corporatiste) et,
les obligations convertibles, forcément émises par une entreprise, auxquelles sont atta-
chées un droit de conversion qui permet à son propriétaire d’avoir la possibilité d’échan-
ger l’obligation en action de la société émettrice selon une parité de conversion préfixée
et durant une période prédéterminée.
Les actions et les obligations sont toutes deux des placements financiers rémunéra-
teurs. Mais les similitudes s’arrêtent ici, car les rendements, les risques et le statut de
leurs détenteurs sont bien différents. Les obligations représentent des titres de créance
(dette), tandis que les actions sont des titres de propriété (capital).

Titrisation

Selon l’Encyclopédie ”Wikipédia”, la titrisation (securitization en anglais) est une


technique financière qui consiste à transférer à des investisseurs des actifs financiers tels
que des créances (par exemple des factures émises non soldés, ou des prêts en cours), en
transformant ces créances, par le passage à travers une société ad hoc, en titres financiers
émis sur le marché des capitaux . Pour ce faire une banque crée une société spécialement
dédiée à l’achat de ces créances, appelée SPV (Special Purpose Vehicule).
Cette SPV va ensuite se charger d’émettre ces créances sur les marchés, après les avoir
préalablement agglutinées en CDO (Collateralized Debt Obligations).

42
Le principal avantage de la titrisation est qu’elle répartit le risque de défaut de rem-
boursement sur un large ensemble d’acteurs. Le risque devient ainsi “ collatéral”. Cela
permet également aux banques de faire sortir l’ensemble des crédits des portefeuilles
titrisés de ses résultats, et donc d’améliorer ses résultats.

CDO ou ”Collateralized Dept Obligation”

Le terme CDO, est une terme en anglais : ”Collateralized Dept Obligation” en anglais
, qui signifie en français : les tranches d’obligation adossé à des actifs en anglais . Ces
CDO sont généralement constitués de créances d’une même famille. Il s’agit de produits
de crédit structurés, composés d’un portefeuille d’actifs à revenus fixes ou variables. Afin
d’être équilibré, chaque portefeuille est constitué de plusieurs catégories d’obligations,
appelées “tranches” :
— Les « tranches equity » sont les plus risquées. Elles sont généralement achetées par un
hedge fund ou le gérant du CDO. Elles sont les premières à supporter le risque.
— Les « tranches mezzanine » sont intermédiaires. Elles sont généralement achetées par des
gérants d’actifs ou des investisseurs en compte propre.
— Les « tranches senior ou super-senior » sont les moins risquées. Elles sont en général
notées AAA par les agences de notation. Elles sont généralement achetées par des assureurs
monoline (Rehaussement de crédit).

CDS ou “Credit Default Swap”

Les couvertures de défaillance ou dérivés sur événement de crédit ou permutations


de l’impayé , plus connus sous leur nom et abréviation anglais ”credit default swaps”
(CDS). C’est une assurance contre le non-remboursement d’une créance pour cause de
défaillance. En effet, un créancier peut considérer que certains produits financiers sont
suffisamment risqués pour préférer s’assurer contre un éventuel défaut de paiement du
débiteur.
Pour le créancier, le CDS représente avant tout l’assurance de ne pas perdre d’argent.
Toutefois, il a sa contrepartie logique : le coût de cette assurance (appelé “prime”) rogne
une partie de sa plus-value éventuelle.
Pour l’organisme émetteur des CDS, ces produits constituent une rente quasi assurée
en cas d’absence d’événement de crédit.
En revanche, en cas de crise financière majeure, ces produits engagent l’organisme
assureur à compenser les pertes des détenteurs des produits financiers. Ce qui peut se
révéler extrêmement coûteux si de nombreux CDO sont concernés. La figure 1.5.2 issue
du site “Fimarkets” (de M. François Leroux), nous montre les différents acteurs interve-
nant dans la titrisation avec leurs attributions.

43
F IGURE 1.9 – Les principaux intervenants dans la titrisation. La figure est issue du site
“Fimarkets” (de M. François Leroux)

44
La banque crée le SPV qui achète des créances qu’elle détient passivement à son bilan,
et les “repackage” pour en faire des titres qui seront ensuite vendus aux investisseurs.

Dans ce chapitre nous nous sommes donnés les outils nécessaires au développement
de nos travaux. Nous avons dans un premier temps abordé la notion de la dépendance
stochastique en énumérant les mesures de dépendance linéaire (le coefficient de corréla-
tion) et non linéaire (le rhô de Spearman et le tau de Kendall). Il faut noté que la modé-
lisation de la dépendance stochastique entre des variables aléatoires est importante dans
la modélisation de plusieurs domaines d’applications des probabilités. Une caractérisa-
tion des mesure d’association à été donnée après que l’on ait fait le tour sur la notion de
copule. Nous avons également abordé la notion de mesure de risque monétaire qui est
en réalité le contexte dans lequel nous souhaitons appliquer les outils abordés dans les
sections précédentes.

45
Chapitre 2

Modélisation des risques de


portefeuilles financiers

Modéliser le risque de portefeuille c’est mettre en lumière les différentes méthodes ou


protocoles permettant de minimiser les pertes de valeurs de ce portefeuille. L’utilisation
des copules multivariées dans cette modélisation est une approche contemporaine, pour
mettre au point des indicateurs pour l’évaluation de la dépendance entre les différents
actifs de ce portefeuille. Dans ce chapitre nous abordons dans la première section de ma-
nière exhaustive les différentes types de risque qui puisse existé en finance. La deuxième
section et basée intégralement sur la caractérisation des mesures de risque financier.
Le chapitre 2 a fait l’objet de deux publications. La première publication est : Yves
Bernadin Vini Loyara, Dr Remi Guillaume Bagré and Pr Diakarya Barro, (2017) : Multiva-
riate risk modeling for financial portfolio management and climate application. Far East Journal
of Mathematical Sciences (FJMS). La seconde publication est : Yves Bernadin Vini Loyara
and Pr Diakarya Barro, (2018) : Value-at-Risk Modeling with Conditional Copulas in Euclidean
Space Framework. European Journal of Pure and Applied Mathematic (EJPAM).

2.1 Typologie de risques financiers


Il existe plusieurs types de risques dans le domaine financier, qui sont cartographiés
par secteur d’activité ou par domaine. Nous proposons ici différents types de risques en
finance.

2.1.1 Le risque de marché


Il s’agit du risque lié à la chute de la valeur d’un actif, taux de change, prix des ma-
tières premières. Le risque, de marché ou autre, a deux composantes qui doivent exister
toutes les deux pour qu’il y ait effectivement un risque :

46
— une exposition en l’occurrence la détention d’un portefeuille d’instruments finan-
ciers
— une incertitude dans le cas du risque de marché l’incertitude réside dans l’évolu-
tion future de la valeur de marché des instruments détenus. En cas d’évolution
défavorable du marché, l’investisseur est exposé à réaliser une perte au lieu du
bénéfice escompté.

2.1.2 Le risque de contrepartie


Le risque de contrepartie est une expression utilisée dans le domaine bancaire et fi-
nancier faisant référence à un risque auquel s’expose un investisseur. Il se caractérise par
le fait que la personne physique ou morale procédant à un prêt d’argent assume le risque
de défaillance de l’emprunteur. Cette défaillance peut porter sur la totalité ou une partie
de la somme prêtée. Le risque de contrepartie peut résulter d’une mauvaise volonté de
la part du débiteur ou encore d’une incapacité technique de ce dernier de procéder au
remboursement de sa dette.

2.1.3 Le risque de liquidité


C’est le risque sur la facilité à acheter ou à revendre un actif. Si un marché n’est pas
liquide, vous risquez de ne pas trouver d’acheteur quand vous le voulez ou de ne pas
trouver de vendeur quand vous en avez absolument besoin. C’est un risque lié à la nature
du sous-jacent (de la marchandise) mais aussi à la crédibilité de l’acheteur-vendeur.

2.1.4 Le risque opérationnel


Le risque opérationnel pour les établissements financiers (banque et assurance) est
le risque de pertes directes ou indirectes dues à une inadéquation ou à une défaillance
des procédures de l’établissement (analyse ou contrôle absent ou incomplet, procédure
non sécurisée), de son personnel (erreur, malveillance et fraude), des systèmes internes
(panne de l’informatique,...) ou à des risques externes (inondation, incendie,...) ;

2.1.5 Autres risques


Il existe d’autres types de risques dans le monde financier :
— Le risque de taux :
C’est le risque que les taux de crédit évoluent défavorablement. Ainsi, un emprunteur
à taux variable subit un risque de taux lorsque les taux augmentent car il doit payer
plus cher. A l’inverse, un préteur subit un risque lorsque les taux baissent car il perd des
revenus.
— Le risque de base :

47
Ce risque est lié à l’évolution d’un cours sous-jacent par rapport à celui de sa couverture
(put, contrat future). Cette dernière n’étant pas toujours parfaitement adaptée, un écart
entre les prix peut se créer, ce qu’on appelle la base.
— Le risque idiosyncratique :
En gestion de portefeuille, le risque idiosyncratique est le risque lié à une position en
particulier. Plus un portefeuille est concentré, moins il y a de positions, plus ces positions
sont importantes et plus le risque idiosyncratique est élevé.
— Le risque pays :
De manière rigoureuse, le risque pays correspond à la probabilité qu’un pays n’assure
pas le service de sa dette extérieure. D’autre part, si un pays connaît une crise très grave
(guerre, révolution, faillites en cascade, etc.) alors même les entreprises “ de confiance”,
malgré leur crédibilité, vont se retrouver en difficulté. C’est un risque de contrepartie lié
à l’environnement de la contrepartie.
— Le risque météo :
C’est le risque de perte potentielle de chiffre d’affaires ou de profit dû aux variations de
la météorologie. Il concerne les quatre grandes familles climatiques que sont la tempé-
rature, les précipitations, l’ensoleillement et le vent. Le risque météorologie ne concerne
que les variations ordinaires de la météo. Il s’agit de l’impact potentiel sur la performance
d’une entreprise, d’une anomalie météo, c’est-à-dire de la fluctuation autour de sa valeur
moyenne. En météorologie, la moyenne (appelée aussi la normale) est en général calculée
sur 30 ans.
— Le risque de change :
C’est le risque sur les variations des cours des monnaies entre elles. Risque sensiblement
lié au facteur temps ;

2.2 Mesures de risque en finance


Les mesures de risques sont des outils de quantification de risque. Elles permettent
d’évaluer le niveau de dangerosité d’un risque mais également de comparer les différents
risques entre eux et de les classer (selon le niveau de dangerosité).

2.2.1 Quelques définitions


Définition 2.2.1. (Modèle financier ou espace probabilisé)

On appelle modèle financier un espace probabilisé (Ω, A, P) où Ω est l’ensemble des prix, des
valeurs, ou encore des rendements possibles d’un ou des plusieurs produits financiers ; A est une
tribu 1 de Ω et P : A → [0, 1] est une mesure de probabilité.
1. Une tribu ou σ − algebre sur Ω est une famille de parties de Ω, contenant l’ensemble vide, stable par passage
au complémentaire, union dénombrable et intersection dénombrable.

48
Définition 2.2.2. (Facteur de risque)
Soit (Ω, A, P) un modèle financier. On appelle facteur de risque toute v.a A − mesurable à
valeurs réelles.

Les mesures de risque sont des outils mathématiques permettant de quantifier le


risque dans l’optique d’améliorer la performance du système de marchés financiers.
Nous essayerons de définir la mesure de risque et rappeler les propriétés que cette der-
nière doit vérifier pour qu’elle soit jugée satisfaisante.

Définition 2.2.3. (Mesure de risque)


On appelle mesure de risque toute fonction

R : (Ω, A, P) → R

vérifiant les propriétés intéressantes suivantes. Si X et Y sont deux v.a définies sur l’espace pro-
babilisé (Ω, A, P) ;

— monotonie (croissance) : X ≤ Y ⇒ R(Y ) ≤ R( X )


— invariance par translation : R( X + α) = R( X ) + α .

2.2.2 Propriétés axiomatiques des mesures de risques financiers


Avant de revenir sur la notion de mesure de risque, nous allons d’abord définir la
notion d’espace mesurable (espace probabilisé). Considérons l’espace mesurable (Ω, F ),
pour deux risques quelconques X et Y de F et ρ : Ω −→ Ω les propriétés suivantes
peuvent être formulées.

Invariance par translation

Une application ρ est invariante par translation si pour toute variable X, on a :ρ ( X + c) =


ρ ( X ) + c, pour tous c. Si on ajoute (respectivement on retranche) un montant certain c au
résultat d’un centre de profit, le besoin en capital décroît (respectivement augmente) du
même montant.

Sous additivité

Une application ρ est dite sous additive si et seulement si pour toutes variables aléa-
toire X et Y : ρ ( X + Y ) ≤ ρ ( X ) + ρ (Y ) . La mesure du risque de la somme de deux
portefeuilles ne doit pas être supérieure à la somme des mesures de risque des porte-
feuilles.
Si cette propriété n’était pas respectée, une société ne respectant pas un certain niveau
requis de capital pourrait être incitée à se scinder artificiellement en deux entités afin de
réduire son besoin en capital.

49
Homogénéité positive

L’homogénéité positive pour une application ρ signifie que pour toute variable X :
ρ (λX ) ≤ λρ ( X ) , λ ≥ 0. De même qu’une fusion ne crée pas de risque supplémentaire,
une fusion sans diversification ne réduit pas le besoin global en capital.

Monotonie

Une application ρ est croissante si pour toutes variables X et Y on a : X ≤ Y =⇒


ρ ( X ) ≤ ρ (Y ) . Si un portefeuille a une valeur plus grande dans tous les états de marché,
sa mesure de risque ne doit pas être plus grande. Si les pertes encourues avec le risque X
sont supérieures à celles obtenues avec Y, le besoin en capital pour X doit être supérieur
à celui de Y.

Propriété de borne supérieure

Pour tout risque X, on établit que : ρ ( X ) ≤ max (− X ). Le besoin en capital est borné
par la perte maximale possible.

Conservatisme

Elle est définie par Artzner et al. (1999) [2] notamment pour la détermination du be-
soin en capital, et conduit à ne prendre en compte que les valeurs négatives de X, tradui-
sant ainsi une forte aversion au risque : ρ ( X ) = ρ ( X − ) o ù X − = min ( X, 0) .

Convexité

L’application ρ est une mesure de risque convexe si pour tout variable aléatoire X et Y
et pour λ ∈ [0, 1] nous avons : ρ (λX + (1 − λ) Y ) ≤ λρ ( X ) + (1 − λ) ρ (Y ) . La définition
de mesure convexe de risque est analogue à celle d’une fonction d’utilité. C’est une des
raisons pour laquelle le sujet s’est développé aussi rapidement, plusieurs énoncés étant
duaux à ceux de la théorie de l’utilité.

2.2.3 Autres propriétés des mesures de risques


Il existe d’autres propriétés qui ne sont pas présentées car elles sont plus spécifiques
au calcul du changement de la cotisation.
D’autre propriétés pourraient également être souhaitées pour une mesure de risque :
1. si X ≤ xmax , alors ρ ( X ) ≤ xmax ce qui signifie que la mesure d’un risque ne peut
dépasser le montant maximal d’un sinistre dû à ce risque.
2. ρ ( X ) ≥ E ( X ) ce qui veut dire que la mesure d’un risque doit être plus grande
que son espérance.

50
3. ρ (c) = c pour c scalaire, ce qui signifie que la mesure d’un montant certain est ce
montant lui même.
Nous nous intéressons maintenant à différentes propriétés que doit vérifier une mesure
pour qu’elle puisse être classée mesure de risque monétaire.

Mesure de risque monétaire

On dit que ρ est une mesure de risque monétaire :


— Si ρ est croissante
— Si est invariante par translation.
Si ρ est une mesure de risque monétaire positivement homogène, alors elle est convexe
si et seulement si elle est sous-additive. Une mesure de risque monétaire convexe positi-
vement homogène est dite cohérente.

Positions acceptables

Soit X un espace gaussien 2 . Une position X n’est pas acceptable si ρ ( X ) > 0. Consi-
dérons Aρ = { X ∈ X /ρ ( X ) ≤ 0}.
Nous abordons par la suite, quelques propriétés sur les mesures de risque monétaire.
Soit ρ une mesure de risque monétaire. Nous avons :
1. Aρ 6= O/ ; sup {m ∈ R/m ∈ Aρ} < ∞ ; si X ∈ Aρ alors Y ≤ X implique Y ∈ Aρ .

2. λ ∈ [0, 1]; λX + (1 − λ) Y ∈ Aρ est un fermé de [0, 1] (éventuellement vide).
3. ρ( X ) = in f m ∈ R/X − m ∈ Aρ (ρ( X ) est le plus petit capital m tel que X − m


soit acceptable).
4. ρ convexe implique Aρ convexe.
5. ρ positivement homogène implique Aρ est un cône positif.
6. ρ cohérente implique Aρ est un cône positif convexe.
Pour la démonstration des propriétés précédente nous vous référons à Walid J. [48].
Nous pouvons aussi redéfinir la notion de mesure de risque à partir d’un ensemble
de positions acceptables. Soit A ⊂ X . On pose pour X ∈ X :

ρA ( X ) = in f {m ∈ R/X − m ∈ A} .

Nous avons utilisé ces notions pour vérifier si les différentes mesures de risque que
nous utilisons sont bien des mesures de risque cohérentes ou des déviations. Cela nous
a permis par la suite d’introduire les notion de “pseudo-convexité” sur les mesures de
risque.
2. i.e. pour tout n ≥ 1, X1 , ..., Xn ∈ X , alors ( X1 , ..., Xn ) est un vecteur gaussien.

51
Soit (Ω, F ) un espace mesurable. Soit X une fonction mesurable à valeurs réelles
définie sur Ω. Pour un scénario ω ∈ Ω, la position X (ω ) s’interprète comme une perte
(si X (ω ) < 0 alors − X (ω ) s’interprète comme un gain).

Mesure de risque cohérente

Dans une étude unidimensionnelle, Rockafellar [35] établit qu’une mesure de risque
cohérente R : L2 −→ ]−∞, ∞] satisfait aux propriétés suivantes :
1. R1 : R ( a) = a , pour toute constante a.
2. R2 : R ((1 − λ) X + λY ) ≤ (1 − λ) R ( X ) + λR (Y ) avec λ ∈ ]0, 1[ (convexité).
Cette propriété traduit la notion de diversification : le risque sur un portefeuille
est plus faible que la somme des risques individuels.
3. R3 : R ( X ) ≤ R (Y ) quand X ≤ Y (monotonie). Si la probabilité de perte sur un
portefeuille est toujours supérieure à celle d’un deuxième alors leurs mesures de
risque varient dans le même sens.
4. R4 : R ( X ) ≤ 0 quand X k − X 2 −→ 0 avec R X k ≤ 0 (Borné).


Une fonction R : L2 −→ ]−∞, ∞] est dite mesure de risque cohérente au sens


basique si elle vérifie les axiomes R1 , R2 ,R3 et R4 et les axiomes additionnels.
5. R5 : R (λX ) = λR ( X ) pour λ > 0 (homogénéité positive) : le risque augmente si
la taille du portefeuille augmente.
6. L’aversion a l’interprétation que le risque de perte dans une variable aléatoire X
non constante ne peut pas être acceptable ;
i.eR ( X ) < 0 , sauf si E [ X ] < 0.
7. Une fonction R : L2 −→ ]−∞, ∞] est dite mesure de risque averse dans le sens
basique s’il satisfait les axiomes R1 , R2 et R4 .
8. R6 : R ( X ) > E [ X ] pour toute variable X (aversion)

Une fonction R : L2 −→ ]−∞, ∞] est dite mesure de risque au sens large si elle
satisfait les axiomes R1 , R2 ,R4 , R5 et aussi R6 .

Mesure de déviation

Une fonction D : L2 −→ [0, ∞] est appelée mesure de déviation au sens basique si


elle vérifie les conditions suivantes :
1. D1 : D (C ) = 0 pour toute constante C, mais D ( X ) > 0 pour une variable non
constante X ;
2. D2 : D ((1 − λ) X + λY ) ≤ (1 − λ) D ( X ) + λD (Y ) pour tout λ ∈ ]0, 1[ (convexité) ;
3. D3 : D ( X ) ≤ d quand X k − X 2 −→ 0 avec D X k ≤ d (Borné).


52
4. Une fonction est dite mesure de déviation au sens basique si elle vérifie les condi-
tion D1 , D2 , D3 et de plus.
5. D4 : D (λX ) = λD ( X ) for λ > 0 ( homogénéité positive)
Une mesure de déviation au sens large ou basique est dite une mesure cohérente
au sens large ou basique si elle satisfait de plus.
6. D5 : D ( X ) ≤ supX − E [ X ] pour toute variable X (limite supérieure).
Les axiomes D1 , D2 , D3 , D4 sont vérifiées mais pas D5 . En d’autres termes, l’écart type
n’est pas une mesure d’écart cohérente.

2.2.4 Métriques couramment utilisées dans l’analyse du risque


Étant donné une distribution de valeurs simulées pour les profits et pertes (PP ) d’un
instrument ou un ensemble d’instruments constituant un portefeuille, on cherche à esti-
mer le niveau de perte qui ne devrait pas être dépassé dans plus de (100 − x )% des cas.
La forme de la distribution des PP est presque toujours inconnue. On peut séparer les
techniques d’estimation en 2 classes : Paramétrique et non paramétrique.

Métriques paramétrique

a) Expansion de Edgeworth

Pour pouvoir donner l’expression de la fonction que l’on cherche à approximer à


l’aide d’expansion d’Edgeworth nous devons d’abord définir le polynôme d’Hermite Hn
sous sa forme probabiliste qui est donné par :

− x2 /2
n x2 /2 de
Hn ( x ) = (−1) e . (2.1)
dx n

En suite nous avons l’expression de la fonction à approximer :

γH2 ( x ) (τ − 3) H3 ( x ) γ2 H5 ( x )
 
Φ (x) = F (x) − f (x) √ + + (2.2)
6 n 24n 72n
avec F la fonction de distribution de la loi normale, f la fonction de densité de la loi
normale, γ le moments d’ordre 3 et τ le moments d’ordre 4 de la variable X.

b) Expansion Cornish-Fisher

L’expression de la fonction de distribution que l’on cherche à estimer est :

τ − 3  −1 γ2
 2   3    3 
γ  −1
Φ − ( x ) = F −1 ( x ) + F (x) − 1 + F ( x ) − 3F −1 ( x ) + 2 F −1 ( x ) − 5F −1 ( x )
6 24 36

53
avec F la fonction de distribution de la loi normale, γ le moments d’ordre 3 et τ le
moments d’ordre 4. C’est une forme analytique fermée pour l’estimateur du quantiles.
La VaR peut être calculée directement.

Métriques non-paramétrique

a) Quantile

Les quantiles sont des mesures de position qui ne tentent pas nécessairement de dé-
terminer le centre d’une distribution d’observations, mais de décrire une position parti-
culière. Pour tout α entre 0 et 1, le quantile α de la distribution d’une variable aléatoire
continue X est un nombre réel xα tel que

P [ X < xα ] = α.

Si nous connaissons la fonction de distribution F ( x ) de X, le quantile correspondant à


une valeur donnée de α peut être calculé comme xα = F −1 (α).

b) Estimateur Harell-Davis (HD)

C’est un estimation non-paramétrique de quantiles à partir d’une population de taille


n. La VaR HD (1 − p)% correspond à l’espérance de la statistique d’ordre de rang (n + 1) p
de la distribution des valeurs simulées de P&L, X(n+1) p

n
VaR − HD (n, p) = ∑ Wi ( p, n) Xi
i =1

Xi = P&L simulés et triés du pire au meilleur cas. Les poids Wi donnés par :

Wi ( p, n) = I i ( p(n + 1), (1−p)(n + 1))−I i−1 ( p(n + 1), (1−p)(n + 1)) (2.3)
n n

où Ix ( a, b) est la fonction incomplète de Bêta régularisé :


ˆ x
t a−1 (1 − t)b−1 dt
0
Ix ( a, b) = ˆ 1
(2.4)
t a−1 (1 − t)b−1 dt
0

2.3 Méthodes de calcul et d’approximation de la valeur à


risque
Il existe plusieurs méthodes de calcul de la VaR. Les données à partir desquelles on
calcule une valeur-à-risque peuvent prendre différentes formes (Dowd, 2005). Rappelons

54
que la valeur-à-risque se définit comme un fractile de la distribution de pertes et profits
associée à la détention d’un actif ou d’un portefeuille d’actifs sur une période donnée.
Dès lors, la forme la plus simple consiste à présenter les données en termes de profits et
pertes. Ici nous aborderons les principales méthodes qui sont connues et plus ou moins
utilisées selon le contexte.

2.3.1 Méthode variance-covariance


La méthode de variance covariance ou méthode analytique suppose que le rendement
des facteurs de risque suit une distribution normale : il est donc suffisant d’estimer leurs
moyenne et matrice de variance-covariance sur l’horizon de base désiré. L’estimation de
la VaR est alors donnée par l’espérance
 
VaRα = Φ−
S
1
1 − β, µ P,α , σ̃ 2
P,α ,

où Φs est la fonction de densité normale standard, σ̃P,t la volatilité estimée de rende-


ment du portefeuille pour une période de t journées. Plus on se réfère à l’hypothèse
d’indépendance des rendements des divers titres du portefeuille, il est possible d’écrire

σ̃P,α = σ̃P,1 α. Le seul terme inconnu dans l’équation demeure la variance quotidienne
des rendements du portefeuille, qui en raison de l’hypothèse de normalité, s’obtient faci-
2 = w T ˜ w où w est le vecteur des poids relatif des actifs du portefeuille
lement selon ; σ̃P,1 ∑
en devise de référence. La mesure finale de la VaR relative peut s’obtenir selon la mé-
thode incorporant les estimés de corrélation défini par Murray (1999) :
r h i
VaRα = ζ 1− β α σ̂p2 f + σ̂ind
2 − 2cov ( p f , ind ) . (2.5)

´∞
La valeur de ζ résout l’équation ζ Φs (u) du = ζ .

2.3.2 Delta Approximation de Taylor


Pour un portefeuille d’options sur un seuil sous-jacent, l’approximation de Taylor du
premier ordre sur la perte et profit PP actualisé du portefeuille est

n
PP ' ∑ δi$ Ri = δ$0 R; (2.6)
i =1
 
où δ$ = δ$1 , ..., δ$n
est le vecteur des deltas de position nette et R = ( R1 , ..., Rn ) est
le rendement actualisé du sous-jacent. Il s’agit simplement d’une cartographie linéaire
basée sur les rendements des facteurs de risque. Le tableau suivant nous renseigne sur les
différentes expressions de la VaR selon que l’on suppose que la distribution est normale
multivariée ou multivariée de Student t.

55
Distributions Densités VaRα
h i
exp − 12 x ∑h x T q
Normale Φ∑ ( x )= Φ−

1
(1 − α ) δ$0 ∑h δ$
(2π )d/2 det (∑h )1/2
− v+d
x ∑h x T
  2
v+d
Γ 1+ 
2 v q
t −1 (1 − α ) δ$0 ∑h δ$
p
Student f v,∑ ( x )= v q ν −1 ( ν − 1 )
Γ (πv)d det (∑h )
2

TABLE 2.1 – Approximation Taylor des distributions normales et de Student

où ∑h est la matrice de covariance de h jour des rendements actualisés sur l’actif sous-
jacent.

2.3.3 Méthode paramétrique ou analytique


L’estimation de la VaR par la méthode paramétrique (Variance-covariance) repose sur
l’hypothèse que les rendements de facteurs de risque suivent une distribution normale.
Nous considérons que la valeur d’un portefeuille est représentée par la combinaisons
linéaire de N facteurs gaussiens. Cette approche consiste à représenter la distribution
des profits et des pertes potentielles selon une fonction de densité d’une loi normale.
Notons P(t) la valeur d’un portefeuille linéaire à l’instant t composée de N actifs θ =
(θ1 , · · · , θ N ) ; elle est donnée par :

N
P(t) = ∑ θ i p i ( t ), (2.7)
i =1

où Pi (t) est le prix de l’actif i à la date t. Nous supposons que les facteurs de risque
sont des rendements des actifs ; la valeur p(t + 1) de portefeuille à l’instant t+1 est une
variable aléatoire.
la variation PP du prix de portefeuille entre les dates t et t+1 est donc donnée par :

N
P ∝ L = P ( t + 1) − P ( t ) = ∑ θi Pi (t)ri (t + 1) = θ ? (t)T r(t + 1) (2.8)
i =1

où r (t + 1) est un vecteur aléatoire des rendements (r1 (t + 1), · · · , rn (t + 1)) et θ ? (t)


est le vecteur dont la i-émie composante est θi Pi (t). On a : r (t + 1) ∼ N (µ; Σ). Nous en
déduisons que P ∝ L est une variable aléatoire de fonction de distribution F, de moyenne
θ ? µ et de variance θ ?T Σθ ? .
La valeur en risque au seuil α correspond alors à :

P[ P(t + 1) − P(t) ≥ −VaR(α)] = α. (2.9)

56
Nous obtenons donc
q
−1
VaR(α) = F (α) θ ?T Σθ ? (t) − θ ?T (t)µ

soit v
uN N N
VaR(α) = F (α)t ∑
−1
∑ θi θ j ρi,j σi σj Pi Pj − ∑ θi Pi µi
u
(2.10)
i =1 j =1 i =1

Cette expression est fonction des rendements moyens, des volatilités et des corrélations.
Il faut enfin souligner que cette méthode se base sur trois hypothèses essentielles dont la
normalité des rendements, la linéarité de la relation entre les prix des actifs et les facteurs
de risque et l’indépendance temporelle des variations de valeur de portefeuille.

2.3.4 Méthode de simulation historique


Contrairement à la méthode analytique, cette méthode n’impose aucune condition
sur la distribution jointe de facteurs. La VaR historique est entièrement basée sur les
variations historiques des facteurs de risque F(t). Supposons que nous disposions d’un
historique de N observations des rendements. En T0 , nous pouvons valoriser le porte-
feuille sur la base des changements des prix survenus les N derniers jours. Cela veut dire
que nous calculions pour chaque temps T = { T0 − 1, · · · , T0 − N } une valeur potentielle
du portefeuille.

Nous pouvons alors déterminer les variations potentielles, que nous assimilons à N
pertes potentielles ( certaines pertes sont en fait des gains). Ainsi, nous pouvons construire
une distribution empirique à partir de l’historique des variations quotidiennes des fac-
teurs de risque sur une période de temps donnée de laquelle on peut extraire le quantile
à α%. Cela revient à ranger les N pertes potentielles et prendre la valeur absolue de la
N × (1 − α)-ième plus petite valeur. Lorsque N × (1 − α) n’est pas entier on calcule VaR
par interpolation.

Cette méthode est très utilisée due au fait qu’elle est simple conceptuellement et facile
à être implémenter. Mais elle présente un risque lié à la taille des observations. Si celui-
ci est trop petit, on s’expose à un risque lié à l’insuffisance de données pour estimer
correctement le quantile à 99% ; la variance de l’ estimateur sera très grande. Par contre
si la taille est très élevée, dans ce cas on s’expose au risque que la distribution de facteurs
change induisant ainsi un risque sur l’estimation de quantile.

57
2.3.5 Estimation des bornes de la VaR par la copule
Dans l’optique de prendre en considération la VaR agrégeant plusieurs sources de
risques c’est-à-dire sur une position où le calcul fait appel au concept de la distribution
multidimensionnelle et compte tenu de la difficulté liée à la détermination d’une ap-
proche analytique permettant d’estimer la VaR sur cette position de manière générale.
Les chercheurs ont tenté de définir les bornes à l’intérieur desquelles la VaR agrégée
se situe. Particulièrement pour la somme de deux risques. Nous avons entre autres le
théorème de Makarov. Nous supposons que nous ne connaissons pas la structure de dé-
pendance du modèle.

Théorème 2.3.1. (PIERRE BOUVIER (2010))


Soient deux v.a X et Y de distributions FX et FY respectivement.
— Pour tout z ∈ R, on a :

P[ X + Y ≤ z] ≥ sup C − ( FX ( x ), FY (y)) := Ψ(z). (2.11)


x +y=z

— Soit Ψ−1 (α) = inf{z/Ψ(z) ≥ α}, α ∈ (0, 1) l’inverse généralisé de Ψ. Alors

Ψ −1 ( α ) = inf { FX−1 (u) + FY−1 (v)}. (2.12)


M(u,v)=α

— La plus grande borne supérieure pour la VaR est

VaR[ X + Y; α] ≤ Ψ−1 (α). (2.13)

Il faut remarquer que dans le cas où X et Y sont obtenues l’une de l’autre par une
transformation monotone, on a :

VaR[ X + Y; α] = VaR[ X; α] + VaR[Y; α]. (2.14)

Mais il existe des cas où VaR[ X + Y; α] est beaucoup plus grande que la somme des
quantiles uni-variés VaR[ X; α] + VaR[Y; α]. Cela s’explique par le fait que VaR n’est pas
sous-additive.

Définition 2.3.1. On définit la zone de défaillance multivariée par :

1
{( x1 , · · · , x N ) ∈ R N /u1 = F1 ( x1 ), · · · , u N = FN ( x N ), C̄(u1 , · · · , u N ) < } (2.15)
t


N
C̄(u1 , · · · , u N ) = ∑ [(−1)n ∑ C(u)] (2.16)
n =0 u∈Z ( N −n,N )

et Z ( N − n, N ) représente l’ensemble {u ∈ [0, 1] N / ∑nN=1 x{1} (un ) = M}. En effet, en dimen-

58
sion 2 nous avons :

C̄(u1 , u2 ) = C(1, 1) − C(u1 , 1) − C(1, u2 ) + C(u1 , u2 ) = 1 − u1 − u2 + C(u1 , u2 ).

L’évaluation et la construction des scenarii de crise multidimensionnels s’avèrent très


délicats car la zone de défaillance fournit un ensemble dans l’espace R N . L’intérêt des
copules est de quantifier les scenarii économiques et de comprendre leur cohérence c’est-
à-dire de déceler les incohérences du scénario. Cette approche se fait alors par le biais du
temps de retour implicite défini par : pour un vecteur ( x1 , · · · , x N ) ;

t( x1 , · · · , x N ) = C̄−1 ( F1 ( x1 ), · · · , FN ( x N )). (2.17)

2.4 Analyse de la valeur à risque


En sciences actuarielles et financières, la VaR quantifie numériquement la taille de la
perte pour laquelle il existe une faible probabilité de dépassement.

2.4.1 Présentation et définition de la VaR unidimensionnelle


La notion de value-at-risk (VaR ) est apparue pour la première fois dans le secteur
de l’assurance. A la fin des années 1980, la banque Bankers Trust fut l’une des premières
institutions à utiliser cette notion sur les marchés financiers aux États-Unis, mais c’est
principalement la banque JP Morgan qui dans les années 90, a popularisé ce concept
notamment grâce à son système RiskMetrics. Elle exprime donc la perte potentielle qui
peut survenir à la suite de mouvements adverses de prix des actions, mathématiquement
la VaR est considérée comme étant la distribution des gains et des pertes pour un niveau
de confiance donné. La VaR synthétise en une seule mesure une vision sur le risque global
et permet de déterminer le capital (avoir propre) minimale qu’il faut maintenir pour ne
pas exposer son entreprise à la faillite.
Pour mieux cerner le concept de la VaR, il nous est logique de spécifier trois para-
mètres très importants pour l’interprétation du chiffre de la VaR.

Le niveau de confiance

Il s’agit d’un paramètre compris entre 0 et 1 (en général 95% ou 99%) qui correspond
à la probabilité d’observer une perte de portefeuille ou de l’actif inférieure ou égale à la
VaR. Il intervient pour distinguer le niveau acceptable de niveau inacceptable de risque.
Plus le niveau de confiance est élevé, plus la VaR est importante. L’augmentation de
niveau de confiance diminue le nombre d’occurrences au-delà de la VaR, ce qui est un
inconvénient pour la mesure.

59
Horizon temporel choisi ou période de détention

Ce paramètre est fondamental tout comme le niveau de confiance car plus cet horizon
est long plus les pertes peuvent être importantes. Il correspond à la période sur laquelle
la variation de valeur du portefeuille est mesuré. D’une manière général, aucune règle
impose le choix de cette période de détention car ceci dépend de la nature des instru-
ments dans le portefeuille, de l’objectif de la modélisation, des besoins spécifiques des
sociétés et de l’horizon de gestion.

La distribution des profits et des pertes

Cette distribution a souvent été considérée comme étant gaussienne or les données
des profits et des pertes à partir desquelles on calcule la VaR sont généralement expri-
mées sous forme de rendements qui par ailleurs dans la réalité du marché les distribu-
tions de rendements ne sont généralement pas normales. En effet, l’asymétrie de données
doit aussi être pris en compte.

Définition 2.4.1. La VaR d’une variable aléatoire X de fonction de répartition FX sur un horizon
donné T et pour un niveau de confiance α ∈ [0, 1] est définit par :

VaR( X; α) = − inf{ x ∈ R/FX ( x ) > 1 − α} (2.18)

correspondant au capital minimal pour éviter d’être en ruine avec une probabilité 1 − α. De ma-
nière similaire nous avons :

VaR( X; α) = inf{ x ∈ R/FX ( x ) > α} (2.19)

Ceci peut être représenté en fonction de la quantile FX−1 nous avons par suite :

VaR( X; α) = − FX−1 (1 − α) = FX−1 (α) (2.20)

Où FX est une fonction continue et strictement croissante.


La VaR est stable par transformation croissante (non linéaire) : quels que soient le
niveau de probabilité α ∈ [0, 1] et la fonction croissante et continue h on a

VaR[h( X ); α] = h(VaR[ X; α]) (2.21)

De manière général nous avons la proposition suivante

Proposition 2.4.1. (Charpentier(2009))


Pour tout niveau de probabilité α ∈ [0, 1]
— Si h est une fonction strictement croissante et continue à gauche, alors on a :

VaR[h( X ); α] = Fh−(1X ) (α) = h( FX−1 (α)) = h(VaR[ X; α]) (2.22)

60
— de la même manière si h est une fonction strictement décroissante, continue à droite et si
FX est bijective on a :

VaR[h( X ); α] = Fh−(1X ) (α) = h( FX−1 (1 − α)) = h(VaR[ X; 1 − α] (2.23)

2.5 Propriétés de Pseudo-convexité de la valeur à risque


conditionnelle
Parmi les raisons qui justifient l’intérêt des praticiens pour la VaR, il existe des pro-
priétés mathématiques : la stabilité de l’estimation statistique, la simplicité des procé-
dures d’optimisation et l’exhaustivité. Cependant, la VaR présente certains inconvénients
en ne satisfaisant pas à une propriété clé des risques métriques : l’additivité. En effet,
pour un niveau de confiance fixe, le calcul de la VaR ne fournit pas d’informations sur
l’ampleur des pertes supérieures au niveau de la VaR. Afin de surmonter ces lacunes
des risques, les gestionnaires ont introduit d’autres risques dérivés par la suite : la VaR
conditionnelle (CVaR), la VaR (TVaR) la VaR, etc. Dans cette section nous convergeons
nos effort sur des propriétés de la varleur-à-risque et de ses valeurs dérivée.

2.5.1 La Valeur à risque conditionnelle


Une autre mesure de risque est la valeur à risque conditionnelle (CVaR). Pour une
variable aléatoire continue, la CVaRα ( X ) est égal à l’attente conditionnelle de X tel que
X ≥ VaRα ( X ). Soit X une variable aléatoire avec pour fonction de répartition FX modé-
lisant le comportement stochastique soit de perte, soit de gain. Alors CVaR qui est aussi
le déficit attendu est donné par
ˆ
FX (z) − α
CVARα ( X ) = zFXα (z) dz avec FXα (z) = , o ù z ≥ VaRα .
R 1−α

FX étant la distribution de queue α généralisée.


La CVaR a des propriétés mathématiques meilleures que celle de la VaR, de sorte que
la gestion des risques avec les fonctions CVaR peut être effectuée de manière très efficace.
Pour un niveau de confiance donné α ∈ ]0, 1[, Rockafellar [23] a caractérisé la CVaR par :

E [ X − a]+
 
CVARα ( X ) = E [ X/X ≥ VaRα ( X )] = in f a+ ;a ∈ R , (2.24)
1−α

où u+ = max (u, 0). En outre, Sergy [24] a défini, en variant, la combinaison convexe

CVaRα ( X ) = λα ( X ) VaRα ( X ) + (1 − λα ( X )) CVaR+


α (X) , (2.25)

61
où CVaR+
α vérifie la relation :

CVaR+
α ( X ) = {CVaRα ( X ) /X > VaRα ( X )} ,

FX (VaRα ( X ))−α
avec λα ( X ) = 1− α . Nous proposons le résultat suivant.

Proposition 2.5.1. La CVaR est une mesure de risque cohérente au sens basique. En outre, pour
un niveau de confiance donné α ∈ ]0, 1[, il existe une fonction risquée Q X telle que la combinaison
pseudo convexe suivante est satisfaite :

(1 − α) Q X (α) + αQ X (1 − α) = 0 (2.26)

Démonstration. La cohérence de la CVaR a déjà été prouvée par Rockafellar [23]. Mais ici,
nous proposons une autre approche de la démonstration afin de prouver (2.26).
R1 ) Trivialement nous avons, pour toute constante C, CVaRα (C ) = C
R2 ) Convexité : Pour toutes variables X et Y, on a :
ˆ α
CVaRα ((1 − λ) X + λY ) = VaR β ((1 − λ) X + λY ) dβ
0

Par suite, il vient que ;


ˆ α ˆ α ˆ α ˆ α ˆ α
VaR β ((1 − λ) X + λY ) dβ ≤ VaR β ((1 − λ) X ) dβ + VaR β (λY ) dβ = (1 − λ) VaR β ( X ) dβ + λ VaR β (Y ) dβ
0 0 0 0 0

si bien que :
ˆ α
VaR β ((1 − λ) X + λY ) dβ ≤ (1 − λ) CVaRα ( X ) + λCVaRα (Y ) .
0

R3 ) Monotonie :
X ≤ Y ⇒ VaR β ( X ) ≤ VaR β (Y )

il vient que : ˆ ˆ
α α
VaR β ( X ) dβ ≤ VaR β (Y ) dβ
0 0
ce qui nous conduit à :

X ≤ Y ⇒ CVaRα ( X ) ≤ CVaRα (Y )

R4 ) (Bornitude) : Pour toute variable aléatoire X et k ∈ N∗ , on a :


 
CVaRα ( X ) = CVaRα X − X k + X k .

Soit    
CVaRα ( X ) ≤ CVaRα X − X k + CVaRα X k .

62
Par ailleurs, comme CVaRα X k ≤ 0 alors


 
CVaRα ( X ) ≤ CVaRα X − X k .

De plus en considérant X k − X 2
−→ 0, nous obtenons :
   
CVaRα ( X ) ≤ CVaRα X − X k ≤ CVaRα X k − X −→ 0
2


CVaRα ( X ) ≤ 0.

R5 ) Homogénéité positive avec λ > 0


´α
CVaRα (λX ) = 0 VaR β (λX ) dβ

´α
= λ 0 VaR β ( X ) dβ

soit
CVaRα (λX ) = λCVaRα ( X ) .

Ainsi, la CVaRα est une mesure de risque et une mesure de déviation au sens basique
. De plus nous avons :



 E [X] = −αCVaR1−α (− X ) + (1 − α) CVaRα ( X )



 E [− X ] = −αCVaR
1−α ( X ) + (1 − α ) CVaRα (− X )

alors, on obtient

−αCVaR1−α (− X ) + (1 − α) CVaRα ( X ) = αCVaR1−α ( X ) − (1 − α) CVaRα (− X ) .

aussi, si nous posons Q X (α) = CVaR−α (− X ), nous obtenons (2.26) .

2.5.2 Relation entre la mesures dérivées de la valeur à risque


Pour un niveau de confiance α donné, la TVaR de X est la fonction telle que

ˆ 1
" ˆ 1 #
1 1
TVaRα ( X ) = VaRα ( X, ξ ) dξ = E [X] − VaRα ( X, ξ ) dξ . (2.27)
1−α α 1−α α

63
La XTVAR est le montant moyen de la ruine au-delà de la VaR :

XTVaRα ( X ) = E [− X − VaRα ( X ) /X < −VaRα ( X )]

Cette mesure de risque, aussi appelée “Mean Excess Loss” peut être obtenu comme la
différence entre la TVaR(CVaR) et VaR :

XTVaRα ( X ) = TVaRα ( X ) − VaRα ( X ) .

Proposition 2.5.2. La CVaRα est une combinaison pseudo-convexe de la VaR, de la TVaR et de


la XTVaR.

Démonstration. Le XTVaR étant la somme de deux mesures de risque cohérente et un


écart pour le sens de base, alors XTVaR est une mesure de risque cohérente et un écart
pour le sens de base montrant qu’il ne vérifie pas la propriété sous l’additivité

XTVaRα ( X ) = TVaRα ( X ) − VaRα ( X ) . (2.28)

Alors il vient que

XTVaRα ( X ) = TVaRα ( X ) − VaRα ( X )

1
= 1− α [CVaR1 ( X ) − CVaRα ( X )] − VaRα ( X )

1
= 1− α [CVaR1 ( X ) − αAVaRα ( X )] − VaRα ( X )

1
XTVaRα = 1− α [CVaR1 ( X ) − αAVaRα ( X ) − (1 − α) VaRα ( X )] .

Ainsi, nous obtenons une relation entre ; XTVaR, CVaR, AVaR et VaR ;

(1 − α) XTVaRα ( X ) + αAVaRα ( X ) + (1 − α) VaRα ( X ) − CVaR1 ( X ) = 0 (2.29)

d’où le résultat

CVaR1 ( X ) = (1 − α) XTVaRα ( X ) + αAVaRα ( X ) + (1 − α) VaRα ( X )

64
2.6 Écart-type empirique et hauts risques géométriques
La sous section 2.6.1 est consacrée à la démonstration de la proposition 2.6.1 . Dans
la sous section 2.6.2 nous convergeons nos efforts sur le thème du risque géométrique de
haut niveau et certaines de ses propriétés.

2.6.1 Propriétés de l’écart type empirique


Une mesure d’écart au sens étendu ou basique est dite mesure cohérente au sens
étendu ou de base si elle satisfait en outre D5 : D ( X ) ≥ supX − E [ X ] pour tout X.

Proposition 2.6.1. L’écart-type σ( X ) d’une variable X incertaine donnée est une mesure d’écart
au sens étendu.

Démonstration. Soit X une variable aléatoire, par définition, on a :


 1/2
σ ( X ) = E [ X − E [ X ]]2 . (2.30)

D1 ) Soit C ∈ R σ (C ) = 0
D2 ) convexité : soient X et Y des vecteurs i.i.d et λ ∈ [0, 1]
 1/2
2
σ ((1 − λ) X + λY ) = E [(1 − λ) X + λY − E [(1 − λ) X + λY ]] .

Cela permet de noter que :

         1/2
σ ((1 − λ) X + λY ) = (1 − λ)2 E X 2 − (E [ X ])2 + λ2 E Y 2 − (E [Y ])2 + λ (1 − λ) cov ( X, Y ) .

En particulier, si cov ( X, Y ) = 0, alors :


  h i   h i 1/2
σ ((1 − λ) X + λY ) = (1 − λ)2 E X 2 − (E [ X ])2 + λ2 E Y 2 − (E [Y ])2 .

Par ailleurs, comme


  h i   h i 1/2  h i 1/2  h i 1/2
(1 − λ)2 E X 2 − (E [ X ])2 + λ2 E Y2 − (E [Y ])2 ≤ (1 − λ) E X 2 − (E [ X ])2 + λ E Y2 − (E [Y ])2

alors il vient que :

σ ((1 − λ) X + λY ) ≤ (1 − λ) σ ( X ) + λσ (Y ) .

D3 )
   1/2
σ ( X ) = E X 2 − (E [ X ])2

65
Pour tout k ∈ N∗
  2   h i2 1/2
k k k k
σ (X) = E X−X +X − E X−X +X

d’où
  2  h  i   
2
 h i2 h i h i  h i2 1/2
σ (X) = E X − Xk − 2E X k X − X k + E X k − E X − Xk + 2E X k E X − X k + E X k

ce qui conduit à
  2   h i2     h i
2 2  h  i h i h i1/2
σ (X) = E X − Xk − E X − Xk + E Xk − E Xk − 2 E Xk X − Xk + E Xk E X − Xk ,

h 2 i
par suite, en faisant converger E X − Xk −→ 0 nous obtenons

2 2 2 1/2
 h i 
σ (X) ≤ E ( X k ) −(E[ X k ]) −2(E[ X k ( X − X k )]+E[ X k ]E[ X − X k ])−(E[ X − X k ])

soit      h i
2 2  1/2
k k k
σ (X) ≤ E X − E X − 2cov X, X − X

si cov X, X − X k = 0 ,


     h i 1/2
2 2  
σ (X) ≤ E Xk − E Xk = σ Xk ≤ d

La fonction σ ( X ) est appelée mesure de risque au sens basique si cov ( X, Y ) = 0 et


cov X, X − X k = 0


D4 ) λ ∈ R+ , X une v.a :
 h i 1/2  h i 1/2
2 2 2 2
σ (λX ) = E (λX ) − (E [λX ]) = λ E ( X ) − λ (E [ X ])
2 2

soit
σ (λX ) = λσ ( X ) .

2.6.2 Modèles de hauts Risques géométriques


Une approche alternative pour la théorie des valeurs extrêmes (TVE) est la méthode
de Peaks-Over-Thresholds (POT) pour décrire des comportement extrêmes stochastiques.
Ces Modèles résultant de l’estimation asymptomatique conduisent à des distributions
de Pareto. Parmi les études antérieures sur l’estimation des valeurs extrêmes, l’approche
POT apparaît implicitement dans les travaux de certain chercheurs tel que Tajvidi. D’après

66
D. Barro et al. [12], il apparaît que la distribution de Pareto généralisé (GPD) H associée
au même échantillon de vecteur i.i.d. avec une distribution de valeurs extrêmes G définie
sur le domaine est donnée par
 
1 G (x)
H (x) = log si x ∈ supp ( G ) . (2.31)
−log ( G (0)) G (min ( x, 0))

Si FX est le cdf de la variable aléatoire X, la limite marginale univariée est donnée


pour tout 1 ≤ j ≤ m,
    x −µ  −1 
 j j ξj
 exp − 1 + ξ j si ξ j 6= 0


 σj
Fjn σj,n x j + µ j,n −→ Gj x j =
 
. (2.32)
n→∞ 
  n  x −µ o
 j j

 exp exp − σj si ξ j = 0

Selon le théorème de Fisher-Tippet, chaque marge Gi peut être une distribution extrême
uni variée et est donc du type 1 d’une famille des trois fonctions de distribution suivante :
Φα (Fréchet), Ψα (Weibull), Λ (Gumbel).

Définition 2.6.1. Soit Z un vecteur aléatoire de Rd et H ⊂ Rd un demi espace fermé avec


P ( Z ∈ H ) > 0. Le scénario à haut risque Z H est défini comme le vecteur Z conditionné pour
se situer sur le demi espace H. Si Z a pour fonction de distribution π = P ◦ Z −1 , alors Z H a la
distribution à risque élevé π H donnée par

δH (z) dπ (z)
dπ H (z) = (2.33)
π (H)

où δH est la fonction indicatrice.

Balkema et Embrechts [7] ont étudié le comportement asymptotique des scénarios à


risque élevé P Z H ≤ z/Z ∈ H pour un niveau de risque α = P ( Z ∈ H ) tend vers zéro


et à montrer comment cela conduit à une autre théorie multivariée des dépassements.

Soit H une demi-espace fermée associée à un vecteur aléatoire Z a une fonction de


densité f , P ( Z ∈ H ) = α > 0 . Ensuite, le résultat suivant donne la relation entre Z et la
copule associée, c’est-à-dire le scénario de risque élevé basé sur la copule.

Proposition 2.6.2. Soit Z un vecteur aléatoire dans R et H ⊂ R un demi-espace fermée avec


P ( Z ∈ H ) > 0 et C une copule multivariée. Le scénario de risque élevé Z ∈ H est défini
comme le vecteur Z conditionné pour se situer dans la demi-espace H. Si π désigne la fonction de
distribution de Z, alors la fonction de distribution à risque élevé π H de Z H est donnée pour tout
i = 1, ..., m,

  d δHi (zi ) dπi (zi )


dπ H (z1 , ..., zd ) = c π1H1 (z1 ) , ..., πdH (zd ) × ∏ πi ( Hi )
(2.34)
i =1

67
H
où πi i sont les fonctions de distribution marginales π H et c est la fonction de densité de la copule
C.

Démonstration. Le théorème de Sklar permet d’associer à la densité de la fonction de


densité f = ( f 1 , ..., f d ) associée à tout cdf continu de la copule correspondante, pour tout
x = ( x1 , ..., xd ) ∈ Rd par :

∂d C ( F1 ( x1 ) , ..., Fd ( xd ))
f (x) = = c ( F1 ( x1 ) , ..., Fd ( xd )) f 1 ( x1 ) × f d ( xd ) . (2.35)
∂x1 × ... × ∂xd

Si nous utilisons la relation (2.35) et si π H est la distribution du risque levé Z H , on peut


écrire
H ∂d C ( F1 ( x1 ) , ..., Fd ( xd ))
dπ (z1 , ..., z1 ) = .
∂x1 × ... × ∂xd
  d δH (z )dπ (z )
Finalement dπ H (z1 , ..., zd ) = c π1H1 (z1 ) , ..., πdH (zd ) × ∏ i π ( H ) .
i i i
i i
i =1
Par conséquent, cette relation est un scénario de risque élevé à base de copule.

Corollaire 2.6.1. Soit f Z la densité f et c la densité de la copule multivariée C. Soit H une demi-
espace fermée de sorte que P ( Z ∈ H ) = α > 0. Alors, Z H a la fonction de densité

d δHi (zi ) f (zi )


f H (z1 , ..., zd ) = c (z̃1 , ..., z̃d ) × ∏ αi
, (2.36)
i =1

H
où Fi i (zi ) = z̃i , pour tout i = 1, ..., d sont les fonctions marginales de cdf F H .

Démonstration. Soit H un demi-espace fermé tel que P ( Z ∈ H ) = α > 0. Nous remar-


quons que P ( Zi ∈ Hi ) = αi , ∀ i = 1, ..., d. Alors
 
H
∂d C F1H1 (z1 ) , ..., Fd d (zd )
f H (z1 , ..., zd ) = ;
∂z1 × ... × ∂zd

ce qui donne
  d

H H
f H (z1 , ..., zd ) = c F1H1 (z1 ) , ..., Fd d (zd ) f i i ( zi ) ;
i =1

et finalement
  d δHi (zi ) f (zi )

H
f H (z1 , ..., zd ) = c F1H1 (z1 ) , ..., Fd d (zd ) .
i =1
αi

d
H
Considérons Fi i (zi ) = z̃i pour tout i = 1, ..., d, alors nous avons f H (z1 , ..., zd ) = c (z̃1 , ..., z̃d ) ∏
i =1
δHi (zi ) f (zi )
αi .
Le résultat suivant donne la relation entre Z et la copule associée.

68
Proposition 2.6.3. Soit Z un vecteur aléatoire dans Rd , H = H1 × ... × Hd ⊂ Rd est un
demi espace fermé avec P ( Z ∈ H ) > 0, C une copule multivariée et soit en supposant que
zi ∈ ℵ = H1 ∩ ... ∩ Hd , pour tout i = 1, ..., d . Si la fonction de distribution marginale de la
répartition des scénarios à risque élevé sont toutes continues, alors la fonction de densité de la
copule C est donnée par
H H
 
δH dπ ũ1 1 ,...,ũd d
π(H)
c (u1 , ..., ud ) = H
   H  (2.37)
dπ1 ũ1 1 ×...×dπd ũd d
π1 ( H1 )×...×πd ( Hd )
 (−1)
H Hi
où ũi i = πi (ui ), les inverses des distributions marginales πiHi .
H
Démonstration. Supposons que les marges des scénarios à risque élevé π1H1 , ..., πd d sont
continues. Utilisons la relation (2.34) il vient que

dπ H (z1 , ..., zd )
c (u1 , ..., ud ) =
d δHi (zi )dπi (zi )
∏ πi ( Hi )
i =1

Si zi ∈ ℵ ∀ i = 1, ..., d alors nous obtenons la relation suivante :



H
 dπ H (z1 , ..., zd )
c π1H1 (z1 ) , ..., πd d (zd ) =
d δHi (zi )dπi (zi )
∏ πi ( Hi )
i =1

Hi (−1)
 
H
où πi i
(zi ) = ui et zi = πi ( u i ).
Cela nous donne
H
 H 
δH dπ ũ1 1 ,...,ũd d
π(H)
c (u1 , ..., ud ) = H
   H 
dπ1 ũ1 1 ×...×dπd ũd d
δℵ π1 ( H1 )×...×πd ( Hd )

d
si δℵ = 1, il s’ensuit que zi ∈ ℵ =
T
Hi .
i =1
Finalement, il vient que

H
 H 
δH dπ ũ1 1 ,...,ũd d
π(H)
c (u1 , ..., ud ) = H
   H 
dπ1 ũ1 1 ×...×dπd ũd d
π1 ( H1 )×...×πd ( Hd )

Considérons en particulier le modèle bivarié gaussien. Cette famille réside dans la


classe des EVD 3 elliptiques. En étudiant la modélisation de la dépendance stochastique
3. Distribution des valeurs extrêmes

69
pour les processus elliptiques, Barro [11] a rappelé
Définition 2.6.2. Un vecteur aléatoire X de dimension n est distribué de manière ellip-
tique si, pour certains vecteurs µ = (µ1 , ..., µn ) ∈ Rn , soient une matrice symétrique ∑
de taille n × n et un fonction φ : R+ −→ R, la fonction caractéristique ϕ X −µ telle que
ϕ X −µ (t) = φ t T ∑ t . Nous pouvons écrire X En (µ, ∑, φ), ou


 
cn 1  −1
φ (x) = p
det (∑)
gn
2
( x − µ)t ∑ ( x − µ)

pour des cn et gn appropriés, pour tout x = ( x1 , ..., xn ) ∈ Rn .


Soit F une fonction cdf bivariées Gaussienne avec comme coefficient de corrélation
linéaire ρ ∈ ]0, 1[.
Corollaire 2.6.2. Le modèle de la fonction de densité Gaussienne avec comme coefficient de cor-
rélation ρ est telle que, pour tout (u1 , u2 ) ∈ [0, 1]2 ,
  2  2  2  2 
F1 ( H1 ) F2 ( H2 ) ũ1H1 + ũ2H2 − 2ρũ1H1 ũ2H2 ũ1H1 + ũ2H2 
c ρ ( u1 , u2 ) = exp − + .

2 (1 − ρ2 )
p
F (H) 1 − ρ 2 2
(2.38)
Démonstration. Soit Z = ( X, Y ) ∈ R2+ un couple associé a une fonction de distribution
Gaussienne bivariées F et de marges F1 et F2 . Sans perte de généralité, on peut supposer
que Z a une densité
 2
x + y2 − 2ρxy

1
f ρ ( x, y) = exp − .
2 (1 − ρ2 )
p
2π 1 − ρ2

Pour la famille Gaussienne, nous avons


 2
x + y2 − 2ρxy x2 + y2

  F1 ( H1 ) F2 ( H2 )
cρ F1H1 ( x ) , F2H2 (y) = exp − + (2.39)
2 (1 − ρ2 )
p
F ( H ) 1 − ρ2 2

Soit H = H1 × H2 ⊂ R+ × R+ un demi espace fermé telle que P ( Z ∈ H ) = F ( H ) >


0. La fonction de densité du risque élevé Z H est donnée par

2 + y2 −2ρxy
 h i
 1√
exp −x 2(1− ρ2 )
si ( x, y) ∈ H
2πF ( H ) 1−ρ2

δH ( x, y) f ρ ( x, y) 
f ρH ( x, y) = =
F (H) 

0 sinon

Comme la distribution de Gauss, la copule de Gauss se caractérise souvent par sa densité


cρ . Alors, nous pouvons écrire
 2
x + y2 − 2ρxy

  δH ( x, y)
f ρH ( x, y) = f 1H1 (x) f 2H2 (y) cρ F1H1 ( x ) , F2H2 (y) = exp −
2 (1 − ρ2 )
p
2πF ( H ) 1 − ρ2

70
et
 2  2
δH1 ( x ) x δH2 (y) y  
f ρH ( x, y) = √ exp − × √ exp − × cρ F1H1 ( x ) , F2H2 (y) ,
F ( H1 ) 2π 2 F ( H2 ) 2π 2

H2 = R+ =⇒ δH1 ( x ) δH2 (y) = 1 et δH ( x, y) = 1 alors


T
H1
 2
x + y2 − 2ρxy x2 + y2

  F1 ( H1 ) F2 ( H2 )
cρ F1H1 ( x ) , F2H2 (y) = exp − + (2.40)
2 (1 − ρ2 )
p
F ( H ) 1 − ρ2 2

soit F1H1 ( X1 ) = U et F2H2 ( X2 ) = V. Alors (U, V ) ⊂ [0, 1]2 . La relation (2.40) devient alors
  2  2  2  2

k ũ1H1 + − 2ρũ1H1 ũ2H2
ũ2H2 ũ1H1 + ũ2H2 
c ρ ( u1 , u2 ) = p exp − +

1 − ρ2 2 (1 − ρ2 ) 2

(2.41)
F1 ( H1 ) F2 ( H2 )
avec k = F( H )
.

2.7 Copule conditionnelle et valeur à risque


L’objectif de cette section est dans un premier temps d’établir une relation analytique
entre la copule conditionnelle dépendant du temps et la valeur à risque. Pour cette raison,
nous avons utilisé le concept de produit scalaire qui nous a permis de mettre en évidence
un lien entre la copule conditionnelle et la notion de normes dans les espaces métriques.
Nous partons du principe que nous sommes dans un espace euclidien et que toutes les
conditions nécessaires sont remplies. Nous utilisons les éléments caractéristiques des es-
paces métriques (espace euclidien), pour établir avec la notion de produit scalaire ou de
norme une relation entre la valeur à risque et la copule conditionnelle dépendante du
temps.

2.7.1 Définitions et propriétés


Considérons un portefeuille linéaire composé de n instruments financiers différentes
(Risque, action) X = ( X1 , ..., Xn ). Supposons de plus que p0 = ( p0,1 , ..., p0,n ) la valeur
n
initiale du portefeuille est donnée par V0 = ∑ xi p0,i pour la réalisation x = ( x1 , ..., xn ) de
i =1
X. A la future date t la fonction de perte et profit incertain du portefeuille est donnée par

n n
Ft ( x1 , ..., xn ) = ∑ xi ( p0,i − pt,i ) = ∑ xi pt,i (ezt,i − 1) (2.42)
i =1 i =1

où Zt = (zt,1 , ..., zt,n ) est le vecteur de log prix telle que zt,i = logpt,i . En particulier, à
partir des transformations de probabilité intégrale que nous pouvons associer à Ft , la

71
copule paramétrique Ct telle que, pour tout (ut,1 , ..., ut,n ) ∈ [0, 1]n ,

Ct (ut,1 , ..., ut,n ) = P ( Ft,1 ( X1 ) ≤ ut,1 , ..., Ft,n ( Xn ) ≤ ut,n ) (2.43)

Nous avons en nous plaçant dans un espace de euclidien les expressions suivantes :
s s
n n n
pt = ( p1,t , p2,t , ..., pn,t ) = ∑ h pi,t , ei i ei , k pt k = ∑ p2i,t = ∑ h p t , ei i2 .
i =1 i =1 i =1

Considérons
s s
n n n
Pt = ( p1,t ezt,1 , ..., pn,t ezn,1 ) = ∑ h pi,t ezt,i , ei i ei , k Pt k = ∑ p2i,t e2zt,i = ∑ h Pt , ei i2.
i =1 i =1 i =1

2.7.2 Quelques propriétés de la copule conditionnelle


Dans cette section nous avons utilisé le processus de Gram-Schmidt pour une appli-
cation sur la valeur à risque multidimensionnelle. Nous avons aussi utilisé un autre outil
de l’algèbre linéaire : le produit scalaire. En effet, le produit scalaire nous a permis d’éta-
blir une relation forte entre la copule conditionnelle et la valeur à risque liée au montant
initial d’un portefeuille.

Produit scalaire et copules : application à la valeur à risque

La proposition de la sous section suivante, nous a été inspirée par le processus de


Gram-Schmidt. Nous pensons qu’il est nécessaire d’approfondir la proposition 2.7.1 par
la suite.

a) La Valeur à risque multivariée et le processus de Gram-Schmidt

La proposition de sous-section suivante a été inspirée par le processus de Gram-


Schmidt. Nous pensons qu’il est nécessaire de peaufiner la proposition 2.7.1 par la suite.

Proposition 2.7.1. Soit E un espace Euclidien et (e1 , ..., en ) une base de E. Alors il existe une
unique base ξ = (ξ 1 , ..., ξ n ) telle que si

n
VaRu ( X ) = (VaRu1 ( X1 ) , ..., VaRun ( Xn )) = ∑ hVaRui , ei i ei
i =1

alors
n
VaRui ϑi e
hVaRu ( X ) , ξ i − ∑ k ϑi k
= VaRu1 1
k e1 k
(2.44)
i =2
i
e1 ϑi + 1
où ξ 1 = k e1 k
et ∀i ∈ {1, ..., n − 1} , ξ i+1 = k ϑi + 1 k
avec ϑi+1 = ei+1 − ∑ hei+1 , ξ k i ξ k
k =1

72
Démonstration. Soit E un espace Euclidien et soit (e1 , e2 , ..., en ) une base de E telle que

s s
n n n 2
VaRu ( X )=(VaRu1 ( X1 ),...,VaRun ( Xn ))= ∑ hVaRui ,ei iei ⇒kVaRu ( X )k= ∑ VaR2ui = ∑ hVaRu ,ei i
i =1 i =1 i =1

Le processus d’orthogonalisation de Gram-Schimdt permet de dire qu’il existe une


unique base (ξ 1 , ..., ξ n ) telle que

i
e1 ϑi + 1
ξ1 =
k e1 k
et ∀i ∈ {1, ..., n − 1} , ξ i+1 =
k ϑi + 1 k
ave ϑi+1 = ei+1 − ∑ h ei +1 , ξ k i ξ k
k =1
(2.45)

n n
VaRui ϑi e
hVaRu ( X ) , ξ i = ∑ VaRui ξ i ⇒ hVaRu ( X ) , ξ i − ∑ = VaRu1 1
i =1 i =2
k ϑi k k e1 k

b) Produit scalaire et copule applications sur la valeur à risque

Considérons un portefeuille linéaire composé de n instruments financiers différents


(risques, actions) X = ( X1 , ..., Xn ) et soit pt = ( p1,t , p2,t , ..., pn,t ) à une date donnée mesu-
rée à un instant t donné.

Théorème 2.7.1. Soit p0 = ( p0,1 , ..., p0,n ) la valeur initiale du portefeuille est donnée par
n
V0 = ∑ xi p0,i pour une réalisation x = ( x1 , ..., xn ) de X. A la date suivante t la fonction
i =1
incertaine Profit / Perte du portefeuille est donnée par

n n
Ft ( x1 , ..., xn ) = ∑ xi ( p0,i − pt,i ) = ∑ xi pt,i (ezt,i − 1)
i =1 i =1

Alors
Ct (u1 , ..., un ) = kVaRu ( X )k k Pt − pt k (2.46)

et
1 
Ct (u1 , ..., un ) = kVaRu ( X ) + Pt − pt k2 + kVaRu ( X ) − ( Pt − pt )k2 (2.47)
4
où, Pt = ( p1,t ezt,1 , ..., pn,t ezn,1 ), et VaRu ( X ) = (VaRu1 ( X1 ) , ..., VaRun ( Xn )) est la Valeur à
risque de X et kk une norme quelconque.

Démonstration. Si nous considérons la relation 2.42 nous avons


n
Ct (u1 , ..., un ) = ∑ VaRui ( Xi ) ( pt,i ezt,i − pt,i )
i =1

73
Prenons Pt = ( p1,t ezt,1 , ..., pn,t ezn,1 ) et VaRu ( X ) = (VaRu1 ( X1 ) , ..., VaRun ( X )) nous obte-
nons
Ct (u1 , ..., un ) = hVaRu ( X ) , Pt − pt i

La valeur à risque est intrinsèquement liée au portefeuille et donc au montant initial


et au montant à un instant donné t. Pour ce faire, nous allons considérer les vecteurs
VaRu ( X ) et pt − Pt comme étant liées.

|hVaRu ( X ) , Pt − pt i| = kVaRu ( X )k k Pt − pt k

alors
Ct (u1 , ..., un ) = kVaRu ( X )k k Pt − pt k

nous obtenons donc :

1 2 2

hVaRu ( X ) , Pt − pt i = kVaRu ( X ) + Pt − pt k + kVaRu ( X ) − ( Pt − pt )k
4

1 2 2

Ct (u1 , ..., un ) = kVaRu ( X ) + Pt − pt k + kVaRu ( X ) − ( Pt − pt )k
4

c) Copule conditionnelle et Valeur à risque dans un espace euclidien

Considérons un portefeuille linéaire composé de n instruments financiers différents


(risques, actions) X = ( X1 , ..., Xn ) et soit pt = ( p1,t , p2,t , ..., pn,t ) à une date donnée mesu-
rée à un instant t donné.

Théorème 2.7.2. Soit pt = ( p1,t , p2,t , ..., pn,t ) à une date donnée mesurée à un instant t donné.
Par exemple ces risques représente des pertes potentielles dans des branche d’activité en relation
pour la compagnie d’assurance. La copule conditionnelle est donnée par
 
(−1) (−1)
∂FWt F1,Wt (u1 /wt ) , ..., Fn−1,Wt (un− /wt ) , wt
C (u1 , ..., un /wt ) = . (2.48)
∂wt

Alors  

Ct (u1 , ..., un /wt ) = f w−1 (wt ) (VaRu ( X/wt )) , pt − Pt (2.49)
∂wt
où Pt = ( p1,t ezt,1 , ..., pn,t ezn,1 ) et VaRu ( X/wt ) est la valeur à risque du vecteur aléatoire X
sachant wt et kk est la norme Euclidienne .
Pour la distribution normale nous avons :
√ ∂ (er f ((2ui − 1) /wt ))  
C (u1 , ..., un /wt ) = f w−1 (wt ) × σ 2 ∑ pt,i e Zt,i − 1
∂wt
´ z − t2
avec er f (z) = √2 e dt.
2π 0

74
Démonstration. Soit FWt la distribution conditionnelle dépendante du temps avec comme
fonctions marginale { Fi,Wt ; 1 ≤ i ≤ n}. Alors il existe un unique copule C : [0, 1]n −→
[0, 1] tel que
 
(−1) (−1)
C (u1 , ..., un /wt ) = FWt F1,Wt (u1 /w) , ..., Fn,Wt (un /w) (2.50)

(−1)
où Fi,Wt (ui /w) = in f { x : Fi,Wt ( x/w) ≥ ui } pour chaque ui et wt ∈ Wt .
 
(−1) (−1)
∂FWt F1,Wt (u1 /wt ) , ..., Fn−1,Wt (un− /wt ) , wt
C (u1 , ..., un /wt ) =
∂wt
Si nous prenons l’égalité (2.42) avec
 
(−1) (−1)
C (u1 , ..., un /wt ) = FWt F1,Wt (u1 /wt ) , ..., Fn,Wt (un /wt ) /wt

il vient que

" #
n n
∂ (VaRui ( Xi /wt )) ∂ (VaRui ( Xi /wt ))
C (u1 , ..., un /wt ) = f w−1 (wt ) × ∑ ∂wt
pi,t ezt,i − ∑
∂w t
pi,t
i =1 i =1

Aussi pour Pt = ( p1,t ezt,1 , ..., pn,t ezn,1 ) nous avons


 

C (u1 , ..., un /wt ) = VaRu ( X/wt ) , f w−1 (wt ) ( Pt − pt )
∂wt

Si f w−1 ∈ C 1 nous pouvons écrire le résultat suivant.

Corollaire 2.7.1. Considérons maintenant les risques de pertes potentielles dans des branches
d’assurance interdépendantes. Pour la suite nous allons supposés être en dimension finie et ( E, h, i)
un espace Euclidien. La copule conditionnelle est donnée par


C (u1 , ..., un /wt ) = f w−1 (wt ) (VaRu ( X/wt )) k Pt − pt k (2.51)
∂wt

de plus
!
2 2
1 ∂ ∂
C (u1 , ..., un /wt ) = f w−1 (wt ) (VaRu ( X/wt )) + ( Pt − pt ) + (VaRu ( X/wt )) − ( Pt − pt )
4 ∂wt ∂wt
(2.52)

Démonstration. Pour cette preuve nous allons utilisés


 

C (u1 , ..., un /wt ) = f w−1 (wt ) (VaRu ( X/wt )) , Pt − pt
∂wt

75
nous avons
 
−1 ∂ ∂
f w ( wt ) (VaRu ( X/wt )) , Pt − pt = f w−1 (wt ) (VaRu ( X/wt )) k Pt − pt k
∂wt ∂wt

Aussi nous obtenons


C (u1 , ..., un /wt ) = f w−1 (wt ) (VaRu ( X/wt )) k Pt − pt k
∂wt

d’où
!
2 2
1 ∂ ∂
C (u1 , ..., un /wt ) = f w−1 (wt ) (VaRu ( X/wt )) + ( Pt − pt ) + (VaRu ( X/wt )) − ( Pt − pt )
4 ∂wt ∂wt

2.7.3 La valeur à risque conditionnelle (CVaR) dans un espace eucli-


dien
Considérons un portefeuille linéaire composé de n instruments financiers différents
(risques, actions) X = ( X1 , ..., Xn ) et soit pt = ( p1,t , p2,t , ..., pn,t ) à une date donnée mesu-
rée à un instant t donné. La Tail-VaR (TVaR) est une mesure dérivée cohérente de risque
de la VaR. Pour un niveau de risque α ∈ ]0, 1[ donné, il vient que
La XTVaR est la quantité moyenne de ruines au-delà de la VaR

XTVaRα ( X ) = TVaRα ( X ) − VaRα ( X ) . (2.53)

Le corollaire suivant est une conséquence de la proposition 2.7.2.

Corollaire 2.7.2. Si nous nous référons a la relation (2.53)sur la XTVaR avec α ∈ ]0, 1[ donné,
alors
D E
C (u1 , ..., un /wt ) = f w−1 (wt ) ∂w∂
t
( TVaR u ( X/w t )) , ( Pt − p t )
(2.54)
D E
− f w−1 (wt ) ∂
∂wt ( XTVaRu ( X/wt )) , ( Pt − pt )

Aussi
!
2 2
1 ∂ ∂
C (u1 , ..., un /wt ) = f w−1 (wt ) ( TVaRu ( X/wt )) − ( XTVaRu ( X/wt ))
2 ∂wt ∂wt
(2.55)

Démonstration. La relation (2.53) et le Corollaire 2.7.2 nous obtenons l’égalité (2.54) . Nous
pouvons

76

2
C (u1 , ..., un /wt ) = f w−1 (wt ) 41 ∂
∂wt ( TVaRu ( X/wt )) + ( Pt − pt )


2
− ∂
∂wt ( XTVaRu ( X/wt )) + ( Pt − pt )

  
2
2
= f w−1 (wt ) 41 2 ∂
∂wt ( TVaRu ( X/wt )) + k Pt − pt k

 i
− 2 k XTVaRu ( X/wt )k2 + k( pt − Pt )k2

 
2 2
C (u1 , ..., un /wt ) = f w−1 (wt ) 12 ∂
∂wt ( TVaRu ( X/wt )) − ∂
∂wt ( XTVaRu ( X/wt ))

2.7.4 Estimation de la VaR par la méthode de Monte Carlo


Dans cette sous section, notre objectif est de décrire, la méthodologie Monte Carlo
pour estimer la VaR d’un portefeuille financier.

Simulation d’une variation de prix PP .

Étant donné un portefeuille financier caractérisé par n facteurs de risque et

S (t) = (S1 (t) , S2 (t) , ..., Sn+1 (t)) .

Les travaux de Jules Sadefo Kamdem [51] nous donne :


 
1 2
rt,T = µ − σ ( T − t) + A T z T − t, (2.56)
2

où rt,T est le vecteur des rendements obtenus entre le temps t et T , σ2 le vecteur corres-
pondant à la diagonale de la matrice de covariance ∑ et z MV N (0, I ) 4 .
σi2
En considérant que ui = 2 , i = 1, ..., n, alors

rt,T = A T z T − t (2.57)

Maintenant qu’on sait déjà générer les rendements, il est nécessaire de pouvoir si-
muler une fonction PP des instruments financiers qu’on detient. Par exemple si nous
détenons une option sur une action, la fonction perte et profit pour un rendement r d’un
4. MVN signifie en anglais multivariate normal.

77
jour s’écrit :
P1 − P0 = P0 (er − 1) . (2.58)

Technique de simulation de la VaR d’un Portefeuille

En général, si on détient un portefeuille contenant m instruments financiers, tel que


leurs prix actuelles sont une fonctions de n facteurs de risque Vj ( P), avec j = 1, ..., m et
 
P = P(1) , P(2) , ..., P(n) , on peut générer par simulation des scénarios de la fonction P
&L du portefeuille pour une période d’un jour via l’algorithme suivant :
— Générer un ensemble de z, qui est un vecteur aléatoire normal centré réduit avec
des marginales indépendantes.
— Transformer
 les n marginales
 indépendantes de z en un ensemble de rendements
( 1 ) ( 2 )
r = r , r , ..., r ( n ) correspondant à chaque facteur de risque en utilisant A. En
d’autres termes, r = C T z.
— Obtenir par scénario le prix P1 de chaque facteur de risque  pour  demain (1 jour
( j)
après ( j) aujourd’hui), sachant que le prix actuel est P0 = P0 , en utilisant
1≤ j ≤ n
la formule P1 = P0 er .
— Déterminer la fonction perte et profit (PP ) du portefeuille comme étant

n

 
Vj ( P1 ) − Vj ( P0 ) .
k =1

— En générant la fonction P &L, on ordonne de façon décroissante les valeurs des P


&L obtenues, qu’on note ∆V1 , ∆V2 , ..., ∆Vn , et on définit la VaR Monte Carlo pour
un taux de confiance 1 − α comme étant

VaRα = −∆Vk .

Nous pouvons facilement étendre la procédure


 √  de la VaR Monte Carlo précédente pour
T jours, si nous considérons P1 = P0 exp r T . Dans ce cas, P1 sera le prix obtenu après
T jours.

2.7.5 Programmation de la VaR avec le logiciel R


Dans cette section nous simulons la valeur à risque avec différentes méthodes gra-
phiques. Nous utilisons la moyenne des fonctions Excess pour simuler la VaR dans la
section 2.7.5.

Exemple de problème

Soient X et Y les log retours journalières de capitaux. Considérons un portefeuille


linéaire avec w1 et w2 . Supposons que X ∼ N (, ) et Y ∼ N (, ). De plus, supposons que

78
la copule associée à la distribution conjointe est de Student. Le programme suivant nous
permet d’estimer la VaR avec un niveau de confiance α = 0.99 basé sur un échantillon de
taille n = 10000 pour simuler un portefeuille de log retours. Dans ce cas, la fonction de
profit perte s’écrit comme suit :
 
FL = ln w1 e X + w2 eY . (2.59)

D’où
VaRα = F−−L1 ES = E (− L/L > VaRα ) .

La méthode analytique de calcul de la VaR suppose la normalité des lois marginales.


Les fonctions uni variées des facteurs de risque (log retours) sont supposées gaussiennes
avec des paramètres à estimer à partir des données.

Interprétation des lignes de commandes par le logiciel R

a) Tracé d’une fonction excédentaire

Le graphique suivant représente la courbe d’une fonction excédentaire. La capacité


excédentaire représente une des difficultés de la stratégie de l’entreprise. Aussi, recherche-
t-on des fonctions-objectifs de capacité excédentaire.

F IGURE 2.1 – Figure de la tracée d’une fonction excédentaire

b) Bonne représentation graphique “Q-Q plot” pour la méthode ML

Un Diagramme Q-Q ou Q-Q plot est un outil graphique permettant d’évaluer la per-
tinence de l’ajustement d’une distribution donnée à un modèle théorique. La figure sui-
vante est une méthode d’ajustement par maximum de vraisemblance (ML). L’objectif de

79
F IGURE 2.2 – répresentation graphique “Q-Q plot” pour la méthode ML

cette méthode est de voir la répartition des données sur un plan afin de déterminer quelle
loi suivent les différents points.

c) Bonne représentation graphique “Q-Q plot” pour la méthode PWM

Si les points sont concentrés au tour de la droit, nous pouvons dire que la variable
aléatoire qui correspond à la répartition spatiale des différents points suivent une cer-
taine loi. Le graphique suivant est méthode d’ajustement par méthode des moments
pondérés (PWM).

F IGURE 2.3 – représentation graphique “Q-Q plot” pour la méthode PWM

80
Les rendements finissent par devenir gaussiens lorsque les durées entre les observa-
tions augmentent (convergence vers la loi normale) . On remarque plus d’adéquations
des lois marginales avec la loi normale. les deux méthodes l’illustrent bien.
Les données dans le tableau suivant, nous les devons à John Muteba MWAMBA
(2011). Nous avons juste modifier la taille de son échantillon. De 1000 nous sommes allés
à 10000. Cela à donner plus de calcul à faire pour son programme.

Valeurs opérationnelles codes Taux en % Valeurs


Première ligne d’affaire VaR.s1 99.9 294041
Deuxième ligne d’affaire VaR.s2 99.9 294041
Système entier VaR.s 99.9 215329.7
Effet de diversification divEff 99.9 0.3091454
Perte attendue EL 50 348.6859
Capital exigible capReq 99.9 214981

TABLE 2.2 – Valeurs opérationnelles

Nous avons introduit dans ce chapitre une nouvelle expression sur la pseudo-
convexité. Nous avons également repris la démonstration de la propriété se-
lon laquelle l’écart type σ ( X ) d’une variable aléatoire incertaine est une me-
sure d’écart au sens large dans la proposition 2.6.1. Il est a remarquer que
la VaR présente plusieurs avantages qui expliquent son succès. Tout d’abord
c’est un indicateur synthétique qui donne une évaluation du risque d’un por-
tefeuille quels que soient les actifs qui le composent. Le fait de disposer d’un
indicateur synthétique unique permet également les comparaisons entre por-
tefeuilles. Ensuite c’est un indicateur lisible et facile à interpréter, même par
des non spécialistes, bien que la méthode de calcul soit très complexe. Cela en
fait un vecteur de communication, aussi bien interne qu’externe, permettant
de dialoguer avec le management ou les autorités de régulation. La principale
limite de la VaR réside dans le fait que quelle que soit la méthode utilisée, les
données injectées dans l’algorithme de calcul proviennent toujours plus ou
moins des valeurs de marché constatées dans le passé, qui ne sont pas néces-
sairement un reflet des évolutions futures possibles du portefeuille. La notion
de risque géométrique de haut niveau aborder dans la sous section 2.6.2 nous
a permis de comprendre et d’élaborer des relations entre le scénario de haut
risque, les copules et la fonction densité de la fonction copule.

81
Chapitre 3

Copules Archimédiennes et modèles de


Facteurs de risques

Dans ce chapitre, nous proposons différentes applications des copules Archimédiennes


et dans quelques essais de simulations sur des fonctionnelles qui sont liées aux facteurs
de risques. Nous avons établi des inégalités impliquant quelques facteurs de risque à tra-
vers des fonctionnelles. La section 3.1 nous a permis d’effectuer certains calculs sur les
copules archimédiennes imbriquées. Dans la sous section 3.1.3 nous reprenons les cal-
culs établis par Jan Marius Hofert [23] sur la mesure de corrélation, en y transformant
quelques variables pour avoir ses expressions de départ sous une autre forme.
Le chapitre 3 a fait l’objet de deux publications et d’un article soumis. La première pu-
blication (notre deuxième publication) est : Yves Bernadin Vini Loyara and Pr Diakarya
Barro, (2018) : Value-at-Risk Modeling with Conditional Copulas in Euclidean Space Frame-
work. European Journal of Pure and Applied Mathematic (EJPAM). Le second document
pour ce chapitre (notre troisième papier) a été soumis à une revu scientifique (Mathéma-
tiques).

3.1 Récursivité sur les copules archimédiennes


La propriété de symétrie des copules archimédienne est souvent considérée comme
une restriction assez forte, en particulier dans les applications de grandes dimensions.
Cela implique que toutes les marges multivariées de la même dimension sont égales,
ainsi, par exemple, la dépendance entre toutes les paires de composants est identique.
Pour tenir compte des asymétries, on peut considérer la classe des copules archimé-
dienne imbriquées, qui sont une tentative d’assouplir la structure de dépendance. Ces
copules ont été introduites par Joe [24] et ont fait l’objet d’utilisation dans des applica-
tions en économétrie et en finance par Hofert et al [23] et en hydrologie par Grimaldi et
al [18].

82
3.1.1 Rappels et exemples
Une copule archimédienne C de dimension d est dite imbriquée si c’est une copule
archimédienne avec des arguments éventuellement remplacés par d’autres copules ar-
chimédiennes. En d’autres termes, une copule archimédienne est dite imbriquée si elle
est construite en imbriquant des copule archimédienne les une dans les autres.

Définition 3.1.1. Pour d ≥ 3, C est appelée copule archimédienne imbriquée et d − 1 est


le niveau hiérarchique. Les copules archimédienne partiellement imbriquées de la forme
!!!
S ds
∑ φ0−1 ∑ φs−1

C (u) = φ0 φs usj , (3.1)
s =1 j =1

S
où u ∈ [0, 1]d , usj ∈ [0, 1] , s ∈ {1, ..., S} , j ∈ {1, ..., ds } avec ∑ds = d.
s =1
Le théorème de Bernstein’s nous donne :
ˆ ∞ d  ˆ ∞ d

∏ −1
∏ Γ0

C (u) = exp − xφ uj dF ( x ) = u j , x dF ( x ) (3.2)
0 j =1 0 j =1

pour u ∈ [0, 1]d , Γ0 u j ; x = exp − xφ−1 u j , u j ∈ [0, 1], x ∈ (0, ∞), et F = LS −1 [φ].
 

Nous considérerons principalement les générateurs Archimédienne φ appartenant à,

Φ∞ := {φ ∈ Φ : φ est completèment monotone} ⊆ Φ

où si φ ∈ Φ, φ est à valeurs dans [0, 1], strictement croissante et vaut 1 en 0 et φ (∞) = 0 .

Par définition, les copules Archimédiennes imbriquées incluent les copules Archimé-
diennes comme cas particulier. La copule archimédienne C entièrement intégrée, la plus
simple, est obtenue pour d = 3.

C (u) = C (u1 , C (u2 , u3 ; φ1 ) ; φ0 )

soit    
C (u) = φ0 φ0−1 (u1 ) + φ0−1 φ1 φ1−1 (u2 ) + φ1−1 (u3 ) , u ∈ [0, 1]3 . (3.3)

La figure suivante donne l’arborescence d’une copule imbriquée à l’ordre 3.

[C (·; φ0 )]
 
[C (·; φ1 )] [C (·; φ1 )]
  
[ u1 ] [ u2 ] [ u3 ]

83
F IGURE 3.1 – Arborescence d’une copule archimédienne entièrement imbriquée et triviale

La copule archimédienne partiellement imbriquée de type (3.1) capture la dépen-


dance entre des composants d’un même secteur par certaines copules archimédiennes
et combine ces copules par une structure de dépendance globale, également de type ar-
chimédienne. Autrement dit, toutes les variables aléatoires appartenant aux mêmes vec-
teurs, s ∈ {1, ..., S}, ont la copule de secteur générée par φs comme structure de dépen-
dance, alors que les variables aléatoires appartenant à différents secteurs ont la copule
générée par φ0 comme structure de dépendance commune.
Dans les travaux de Embrechts et al. [5] on trouve l’expression de la copule archimé-
dienne imbriquée d’ordre 3 sous la forme suivante ;
ˆ ∞
C (u) = Γ0 (u1 ; x ) C (Γ0 (u2 ; x ) , Γ0 (u3 ; x ) ; φ01 (·; x )) dF0 ( x ) . (3.4)
0

3.1.2 Extension de la copules archimédienne imbriquée


L’extension concerne ici les dimensions d’ordre 4 et 5 des copules archimédiennes
imbriquées.

Proposition 3.1.1. Soient φ0 , φ1 ∈ Φ∞ avec F0 = LS −1 [φ0 ], pour x ∈ (0, ∞) et soit


 
Γ0 (u; x ) = exp − xφ0−1 (u) ,

u ∈ [0, 1], et  
φ01 (t; x ) = exp − xφ0−1 (φ1 (t)) , t ∈ [0, ∞] . (3.5)
 0
En supposant que φ0−1 ◦ φ1 est complètement monotone, alors il vient que :
— pour n = 4 ;
ˆ ∞
F ( x1 , ..., x4 ) = Γ0 (u1 ; x ) C (Γ0 (u2 ; x ) , Γ0 (C (u3 , u4 ) ; x ) ; φ01 (; x )) dF0 ( x )
0
(3.6)
— pour n = 5 ;
ˆ ∞
F ( x1 , ..., x5 ) = Γ0 (u1 ; x ) C (Γ0 (u2 ; x ) , Γ0 (C (u3, C (u4 , u5 )) ; x ) ; φ01 (; x )) dF0 ( x )
0
 
Démonstration. En supposant que Γi (u; x ) := exp − xφi−1 (u) pour tout i ∈ {4, 5}, u ∈
[0, 1], et  
φij (t; x ) = exp − xφi−1 φj (t) , t ∈ [0, ∞] . (3.7)

84
alors, pour n = 4 nous avons :
     
F ( x1 , ..., x4 ) (u) = φ0 φ0−1 (u1 ) + φ0−1 φ1 φ1−1 (u2 ) + φ1−1 φ2 φ2−1 (u3 ) + φ2−1 (u4 )

et
ˆ ∞
F ( x1 ,...,x4 )= exp(− xφ0−1 (u1 ))exp(− xφ0−1 (φ1 (φ1−1 (u2 )+φ1−1 (φ2 (φ2−1 (u3 )+φ2−1 (u4 ))))))dF0 ( x ).
0

 
De manière analogue en considérant la relation (3.7) et Γi (u; x ) = exp − xφi−1 (u) , u ∈
[0, 1], il vient que
ˆ ∞
F ( x1 ,...,x4 )= Γ0 (u1 ;x )exp(− xφ0−1 (φ1 (φ1−1 (u2 )+φ1−1 (φ2 (φ2−1 (u3 )+φ2−1 (u4 ))))))dF0 ( x ).
0

Alors, on obtient
ˆ ∞     
F ( x1 , ..., x4 ) = Γ0 (u1 ; x ) φ01 φ1−1 (u2 ) + φ1−1 φ2 φ2−1 (u3 ) + φ2−1 (u4 ) ; x dF0 ( x ) .
0

En utilisant l’expression de la copule archimédienne dans la relation (3.4) il vient alors


que :
ˆ ∞  
F ( x1 , ..., x4 ) = Γ0 (u1 ; x ) φ01 φ1−1 (u2 ) + φ1−1 (C (u3 , u4 )) ; x dF0 ( x ) ;
0

ce qui conduit à ;

ˆ ∞  
−1 −1
F ( x1 , ..., x4 ) = Γ0 (u1 ; x ) φ01 φ01 (Γ0 (u2 ; x )) + φ01 (Γ0 (C (u3 , u4 ) ; x )) ; x dF0 ( x ) .
0

Par suite, il vient que :


ˆ ∞
F ( x1 , ..., x4 ) = Γ0 (u1 ; x ) C (Γ0 (u2 ; x ) , Γ0 (C (u3 , u4 ) ; x ) ; φ01 (; x )) dF0 ( x ) .
0

— Pour n = 5 nous avons :

F ( x1 ,...,x5 )=φ0 (φ0−1 (u1 )+φ0−1 (φ1 (φ1−1 (u2 )+φ1−1 (φ2 (φ2−1 (u3 )+φ2−1 (φ3 (φ3−1 (u4 )+φ3−1 (u5 ))))))))

et donc
ˆ ∞
F ( x1 ,...,x5 )= exp(− xφ0−1 (u1 ))exp(− xφ0−1 (φ1 (φ1−1 (u2 )+φ1−1 (φ2 (φ2−1 (u3 )+φ2−1 (φ3 (φ3−1 (u4 )+φ3−1 (u5 ))))))))dF0 ( x )
0

  (3.8)
Si nous nous referons à la définition (3.7) et Γi (u; x ) = exp − xφi−1 (u) , u ∈ [0, 1], on

85
vérifie que
ˆ ∞
F ( x1 ,...,x5 )= Γ0 (u1 ;x )exp(− xφ0−1 (φ1 (φ1−1 (u2 )+φ1−1 (φ2 (φ2−1 (u3 )+φ2−1 (φ3 (φ3−1 (u4 )+φ3−1 (u5 ))))))))dF0 ( x )
0

et
ˆ ∞
F ( x1 ,...,x5 )= Γ0 (u1 ;x )φ01 (φ1−1 (u2 )+φ1−1 (φ2 (φ2−1 (u3 )+φ2−1 (φ3 (φ3−1 (u4 )+φ3−1 (u5 )))));x )dF0 ( x )
0

par la relation (3.4) nous obtenons :

ˆ ∞  
−1 −1
F ( x1 , ..., x5 ) = Γ0 (u1 ; x ) φ01 φ01 (Γ0 (u2 ; x )) + φ01 (Γ0 (C (u3, C (u4 , u5 )) , x )) dF0 ( x )
0

Nous obtenons :

ˆ ∞
F ( x1 , ..., x5 ) = Γ0 (u1 ; x ) C (Γ0 (u2 ; x ) , Γ0 (C (u3, C (u4 , u5 )) ; x ) ; φ01 (; x )) dF0 ( x ) ,
0

ce qui permet d’obtenir le résultat.

3.1.3 Corrélations par défaut dans un cadre de récursivité


En considérant la relation

φs 2φs−1 ( p(t)) − p2 (t)



ρs (t) = t ∈ [0, ∞] (3.9)
p (t) (1 − p (t))

nous avons par application à certaines copules archimédienne (indépendante, clayton),


le résultat suivant.
Proposition 3.1.2. (Application de la relation (3.9) à certaines copules Archimédienne dans tout
ce qui suit) Soit p (t) ∈ ]0, 1[.
1. Copules Indépendantes :
ln2
ρs (t) = 1 − (3.10)
p (t) (1 − p (t))
2. Copules de Clayton :

p ( t ) 2− θ − p ( t ) + 2− θ − 1

ρs (t) = ,θ≥0 (3.11)
p (t) (1 − p (t))

(a) pour θ = 0 , ρs (t) = 1


(b) pour θ = 1,
1 1 1 + p2 ( t )
ρs (t) = − × (3.12)
2 2 p (t) (1 − p (t))

86
Démonstration.
1. Le générateur archimédienne de la copule indépendante est φs (t) = −lnt ce qui
donne φs−1 (t) = e−t . Alors

p (t) − ln2 − p2 (t) ln2


ρs (t) = = 1− .
p (t) (1 − p (t)) p (t) (1 − p (t))

2. Le générateur de la copule de Clayton est : φs (t) = t−θ − 1 ce qui donne φs−1 (t) =
(1 + t)−1/θ , alors
2−θ (1 + p (t)) − 1 − p2 (t)
ρs (t) = .
p (t) (1 − p (t))
Par ailleurs, si
(1+ p(t))−1− p2 (t)
(a) pour θ = 0 , ρs (t) = p(t)(1− p(t))
=1
(b) pour θ = 1,

2−1 (1 + p (t)) − 1 − p2 (t) 1 1 1 + p2 ( t )


ρs (t) = = − ×
p (t) (1 − p (t)) 2 2 p (t) (1 − p (t))

3.2 Tarification des facteurs de risque


Le document de Craig Mounfield et al. [9] et les travaux de Jan Marius Hofert et al.
[23] présentent des techniques élaborées de méthode de tarification de produits dérivés
(CDO et CDS). Dans cette section, nous nous inspirons de ces techniques de tarification
et nous proposons des égalités et des inégalités entrant dans le cadre de cette tarification.
Nous procédons par des majoration et des minorations afin d’aboutir à des inégalités ou
à des égalités. Nous nous sommes également inspirés de M. Denuit et al [27] et de Pavlo
K. et al [33] pour établir les différente relation de cette section.

3.2.1 Éléments de base de la tarification


Les temps par défaut pour le processus de tarification sont désignés par β i , i ∈
{1, ..., I } et sont modélisés via un modèle d’intensité simple. L’intensité 1 de l’entité (en-
treprise) i pour la tarification est supposée être une fonction déterministe, non négative,
notée par λi . Le terme structure de la probabilité de survie pi pour l’entité i est donné
par :
 ˆ t 
pi (t) = exp − λi (s) ds , t ∈ [0, ∞] (3.13)
0

1. L’intensité capitalistique d’un secteur d’activité économique est définie par le rapport entre les im-
mobilisations corporelles (valeur brute à la clôture de l’exercice) et les effectifs salariés moyens, ou bien
par le rapport entre les immobilisations corporelles et la valeur ajoutée.

87
et selon la probabilité par défaut p̄i est p̄i = 1 − pi .
La construction canonique de β i est donnée par β i = in f {t ≥ 0 : pi (t) ≤ Ui }. Pour
tout Ui U ([0, 1]), i ∈ {1, ..., I }. Après avoir désigné une variable aléatoire Ui , il suffit
de calculer β i via pi−1 (Ui ).
La modélisation du flux de paiement suppose un taux de récupération déterministe
identique pour toutes les entités. L’application f L (t) qui représente le processus de perte
de portefeuille peut ensuite être calculé par :

n
1−r
f L (t) =
n ∑ 1{τi ≤t} , t ∈ [0, T ] . (3.14)
i =1

Chacun des n emprunteurs dans le portefeuille est supposé verser 1/n à l’unité no-
minale du portefeuille. La durée d’échéance en années est désignée T. Les paiements de
primes sont effectués selon le calendrier de paiement

β = {t0 = 0 < t1 < ... < tn = T } .

Sur la base de perte globale d’un portefeuille, la perte pour la tranche CDO j, avec j ∈
(1, ..., J ), est donnée

f jL (t) = min max 0, f (t) − b j , a j − b j ,


 
t ∈ [0, T ] ; (3.15)

où les points de fixation inférieurs et supérieurs a j et b j , respectivement, marquent les


points d’extrémité de la tranche CDO j∈ {1, ..., J }, en tant que fraction de [0, 1]. Compte
tenu de la perte du portefeuille f L (t) avec t ∈ [0, T ], le nominal restant du CDS du
portefeuille considéré est donné par :

f L (t)
g N (t) = 1 − , t ∈ [0, T ] . (3.16)
1 − r (t)

Le nominal restant de la tranche CDO j, avec j ∈ {1, ..., J }, est déterminé par :

g jN (t) = a j − b j − f jL (t) t ∈ [0, T ] (3.17)

Le CDO comprend n obligataires de référence, dont chacun a un montant nominal h A (ti )


et le taux de recouvrement r (ti ) avec i = 1, 2, ..., n . Si le débiteur I est redevable, la perte
est égale à
f L (ti ) = (1 − r (ti )) h A (ti ) . (3.18)

Soit giN (t) = 1{τi ≤t} le processus de comptage qui saute de 0 à 1 pour le débiteur par
défaut. Par la suite, nous pouvons obtenir la perte cumulative sur le portefeuille de ga-

88
ranties à l’époque t :
n
f L (t) = ∑ f i giN (t) (3.19)
i =1

Supposons que nous avons n portefeuilles avec un montant nominal h A (tk ) avec
k ∈ {0, ..., n}. Les différents montants nominaux peuvent être ajustés de telle sorte que
nous pouvons supposer que la relation entre deux montants nominaux peut être définie
comme suit : h (tk ) = (1 + ε) h (tk−1 ) , avec ε suffisamment petit. Si nous suivons ce prin-
cipe, la relation qui lie deux taux de récupération successifs r (tk ) et r (tk−1 ) est également
dans la même direction puisque le taux de récupération est lié au montant nominal. On
peut dire aussi r (tk ) = (1 + ε) r (tk−1 ).

3.2.2 Facteurs d’escompte, primes prévues et primes par défaut d’un


CDS
Soit ζ CDS désignant le spread annualisé du portefeuille CDS, cité en points de base.
En outre, soit (ctk )k∈{1,...,n} indiquant les facteurs d’escompte correspondant aux points
de temps (tk )k∈{1,...,n} .
Considérons les relations suivantes
n  
γ1 (tk , tk−1 ) = ∑ ctk f L ( t k ) − f L ( t k −1 ) (3.20)
k =1

et
n
g N ( t k −1 ) + g N ( t k )
 
γ2 (tk , tk−1 ) = ∑ ctk ∆tk ζ CDS ; (3.21)
k =1
2
on obtient :
n
g N ( t k −1 ) + g N ( t k )
     
Λ ( t k , t k −1 ) = ∑ c tk ∆tk ζ CDS L L
− f ( t k ) − f ( t k −1 ) .
k =1
2
(3.22)
Compte tenu du calendrier de paiement, la différence entre le portefeuille CDS et les
facteurs d’escompte, les primes prévues et les primes par défaut du portefeuille CDS sont
données par " #
n  
γ¯1 (tk , tk−1 ) = E ∑ ctk f L (tk ) − f L (tk−1 ) ; (3.23)
k =1

et " #
n
g N ( t k −1 ) + g N ( t k )

γ¯2 (tk , tk−1 ) = E ∑ ctk ∆tk ζ CDS
2
(3.24)
k =1

La différence entre le portefeuille CDS et les facteurs d’escompte, les primes prévues
et les primes par défaut du portefeuille CDS sont attribuées par

89
" #
n
g N ( t k −1 ) + g N ( t k )
     
Λ̄ (tk , tk−1 ) = E ∑ c tk ∆tk ζ CDS
2
− f L ( t k ) − f L ( t k −1 )
k =1
(3.25)
respectivement, où ∆tk = tk − tk−1 et l’égalité (3.25) tient compte de l’intérêt accumulé .

Proposition 3.2.1. Considérons les relations (3.20) et (3.21) et supposant n assez grand, pour
tout ti ∈ β avec i ∈ {0, 1, ..., n} alors ;

γ̄1 (tk , tk−1 ) = 0 (3.26)

et
γ̄2 (tk , tk−1 ) = nζ CDS (1 − h (t0 )) E [ctk ∆tk ] . (3.27)

Démonstration. En utilisant la relation suivante


n  
γ1 (tk , tk−1 ) = ∑ ctk f L ( t k ) − f L ( t k −1 )
k =1

en considérant la relation suivante , f L (tk ) = (1 − r (tk )) h A (tk ) il vient que :


" #
n    
γ̄1 (tk , tk−1 ) = E ∑ ctk ε − 2ε + ε 2 k
(1 + ε ) r ( t0 ) (1 + ε ) h ( t0 ) . k A

k =1

Plus généralement en faisant converger ε −→ 0, il vient que :

γ̄1 (tk , tk−1 ) = 0.

Pour γ̄2 , par définition

f L ( t k −1 ) L
+ 1 − 1f−r((ttk ))
 
n 1− 1 − r ( t k −1 )
γ2 (tk , tk−1 ) = ∑ ctk ∆tk ζ CDS  k ;
k =1
2

alors
n  
1 A
γ2 (tk , tk−1 ) = ∑ ctk ∆tk ζ CDS 1− A
h ( t k −1 ) + h ( t k ) ;
k =1
2
d’où
" #
n 
1
γ̄2 (tk , tk−1 ) = E ∑ ctk ∆tk ζ CDS 1 − (1 + ε ) k −1 (2 + ε ) h A ( t 0 )
2
.
k =1

Pour ε −→ 0, on obtient aisément

γ̄2 (tk , tk−1 ) = nζ CDS (1 − h (t0 )) E [ctk ∆tk ] .

90
La relation (3.26) est ainsi prouvée

Proposition 3.2.2. Si le CDS inclu, n références d’obligataires, chacune de montant nominal


h (tk ) et un taux de recouvrement r (tk ) avec tk ∈ β . Alors

Λ̄ (tk , tk−1 ) ≤ T |ζ CDS (1 − h (t0 ))| . (3.28)

Démonstration. Par construction de la relation (3.25) ;


" #
n
g N ( t k −1 ) + g N ( t k )
    
Λ̄ (tk , tk−1 ) = E ∑ c tk ∆tk ζ CDS
2
− f L ( t k ) − f L ( t k −1 ) .
k =1

A partir de l’égalité (3.16)


" #
n   n
g ( t k ) + g ( t k −1 )  
Λ̄ (tk , tk−1 ) = E ∑ ctk ∆tk ζ CDS
2
− ∑ c tk f L ( t k ) − f L ( t k −1 )
k =1 k =1

Par ailleurs, avec la relation (3.18), il s’en suit que :

n
h A ( t k ) + h A ( t k −1 )
     
Λ̄ (tk , tk−1 ) ≤ ∑ E ctk ∆tk ζ CDS 1− A
− (1 − r (tk )) h (tk ) − (1 − r (tk )) h (tk−1 ) A
k =1
2

et en supposant, pour tout tk ∈ β, que h A (tk ) = (1 + ε) h A (tk−1 ), il vient alors que :

n
(2 + ε ) h A ( t k −1 )
    
Λ̄ (tk , tk−1 ) ≤ ∑ E ctk ∆tk ζ CDS 1− − (r (tk−1 ) − (1 + ε) r (tk )) h (tk−1 ) A
.
k =1
2

Et de plus en considérant pour tout tk ∈ β, r (tk ) = (1 + ε) r (tk−1 ), alors

" ! !#
n
(2 + ε ) (1 + ε ) k h A ( t0 )  
Λ̄ (tk , tk−1 ) ≤ ∑ E ctk ∆tk ζ CDS 1− − r ( t k −1 ) − (1 + ε )2 r ( t k −1 ) (1 + ε ) k h A ( t 0 ) .
k =1
2

si ε −→ 0
n h   i
Λ̄ (tk , tk−1 ) ≤ ∑ E ctk ∆tk ζ CDS 1 − h A (t0 ) ; (3.29)
k =1

on a ; ctk ≤ 1 alors

n  
Λ̄ (tk , tk−1 ) ≤ ∑ E [∆tk ] ζ CDS 1 − h A (t0 ) .
k =1

¯ il vient que
Posons E [∆tk ] = ∆,

n  
Λ̄ (tk , tk−1 ) ≤ ∑ ∆ζ
¯ CDS 1 − h A (t0 ) .
k =1

91
et
 
A
Λ̄ (tk , tk−1 ) ≤ T ζ CDS 1 − h (t0 ) ,

d’où la relation (3.28) telle que donnée.

Proposition 3.2.3. En considérant la relation (3.25), il vient que ;


 
Λ̄ (tk , tk−1 ) ≤ n max {ctk (∆tk )} ζ 1 − h A (t0 ) . (3.30)
tk ∈ β

Démonstration. Si nous nous référons à la définition (3.29) nous obtenons


n   
Sil Λ̄ (tk , tk−1 ) ≤ ∑ E max {ctk (∆tk )} ζ CDS 1 − h (t0 ) A
.
tk ∈ β
k =1

Par suite
n  
Λ̄ (tk , tk−1 ) ≤ ∑ max {ctk (∆tk )} ζ CDS 1 − h A (t0 )
tk ∈ β
k =1

Il vient que :
 
Λ̄ (tk , tk−1 ) ≤ n × max {ctk (∆tk )} ζ CDS 1 − h A (t0 )
tk ∈ β

3.2.3 Tranche de trésorerie de la CDO annualisée


Dans cette section l’objectif est d’estimer par la moyenne empiriques des relations qui
permettent d’estimations respectivement, du bonus actualisé escompté et de la tranche
CDO par défaut. Dans les lignes qui suivent, nous allons supposer que :

n  
γ1 (tk , tk−1 ) = ∑ ctk
j
f jL (tk ) − f jL (tk−1 ) , (3.31)
k =1

g jN (tk−1 ) + g jN (tk )
!
n
γ2 (tk , tk−1 ) = ∑ ctk ∆tk ζ CDO
j
, (3.32)
k =1
2
et que

g jN (tk−1 ) + g jN (tk )
! !!
n  
Λ j ( t k , t k −1 ) = ∑ c tk ∆tk ζ CDO − f jL (tk ) − f jL (tk−1 ) .
k =1
2
(3.33)
Le bonus actualisé escompté et la tranche CDO par défaut, j ∈ {1, ..., J }, sont donnés

92
par : " #
n  

j
γ̄1 =E c tk f jL (tk ) − f jL (tk−1 )
k =1

et
g jN (tk−1 ) + g jN (tk )
" !#
n

j
γ̄2 = E ctk ∆tk ζ CDO
k =1
2

g jN (tk−1 ) + g jN (tk )
" ! !!#
n  
Λ̄ j (tk , tk−1 ) = E ∑ c tk ∆tk ζ CDO
2
− f jL (tk ) − f jL (tk−1 )
k =1

respectivement, où ζ CDO désigne la tranche de trésorerie de la CDO annualisée j ∈


{1, ..., J }, coté en points de base pour tous sauf la tranche d’équité.

Proposition 3.2.4. Considérons les relations (3.31) et (3.32) et supposant n assez grand, pour
tout ti ∈ β avec i ∈ {0, 1, ..., n} alors ;pour tout ti ∈ β avec i ∈ {0, 1, ..., n}, il vient alors que :
1. En posant f jL (t) = f L (t) − b j , on a ;
j
(a) γ̄1 (tk , tk−1 ) ≡ 0,
j
(b) γ̄2 (tk , tk−1 ) = nE [ctk ∆tk ] ζ CDO a j − 1 + r (t0 ) h A (t0 ) ,
 

2. Par contre si f jL (t) = a j − b j où f jL = 0 alors


j
(a) γ̄1 (tk , tk−1 ) ≡ 0,
j
(b) γ̄2 (tk , tk−1 ) = 0

Démonstration. Par utilisation des définitions suivantes :


n  
γ1 (tk , tk−1 ) = ∑ ctk
j
f jL (tk ) − f jL (tk−1 ) ,
k =1

et
g jN (tk−1 ) + g jN (tk )
!
n
γ2 (tk , tk−1 ) = ∑ ctk ∆tk ζ CDO
j
,
k =1
2

1. si f jL (t) = f L (t) − b j

n h i
γ1 (tk , tk−1 ) = ∑ ctk f L (tk ) − f L (tk−1 ) = γ1 (tk , tk−1 ) ,
j

k =1

et maintenant
j
γ̄1 (tk , tk−1 ) = γ̄1 (tk , tk−1 )

ε − 2 + 2ε + ε2 (1 + ε)k r (t0 )
" #
n

γ2 (tk , tk−1 ) = ∑ ctk ∆tk ζ CDO a j − 1 −
j k A
(1 + ε ) h ( t0 ) ,
k =1
2

93
Pour ε suffisamment petit , en faisant converger ε −→ 0 il vient que

n h i
γ̄2 (tk , tk−1 ) = ∑ E [ctk ∆tk ] ζ CDO a j − 1 + r (t0 ) h A (t0 ) ,
j

k =1

2. Si f jL (t) = a j − b j
j
γ1 (tk , tk−1 ) = 0

a j − b j − f jL (tk−1 ) + a j − b j − f jL (tk )
" #
n
γ2 (tk , tk−1 ) = ∑ ctk ∆tk ζ CDO
j
,
k =1
2

ainsi la relation est démontrée.

Nous proposons dans le résultat suivant, un encadrement de la différence entre le


bonus actualisé escompté et la tranche CDO par défaut.

Proposition 3.2.5. En considérant la relation (3.33) ; il vient que :


j j
i) Si f jL (tk ) = a j − b j on obtient γ̄1 = γ̄2 .
ii) Si f jL = f (tk ) − b j
 
A
Λ̄ j (tk , tk−1 ) ≤ T ζ CDO a j − (1 − r (tk )) h (t0 ) . (3.34)

Démonstration. Considérons la relation suivante :

g jN (tk−1 ) + g jN (tk )
" !# " #
n n  
Λ̄ j (tk , tk−1 ) = E ∑ ctk ∆tk ζ CDO − E ∑ ctk f jL (tk ) − f jL (tk ) .
k =1
2 k =1

De l’égalité (3.17) , il vient que

f jL (tk ) + f jN (tk−1 )
" ! !#
n  
Λ̄ j (tk , tk−1 ) ≤ ∑ E ctk ∆tk ζ CDO uj − lj − − f jL (tk ) − f jN (tk−1 ) .
k =1
2

Sous l’hypothèse de la relation (3.15) et en considérant qu f tk > l j pour tout tk ∈ β, alors


on obtient :


n
!
E {
min , f N (tk )−l j ,u j −l j } − min{, f N (tk−1 )−bj a j −bj }
Λ̄ j (tk , tk−1 ) ≤ ∑ ctk ∆tk ζ CDO u j −l j − 2 2
k =1

 
min{, f N (tk )−b j ,a j −b j } min{, f N (tk−1 )−b j a j −b j }
− 2 − 2 .

94
De même sous la contrainte min f L (tk ) − l j , a j − b j = a j − b j , il vient que


Λ̄ j (tk , tk−1 ) ≤ 0 =⇒ Λ j (tk , tk−1 ) = 0;

sinon
" #
n
f L ( t k ) + f L ( t k −1 ) f L ( t k ) − f L ( t k −1 )
   
Λ̄ j (tk , tk−1 ) ≤ E ∑ c tk ∆tk ζ CDO aj −
2

2
.
k =1

Nous obtenons la relation (3.18)

f L (tk ) = (1 − r (tk )) h A (tk )

     
n (1−r (tk ))h A (tk )+(1−r (tk−1 )) h A (tk−1 ) (1−r (tk ))h A (tk )−(1−r (tk−1 )) h A (tk−1 )
Λ̄ j (tk , tk−1 ) ≤ E ∑ ctk ∆tk ζ CDO aj − 2 − 2 .
k =1

Par ailleurs si nous posons, pour tout tk ∈ β, h (tk ) = (1 + ε) h A (tk−1 ), il s’ensuit, en


faisant converger ε −→ 0, on a :
 
A
Λ̄ j (tk , tk−1 ) ≤ T ζ CDO a j − (1 − r (t0 )) h (t0 )

D’où le résultat

L’inégalité (3.34) de la proposition 3.2.5 est multipliée par T qui est la borne maximale
du temps de payement. Dans la proposition 3.2.6, T est remplacé par n × max {ctk (∆tk )}.
tk ∈ β

Proposition 3.2.6. En considérant la relation (3.22), en prenant en compte les montants nomi-
naux h jA et un taux de recouvrement r j ; alors si min f L (tk ) − b j , u j − l j = f N (tk ) − l j et


max {ctk (∆tk )} = ncα , c ∈ R+ α > 1, alors


tk ∈T

 
A
Λ̄ j (tk , tk−1 ) ≤ n × max {ctk (∆tk )} ζ CDO a j − (1 − r (t0 )) h (t0 ) (3.35)
tk ∈ β

Démonstration. Pour cette preuve nous allons utiliser la relation (3.22), il vient que

n  
Λ̄ j (tk , tk−1 ) ≤ ∑ E [ctk ∆tk ] ζ CDO a j − (1 − r (t0 )) h A (t0 ) ;
k =1

maintenant nous avons ;

Λ̄ j (tk , tk−1 ) ≤ n × max {ctk ∆tk } ζ CDO a j − (1 − r (t0 )) h A (t0 )



tk ∈ β

Dans les sections suivantes nous procédons à des simulations sur les fonctionnelles

95
qui ont fait l’objet de la présente section. Il s’agit des modèles que nous avons utilisés
pour estimer les primes par défaut et les primes par excès.

3.3 Modèle numérique de facteurs de risque

3.3.1 Primes prévues et primes par défaut du portefeuille CDS


Primes prévues du portefeuille CDS.

Nous considérons dans cette section la relation (3.20)


n  
γ1 (tk , tk−1 ) = ∑ ctk L L
f ( t k ) − f ( t k −1 ) .
k =1

Nous proposons ici quelques lignes de codes R qui nous permettront, à travers des va-
riables prises de manière aléatoire de la relation (3.20), de générer un tableau de montants
nominaux.
1. La première étape consiste bien sûr à initialiser les différentes variables. Nous al-
lons prendre un taux constant de recouvrement, r = 40% .
2. Nous avons considéré dans le chapitre ?? que le montant nominal suivait une
séquence de suite géométrique de raison (1 + ε) que nous allons prendre (1 + ε) =
0, 2 et considérer que le montant nominal initial h A (t0 ) = 500000 FCFA. Notre
simulation sera constituée d’une vingtaine de montants nominaux. En partant du
postulat que 1 + ε = 0.2 et que r = 40% nous obtenons le résultat suivant pour les
montants nominaux :
550000.0 605000.0 665500.0 732050.0 805255.0
885780.5 974358.6 1071794.4 1178973.8 1296871.2
1426558.4 1569214.2 1726135.6 1898749.2 2088624.1
2297486.5 2527235.1 2779958.7 3057954.5 3363750.0

TABLE 3.1 – Tableau des montants nominaux

3. Pour le calendrier de paiement β, nous allons considérer qu’il y aurait vingt ver-
sements et que les tk ∈ β ∼ N (0, 1). Ce qui nous procure des données pour les tk
que nous avons regroupées dans un second tableau
0.1594331 0.8122814 0.5583381 1.1134288 0.9675491
1.3877812 0.2654133 0.1117348 1.3697297 1.2506262
1.9098103 0.3011226 1.3942141 1.2530195 0.1289579
1.5658966 0.4392502 0.1988391 1.5947587 0.2519386

96
TABLE 3.2 – Tableau calendrier de paiement

Le graphique suivant représente le temps de paiement associé aux vingt montants


de bases.

F IGURE 3.2 – Temps de paiement.

Cette figure fait le lien entre les données du tableau 3.1 et celles du tableau 3. Elle
nous renseigne par exemple que les 3363750 ont été réglé à la date 0,251 en unité
de temps.
4. Nous implémentons la fonction f L (tk ) avec t ∈ β. L’image des points tk par f L
nous renvoie les valeurs suivantes :
330000.0 363000.0 399300.0 439230.0 483153.0
531468.3 584615.1 643076.6 707384.3 778122.7
855935.0 941528.5 1035681.4 1139249.5 1253174.5
1378491.9 1516341.1 1667975.2 1834772.7 2018250.0

TABLE 3.3 – Image des tk par la fonction des pertes f L .

97
F IGURE 3.3 – Image des tk par la fonction des pertes f L

Nous avons là, la représentation du processus de perte f L en fonction du temps


de payement.
5. Ensuite nous avons programmé les différences de pertes f L (tk ) − f L (tk−1 ) et nous
avons obtenu les 20 valeurs suivantes :
33000.00 36300.00 39930.00 43923.00 48315.3
53146.83 58461.51 64307.66 70738.43 77812.27
85593.5 94152.85 103568.14 113924.95 125317.45
137849.19 151634.11 166797.52 166797.52 183477.27

TABLE 3.4 – Différences de pertes f L (tk ) − f L (tk−1 )

6. Enfin nous calculons


n  
γ1 (tk , tk−1 ) = ∑ ctk f L ( t k ) − f L ( t k −1 )
k =1

pour n = 20 on a γ1 = 2695699 avec ctk = exp(tk−1 − tk ).

Primes par défaut du portefeuille CDS.

Dans cette sous section nous abordons le cas des primes par défaut. Nous allons consi-
dérer dans cette section la relation (3.21)

98
n
g N ( t k −1 ) + g N ( t k )
 
γ2 (tk , tk−1 ) = ∑ ctk ∆tk ζ CDS .
k =1
2

1. Nous obtenons pour les valeurs de g N (tk ) avec tk ∈ β :

-459999.0 -604999.0 -665499.0 -732049.0 -805254.0


-885779.5 -974357.6 -1071793.4 -1178972.8 -1296870.2
-1426557.4 -1569213.2 -1726134.6 -1898748.2 -2088623.1
-2297485.5 -2527234.1 -2779957.7 -3057953.5 -3363749.0

TABLE 3.5 – Valeurs fonction nominale restante

F IGURE 3.4 – nominale restante

La figure 1 est la représentation du nominal restant du CDS de notre portefeuille.

99
2. La valeur de γ2 (tk , tk−1 ) devient :

γ2 = 0

3.3.2 Bonus actualisé escompté et la tranche CDO par défaut


Bonus actualisé escompté

Nous allons considérer dans cette section la relation (3.31)

n  
γ1 (tk , tk−1 ) = ∑ ctk
j
f jL (tk ) − f jL (tk−1 ) .
k =1

1. La première étape consiste bien sûr à initialiser les différentes variables. Nous al-
lons prendre un taux constant de recouvrement r = 40%.
2. Nous avons considéré dans le chapitre ?? que le montant nominal suivait une
séquence de suite géométrique de raison (1 + ε) que nous allons prendre (1 + ε) =
0, 2 et considérer que le montant nominal initial h A (t0 ) = 500000 FCFA. Notre
simulation sera constituée d’une vingtaine de montants nominaux. En partant du
postulat que 1 + ε = 0.2 et que r = 40% nous obtenons le résultat suivant pour les
montants nominaux :
550000.0 605000.0 665500.0 732050.0 805255.0
885780.5 974358.6 1071794.4 1178973.8 1296871.2
1426558.4 1569214.2 1726135.6 1898749.2 2088624.1
2297486.5 2527235.1 2779958.7 3057954.5 3363750.0

TABLE 3.6 – Tableau des montants nominaux

3. Pour le calendrier de paiement β , nous allons considérer qu’il y aurait vingt ver-
sements tels que les tk ∈ β et suivent une loi de student à 2 dégrés de liberté. Ce
qui nous donne des données pour les tk que nous avons régroupé dans un second
tableau
0.4447793 0.8703667 0.1100441 2.0504895 1.9012372
0.4568007 2.9101026 0.2424020 1.0276790 0.4892273
0.527005 1.5721197 0.2657413 1.7714070 1.2071657
1.7831991 1.9659642 0.1985962 0.2693535 0.1287397

100
TABLE 3.7 – Tableau calendrier de paiement

F IGURE 3.5 – graphe du temps de paiement student

Avec un ajustement du temps de payement par la loi de Student, nous obtenons,


une représentation des données du tableau 2 et du tableau 3.
4. Ensuite nous avons programmé les pertes f jL (tk ) et nous avons obtenu les 20 va-
leurs suivantes :
-500000.00 0.00 0.00 0.00 0.00
0.00 13186.56 80576.64 151828.75 228122.74
310480.47 399861.85 497219.83 603535.22 719841.12
847241.90 986929.32 1140197.42 1308456.92 1493249.98

TABLE 3.8 – Fonction perte f jL (tk )

Pour les points de fixation inférieur et supérieur a j et b j nous avons considéré ce


ci :
aj = h A ( t0 )

1 + j −1 × h A t j
 
bj =

101
F IGURE 3.6 – Fonction perte f jL (tk )

La figure 4 représente les perte pour la tranche CDO en fonction du temps de


payement tk .
5. Calculons maintenant la différence de perte f jL (tk ) − f jL (tk−1 ). Le tableau suivant
nous donne ces valeurs :
500000.00 0.00 0.00 0.00 0.00
13186.56 67390.08 71252.11 76293.99 82357.73
89381.38 97357.98 106315.39 116305.90 127400.78
139687.42 153268.10 168259.51 1847930.6

6. Enfin nous calculons


n  
γ1 (tk , tk−1 ) = ∑ ctk
j
f jL (tk ) − f jL (tk−1 )
k =1

j
pour n = 20 on a γ1 = 3615075 avec ctk = exp(tk−1 − tk ).

Tranche CDO par défaut

Si nous nous référons à la relation (3.32), il en ressort que :

g jN (tk−1 ) + g jN (tk )
!
n
= ∑ ctk ∆tk ζ CDO
j
γ2 (tk , tk−1 ) .
k =1
2

102
1. Nous obtenons pour les valeurs de g jN (tk ) avec tk ∈ β :

0.0 250000.0 833333.3 1375000.0 1900000.0


2416666.7 2915384.9 3356923.4 3792615.7 4221877.3
4644065.0 5058471.5 5464318.6 5860750.5 6246825.5
6621508.1 6983658.9 7332024.8 7665227.3 7981750.0

TABLE 3.9 – Valeurs fonction nominale restante g jN (tk )

F IGURE 3.7 – nominale restant

Représentation des nominaux restants de la tranche CDO.


j
2. La valeur de γ2 (tk , tk−1 ) devient :

j
γ2 = −1329293.

3.4 Rendements et distribution de Pertes et Profits d’un


portefeuille
Dans la sous section suivante nous évaluons le rendement géométrique des données
de la BRVM durant leurs activités de 1998 à 2011. Le traitement des données boursières

103
(actions et obligation) de la BRVM a été fait sur la base de la proposition 3.4.1 et du
corollaire 3.4.1.

3.4.1 Mesures de rendements et la distribution de Pertes et Profits


Nous proposons ici une définition du rendement géométrique avec pour paramètres
l’espérance mathématique et l’écart-type.

Proposition 3.4.1. Soient w = (w1 , ..., wn ) T ∈ Rn un portefeuille composé de n capitaux et


St = (S1,t , ..., Sn,t ) T le vecteur aléatoire non négatif représentant les capitaux à l’instant t. Alors
le rendement géométrique est :
!
1/2
([ (σ(St ))2 +(E(St ))2 ]) n×∆t
Rt = log 2 2 1/2 + 1/2 1/2 (3.36)
([(σ(St−1 )) +(E(St−1 )) ]) ([ (σ(w))2 +(E(w))2 ]) × ([(σ(St−1 ))2 +(E(St−1 ))2 ])

où σ (·) représente l’écart-type et E (·) la moyenne avec ∆t l’ensemble des paiements intermé-
diaires obtenus entre les dates t − 1 et t.

Démonstration. La valeur Pt du portefeuille est donnée par :

n
Pt = ∑ w j Sj,t . (3.37)
j =1

La valeur d’un portefeuille Pt au temps t est également une variable aléatoire. Soit
une période de temps, le profit dans l’intervalle [t, t + τ ] est donné par ( Pt+τ − Pt ).
Soit ∆t l’ensemble des paiements intermédiaires obtenus entre les dates t − 1 et t. Les
pertes et profits associés à la détention de l’actif sont alors définis par la différence : Les
pertes et profits (Pp ) associés à la détention de l’actif sont alors définis par la différence :

n
PP = Pt + ∆t − Pt−1 = ∑ wj S j,t − S j,t−1 + ∆t .

(3.38)
j =1

La relation (3.38) devient, à l’aide du produit scalaire :

PP = hw, St − St−1 i = kwk kSt − St−1 k + ∆t . (3.39)

En effet sur les mêmes types de considérations de la section (??) (w et St sont liés), nous
avons en somme :
!1/2 !1/2
n n
∑ w2j ∑
2
PP = × S j,t − S j,t−1 + ∆t . (3.40)
j =1 j =1

Ces pertes et profits sont exprimés sous la forme d’un rendement géométrique noté

104
Rt :  !1/2 !1/2 
n n
 ∑ w2j × ∑ S2j,t + ∆t 
Pt + ∆t
 
j =1 j =1
 
Rt = log = log  . (3.41)
 
!1/2 !1/2 
Pt−1  n n 
∑ w2j × ∑ S2j,t−1
 
j =1 j =1

Si nous considérons la relation suivante ;

   
1 1/2
2 2
E St2 = (σ (St )) + (E (St )) ,
n

il vient alors que :

!
1/2
([ (σ(St ))2 +(E(St ))2 ]) n×∆t
Rt = log 2 2 1/2 + 1/2 1/2 . (3.42)
([(σ(St−1 )) +(E(St−1 )) ]) ([ (σ(w))2 +(E(w))2 ]) × ([(σ(St−1 ))2 +(E(St−1 ))2 ])

On suppose que le rendement à la date t, i.e. Rt , est une variable aléatoire réelle.

Définition 3.4.1. On appelle fonction de distribution de pertes et profits, la fonction de


densité associée à cette variable aléatoire réelle, notée : f Rt ( x ) ∀ x ∈ R.

3.4.2 Applications à des données boursières


Le tableau suivant à été élaboré avec des données sur les activités de 1998 à 2011 de la
Bourse Régionale des Valeurs Mobilières S.A. Dépositaire Central/Banque de Règlement
(BRVM DCBR). Nous avons calculé les moyennes et les écart-type des volumes et les
valeurs des actions et obligations par année.

105
années Actifs E (w) σ (w) E ( St ) σ ( St )
1998 Actions 11073,409 19886,501 241030298,2 338277543,3
Obligations 11117,340 19894,717 241424584,6 338405522,2
Actions 32 004,8 159 145,210 355 810 266,2 1 052 471 119,3
1999
Obligations 32 133,313 159 128,235 357 261 884,8 1 052 220 659,8
Actions 6 466,054 20 316,42 161 896 352,0 360 932 298,234
2000
Obligations 3 942,116 21 382,781 91 348 640,99 389 309 776,504
Actions 2 247,353 2 619,134 37 792 196,077 40 439 016,488
2001
Obligations 2 835,766 24 053,078 37 467 441,161 253 149 317,441
Actions 2 851,635 11 059,095 44 291 307,267 205 070 942,815
2002
Obligations 464,688 2 660,750 5 364 395,753 26 724 274,024
Actions 3 776,176 21 960,062 50 564 429,4 189 401 002,588
2003
Obligations 665,614 5 490,761 6 819 382,176 54 800 713,168
Actions 6 767,653 33 044,495 95 315 850,157 293 237 696,386
2004
Obligations 5 108,438 58 174,976 51 343 769,845 581 713 973,842
Actions 75 902,261 168 841,667 248 552 508,869 468 785 952,031
2011
Obligations 7 313,970 45 036,286 71 607 925,421 441 762 089,429

TABLE 3.10 – Tableau de moyenne et écart-type des actions et opbligations de la BRVM


DCBR, activité de 1998-2011

Nous avons ici les valeurs des paiement intermédiaire ∆t et des valeurs du rendement
géométrique Rt . Les Rt ont été calculé à l’aide de la formule (3.36).

1988-1999 1999-2000 2000-2001 2001-2002


Actions 596840564,4 517706618,2 199688548,07 82083503,34
∆t
Obligations 598686469,4 448610525,79 128816082,15 42831836,91
Actions 0,4275267507 1,0621350108 1,0882952794 1,5952793921
Rt
Obligations 1,5709631815 1,0020582189 0,9227645657 0,6152214254

TABLE 3.11 – Rt des actions et obligation de la BRVM DCBR, activité de 1998-2002

106
2002-2003 2003-2004 2004-2011
Actions 94855736,66 145880279,55 762023648,41
∆t
Obligations 12183777,92 636514687,01 1023476063,27
Actions 1,0713228447 0,196697231 1,7855246465
Rt
Obligations 1,1056023583 1,0242694014 1,631693008

TABLE 3.12 – Rt des actions et obligation de la BRVM DCBR, activité de 2002-2011

F IGURE 3.8 – Rendement géométrique (Rt ) des actions et des obligations

La valeur-à-risque à la date t obtenue conditionnellement à l’ensemble d’information


Ωt s’écrit alors sous la forme :

VaRα ( Rt ) = FR−t1 ( Rt /Ωt ) . (3.43)

E [ Rt ] σ ( Rt ) VaR0,05 ( Rt )
Actions 1,032397307886 0,5706464389861 0,9712435149961
Obligation 1,1246531656 0,3610242584408 0,9994415046241

TABLE 3.13 – Tableau récapitulatif de la VaR pour les actions et les obligations de la BRVM

Le résultat suivant est une conséquence de la proposition (3.4.1) :

107
Corollaire 3.4.1. Soient w = (w1 , ..., wn ) T ∈ Rn un portefeuille composé de n capitaux et
St = (S1,t , ..., Sn,t ) T le vecteur aléatoire non négatif représentant les capitaux à l’instant t. Alors
le rendement géométrique est :

n × ∆t
Rt (w) ' h i1/2 h i1/2 (3.44)
(σ (w))2 + (E (w))2 × (σ (St ))2 + (E (St ))2

où σ (·) représente l’écart-type et E (·) la moyenne avec ∆t l’ensemble des paiements intermé-
diaires obtenus entre les dates t − 1 et t.
Démonstration. En prenant en compte la relation (3.36) et en supposant que St et St−1 sont
de même nature, nous avons :

σ (St ) ' σ (St−1 ) et E (St ) ' E (St−1 ) .

De plus, en utilisant la formule de développement limité au voisinage de zéro de log(1 +


x ) ' x, il vient que :
 
n × ∆t
Rt (w) = log 1 + h i1/2  ,
 
i1/2 h
(σ (w))2 + (E (w))2 × (σ (St ))2 + (E (St ))2

d’où le résultat.

Nous avons ici les valeurs des paiement intermédiaire ∆t et des valeurs du rendement
géométrique Rt . Les Rt ont été calculé à l’aide de la formule (3.44).

1988-1999 1999-2000 2000-2001 2001-2002


Actions 596840564,4 517706618,2 199688548,07 82083503,34
∆t
Obligations 598686469,4 448610525,79 128816082,15 42831836,91
Actions 0,0015150838 11,1820588862 12,1145708254 35,5898828768
Rt
Obligations 34,5628717422 9,6876441876 7,7307996125 4,0165640555

TABLE 3.14 – Rt des actions et obligations de la BRVM DCBR, activités de 1998-2002

2002-2003 2003-2004 2004-2011


Actions 94855736,66 145880279,55 762023648,41
∆t
Obligations 12183777,92 636514687,01 1023476063,27
Actions 10,8504273986 17,8577234369 59,3065334614
Rt
Obligations 10,7267071686 276,6006268346 42,0582221876

108
TABLE 3.15 – Rt des actions et obligations de la BRVM DCBR, activités de 2002-2011

Nous constatons que les valeurs du Tableau 3.4.2 sont largement différentes de celles
du Tableau 3.4.2. Cela est dû à deux choses :
— Nous avons considéré dans un premier temps que σ (St ) ' σ (St−1 ) et E (St ) '
E (St−1 ) . Ce qui n’est généralement pas le cas.
— Nous avons aussi considéré dans un voisinage de zéro, alors que les chiffres utili-
sés ne sont pas nuls.
La relation 3.44 est purement théorique et reste vraie que pour des données proches de
zéro.

La notion de copule archimédienne imbriquée ou récursive est assez inté-


ressante d’un point de vue théorique. La section 3.2 sur la tarification nous as
permis de comprendre les technique de calcul des primes par défaut et des
primes par excès. les différentes inégalités et égalités ont été initiées dans le
but de faire des estimation des primes par défaut et des primes par excès sur
les CDO et CDS.

109
Conclusion générale

Cette thèse avait pour objectif de proposer une contribution à la modélisation des
risques de portefeuille à l’aide des copules multivariées. C’est dans cette dynamique, que
nous avons dans un premier temps rappelé, dans le chapitre 1, tous les outils mathéma-
tiques stochastiques et financiers utilisés dans notre travail. Ce chapitre nous a permis
ainsi de situer, le contexte du travail et de définir le cadre et l’environnement de notre
étude.

Les chapitres 2 et 3 contiennent l’essentiel de nos contributions, nous avons étudié cer-
taines propriétés des mesures dérivées de la valeur à risque (VaR) de la variable aléatoire
modélisant le comportement stochastique des actifs du portefeuille. Plus précisément, la
cohérence et les propriétés convexes de la valeur-à-risque conditionnelle et l’écart-type
sont représentés. De plus, une nouvelle version du scénario à haut risque est caractérisée
et les densités bivariées sont modélisées par une approche avec les copules. Ces diffé-
rentes inégalités sont à prendre sur un point de vue purement théorique. L’hypothèse
selon laquelle les montants nominaux peuvent suivre une certaine loi récurrente entre
elle semble très irréelle et simpliste. Mais même si ce modèle n’est pas parfait, tous les
comportements sont bien régis par une certaine loi. Cette loi récurrente que nous utili-
sons peut s’intègre dans une certaine dynamique de comportement financier.

Nous avons élaboré un certain nombre d’algorithme et de proposition. Qui nous l’es-
pérons pourront servir de base d’application au spécialiste du monde financier.
Ce travail de thèse nous a permis d’approfondir nos connaissances sur les notions de
copule et de la valeur à risque, que nous avons entamé dans nos mémoires de DEA 2 . De
plus, en travaillant plus en profondeur sur ces sujets. Nous sommes arrivés a interpréter
certaines relations entre copule et la VaR. Ce qui nous a permis de trouver des égalités
(fortes) et des inégalités entre ces deux notions.

Notre travail s’ouvre sur des perspectives très intéressantes et variées qui feront l’ob-
jet de nos prochaines articles. En effet, nous nous intéresserons à l’application de nos
différents résultats à d’autres aspects de la modélisation en finance. Le travail qui reste
à faire dans la partie simulation, est de calculer les moyennes de fonctionnelles données
sous certaines conditions de probabilité et ensuite faire une simulation graphique.
2. Diplôme d’Étude Approfondie

110
Bibliographie

[1] Areski Cousin,(2008) : Analyse du Risque et Couverture des Tranches de CDO Synthé-
tique. Doctorat de l’Université Claude Bernard Lyon I.
[2] Artzner, P., Delbaen, F., Eber, J.-M., and Heath, D. (1999) : “Coherent measures of
risk.”Mathematical Finance”, 9 (3) : 203-228.
[3] Bernadino E. D. (2011) : Modélisation de la dépendance et mesure de risque multidimen-
sionnelles. HAL Id : tel-00838598 https ://tel.archives-ouvertes.fr/tel-00838598.
[4] Böcker K., (2008) : Modeling and measuring multivariate operational risk with Lévy co-
pulas. The Journal of Operational Risk 3 (2) pp 3-27.
[5] Bouyé E.(2002) : Multivariate Extremes at Work for Portfolio Risk Measurement. War-
wick Business School Working Paper Series, WP01-10.
[6] Cadoux D. Loizeau J. M. (2004) : Copule et dépendances : application pratique à la déter-
mination du besoin en fonds propres d’un assureur non vie. Bulletin français d’actuariat,
Vol. 6, N° 12, 2004, pp. 173-208
[7] Charpentier, A. and Segers, J. (2009) : Tails of multivariate Archime-
dean copulas. J. Multivariate Anal. 100, 1521–1537. MathSciNet : MR2514145
doi :10.1016/j.jmva.2008.12.015.
[8] Cousin A., Di Bernardino E. (2012) : A multivariate extension of Value-at-Risk and
Conditional- Tail-Expectation. arXiv :1111.1349v1 [q-fin.RM] 5 Nov 2011.
[9] Craig Mounfield (2008) : Synthetic CDOs Modelling, Valuation and Risk Management,
Mathematics, Finance and Risk. Cambridge University Press The Edinburgh Building,
Cambridge CB2 8RU, UK Published in the United States of America by Cambridge
University Press, New York.
[10] Dean Fantazzini, (2008) : Copula’s Conditional Dependence Measures for Portfolio Ma-
nagement and Value at Risk. Moscow School of Economics-Moscow State University.
[11] Diakarya Barro, (2010) : Contribution à la modélisation statistique des valeurs extrêmes
multivariées. Thèse de doctorat unique de l’Université Ouagadougou.
[12] Diakarya Barro, Simplice Dossou & Saliou Diouf, (2012) : Stochastic Dependence
Modeling Using Conditional Elliptical Processs. Journal of Mathematics Research.
[13] Embrechts P. Lindskog F. et McNeil A., (2000) : Modeling Dependence with Copulas
and Applications to Risk Management. Filip Lindskog, RiskLab, ETH Zurich.

111
[14] Embrechts, P. Mikosch, T. Klüppelberg, C. (1997) : “Modelling Extremal Events : for
Insurance and Finance”. Springer-Verlag, London.
[15] Embrechts P. and G. Puccetti. (2006) : Bounds for functions of multivariate risks. Jour-
nal of Multivariate Analysis, 97(2) :526-547.
[16] Embrechts, P., A. McNeil and D. Straumann (2002) : Correlation and Dependence in
Risk Management : Properties and Pitfalls, in M. Dempster (ed.), Risk Management : Value
at Risk and Beyond. Cambridge University Press, pp. 176-223.
[17] Eric Bouyé,(2000) : Multivariate Extremes at Work for Portfolio Risk Measurement, Fi-
nancial Econometrics Research Centre. CUBS, London & HSBC Asset Management Eu-
rope (SA), Paris.
[18] Eric Bouyé, V. Durrleman, A. Nikeghbali, G. Riboulet, and T. Roncalli,(2000) :
Copulas for finance. A reading guide and some applications Crédit Lyonnais. Financial
Econometrics Research Centre City University Business School London, Groupe de
Recherche Opérationnelle Crédit Lyonnais Paris.
[19] Fadhila L. (2011) : Modélisation de la dépendances par les copules et application. Thèse
de doctorat de l’Université de Mouloud Mammeri, Tizi-Ouzou Faculté des Sciences
Département de Mathématiques (Algérie).
[20] Fougères, A., L (1996) : Estimation non paramétrique de densités unimodales et de fonc-
tions de dépendance. Thèses de doctorat de l’Université Paul Sabatier de Toulouse.
[21] Frahm et al., (2005) : Estimating the tail dependence coefficient- Insurance. Mathematics
and Economics 37, 80-100.
[22] Guus Balkema and Degen M. Embrechts P. (2004) : Multivariate excess distribu-
tions. KdV Instituut voor Wiskunde University of Amsterdam The Netherlands, De-
partment of Mathematics ETH Zurich Switzerland

[23] Jan Marius Hofert (2010) : Sampling Nested Archimedean Copulas with Applications to
CDO Pricing. Ulm University Institute of Number Theory and Probability Theory
Helmholtzstraße 18 89081 Ulm.
[24] Joe, H. (1997) : Multivariate Models and Dependence Concepts - Monographs on Statistics
and Applied Probabilty 73. Chapman and Hall, London.
[25] John Muteba MWAMBA (2011) : Applying a genetic algorithm to international diversifi-
cation of equity portfolios : a south AFRICAN investor perspective. South African Journal
of Economics
[26] Jules Sadefo Kamdem (2004) : Méthodes analytiques pour le Risque des Portefeuilles
Financiers. HAL archive-ouvertes.fr
[27] M. Denuit and A. Charpentier (2004) : Mathématiques de l’assurance non-vie. Tome 1 :
Principes fondamentaux de théorie du risque. Economica.

112
[28] Mouloud Mammeri (2011) : Modélisation de la dépendance par les copules et applica-
tions. Mémoire de Magister de Lounas Fadhila Université de Tizi-Ouzou .
[29] Nelsen, R.B. (1999) : An Introduction to copulas-Lectures notes in Statistics 139.
Springer-Verlag (ISBN 10 : 0387986235 / ISBN 13 : 9780387986234).
[30] Patton, A. J. (2001) : Modelling Time-Varying Exchange Rate Dependence Using the
Conditional Copula. PhD thesis, Department of Economics, UCSD.
[31] Patton, A.J., (2006) : Modelling Asymmetric Exchange Rate Dependence. International
Economic Review, 47(2), 527-556.
[32] Paul Embrechts, Filip Lindskog and Alexander McNeil (2001) : Modelling Depen-
dence with Copulas and Applications to Risk Management. Department of Mathema-
tics ETHZ CH-8092 Zürich Switzerland www.math.ethz.ch/finance September 10,
2001.
[33] Pavlo Krokhmal Jonas Palmquisty Stanislav Uryasev (2002) : Portfolio Optimization
with Conditional Value-at-Risk Objective and Constraints. Journal of risk.
[34] Poncet. Portait R. : La théorie moderne du portefeuille : théorie et applications. 4986_.book
Page 795 Vendredi, 11. décembre 2009 3 :46 15
[35] Rockafellar and Uryasev (2002) : Conditional Value-at-Risk for general loss distribu-
tions. Journal of banking & finance.
[36] Rockafeller RT (2007) : Coherent approaches to risk in optimization under uncertainty.
Tutorials in Operations Research INFORMS, 38-61.
[37] Roger B. Nelsen (1999) : Introduction to copula, second edition. Springer serie of statistic.
[38] Rootzén, H. and Klüppelberg C. (1999) : “A Single Number Can’t Hedge Against
Economic Catastrophes”. Working Paper : Munich University of Technology.
[39] Roncalli T. (2005) : Prise en compte du skew de corrélation dans le pricing des CDO. SG
Asset Management
[40] Sergey S., Gaia S. and Uryasev S., (2008) : Value-at-Risk vs. Conditional Value-at-Risk
in Risk Management and Optimization. State-of-the-art decision-making tools in the
information-intensive age.
[41] Sklar, A. (1996) : “Random variables, distribution functions, and copulas a personal look
backward and forward”. Distributions with Fixed Marginals and Related Topics, 28,
1–14.
[42] Soustra, F. (2006) : ‘ Pricing of synthetic cdo tranches, analysis of base correlation and an
introduction to dynamic copulas’. Memoire de maitrise, HEC Montr eal .
[43] Tweedie, M. C. K. (1984) : “An index which distinguishes between some important
exponential families”. Statistics : Applications and New Directions : Proceedings In-
dian Statistical Institute Golden Jubilee International Conference, 579–604. UZWR,
http ://www.informatik.uni-ulm.de/uzwr/ (2009-12-30).

113
[44] Uryasev, S. (Ed.) (2000) : Probabilistic Constrained Optimization : Methodology and Ap-
plications. Kluwer Academic Publishers.
[45] Vini Yves Bernadin LOYARA (2014) : Les copules multivariées dans la modélisation
de la dépendance stochastique. Applications à la valeur à Risque en Finance. Mémoire de
DEA, Université de Ouaga I Pr Joseph KI-ZERBO.
[46] Vini Yves Bernadin Loyara, Remi Guillaume Bagré and Diakarya Barro, (2017) :
Multivariate risk modeling for financial portfolio management and climate application. Far
East Journal of Mathematical Sciences (FJMS).
[47] ViniYves Bernadin Loyara and Diakarya Barro, (2018) : Value-at-Risk Modeling with
Conditional Copulas in Euclidean Space Framework. European Journal of Pure and Ap-
plied Mathematic (EJPAM).
[48] WALID JBILI (2008) : Modélisation asymétrique de titres financiers. Mémoire présenté à
la Faculté des études supérieures de l’Université Laval dans le cadre du programme
de maîtrise en statistique pour l’obtention du grade de Maître ès sciences (M.Sc.).
[49] Wynn, P. (1956) : “On a Procrustean technique for the numerical transformation of slowly
convergent sequences and series”. Mathematical Proceedings of the Cambridge Philo-
sophical Society, 52(4), 663–671.

114
Annexe A

Lignes de code R

A.1 Ligne de code R pour coefficient de corrélation

A.1.1 Coefficient de corrélation, copule indépendante

Algorithme 1 : Cefficient de corrélation copule indépendante

> n<-20
> copuleindependante<-data.frame(y1=abs((1-log(2)/(rnorm(n, mean=0, sd=1)*(1-rnorm(n,
mean=0, sd=1))))), y2=abs((1-log(2)/(rt(n, 3)*(1-rt(n, 3)))))
+)
> matplot(copuleindependante,type=’l’)

A.1.2 Coefficient de corrélation, copule de clayton


Copule de clayton

Algorithme 2 : Cefficient de corrélation copule de clayton

n<-20
> f<-function(x,y){
+ r<-(x*(2ˆ(-y)-x)+2ˆ(-y)-1)/(x*(1-x))}
> copuleclayton<-data.frame(y1=abs(f(rnorm(n,mean=0,sd=1),1)),y2=abs(f(rt(n,3),1)))
> matplot(copuleclayton,type="l")

115
A.2 Ligne de code R pour implémentation de la valeur à
risque

I) dépendance de queue

Algorithme 3 : Ligne de code R pour dépendance de queue

library(evir)
set.seed(1000)
L=5
H=1500
x=rlnorm(n=10000,meanlog=2.5,sdlog=3)
nTail = length(x[x>H])
xBody = x[x>L & x<H]
xTail = rgpd(n=nTail, xi=0.5, mu=H, beta=1000)
x = c(xBody, xTail)

II) Plotting Mean Excess Function

Algorithme 4 : Ligne de code R pour le graphique de le fonction moyenne

meplot(x, omit=length(x)/100)
abline(v = c(H), lty = 3)
title("Mean excess function")

III) Calcul des paramètres

1) Calcul des paramètres avec la méthode ML


parGpdMl = gpd(data=xTail, threshold=H, method="ml")$par.ests
parGpdMl

2) Calcul des paramètres avec la méthode PWM

Algorithme 5 : ligne de code R pour calcul des paramètres

parGpdPwm = gpd(data=xTail, threshold=H, method="pwm")$par.ests


parGpdPwm

116
IV) Code pour la représentation graphique

Algorithme 6 : Ligne de code R pour la réprésentation graphique de la VaR

Bonne répresentation graphique “Q-Q plot” pour la méthode ML


qplot(data=xTail,xi=parGpdMl[1],threshold=H)
title("Q-Q plot (ml)")

Bonne répresentation graphique “Q-Q plot” pour la méthode PWM


qplot(data=xTail,xi=parGpdPwm[1],threshold=H)
title("Q-Q plot (pwm)")

Perte de fréquence de la distribution de Poisson


L = 5 # minimum loss threshold(seuil de perte Minimum)
ni = c(550,700,380,430,600) # number of losses per year above minimum threshold
(nombre de perte par année basé sur un seuil minimum)
lambdaSample = mean(ni) # parameter of Poisson distribution based on losses above
minimum threshold (Les paramètres de perte de la distribution de poisson basé sur le
seuil minimum)
lambda = lambdaSample / (1 - plnorm(q=L, meanlog=2.5, sdlog=2)) # parameter of
Poisson adjusted for reporting bias (Paramètres de poisson ajusté sur l’inclinaison)
hist(x=rpois(n=10000,lambda=lambda), 50, xlab="N° events / Year", ylab="Probability",
prob=TRUE, main="")
title("Frequency distribution")
lambdaSample
lambda
lambdaSample
[1] 532
lambda
[1] 791.7354
Simulation de la méthode de Monté Carlo [9]
library(evir) # Quantile function of lognormal-GPD severity distribution
qlnorm.gpd = function(p, theta, theta.gpd, u){ Fu = plnorm(u, meanlog=theta[1], sd-
log=theta[2])
x = ifelse(p<Fu, qlnorm( p=p, meanlog=theta[1], sdlog=theta[2] ),
qgpd( p=(p - Fu) / (1 - Fu) , xi=theta.gpd[1], mu=theta.gpd[2], beta=theta.gpd[3]) )
return(x)
}

117
# Random sampling function of lognormal-GPD severity distribution
rlnorm.gpd = function(n, theta, theta.gpd, u){ r = qlnorm.gpd(runif(n), theta, theta.gpd,
u) }
set.seed(1000)
nSim = 10000 # Number of simulated annual losses
H = 1500 # Threshold body-tail
lambda = 791.7354 # Parameter of Poisson body
theta1 = 2.5 # Parameter mu of lognormal (body)
theta2 = 2 # Parameter sigma of lognormal (body)
theta1.tail = 0.5 # Shape parameter of GPD (tail)
theta2.tail = H # Location parameter of GPD (tail)
theta3.tail = 1000 # Scale parameter of GPD (tail)
sj = rep(0,nSim) # Annual loss distribution inizialization
freq = rpois(nSim, lambda) # Random sampling from Poisson
for(i in 1 :nSim) # Convolution with Monte Carlo method
sj[i] = sum(rlnorm.gpd(n=freq[i], theta=c(theta1,theta2), theta.gpd=c(theta1.tail, theta2.tail,
theta3.tail), u=H))

A.3 Lignes de code simulation tarification CDO et CDS

A.3.1 Lignes de code R pour CDS

Algorithme 7 : Ligne de code R pour CDS

> r<-0.4
> HA_0<-500000
> HA<-1 :20 > for(i in 1 :20)
+ + {HA[i]<-(1+0.1)^i*HA_0}
> T<-1 :20
> T<-rnorm(20,mean=0,sd=1)
>T
[1] -0.57260498 0.26293783 -0.14037367 0.55311653 0.33724579 -1.60816651
[7] -0.28036834 -0.72010350 -0.23860095 -1.76426531 0.75831195 0.19842255
[13] -0.12769726 0.90477468 0.83272166 -0.91193647 -0.45336956 -0.31638368
[19] 1.53220697 0.07642253
> T<-abs(rnorm(20,mean=0,sd=1))
>T
[1] 1.3800310 0.6435236 1.8143954 0.8796964 0.3914298 0.3229469 0.8044011
[8] 0.3566538 1.0794882 0.2248758 0.5319915 2.0380504 1.4549578 0.2459191
[15] 1.3314244 1.1819323 0.5253727 1.2100704 1.4821933 0.3813743

118
> plot(T)
> plot(T,T)
> fL<-1 :20
> for(i in 1 :length(HA))
+ + {fL[i]<-(1-0.4)*HA[i]}
> Q<-1 :leangth(HA)
Erreur : impossible de trouver la fonction "leangth"
> Q<-1 :length(HA)
> for(i in 1 :length(HA))
+ + {Q[i]<-fL[i+1]-fL[i]}
>Q
[1] 33000.00 36300.00 39930.00 43923.00 48315.30 53146.83 58461.51
[8] 64307.66 70738.43 77812.27 85593.50 94152.85 103568.14 113924.95
[15] 125317.45 137849.19 151634.11 166797.52 183477.27 NA
> plot(Q) > for(i in 1 :length(HA)-1)
+ + {Q[i]<-fL[i+1]-fL[i]}
>Q
[1] 33000.00 36300.00 39930.00 43923.00 48315.30 53146.83 58461.51
[8] 64307.66 70738.43 77812.27 85593.50 94152.85 103568.14 113924.95
[15] 145524.16 265793.56 76460.38 127059.79 551647.81
> gamma<19*mean(Q)
Erreur dans gamma < 19 * mean(Q) :
comparaison (3) possible seulement pour les types liste et atomique
> gamma<-19mean(Q)
Erreur : symbole inattendu(e) dans "gamma<-19mean"
> gamma<-19*mean(Q)
> gamma
[1] 2423815
> gN<-1 :length(HA)
> gN
[1] 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
> for(i in 1 :length(HA)
+ {gN[i]<-1-fL[i]/(1-0.4)}
Erreur : ’{’ inattendu(e) dans : "for(i in 1 :length(HA) {"
> for(i in 1 :length(HA))
+ {gN[i]<-1-fL[i]/(1-0.4)}
> gN
[1] -549999.0 -604999.0 -665499.0 -732049.0 -805254.0 -885779.5
[7] -974357.6 -1071793.4 -1178972.8 -1296870.2 -1426557.4 -1569213.2
[13] -1726134.6 -1898748.2 -2088623.1 -2297485.5 -2527234.1 -2779957.7

119
[19] -3057953.5 -3363749.0
> theta<-1 :(length(HA)-1)
> theta
[1] 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19
> for(i in 1 :(length(HA)-1))
+ {theta[i]<-exp(-T[i+1]+T[i])*(T[i+1]-T[i])*(gN[i+1]+gN[i))/2*0.05}
Erreur : ’)’ inattendu(e) dans : " for(i in 1 :(length(HA)-1)) {theta[i]<-exp(-T[i+1]+T[i])*(T[i+1]-
T[i])*(gN[i+1]+gN[i)"
> {theta[i]<-exp(-T[i+1]+T[i])*(T[i+1]-T[i])*((
> for(i in 1 :length(HA)) + for(i in 1 :(length(HA)-1)))
Erreur : ’)’ inattendu(e) dans : "for(i in 1 :length(HA)) for(i in 1 :(length(HA)-1)))"
> for(i in 1 :(length(HA)-1)) + {theta[i]
<-exp(-T[i+1]+T[i])*(T[i+1]-T[i])*(gN[i+1]+gN[i])/2*0.05}
> theta
[1] 44418.044 -11532.413 83159.739 30577.927 3100.388 -13833.977
[7] 35839.732 -19741.776 124332.827 -15380.808 -25015.975 86062.247
[13] 367073.496 -36545.143 19035.357 152695.593 -45808.202 -30253.882
[19] 531356.180 > hist(theta)
> thetaf<-19*mean(theta)
> thetaf
[1] 1279539

A.3.2 Lignes de code CDO

Algorithme 8 : Ligne de code R pour CDS

> r<-0.4
> HA_0<-500000
> HA<-1 :20
> for(i in 1 :20)
+ {HA[i]<-(1+0.1)^i*HA_0}
> T<-rt(20,2)
>T
[1] -0.04906914 -2.16999670 -1.76228835 -0.24846050 -0.43414648 -1.19106548
[7] 1.75107841 1.36635300 1.31828997 0.57549797 -2.79026806 0.04418524
[13] 3.00449165 -1.62467521 1.85815149 1.77299569 -1.31521156 0.90526312
[19] 1.87434642 -0.62749251
> T<-abs(rt(20,2))
>T
[1] 0.4447793 0.8703667 0.1100441 2.0504895 1.9012372 0.4568007 2.9101026

120
[8] 0.2424020 1.0276790 0.4892273 0.5278005 1.5721197 0.2657413 1.7714070
[15] 1.2071657 1.7831991 1.9659642 0.1985962 0.2693535 0.1287397
> plot(T)
> a<-1 :20
> b<-a
> for(i in 1 :20) +
> for(i in 1 :20) + {a[i]<-HA_0}
>a
[1] 5e+05 5e+05 5e+05 5e+05 5e+05 5e+05 5e+05 5e+05 5e+05 5e+05 5e+05 5e+05
[13] 5e+05 5e+05 5e+05 5e+05 5e+05 5e+05 5e+05 5e+05
> for(i in 1 :20) + {a[i]<-i*HA_0}
> for(i in 1 :20) + {a[i]<-i*HA_0}
> for(i in 1 :20) + {b[i]<-i*HA_0}
> b [1] 5.0e+05 1.0e+06 1.5e+06 2.0e+06 2.5e+06 3.0e+06 3.5e+06 4.0e+06 4.5e+06
[10] 5.0e+06 5.5e+06 6.0e+06 6.5e+06 7.0e+06 7.5e+06 8.0e+06 8.5e+06 9.0e+06
[19] 9.5e+06 1.0e+07
> fLj<-1 :20
> for(i in 1 :20)
+ gug Erreur : objet ’gug’ introuvable
> fL<-1 :20
> for(i in 1 :20)
+ {fL[i]<-(1-0.4)*HA[i]}
> for(i in 1 :20)
+ {fLj[i]<-min(max(0,fL[i]-b[i]),a[i]-b[i])}
> fLj [1] 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
> min(0,fL)
[1] 0
> fL
[1] 330000.0 363000.0 399300.0 439230.0 483153.0 531468.3 584615.1
[8] 643076.6 707384.3 778122.7 855935.0 941528.5 1035681.4 1139249.5
[15] 1253174.5 1378491.9 1516341.1 1667975.2 1834772.7 2018250.0
> sum(T)
[1] 20.19322
>b
[1] 5.0e+05 1.0e+06 1.5e+06 2.0e+06 2.5e+06 3.0e+06 3.5e+06 4.0e+06 4.5e+06
[10] 5.0e+06 5.5e+06 6.0e+06 6.5e+06 7.0e+06 7.5e+06 8.0e+06 8.5e+06 9.0e+06
[19] 9.5e+06 1.0e+07
> for(i in 1 :20)
+ {b[i]<-(1+1/i)*HA_0}
> for(i in 1 :20)

121
+ {fLj[i]<-min(max(0,fL[i]-b[i]),a[i]-b[i])}
> fLj
[1] -500000.00 0.00 0.00 0.00 0.00 0.00
[7] 13186.56 80576.64 151828.75 228122.74 310480.47 399861.85
[13] 497219.83 603535.22 719841.12 847241.90 986929.32 1140197.42
[19] 1308456.92 1493249.98
> plot(fLj)
> for(i in 1 :20) + {fLj[i+1]-fLj[i]}
> dif<-1 :20
> for(i in 1 :20)
+ {dif<-fLj[i+1]-fLj[i]}
> dif
[1] NA
> for(i in 1 :19)
+ {dif<-fLj[i+1]-fLj[i]}
> dif [1] 184793.1
> for(i in 1 :19)
+ {dif[i]<-fLj[i+1]-fLj[i]}
> dif
[1] 500000.00 0.00 0.00 0.00 0.00 13186.56 67390.08
[8] 71252.11 76293.99 82357.73 89381.38 97357.98 106315.39 116305.90
[15] 127400.78 139687.42 153268.10 168259.51 184793.06
> for(i in 1 :20)
+ {dif[i]<-fLj[i+1]-fLj[i]}
> dif
[1] 500000.00 0.00 0.00 0.00 0.00 13186.56 67390.08
[8] 71252.11 76293.99 82357.73 89381.38 97357.98 106315.39 116305.90
[15] 127400.78 139687.42 153268.10 168259.51 184793.06 NA
> gamma_0<-1 :19
> for(i in 1 :19)
+ {gamma_0<-exp(-T[i+1]+T[i])*dif[i]}
> gamma_0
[1] 212693.1
> for(i in 1 :19)
+ {gamma_0[i]<-exp(-T[i+1]+T[i])*dif[i]}
> gamma_0
[1] 326692.931 0.000 0.000 0.000 0.000 1134.164
[7] 970875.694 32490.489 130718.457 79241.417 31456.109 359521.157
[13] 23588.148 204478.964 71614.994 116354.563 897449.322 156765.367
[19] 212693.122

122
> 19*mean(gamma_0)
[1] 3615075
> gN<-1 :20
> for(i in 1 :20) + {gN[i]<-a[i]-b[i]-fLj[i]}
> gN
[1] 0.0 250000.0 833333.3 1375000.0 1900000.0 2416666.7 2915384.9
[8] 3356923.4 3792615.7 4221877.3 4644065.0 5058471.5 5464318.6 5860750.5
[15] 6246825.5 6621508.1 6983658.9 7332024.8 7665227.3 7981750.0
> dif2<-1 :19
> for(i in 1 :19)
+ {dif2<-0.05*exp(-T[i+1]+T[i])*(T[i+1]-T[i])*(gN[i+1]-gN[i])}
> dif2 [1] -2561.360
> for(i in 1 :19)
+ {dif2[i]<-0.05*exp(-T[i+1]+T[i])*(T[i+1]-T[i])*(gN[i+1]-gN[i])}
> dif2
[1] 3475.9100 -47433.8771 7548.8157 -4548.5165 -158193.8906
[6] 5261.6353 -848483.2554 7800.6598 -19800.9205 783.4461
[11] 7615.3130 -97893.6165 6621.6286 -19149.3258 6066.1481
[16] 2756.6329 -180256.4415 1098.2970 -2561.3597
> 19*mean(dif2)
[1] -1329293
> plot(gN)

123
UNIVERSITE JOSEPH KI-ZERBO
---------------
École Doctorale
Sciences et Technologie
---------------
Laboratoire d’Analyse Numérique,
d’Informatique et de BIOmathématiques
L.A.N.I.BIO
N° d’ordre ...................

Thèse Présentée
Par Hay Yoba Talkibing
Pour l’obtention du grade de

Docteur de l’Université Joseph KI-ZERBO


Option : Sciences Appliquées
Spécialité : Statistique et Modélisation Stochastique

TITRE DE LA THÈSE
Approche stochastique dans l’épidémiologie des maladies
infectieuses émergentes.

Soutenue publiquement le 22 octobre 2020 devant le jury composé de :

Président : M. Gane Samb LO, Professeur Titulaire, Université Gaston Berger, Saint Louis, Sénégal

Membres : - M. Blaise SOME, Professeur Titulaire, Université Joseph KI-ZERBO, Burkina Faso

(Rapporteur interne) ;
- M. Bisso SALEY, Professeur Titulaire, Université Abdou Moumouni de Niamey, Niger
(Rapporteur externe) ;
- M. Sado TRAORE, Professeur Titulaire, Université Nazi Boni de Bobo Dioulasso, Burkina
Faso (Rapporteur externe) ;
1
- M. Diakarya BARRO, Professeur Titulaire, Université Thomas SANKARA, Burkina Faso
(Directeur de thèse).
Liste des enseignants

Les professeurs ayant contribué significativement à l’essor du laboratoire Lanibio la-


bellisé en centre régional d’excellence de l’UEMOA :
1. Pr NACOULIMA Ousseynou, Université des Antilles et de la Guyane, FRANCE.
2. Pr Blaise SOME, Université Joseph Ki-Zerbo, BURKINA FASO.
3. Pr Jacques TEGHEM, Université de MONS, BELGIQUE.
4. Pr Longin SOME, Université Joseph Ki-zerbo, BURKINA FASO.
5. Pr Simplice DOSSOU-GBÉTÉ, Université de Pau et des Pays de l’Adour, FRANCE.
6. Pr Gabriel BISSANGA, Université Marien N’Gouabi, CONGO-BRAZZAVILLE.
7. Pr Benjamin MAMPASSI, Université Cheik Anta Diop de Dakar, SENEGAL.
8. Pr MENSAH Patrick, Institut Polytechnique Felix Houphouet Boigny, Côte d’Ivoire.
9. Pr KOKOU Tcharie, Université de LOME, TOGO.
10. Pr Gane Samb LO„ Université Gaston Berger, SENEGAL.
11. Pr Berthold ULUNGU, Université de Kinshassa, RDC.
12. Pr Clovis NITIEMA, Université Thomas SANKARA, BURKINA FASO.
13. Pr Saley BISSO, Université Abou Moumouni, NIGER.
14. Pr BARRO Diakarya, Université Thomas SANKARA, BURKINA FASO.
15. Pr SO Ousseni, Institut Des Sciences, BURKINA FASO.
16. Pr Somdouda SAWADOGO, Institut Des Sciences, BURKINA FASO.
17. Pr KABRE/BARRO Géneviève, Institut Des Sciences, BUKINA FASO.
18. Pr N’GARASTA Garkodje, Université de N’DJAMENA, TCHAD.
19. Pr ABBO Bakary, Université de N’DJAMENA, TCHAD.

Fait à Ouagadoudougou, le 19/09/2020

Le Directeur du LANIBIO

Professeur Blaise SOME,


Chevalier de l’ordre des Palmes Académiques
Médaille d’honneur des collectivités territoriales,
Membre de l’Académie Nationale des Sciences, des Arts et des Lettres du Burkina Faso.

i
Dédicace

A
Mon père et à ma mère,
Sources inépuisables de tendresse, de patience et de sacrifice.
Vos prières et vos bénédictions m’ont été d’un grand secours tout au long de ma vie.
Puisse Dieu tout puissant, vous préserver et vous accorder santé, longue vie et bonheur.

ii
Remerciements

Cette thèse est l’aboutissement de nombreuses années de travail et d’abnégation. Elle


n’aurait pas pu aboutir sans la contribution d’un certain nombre de personnes.

C’est un immense plaisir pour moi de pouvoir remercier ici les personnes qui, durant
ce travail de recherche, m’ont soutenu et guidé statistiquement ou non, de près ou de loin.

En premier lieu, je désire exprimer ma gratitude à mon directeur de recherche, le pro-


fesseur Diakarya BARRO de l’Université Ouaga 2, qui a bien voulu accepter de diriger
cette thèse. Je voudrais lui témoigner ma profonde reconnaissance aussi pour m’avoir as-
socié à plusieurs activités académiques.

Je remercie très sincèrement le professeur Blaise SOME, directeur du laboratoire La-


nibio, pour m’avoir accepté au sein de l’équipe de chercheurs de son laboratoire et pour
tout ce qu’il fait pour la promotion de la recherche en mathématiques appliquées dans la
sous région et au Burkina Faso en particulier.

Messieurs les professeurs Blaise SOME, Gane Samb LO et Sado TRAORE ont accepté
d’être rapporteurs de cette thèse ; je les remercie pour le soin avec lequel ils ont examiné
ce travail et pour l’intérêt qu’ils lui ont porté. La qualité de leurs suggestions a permis
d’améliorer la valeur scientifique du document.

Je remercie également les professeurs Blaise SOME, Sado TRAORE et Bisso SALEY
pour avoir accepté honorer de leur présence en siégeant dans le jury et le professeur Gane
Samb LO pour avoir accepté de présider le jury.

Je désire également remercier mon papa Mr Talkibing Oueidou Balgué pour sa contri-
bution financière, morale et autres à la réalisation de cette thèse. Qu’il trouve l’expression
de ses sacrifices dans ce travail.

Je tiens à témoigner toute ma gratitude à mon compagnon de thèse, ami et frère,


Fabrice OUOBA, pour l’ambiance, l’engouement et ses conseils toujours très pertinents.
Notre entente n’aura connu aucune faille, même après la rédaction conjointe de nos tra-
vaux respectifs.

Je ne saurai terminer sans remercier très sincèrement les frères et sœurs, et plus particu-
lièrement ma sœur Rose Kouna-Willeng Talkibing et mon épouse Flora Djobo Tchindebe
qui ont su m’encourager et me soutenir tout au long de ce projet.

iii
Résumé et Abstract

Résumé
Cette thèse est une contribution à la modélisation par l’approche stochastique en
épidémiologie et en particulier, celle des maladies émergentes. La thèse s’articule essen-
tiellement autour de trois chapitres auxquels s’ajoutent une introduction, une conclusion
et une partie annexe. Dans le premier chapitre, nous rappelons des notions de base utili-
sées dans l’analyse des processus stochastiques en général et celles de la chaîne de Markov
en particulier. Dans le deuxième chapitre, nous nous sommes intéressés à l’étude de la va-
riabilité spatiale des processus épidémiologiques stochastiques. Pour ce faire, une nouvelle
approche stochastique de type SEIRS et sa probabilité d’extinction ont été introduites
pour décrire la propagation des maladies dans une population et son extinction. Des outils
géostatistiques basés sur les copules pour décrire la structure de dépendance spatiales des
processus ont été également proposés.

Mots clés : Processus stochastiques, épidémiologie, maladies infectieuses, valeurs ex-


trêmes, géostatistique et copules.

Abstract
This thesis is a contribution to stochastic modelling in epidemiology and, in parti-
cular, emerging diseases. The thesis is mainly structured around three chapters with an
introduction, a conclusion and an appendix. The first chapter is a survey of basic notions
used in the analysis of stochastic processes in general and those of the Markov chain in
particular. In the second chapter, we are interested in the study of the spatial variability
of stochastic epidemiological processes. That prompt us to introduce , a new stochastic
SEIRS-type approach and its probability of extinction in order to describe the spread of
disease in a population and its extinction. Copula-based geostatistical tools to describe
the spatial dependence structure of processes were also proposed.

Key words : Stochastic processes, epidemiology, infectious diseases, extreme values,


geostatistics and copula.

iv
Sigles, Abréviations et Notations

(Ω, F, P) : représente un espace de probabilité.

Pij : Probabilité de transition entre les états i et j.

T : L’espace des temps.

E: L’espace des états d’un processus.

SIR : Susceptible-Infected-Recovered (Susceptibles, Infectés et Guéris en français)

SEIRS : Susceptible-Exposed-Infected-Recovered-Susceptible.

R0 : Le tau de reproduction de base.

RR/OR : Risque relatif/Odds ratio.

OMS : Organisation Mondiale de la Santé.

EDO : Equations différentielles ordinaires.

i.i.d : Indépendant et identiquement distribué.

EVD : Extrême value distribution.

min(X) : Minimum de l’ensemble X.

max(X) : Maximum de l’ensemble X.

GEVD : Generalized Extreme Value Distribution.

λi : Le poids affecté par le krigéage à la valeur en xi .

z0∗ : La valeur estimée en x0 par krigéage considéré.

F.A : La fonction aléatoire.

CF : La fonction copule.

v
C(h) : La valeur de la covariance C pour une distance h.

γ(h) : Le variogramme pour une distance h entre deux points s et s + h.

V.a : La variable aléatoire.

E(X) : L’espérance mathématique de la variable aléatoire X.

V(X) : La variance de la variable X.

MVE : Estimateur du Maximum de vraisemblance.

SIDA : Syndrome Immunodéficience Acquise.

IST : Infections Sexuellement Transmissibles.

Covid-19 : Coronavirus disease 2019 (Maladie à coronavirus 2019).

SRAS : Syndrome Respiratoire Aigu Sévère.

TI : Taux d’infection.

H1 N1 : La grippe porcine.

VIH : Virus Immunodéficience Humaine(ou Human Immunodeficiency Viruses en anglais).

VEM : Valeurs extrêmes multivariées.

vi
Table des matières

Liste des enseignants i

Dédicace ii

Remerciements iii

Résumé et Abstract iv
Résumé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iv
Abstract . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iv

Sigles, abréviations et notations v

Introduction générale 1

1 Cadre et environnement du travail 4


1.1 Cadre et outils stochastiques de l’étude . . . . . . . . . . . . . . . . . . . . 4
1.1.1 Introduction aux processus stochastiques . . . . . . . . . . . . . . . 4
1.1.2 Les grandes familles de processus stochastiques . . . . . . . . . . . 5
1.1.2.1 Séries temporelles ou chronologiques . . . . . . . . . . . . 6
1.1.2.2 Processus de Markov . . . . . . . . . . . . . . . . . . . . . 6
1.1.2.3 Processus de comptage . . . . . . . . . . . . . . . . . . . . 7
1.1.2.4 Processus de Poisson . . . . . . . . . . . . . . . . . . . . . 8
1.1.2.5 Processus de renouvellement . . . . . . . . . . . . . . . . . 8
1.1.2.6 Les files d’attentes . . . . . . . . . . . . . . . . . . . . . . 9
1.1.2.7 Les processus gaussiens . . . . . . . . . . . . . . . . . . . 10
1.1.3 Cas particuliers des chaînes de Markov . . . . . . . . . . . . . . . . 11
1.1.3.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.1.3.2 La probabilité de transition . . . . . . . . . . . . . . . . . 11
1.2 Cadre et environnement de l’épidémiologie . . . . . . . . . . . . . . . . . . 13
1.2.1 Historique, domaine et fondements de l’épidémiologie . . . . . . . . 13
1.2.2 Types d’études épidémiologiques . . . . . . . . . . . . . . . . . . . 14
1.2.2.1 Épidémiologie descriptive . . . . . . . . . . . . . . . . . . 14
1.2.2.2 Épidémiologie analytique . . . . . . . . . . . . . . . . . . 14
1.2.2.3 Épidémiologies étiologiques . . . . . . . . . . . . . . . . . 15
1.2.3 Quelques indicateurs en épidémiologie . . . . . . . . . . . . . . . . . 15
1.2.3.1 Mesures de risque et d’incidence . . . . . . . . . . . . . . . 15
1.2.3.2 Prévalence . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.2.3.3 Taux d’incidence . . . . . . . . . . . . . . . . . . . . . . . 16
1.2.3.4 Risque cumulé de maladie . . . . . . . . . . . . . . . . . . 16

vii
TABLE DES MATIÈRES

1.2.3.5 Mesures d’association en épidémiologie . . . . . . . . . . . 17


1.2.4 Surveillance épidémiologique . . . . . . . . . . . . . . . . . . . . . . 19
1.2.5 Notion de biais en épidémiologie . . . . . . . . . . . . . . . . . . . . 20
1.2.5.1 Biais de sélection . . . . . . . . . . . . . . . . . . . . . . . 20
1.2.5.2 Biais de classement . . . . . . . . . . . . . . . . . . . . . . 20
1.2.5.3 Biais de confusion . . . . . . . . . . . . . . . . . . . . . . 20
1.2.6 Quelques terminologies . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.2.7 Taux de reproduction de base . . . . . . . . . . . . . . . . . . . . . 21
1.3 Cadre conceptuel des maladies émergentes . . . . . . . . . . . . . . . . . . 22
1.3.1 Historique du concept . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.3.2 Quelques concepts des maladies émergentes . . . . . . . . . . . . . 23
1.3.2.1 Les maladies transmissibles . . . . . . . . . . . . . . . . . 23
1.3.2.2 Les maladies infectieuses . . . . . . . . . . . . . . . . . . . 23
1.3.2.3 Les maladies émergentes . . . . . . . . . . . . . . . . . . . 24
1.3.2.4 Les maladies reémergentes . . . . . . . . . . . . . . . . . . 24
1.3.3 Quelques exemples des maladies émergentes dans le monde . . . . . 25
Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

2 Contribution à la modélisation stochastique en épidémiologie 27


2.1 Modèles stochastiques usuels en épidémiologie . . . . . . . . . . . . . . . . 27
2.1.1 Modèle de Reed-Frost . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.1.2 Modèle de Greenwood . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.1.3 Processus Galton-Watson . . . . . . . . . . . . . . . . . . . . . . . 30
2.1.4 Processus de naissance et de mort . . . . . . . . . . . . . . . . . . . 31
2.1.5 Le modèle SIR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.2 Le modèle stochastique SEIRS en épidémiologie . . . . . . . . . . . . . . . 34
2.2.1 Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.2.2 Publication 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.2.3 Commentaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.3 Probabilité d’extinction et modèle SEIRS . . . . . . . . . . . . . . . . . . . 47
2.3.1 Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.3.2 Publication 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.4 Commentaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63

3 Analyse géostatistique et épidémiologie 64


3.1 Introduction à la géostatistique . . . . . . . . . . . . . . . . . . . . . . . . 64
3.1.1 Présentation de la géostatistique . . . . . . . . . . . . . . . . . . . . 64
3.1.2 Méthodes de la géostatistique . . . . . . . . . . . . . . . . . . . . . 65
3.1.3 Éléments d’estimation géostatistiques . . . . . . . . . . . . . . . . . 66
3.1.3.1 Hypothèses de travail . . . . . . . . . . . . . . . . . . . . 66
3.1.3.2 La fonction covariance ou le corrélogramme . . . . . . . . 67
3.1.3.3 Le variogramme et ses dérivées . . . . . . . . . . . . . . . 68
3.1.3.4 Le krigeage ou l’interpolation spatiale . . . . . . . . . . . 70
3.2 Éléments de lois extrêmes multivariées . . . . . . . . . . . . . . . . . . . . 74
3.2.1 Préliminaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
3.2.1.1 Rappels sur les lois multivariées . . . . . . . . . . . . . . . 74
3.2.1.2 Max-infiniment divisibilité et max-stabilité . . . . . . . . . 75
3.2.2 Modèles paramétriques des extrémes multivariés . . . . . . . . . . . 76
3.2.2.1 Lois des extrêmes multivariés . . . . . . . . . . . . . . . . 76

viii
TABLE DES MATIÈRES

3.2.2.2 Propriétés des modelés extrêmes multivariés . . . . . . . . 77


3.2.3 Notion de Max-domaine d’attraction . . . . . . . . . . . . . . . . . 78
3.3 Éléments de copules stochastiques . . . . . . . . . . . . . . . . . . . . . . . 79
3.3.1 Présentation des copules . . . . . . . . . . . . . . . . . . . . . . . . 80
3.3.1.1 Définitions et propriétés des copules . . . . . . . . . . . . 80
3.3.1.2 Propriétés particulières des copules . . . . . . . . . . . . . 80
3.3.2 Quelques familles usuelles des copules . . . . . . . . . . . . . . . . . 82
3.3.2.1 Copules élémentaires . . . . . . . . . . . . . . . . . . . . . 83
3.3.2.2 Copule elliptique . . . . . . . . . . . . . . . . . . . . . . . 83
3.3.2.3 Copules de valeurs extrêmes . . . . . . . . . . . . . . . . . 87
3.3.2.4 Copules archimédiennes . . . . . . . . . . . . . . . . . . . 88
3.3.3 Copules et max-stabilité . . . . . . . . . . . . . . . . . . . . . . . . 89
3.4 Statistiques spatiales et épidémiologie . . . . . . . . . . . . . . . . . . . . . 90
3.4.1 Données de santé pour l’analyse spatiale . . . . . . . . . . . . . . . 90
3.4.1.1 Données ponctuelles . . . . . . . . . . . . . . . . . . . . . 91
3.4.1.2 Les données géostatistiques . . . . . . . . . . . . . . . . . 91
3.4.1.3 Les données latticielles . . . . . . . . . . . . . . . . . . . . 91
3.4.2 Tests statistiques en analyse spatiale . . . . . . . . . . . . . . . . . 91
3.5 Modélisation géostatistique par les copules . . . . . . . . . . . . . . . . . . 92
3.5.1 Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
3.5.2 Publication 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
3.5.3 Commentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110

Conclusion générale 111


Biographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112

Annexe 116
Annexe 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116

ix
Table des figures

1.1 La file d’attente des clients dans un service . . . . . . . . . . . . . . . . . . 9


1.2 Système d’attente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

3.1 Quelque famille de covariances . . . . . . . . . . . . . . . . . . . . . . . . . 68


3.2 Exemple des nuées variographiques . . . . . . . . . . . . . . . . . . . . . . 69
3.3 Le variogramme empirique . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
3.4 Le madogramme d’un champs aléatoire et le coefficient extrémal θ(h) . . . 71
3.5 Exemple d’une sélection par blocs des maximas dans un cadre univarié . . 77
3.6 Exemple d’une copule gaussienne pour une corrélation ρ = −0.9 . . . . . . 86
3.7 Exemple de densité de la copule de Student pour une corrélation ρ = −0.9 86
3.8 Densité de la distribution des valeurs extrêmes et la fonction de répartition 120

x
Liste des tableaux

1.1 Tableau récapitulatif des processus et leurs états . . . . . . . . . . . . . . . 5


1.2 Les valeurs de R0 et le mode de transmission de quelques maladies . . . . . 22

3.1 Récapitulatif des domaines d’attraction des lois extrêmes univariées . . . . 79


3.2 Exemples de copules archimédiennes et leurs générateur . . . . . . . . . . . 89
3.3 sigles des files d’attente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
3.4 Tableau des paramètres de performances . . . . . . . . . . . . . . . . . . . 129
3.5 Tableau comparatif des files M/M/1 et M/M/c . . . . . . . . . . . . . . . 130
3.6 Tableau de liens entre les paramètres de performance des files M/M/C et
M/M/C/N. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130

xi
Introduction générale

Motivation
Les maladies infectieuses peuvent être considérées comme étant provoquées par la
transmission d’un micro-organisme ou d’un agent infectieux : virus, bactérie, parasite,
champignon, protozoaires. La prise en charge des maladies infectieuses préoccupe de plus
en plus les autorités et les responsables de la santé publique. En effet, face à l’augmenta-
tion des résistances bactériennes, l’émergence de nouveaux pathogènes et la propagation
rapide de l’épidémie, la surveillance et la prévention de la transmission de la maladie
deviennent, particulièrement, importante et indispensable. Malgré une surveillance per-
manente et continue des maladies infectieuses, il est à constater que leur étiologie reste
encore largement méconnue.

Par exemple selon OMS 1 , la grippe espagnole de 1918-1919 à virus H1N1 qualifiée
de sévère et ayant provoqué entre 40 et 100 millions de morts dans le monde, la grippe
asiatique en 1957 à virus H2N2 ou Hémagglutinine de type 2 et Neuraminidase de type
2 (les types de deux antigènes présents à la surface du virus de la grippe) qui a fait entre
1 et 4 millions de morts, la grippe de Hong Kong de 1968 à virus H3N2 dite modérée,
et ayant engendré entre 1 et 2 millions de morts, l’épidémie ébola en Afrique Centrale et
en Afrique de l’Ouest, l’épidémie coronavirus découverte en chine qui continue de faire
plusieurs morts,...

Les pandémies sévères font partie des risques extrêmes, elles surviennent rarement,
mais lorsqu’elles ont eu lieu les conséquences sont importantes, notamment pour le déve-
loppement d’un pays.

Historique et problématique
La problématique abordée dans ce travail se situe aux confins de diverses disciplines
dont la principale est l’épidémiologie.
La modélisation est un outil essentiel à la recherche actuelle et est utilisée dans plu-
sieurs domaines, car elle permet la simplification d’expériences souvent longues et cou-
teuses. Elle peut être définie comme la représentation simplifiée, sous forme de symboles,
de schéma ou de concepts d’un phénomène plus complexe, prenant ainsi en compte les
interactions de ses composantes. En particulier, un modèle mathématique est une des-
cription mathématique d’un phénomène issu du monde réel, telle que la taille d’une po-
pulation, la vitesse d’un objet qui tombe, la concentration d’un produit au cours d’une
réaction chimique, l’espérance de vie d’une personne depuis sa naissance, etc. La construc-
tion d’un modèle vise, tout d’abord, à comprendre le phénomène étudié, et permet de faire
1. OMS : Organisation Mondiale de la Santé

1
des prédictions sur son comportement futur.

L’utilisation des modèles mathématiques en général et des outils stochastiques en


particulier dans le domaine de l’épidémiologie connaît depuis quelques années un essor
important dans le domaine de la recherche, grâce aux nombreux avantages qu’elle ap-
porte, elle peut traiter une variété de problèmes liée au domaine d’épidémiologie, telles
que : la prédiction de l’évolution de la maladie à partir des données réelles, l’étude de la
dynamique de l’épidémie afin d’identifier les solutions de contrôle les plus efficaces, ainsi,
qu’elle permettra un suivi et une surveillance de l’épidémie, l’estimation des paramètres
caractérisant la maladie, etc.
En effet, le premier modèle mathématique de l’histoire de l’épidémiologie a été publié
par Daniel Bernoulli en 1760 [58]. Il énonça un modèle pour réduire le risque de décès par
la variole.
En 1906, Hamer formula et analysa un modèle de temps discret dans une tentative de
comprendre la récurrence de l’épidémie de la rougeole ([58] [33]). Son modèle est consi-
déré comme étant le premier à supposer que l’incidence dépend de la densité des sujets
susceptibles et infectieux. En 1927, l’une des généralisations importantes a été réalisée
pour les modèles épidémiques par Kermack et McKendrick [58]. Les deux chercheurs ont
développé le modèle SIR (Susceptible- Infected-Removed) dans un travail célèbre qui a
fourni la base de la plupart des recherches dans le domaine de la modélisation des épi-
démies et qui a donné naissance à plusieurs modèles en épidémiologie [20]. Ces modèles
peuvent être classés en quatre principales catégories : les modèles discrets ou continus,
les modèles d’EDO (Équations Différentielles Ordinaires), les modèles d’EDP (Équations
aux Dérivées Partielles) et les modèles déterministes ou stochastiques.

Les modèles classiques d’épidémie reposent sur les systèmes d’équations différentielles
ordinaires (EDO) pour étudier le phénomène complexe de la propagation d’épidémie. Ils
considèrent que le degré des nœuds est fixe, égale à une matrice de valeurs figées ou à une
loi du grand nombre [53]. Cependant, ces modèles sont limités pour représenter les indivi-
dus distribués de façon hétérogène dans l’espace et pour une population dont la taille est
relativement petite. Il est donc important de considérer cette hétérogénéité et le contexte
spatial dans lequel la maladie se développe pour préciser le risque épidémiologique.

Objectifs et Hypothèses
L’objectif de ce travail est de proposer les modèles stochastiques des maladies émer-
gentes permettant d’expliquer au mieux la dynamique de la propagation de ces maladies
dans une population et de prédire leur évolution. Ce qui permet ensuite d’agir en propo-
sant des thérapies adéquates.
Nous considérons tout d’abord une situation simple ou un petit groupe d’individus qui
ont contracté une maladie infectieuse sont insérés dans une large population d’individus
susceptibles de l’attraper dont les déplacements externes et internes dans un groupe sont
non négligeables. L’infection va-t-elle s’éteindre rapidement ou se propager ? Un état en-
démique est il possible ? la propagation de cette maladie est t-elle spatialement repartie ?
Les modèles stochastiques sont beaucoup plus conformes car ils peuvent intégrer l’en-
semble des sources d’hétérogénéité souhaitées (hétérogénéité spatiale, temporelle, com-
portementale ou autre). Ils tiennent compte de la nature aléatoire de tout événement de

2
transmission et de développement d’une infection [56]. Contrairement aux modèles déter-
ministes qui visent principalement à étudier une taille de population importante, l’utili-
sation des modèles stochastiques est préférable lorsqu’on étudie une petite population ou
une population repartie spatialement. Pour l’étude spatiale des maladies, il est nécessaire
de connaître l’influence de la contamination d’une région sur les autres. Cette influence
peut se traduire par la mesure de dépendance entre les processus stochastiques. Les co-
pules sont des outils très utilisées pour mesurer cette dépendance. L’étude des fonctions
copules et leurs applications en statistiques est un phénomène qui est plutôt moderne, et
encore plus en épidémiologie. En effet, les fonctions copules, largement utilisées en statis-
tique financière, sont des fonctions qui relient les fonctions de distributions multivariées à
celles des distributions univariées. En fait, les fonctions copules sont principalement utiles
pour la modélisation des dépendances entre les variables aléatoires.

Plan du travail
Dans cette thèse, notre contribution à la modélisation stochastique en épidémiologie
porte essentiellement la mise au point des outils stochastiques des phénomènes épidémio-
logiques dans le cadre temporel et spatial afin de comprendre des facteurs qui pourraient
causer la transmission des maladies. Notre travail se présente en trois grands chapitres et
s’articule de la façon suivante.

Dans le chapitre 1, nous présentons le cadre et environnement de travail à travers des


éléments de rappels sur les outils statistiques et stochastiques et les sous-thèmes utilisés
tout au long de ce travail. Ainsi, après avoir passé en revue tous les outils probabilistes
nécessaires dans cette étude, nous rappelons les concepts fondamentaux de l’épidémiologie
en général, et ceux des maladies émergentes en particulier.
Le chapitre 2 fait la synthèse d’une bonne partie de notre contribution à la modélisation
stochastique en épidémiologie. Après avoir décrit le cadre stochastique de l’épidémiologie
et rappelé les principaux modèles stochastiques usuels en épidémiologie, nous présentons
deux articles publiés dans le cadre de cette thèse, l’un portant sur le modèle stochastique
SEIRS en épidémiologie et l’autre permettant d’estimer la probabilité d’extension de la
population.
Quant au chapitre 3, nous y abordons l’analyse géostatistique et l’épidémiologie. En effet,
après avoir fait l’état de l’art des modèles copules, nous donnons, via notre troisième
article, une caracterisation des principaux outils techniques de la géostatistique tels que
le variogramme, le corrélogramme, dans le cadre des copules multivariées.
Une conclusion générale de cette thèse exposera les acquis et présentera les perspectives
possibles de recherches.
Dans une partie annexe nous avons fait la synthèse d’un certain nombre d’outils utilisés
pour une meilleure compréhension de nos résultats.

3
Chapitre 1

Cadre et environnement du travail

Ce chapitre fixe le cadre et l’environnement de notre travail de thèse. Il définit, dans


la première section, le cadre stochastique à travers un rappel des principaux outils sur les
processus aléatoires nécessaires à la modélisation, objet du présent travail. Dans les deux
dernières sections, nous définissons l’environnement de l’épidémiologie en général et celle
des maladies émergentes en particulier au moyens des concepts de bases et des notions
fondamentales.

1.1 Cadre et outils stochastiques de l’étude


Cette section est une synthèse d’éléments de processus stochastiques. Elle rappelle la
caractérisation de cette famille de variables aléatoires et donne les familles principales.

1.1.1 Introduction aux processus stochastiques


L’origine des processus stochastiques remonte aux progrès réalisés au début du 20e
siècle dans certaines branches appliquées, telles que la mécanique statistique [9]). Les
bases théoriques ont été formulées plus tard ([15], [16] et [26]). C’est durant cette période
que le mot "stochastique", qui provient du grec stokhastikos "conjectural", a commencé
à être employé. D’autres progrès ont été faits aussi à partir du mouvement brownien en
physique (par Einstein, Lévy et Wiener).

Les processus stochastiques décrivent l’évolution d’une grandeur aléatoire en fonction


du temps ou de l’espace. Il existe de nombreuses applications des processus aléatoires no-
tamment en biologie (génétique des populations), en médecine (croissance d’une tumeur),
les sciences de l’ingénieur (économie, finance, télécommunications) etc [35].

Définition 1.1.1. Un processus stochastique ou aléatoire X = (Xt )t∈T représente une fa-
mille de variables aléatoires indexées par un paramètre 1 . C’est une application de l’espace
probabilisé (Ω, F, P ) dans un espace probabilisable de fonctions (E, E), qui associe à tout
élément ω de Ω une fonction de la variable t ∈ T telle que :

ω 7−→ Xt (ω); Xt (ω)est mesurable.


1. Un processus stochastique peut décrire aussi l’évolution d’une grandeur aléatoire en fonction de
l’espace (statistique spatiale)

4
1.1 Cadre et outils stochastiques de l’étude

La fonction, pour ω ∈ Ω fixé :

t 7−→ Xt (ω)(t) = X(ω, t).

est appelée trajectoire du processus stochastique. On écrit Xt , t ∈ T ou plus simplement


Xt .

Dans les sciences biomédicales, ainsi que dans de nombreux autres domaines, le pa-
ramètre t est généralement lié au temps mais elle peut être de dimension multiple et
l’ensemble T est appelé espace de paramètres. En particulier, pour t∈ T fixé, ω ∈ Ω −→
Xt (ω) est une variable aléatoire sur l’espace de probabilité Ω, A, P .

La famille de toutes les distributions finies-dimensionnelles de X s’appelle la loi spa-


tiale du processus [35].
• E est l’espace des états du processus. Il peut être continu ou discret ;
• T est l’espace des temps. Il peut être continu ou discret.

Plus précisément, on a le tableau (1.1).

E ↓ T −→ Discret Continu
Suite stochastique à espace Processus permanent
Discret
d’état discret à espace d’état discret
Suite stochastique à Processus permanent à
Continu
espace d’état continu espace d’état continu

Table 1.1 – Tableau récapitulatif des processus et leurs états

Par exemple, chez les êtres humains, de nombreuses maladies héréditaires sont causées
par la mutation de certains gènes. Supposons qu’à un certain moment, un gène mutant
soit introduit dans la population. Supposons en outre que chaque gène mutant produise
j gènes mutants avec une probabilité pj (j = 0, 1, ..., ∞) dans la génération suivante,
indépendamment des autres gènes. Soit X(t) le nombre de gènes mutants à la génération
t. Alors X(t) est un processus stochastique à temps discret et avec un espace d’état
S = {0, 1, ..., ∞}. Comme nous le verrons, ce type de processus appartient à une classe de
processus stochastiques appelés processus de branchement de Galton-Watson. C’est un
exemple de processus stochastique avec le temps et l’espace d’état discret.

Définition 1.1.2. Soit un processus Xt indexé dans un ensemble ⊂ R.


La variable aléatoire Xtj − Xti , où ti < tj est appelé un accroissement ou un incrément
du processus stochastique.
Un processus croissant (Xt )t≥0 est dit à accroissements indépendants si pour tous t1 , ...tn
tels que t1 < t2 < ... < tn les accroissements Xt1 − Xt0 , Xt2 − Xt1 , ..., Xtn − Xtn−1 sont
des variables aléatoires indépendantes.

1.1.2 Les grandes familles de processus stochastiques


Dans la modélisation des phénomènes par les processus stochastiques, les pas (accrois-
sements) de l’évolution du processus joue un très grand rôle. Ainsi, plusieurs processus
stochastiques sont caractérisés à partir de ce taux d’accroissements.

5
1.1 Cadre et outils stochastiques de l’étude

Dans cette section, nous rappelons les connaissances mathématiques nécessaires pour com-
prendre la structure des grandes familles des processus aléatoires. Nous commençons par
quelques généralisations des séries temporelles ou séries chronologiques, processus gaus-
siens, processus de comptage, les files d’attentes et les mouvements browniens.

1.1.2.1 Séries temporelles ou chronologiques


Une série temporelle ou série chronologique est une suite des variables aléatoires repré-
sentant l’évolution d’une quantité spécifique au cours du temps. Une série chronologique
est donc la réalisation d’un processus aléatoire indexé par le temps et noté {Xt , t ∈ R+ }.
Pour chaque t, Xt est une variable aléatoire dont sa réalisation est Yt .

En épidémiologie par exemple, les séries temporelles peuvent être considérées comme
des processus stochastiques qui peuvent illustrer le nombre de contaminations ou de morts
suite à une épidémie dans un pays donné durant un intervalle de temps ou encore les décès
mensuels dus à des maladies pulmonaires en Afrique centrale.

1.1.2.2 Processus de Markov


La famille des processus markoviens occupe une place de choix dans la modélisation
stochastique. En génétique, en cancérogenèse, au sida ainsi que dans de nombreux autres
systèmes stochastiques, de nombreux processus peuvent être caractérisés par une condi-
tion de dépendance appelée condition de Markov. Ces processus sont classés comme des
processus de Markov.

Définition 1.1.3. Soit {X(t), t ∈ T} un processus stochastique avec un espace de pa-


ramètres T et un espace d’état S. Ensuite, X(t) est appelé un processus de Markov si
et seulement si pour chaque n et pour chaque t1 ≤, ..., tn ≤ t dans T et pour chaque
événement A inclus dans S,

P (X(t) ∈ A/X(t1 ) = x1 , ..., X(tn ) = xn ) = P (X(t) ∈ A/X(tn ) = xn ) (1.1.1)

où P (X(t) ∈ A/X(t1 ) = x1 , ..., X(tn ) = xn ) est une probabilité conditionnelle de


X(t) ∈ A étant donné {X(t1 ) = x1 , ..., X(tn ) = xn } et P (X(t) ∈ A/X(tn ) = xn ) la
probabilité conditionnelle de X(t) ∈ A tel que X(tn ) = xn .

La définition ci-dessus équivaut à dire que la distribution de probabilité de X(t) ne


dépend que des résultats les plus récents et est indépendante de l’histoire passée. De cette
définition, on voit alors que la plupart des processus en génétique et dans la théorie de
l’évolution sont des processus de Markov. De même, de nombreux processus de la cancé-
rogenèse et de l’épidémiologie du Sida sont des processus de Markov.

En particulier on a les chaînes de Markov (cas discret) et les processus markoviens


continus.
1. Andrei Markov mathématicien russe (1856-1922)

6
1.1 Cadre et outils stochastiques de l’étude

1.1.2.3 Processus de comptage


Pour modéliser l’évolution dans le temps des appels dans un central téléphonique,
des émissions de particules radioactives ou bien des clients qui se sont présentés devant
un guichet jusqu’à un instant donné, on est amené à introduire un processus stochas-
tique n’évoluant que par sauts d’amplitude 1. Les sauts du processus correspondent à
des instants aléatoires où se produisent certains événements spécifiques qui sont, dans les
exemples précédents, la réception d’un appel dans le central téléphonique, l’émission d’une
particule radioactive ou bien l’arrivée d’un client devant un guichet. Le modèle adapté est
celui de processus de comptage.

Définition 1.1.4. Désignons par {N (t), t > 0} le nombre des événements se produisant
dans l’intervalle de temps [0, t] et supposons que N (0) = 0. Le processus {N (t), t > 0} est
appelé processus de comptage.

Tout processus de comptage vérifie les propriétés suivantes :

Propriété 1.1.1. (Processus de comptage)

i) Pour tout t > 0 le nombre N (t) est à valeurs entières positives.


ii) La fonction t −→ N (t) est croissante (au sens large).
iii) Pour tout couple (a, b)(0 < a < b), la différence N (b) − N (a) représente le nombre
des événements se produisant dans l’intervalle de temps ]a, b].

Soient I1 , ..., Ik des intervalles sur l’axe des temps, disjoints ou non ; soient N1 , ..., Nk
le nombre des événements se produisant dans ces intervalles. Le k-uplet N1 , ..., Nk est un
point aléatoire à valeurs dans Nk admettant une loi de probabilité P . Faisons subir à tous
les intervalles I1 , ..., Ik , simultanément, une même translation sur l’axe des temps. Soient
0 0 0 0
I1 , ..., Ik les intervalles translatés et N1 , ..., Nk le nombre des événements se produisant dans
0 0
ces intervalles. Le k-uplet N1 , ..., Nk est un point aléatoire à valeurs dans Nk admettant
0
la loi de probabilité P .

Définition 1.1.5. Le processus de comptage {N (t), t > 0} est dit à accroissements sta-
tionnaires, si quel que soit k, quelle que soit la suite I1 , ..., Ik et quelle que soit la trans-
0
lation, les lois P et P coïncident.

Lorsque k = 2, on peut reprendre cet énoncé de la façon suivante : si un processus


de comptage est à accroissements stationnaires, alors la loi de probabilité du nombre des
événements se produisant dans un intervalle de temps donné ne dépend que de la longueur
de cet intervalle.

Définition 1.1.6. Un processus de comptage est dit à accroissements indépendants, si


les nombres des événements se produisant dans des intervalles de temps disjoints sont
indépendants.

Parmi les processus de comptage, ce sont les processus de Poisson, définis ci-après, qui
jouent un rôle prépondérant.

7
1.1 Cadre et outils stochastiques de l’étude

1.1.2.4 Processus de Poisson


Le processus de Poisson est un outil extrêmement utilisé dans les phénomènes de
comptage.

Définition 1.1.7. (Processus de Poisson)


Un processus de comptage {N (t), t > 0} est appelé processus de Poisson, de densité λ > 0,
s’il vérifie les propriétés suivantes :
i) N(0)=0 ;
ii) le processus est à accroissements indépendants ;
iii) le nombre des événements se produisant dans un intervalle de temps de longueur
t ≥ 0 suit la loi de Poisson de paramètre λt, c’est-à-dire, pour tout s ≥ 0 et t ≥ 0,
on a :
(λt)n
P {N (s + t) − N (s) = n} = e−λt (n ≥ 0) (1.1.2)
n!
Voici quelques propriétés que vérifie un processus de Poisson.

Propriété 1.1.2. Quelques propriétés des processus de comptage

i) Un processus de Poisson est à accroissements stationnaires.


ii) Un processus de Poisson est localement continu en probabilité.
iii) Soit {N (t), t > 0} un processus de Poisson de densité λ > 0. Alors, lorsque h tend
vers 0,
• P {N (h) = l} = λh + o(h) ;
• P {N (h) ≥ l} = λh + o(h) ;

Comme N(t) est une variable de Poisson de paramètre λt, on a E[N (t)]/t = λ. Ainsi
λ est l’espérance mathématique du nombre des événements se produisant par unité de
temps. C’est la fréquence moyenne des événements.

1.1.2.5 Processus de renouvellement


La théorie de renouvellement a commencé avec l’étude des pannes et des remplace-
ments de composants tels que les ampoules électriques. Ensuite, il est apparu clairement
qu’un nombre important de problème pouvait se ramener à ce formalisme.

Le processus de renouvellement est un processus ponctuel où l’intervalle entre deux


occurrences (réalisations) consécutives de l’événement considéré est une variable aléatoire
Ti dont la loi de probabilité est commune (sauf peut être pour le premier événement),
mais quelconque : c’est à dire Ti f (t) ∀ i ≥ 2 et T1 f1 (t).

Pour que N(t) soit un processus de renouvellement il faut que :


• T1 , T2 , ...., Tn soient des événements indépendants
• fi (t) = f (t); ∀ i ≥ 2

Dans l’analyse d’un processus de renouvellement, on s’intéresse aux grandeurs suivantes :


i) N(t) le nombre de renouvellement dans l’intervalle [0, t] ;

8
1.1 Cadre et outils stochastiques de l’étude

ii) Sn Le temps d’occurrences du n ieme renouvellement ie Sn t=T1 + T2 + ..... + Tn ;


iii) H(t) = E(N (t)) Le nombre moyen de renouvellement dans [0, t] ;
dH(t)
iv) h(t) a densité de H(t), h(t)= ;
dt
v) VT Le temps entre t et le prochain renouvellement après t (temps résiduel) ;
vi) Ut Le temps écoule depuis le dernier renouvellement avant T.

1.1.2.6 Les files d’attentes


Présentation
Les files d’attente sont aujourd’hui des phénomènes que l’on rencontre quotidienne-
ment dans de très nombreux domaines et sous diverses formes. Citons quelques exemples
parmi tant d’autres : queue à un guichet (la figure 1.1), saturation d’un trafic routier,
d’un réseau de télécommunications, gestion d’un stock de production, maintenance d’un
équipement informatique, mouvements de populations, prévisions météorologiques, etc.

Figure 1.1 – La file d’attente des clients dans un service

Une file d’attente ou queue est un regroupement d’individus attendant d’une manière
organisée quelque chose dans un service ou dans une administration. La file d’attente
résulte d’une demande supérieure à la capacité d’écoulement d’une offre (bien ou service).
La théorie des files d’attente est la sous-branche des probabilités qui étudie les solutions
optimales de gestions de files d’attente. En particulier, la file d’attente s’applique à diffé-
rentes situations. Un système d’attente comporte plusieurs caractéristiques. Typiquement,
une file est composée de clients se succédant et demandant un service (voir la fig 1.2).

Figure 1.2 – Système d’attente

9
1.1 Cadre et outils stochastiques de l’étude

b) Caractéristiques du système des files d’attente


Plusieurs modèles ont été proposés pour analyser les files d’attente. Le succès d’une
telle analyse repose sur le modèle approprié. Généralement, la file d’attente est caractérisée
par les étapes suivantes.
i) Les arrivées : la suite stochastique des instants d’arrivées des clients ;
ii) La durée du service : la suite des temps de services des clients ;
iii) Le nombre de serveurs : c’est le nombre de serveurs montés en parallèle ;
iv) La discipline du service : c’est l’ordre dans lequel seront servi les clients ;
v) La population totale : la source des clients (rare) ;
vi) La capacité du système : c’est le nombre maximum de clients présents dans la file ou
entrain de se faire servir.

Les files d’attente résultent de la variabilité dans le processus d’arrivées et de services.


En effet, il y a file d’attente lorsque le degré est élevé entre les intervalles des arrivées
successives et les temps de services. Ces variations peuvent être modélisées par des lois
de probabilité. Dans les modèles classiques des files d’attente :
i) Le nombre d’arrivées pendant un intervalle de temps suit une loi de Poisson,
ii) Le temps de service suit une loi exponentielle.

1.1.2.7 Les processus gaussiens


Les processus gaussiens appartiennent à la grande famille des processus elliptiques.

Définition 1.1.8. Soit Xt = (Xt1 , ..., Xtn ) une famille de variables aléatoires. Xt est un
processus gaussien sur S, si pour toute partie finie Λ ⊂ S et pour tout n-uplet de nombres
réels (λ1 , ..., λn ) ∈ Rn , la combinaison linéaire ni=1 λi Xti est une variable aléatoire gaus-
P

sienne [28].

En notant mΛ = E(XΛ ) est la moyenne de XΛ = (Xs , s ∈ Λ) et Λ sa covariance,


P
P
alors, si Λ est inversible,XΛ admet pour densité (on dit aussi pour vraisemblance) par
rapport à la mesure de Lebesgue sur RCard(A) . La fonction densité de XΛ est alors donnée
par :

 X − 12  −1 
−CardΛ/2 t
X
fΛ (xΛ ) = (2π) det exp − 1/2 (xΛ − mΛ ) (xΛ − mΛ ) , (1.1.3)
Λ Λ

où CardU est le cardinal de U et xΛ la réalisation de XΛ .


On distingue essentiellement deux familles de processus gaussiens : le bruit blanc et le
mouvement brownien.

En particulier, le mouvement brownien est le nom donné aux trajectoires irrégulières


du pollen en suspension dans l’eau, observé par le botaniste R. Brown en 1828 [9]. Ce mou-
vement "aléatoire", dû aux chocs successifs entre le pollen et les molécules d’eau, entraine
la dispersion ou diffusion du pollen dans l’eau. Le champ d’application du mouvement

10
1.1 Cadre et outils stochastiques de l’étude

brownien est beaucoup plus vaste que l’étude des particules microscopiques en suspen-
sion et inclut la modélisation du prix des actions, du bruit thermique dans les circuits
électriques, du comportement limite des problèmes de files d’attente et des perturbations
aléatoires dans un grand nombre de systèmes physiques, biologiques ou économiques. Il
se définit comme suit.

Définition 1.1.9. Un mouvement brownien de dimension k,{Bt , Ft ; 0 6 t < +∞} est la


donnée d’un processus mesurable B à valeurs dans Rk , et d’une filtration, tels que B est
adapté à (Ft )t>0 est continu, et vérifie :
i) B0 = 0 presque surement ;
ii) Pour 0 6 s < t, l’accroissement Bt − Bs est indépendant de (Ft )t ;
6 s < t, l’accroissement Bt − Bs suit une loi normale centrée, de matrice de
iii) Pour 0 q
covariance (t − s)Idk où Idk désigne la matrice identité de dimension k.

1.1.3 Cas particuliers des chaînes de Markov


Un modèle d’évolution dynamique à temps discret ou continu dans lequel on fait
dépendre l’évolution future de l’état présent et du hasard est une chaîne de Markov.
On en rencontre dans de nombreux domaines d’applications, des sciences de la vie à
l’informatique.

1.1.3.1 Définitions
Une chaîne de Markov est une suite aléatoire {Xn ; n ∈ N}, définie sur un espace
de probabilité (Ω, F, P), à valeurs dans un espace d’états E (fini ou infini) dénombrable
(habituellement représentés par les entiers) telle que
   
P Xn+1 = in+1 /Xn = in , X1 = i1 , ..., X0 = i0 = P Xn+1 = in+1 /Xn = in , (1.1.4)

pour tous les états in+1 , in , i0 et tout entier n ≥ 0. C’est la propriété de Markov.

L’indice n représente habituellement le temps. Lorsque les probabilités de transition


ci-dessus sont stationnaires (c’est-à-dire les mêmes pour tout entier n ≥ 0), la chaîne
est dite homogène. C’est l’hypothèse faite à partir de maintenant à moins d’indication
contraire.

La propriété d’homogénéité d’une chaîne de Markov exprime quant à elle que la pro-
babilité d’aller de n en n + 1 reste la même au cours du temps. Elle permet de regrouper
en une seule matrice (indépendante de n) les probabilités de transition entre deux états
quelconques.

1.1.3.2 La probabilité de transition


On a coutume d’appeler ainsi la propriété qui relie, pour une chaîne de Markov ho-
mogène, les probabilités de transition en n étapes aux probabilités en une seule étape.
Dans le cas des chaînes de Markov, les transitions ont lieu aux instants X0 , X1 , ...,Xn .
On pourra alors les présenter à l’aide des probabilités de transition. Désignons par E l’en-
semble des états du processus de Markov. Soient s et t deux instants, avec s < t, et soit u
un instant intermédiaire (s < u < t). Pour i, j éléments de E, soit pij (s, t) la probabilité

11
1.1 Cadre et outils stochastiques de l’étude

conditionnelle pour que le système à l’instant t soit dans l’état j, sachant qu’il a été dans
l’état i à l’instant s. On a :

∀(i, j) ∈ E2 , pij (s, t) =


X
pik (s, u)pkj (u, t). (1.1.5)
k∈E

On peut représenter ce système d’équations de façon matricielle :

H(s, t) = H(s, u)H(u, t)

qui est appelé "Équation de Chapman-Kolmogorov" avec H(s, t) = (pij (s, t))i,j∈E . Cette
matrice est appelée matrice de probabilités de transition.

À toute matrice de transition, on peut associer un graphe. Les sommets du graphe


sont les différents états de la chaîne. Il y a une flèche, étiquetée H(s,t), entre le sommet
étiqueté s et le sommet étiqueté t si et seulement si la probabilité de transition de l’état
s à l’état t est strictement positive : H(s, t) > 0.

On pose : P∆t (t) = H(t, t + ∆t). Lorsque ∆t −→ 0, P∆t (t) tend vers la matrice unité
I. Par conséquent, si l’on souhaite trouver un taux, on doit retrancher la matrice unité I
de P∆t (t) avant de la diviser par ∆t. En posant :

P∆t (t) − I
Q(t) = lim . (1.1.6)
∆→0 ∆t
Q(t) est appelée générateur infinitésimal (ou matrice de taux de transition).
On a :

 P(t,t+∆t) (t) − 1

 qii (t) = lim
∆t


 ∆→0
(1.1.7)
P(t,t+∆t) (t)



qij (t) = lim , i 6= j.



∆→0 ∆t
On en déduit, pour tout i ∈ E, j∈E qij = 0. Pour un processus de Markov donné par
P

son état initial et son générateur infinitésimal, on peut, en principe, trouver la probabilité
pour qu’il soit dans un état j à un instant donné t.

Propriété 1.1.3. La matrice de transition H(s, t) est dite markovienne (ou stochastique),
au sens où elle vérifie les propriétés suivantes :
i) 0 ≤ Pij ≤ 1 pour tout i, j ∈ E ;
ii) nj=0 Pij = 1, pour tout i ∈ E.
P

Comme nous le verrons dans l’exemple suivant, il arrive fréquemment dans les ap-
plications que, pour un état i donné, le nombre d’états j directement accessibles depuis
i (i.e. tel que pij > 0) soit faible. La matrice de transition est alors très creuse ; elle
contient beaucoup de 0. Il est souvent plus économique (et plus pertinent) de résumer les
probabilités de transition dans le diagramme de transition.

Exemple 1.1.1. (la marche aléatoire simple)


Soient (Yn )n≥1 une suite de variables aléatoires indépendantes et identiquement distri-
buées, chacune valant 1 avec probabilité p et -1 avec probabilité 1-p. Soit Y0 ∈ Z une

12
1.2 Cadre et environnement de l’épidémiologie

variable aléatoire indépendante des Yn , représentant le point de départ sur l’axe Z de la


chaine. On définit la marche aléatoire simple par

Xn+1 = Xn + Yn+1 (1.1.8)


= Y0 + Y1 + ... + Yn + Yn+1 ;

pour tout n ∈ N. Le processus stochastique (Xn )n≥1 est une chaîne de Markov homogène.
Son espace d’états E = Z est infini.

1.2 Cadre et environnement de l’épidémiologie


Le rôle essentiel de l’épidémiologie est d’améliorer la santé des populations. Du fait
de ses nombreux domaines d’intervention, différentes types d’études sont nécessaires pour
couvrir les préoccupations des populations. Ainsi, des programmes ou des modèles épi-
démiologiques sont nécessaires pour lutter contre des maladies émergentes telles que : le
SIDA, l’ebola, le cancer, le diabète, l’obésité, etc.

1.2.1 Historique, domaine et fondements de l’épidémiologie


Le mot "épidémiologie" est dérivé des termes grecs epi, qui signifie "sur", demos, qui
signifie "personnes", et logos, qui signifie "étude". Cette étymologie implique que le sujet
de l’épidémiologie s’applique uniquement aux populations humaines. L’épidémiologie tire
son origine de l’idée exprimée pour la première fois il y a plus de 2000 ans par Hippocrate,
selon laquelle les facteurs environnementaux peuvent influer sur la survenue de la mala-
die. Pourtant, il a fallu attendre le 19e siècle pour qu’on se mette réellement à mesurer la
répartition d’une maladie dans des groupes de populations donnés. Outre que ces travaux
ont marqué la véritable naissance de l’épidémiologie, ils figurent parmi les réussites les
plus spectaculaires de cette discipline. La découverte de J. Snow [31], qui s’est aperçu que
le risque de choléra à Londres était associé à la consommation de l’eau que distribuait une
certaine société, en est un exemple bien connu. Les études épidémiologiques de Snow n’ont
constitué qu’un aspect d’une très vaste série d’investigations s’intéressant aux processus
physiques, chimiques, biologiques, sociologiques et politiques connexes. La comparaison
des taux de morbidité dans plusieurs sous-groupes de population est devenue pratique
courante à la fin du 19e siècle et au début du 20e. Cette approche a d’abord été appliquée
à la lutte contre les maladies transmissibles, mais s’est avérée efficace pour mettre en
évidence une association entre certaines conditions ou agents environnementaux et des
maladies déterminées[56]. Dans la deuxième moitié du 20 e siècle, ces méthodes ont été
appliquées aux maladies non transmissibles chroniques telles que les maladies cardiaques
et le cancer, en particulier dans les pays à revenu intermédiaire et élevé.

L’épidémiologie peut être définie comme une discipline scientifique qui étudie la dis-
tribution des événements de santé et de leurs déterminants dans les populations humaines
[2]. L’analyse épidémiologique consiste donc à l’interprétation des résultats des études
épidémiologiques. Son champ d’intérêt s’accroît d’années en années, et sa méthodologie
est encore en pleine évolution. L’épidémiologie est classiquement définie comme l’étude
de la distribution des maladies et de leurs déterminants dans les populations humaines
(Bouyer et coll., 1993 ; Rothman et coll., 1998) [31] et [58]. Cependant, son champ s’est

13
1.2 Cadre et environnement de l’épidémiologie

rapidement étendu pour couvrir l’étiologie de l’ensemble des problèmes de santé ainsi
que leur contrôle (Last, 1983). Les définitions modernes de l’épidémiologie incluent même
l’évaluation des interventions et le support aux politiques de santé.

Les principes et méthodes de l’épidémiologie s’articulent globalement autour de la


notion de risque (probabilité d’être malade) et de facteur de risque (variable ayant une in-
fluence sur le risque). On distingue principalement deux types d’études épidémiologiques,
à savoir : les études épidémiologiques dites descriptives et les études épidémiologiques dites
étiologiques (analytiques). Ces différentes études nécessitent l’utilisation de certaines me-
sures telles que : les mesures de risque, d’incidence pour les études descriptives, les mesures
d’association pour les études étiologiques. Les études épidémiologiques ont pour objectif :
de quantifier les événements sanitaires et environnementaux, de déterminer les causes
des maladies et d’évaluer les politiques de santé. Dans cette optique la prévention ou
l’estimation du niveau des événements sanitaires rares sont indispensables ([2] et [3]).

1.2.2 Types d’études épidémiologiques


Elle recherche les causes et les facteurs de risque des maladies, établit les lois et condi-
tions de leur propagation et recherche les moyens de contrôle et de lutte. L’identification
des facteurs de risque des maladies est l’un des aspects les plus importants de l’épidémio-
logie. Elle permet de déterminer les groupes de population à haut risque et donc de cibler
les interventions sanitaires. L’épidémiologie analytique repose toujours sur la comparaison
de plusieurs groupes [2].

1.2.2.1 Épidémiologie descriptive


Les études descriptives s’intéressent à la distribution spatiale ou temporelle des états
de santé dans les populations humaines. Elles permettent de poser le diagnostic de l’état
de santé de la population. Elles étudient la distribution des phénomènes de santé (mala-
dies, décès, handicaps, etc) en fonction des caractéristiques de personnes, de temps, et de
lieux. Elles permettent aussi de définir les maladies prioritaires responsables d’une forte
mortalité ou de nombreuses invalidités. De plus elles suggèrent des hypothèses sur l’ori-
gine des maladies. Les objectifs de l’épidémiologie descriptive ont évolués passant de la
surveillance épidémiologique à la recherche. La surveillance épidémiologique comporte le
contrôle sanitaire et la surveillance de la fréquence d’une maladie ([34] et [44]).

1.2.2.2 Épidémiologie analytique


L’objet de l’épidémiologie analytique est d’identifier les facteurs de risque des mala-
dies et de quantifier leur importance. Cette identification est une condition nécessaire à la
recherche de méthodes de prévention. Le chercheur épidémiologiste recherche également
si les relations entre facteurs de risque et maladies sont causales. Une difficulté, qui a
conduit au développement d’outils et méthodes complexes, vient de ce que, les maladies
étant en général plurifactorielles, il faut être capable d’identifier les facteurs « réellement
» causaux et ceux qui sont des facteurs de confusion (en anglais confounding factors),
c’est-à-dire des facteurs dont la corrélation avec une maladie s’explique en réalité par leur
corrélation aux « vrais » facteurs causaux.

14
1.2 Cadre et environnement de l’épidémiologie

Les facteurs de risque considérés peuvent être génétiques, biologiques (hypertension


artérielle, glycémie, ...), comportementaux (régime alimentaire, tabagisme, . . .), environ-
nementaux (exposition professionnelle, exposition à des polluants, . . .), psychologiques
ou sociaux. Ils peuvent être individuels ou collectifs. La consommation de tabac, le taux
de cholestérol sanguin, sont des facteurs de risque individuels ; l’exposition aux radiations
naturelles dans le lieu de résidence est un facteur de risque collectif.

La recherche des relations causales entre un facteur de risque et une maladie implique
la prise en compte d’une temporalité cohérente avec l’hypothèse testée, par exemple,
l’exposition à un cancérigène ne peut se traduire en cancer que des années, voire des
dizaines d’années plus tard. L’information recueillie sur l’exposition aux facteurs de risque
suspectés et sur la survenue de la maladie doit donc aussi s’étaler sur des dizaines d’années
de distance. Les études transversales sont celles dans lesquelles les informations concernant
le facteur de risque et la maladie sont collectées en même temps [44].

1.2.2.3 Épidémiologies étiologiques


Les études étiologiques permettent d’identifier, de quantifier et d’interpréter le lien
entre une exposition (facteur de risque) et l’état de santé (maladie). Dans les enquêtes
étiologiques, la méthode utilisée consiste à comparer des groupes de sujets pour mettre
en évidence l’association entre une exposition et une maladie ou pour connaître de façon
précise les modalités de cette association. On distingue trois principaux types d’enquêtes
étiologiques : les enquêtes de cohorte, les enquêtes de cas témoins et les enquêtes trans-
versales. Dans un schéma temporel où l’exposition E précède la maladie M, les trois types
d’enquêtes se distinguent par le moment d’inclusion des sujets et par le type d’information
recueillie ([2] et [34]).

1.2.3 Quelques indicateurs en épidémiologie


Généralement, on utilise les mesures de risque et d’incidence pour les études descrip-
tives et les mesures d’associations pour les études étiologiques.

1.2.3.1 Mesures de risque et d’incidence


Les mesures qui caractérisent la distribution des maladies englobent des mesures de
risque, c’est à dire les probabilités d’être ou de devenir malade, et les mesures d’incidence
qui indiquent la vitesse d’apparition des cas de maladie (pour le taux de mortalité ou
de décès). Nous verrons principalement : la prévalence, le taux d’incidence et le risque
cumulé ou incidence cumulé [2].

1.2.3.2 Prévalence
La façon la plus naturelle de mesurer la fréquence d’une maladie dans une population
est de calculer la proportion de malades présents dans la population à un instant donné.
Ceci revient à déterminer, une mesure appelée la prévalence, elle est notée P et définie
M
par P = où M est le nombre de malades et N le nombre total de sujets (malades et
N
non malades) de la population.

15
1.2 Cadre et environnement de l’épidémiologie

La prévalence intègre deux dimensions différentes de la fréquence de la maladie : d’une


part, la durée de la maladie (ou du moins, la durée de la présence d’un malade dans la
population) et d’autre part, la vitesse d’apparition de nouveaux cas de maladie au sein de
la population (c’est à dire le taux d’incidence qui est défini plus bas). En recherche étiolo-
gique, cet indice est rarement étudié, sauf dans quelques domaines particuliers, comme la
périnatalité, ou dans le cas de pathologies fréquentes et sous diagnostiquées (la dépression,
par exemple) ([34], [2] et [44]). L’estimation de la prévalence sur un échantillon est notée
P0 , et l’intervalle de confiance correspondant est, lorsque la taille n de l’échantillon est
assez grande :
s
P0 (1 − P0 )
P0 ± t α2 . (1.2.1)
n

1.2.3.3 Taux d’incidence


Par définition, le taux d’incidence (TI) de la maladie est la vitesse de production de
nouveaux cas d’un intervalle de temps. Il est égal au nombre de nouveaux cas survenus
dans cet intervalle de temps divisé par la taille de la population à risque. La taille de la
population se mesure en personnes-temps. L’unité de mesure la plus fréquente en épidé-
miologie est la « personne-année », au point que le terme « personnes-années » est souvent
employé comme terme générique à la place de « personnes-temps ». Cependant si l’unité
de mesure du temps est le mois, la semaine ou le jour, on peut être amené à compter en
« personnes-mois semaines ou jours ».
m
La définition formelle du taux d’incidence est : T I = où m est le nombre de
PA
nouveaux cas pendant la période et P A le nombre de « personnes-années » cumulé sur
la période. Le taux d’incidence n’est pas une probabilité. En particulier on exprime sa
valeur en nombres de cas par « personnes-temps ». Lorsqu’on estime le taux d’incidence
sur un échantillon, son intervalle de confiance est donné par :
s
TI
T I ± t α2 . (1.2.2)
PA
t α2 2 étant défini par l’équation 1.2.1.
Notons enfin que, lorsque la population est stationnaire, c’est à dire lorsqu’aucune des
caractéristiques de la maladie (telle que le taux d’incidence ou de prévalence) n’évolue au
cours du temps, la prévalence et le taux d’indice sont liés par la relation
T Id
P = , (1.2.3)
1 + T Id
où d est la durée moyenne de la maladie.Dans le cas fréquent où T Id est petit, cette
relation est approchée par P = T Id qui illustre bien les deux dimensions de la prévalence
indiquée précédemment ([3] et [34]).

1.2.3.4 Risque cumulé de maladie


Le risque cumulé est la probabilité de devenir malade au cours d’une période fixée.
Cela nécessite donc de préciser la durée de la période considérée. Le calcul est trivial
2. t α2 est le quantile associé à la loi normale standard définie par t α2 = Φ−1 (1 − α2 ) de la loi normale
centrée réduite. Le plus souvent, on prend α = 0.05 et on a alors t α2 = 1, 96.

16
1.2 Cadre et environnement de l’épidémiologie

dans une population fermée et sans sujets perdus de vue ; il suffit de diviser le nombre
de nouveaux cas par le nombre de sujets non malades au début de la période. Sinon
(population ouverte ou sujets perdus de vue), le risque cumulé de la maladie pendant la
période ∆t est donnée par :

R(∆t) = 1 − exp(−T I∆t) (1.2.4)


Il s’agit alors d’une probabilité conditionnelle (à l’absence de censure) pendant la
période d’étude. Si le taux d’incidence est petit (ou plus précisément si T I∆t est petit)
et seulement dans ce cas, cette expression est approchée par :

R(∆t) = T I∆t (1.2.5)


La formule (1.2.5) nécessite que T I soit constant sur l’intervalle de temps ∆t. Lors-
qu’on veut calculer le risque cumulé sur une longue période, cette hypothèse n’est en
général plus satisfaite. On doit tenir compte, par exemple, du fait que si l’âge augmente,
l’incidence de la maladie augmente aussi. On est alors conduit à découper la période sur
laquelle on veut calculer le risque cumulé de maladie en sous périodes au sein desquelles
on peut supposer le taux d’incidence constant.

Nous noterons p le nombre de sous-périodes, ∆tk la durée de la k e sous-période (les


∆tk ne sont pas nécessairement toutes égales) et T Ik le taux d’incidence correspondant.
On montre alors que le risque de maladie pendant l’ensemble de la période est

p
R = 1 − Πpk=1 (1 − Rk ) = 1 − Πpk=1 (exp{−T Itk ∆tk }) = 1 − exp{−
X
−T Itk } (1.2.6)
k=1

Si les taux d’incidence T Ik sont petits (ou plus précisément si les T Itk ∆tk sont petits),
la formule (1.2.6) se simplifie en :

R = 1 − Πpk=1 (1 − T Itk ∆tk ) (1.2.7)


Dans le cas particulier de la mortalité : lorsqu’on s’intéresse à la survie, l’incidence
de décès est appelée mortalité, et les mêmes mesures que précédemment peuvent être
décrites. Les mesures les plus connues sont le taux de mortalité qui est le taux d’incidence
de décès et la létalité qui est l’incidence cumulée ou le risque de décès parmi les personnes
atteintes d’une maladie au cours d’une période donnée [34].

1.2.3.5 Mesures d’association en épidémiologie


Les mesures d’association en épidémiologie permettent de quantifier le lien entre une
exposition et la maladie. L’étude de l’association entre une exposition E (ou facteur de
risque) et la maladie M est l’une des étapes majeures de la recherche des facteurs étiolo-
giques des maladies. Plusieurs questions complémentaires se posent : d’une part, celles de
l’existence même d’un lien statistique entre l’exposition et la maladie, d’autre part, celles
de la mesure de la force du lien entre E et M qui permet quantifier l’accroissement du
risque en fonction du facteur de risque. Cela nécessite de choisir une mesure d’association.
Nous verrons principalement le risque relatif et l’odds ratio.

17
1.2 Cadre et environnement de l’épidémiologie

Dans ce qui suit, le facteur de risque et la maladie sont caractérisés par des variables
dichotomiques (ayant uniquement deux valeurs : présence ou absence). Pour le facteur de
risque, les deux catégories sont notées (E+) pour les sujets exposés et (E-) pour les sujets
non exposés. Pour la maladie, les malades sont notés (M+) et les non malades sont notés
(M-). Soit R1 le risque de maladie chez les sujets exposés au facteur de risque et R0 le
risque de maladie chez les sujets non exposés.

Nous présentons ici le risque relatif et l’odds ratio.

a) Risque relatif
Le risque relatif(RR) est une mesure statistique souvent utilisée en épidémiologie,
mesurant le risque de survenue d’un événement dans un groupe par rapport à l’autre.
Il permet d’exprimer l’association entre l’exposition et la maladie de façon à faciliter
l’interprétation. C’est le facteur par lequel le risque de maladie est multiplié en présence
de l’exposition.
R1
RR = (1.2.8)
R0
Si le risque relatif est supérieur à 1, on suppose une association entre le facteur de
risque et la maladie. Toutefois, un test de χ est nécessaire pour vérifier si cette association
est significative.

Exemple 1.2.1. Soit R1 le risque de survenue d’événements critiques (le nombre de


cancer) dans le groupe exposé (les fumeurs) : on parle, dans les études de cohortes, de
taux d’incidence. Considérons que 10 % des fumeurs ont eu un cancer du poumon, alors
l’incidence est R1 = 10% ;
R0 l’incidence dans le groupe témoin (les non fumeurs). Considérons que 0,5% des non-
fumeurs ont eu un cancer du poumon, alors R0 = 0, 5%. Le risque relatif : RR=20 (
c’est-à-dire 10/0.5 = 20). Dans cet exemple, le risque d’avoir un cancer du poumon est
20 fois plus élevé chez les fumeurs que chez les non fumeurs.

b) Odds ration
L’odds ratio (OR) exprime la relation entre R1 et R0 de façon moins immédiate ; il
peut être dans toutes les types d’enquêtes, ce qui n’est pas le cas pour le risque relatif.
L’odds ratio et le risque relatif sont liés par la relation :
1 − R0
OR = RR . (1.2.9)
1 − R1
Lorsque la maladie est rare R0 et R1 (petits), les valeurs numériques du risque relatif
et de l’odds ratio sont proches.
D’un point de vue pratique, lorsque l’exposition est caractérisée par une variable di-
chotomique (E+) pour les exposés et (E-) pour les non exposés et que la maladie est
caractérisée par un risque (c’est à dire par la probabilité d’être malade ou de le deve-
nir au cours d’une période donnée). Les données obtenues sur un échantillon d’enquête
peuvent se présenter sous la forme d’un tableau à quatre cases où (M+) désigne les sujets
malades ou devenus malades au cours de la période d’étude et (M-) les sujets non malades.

18
1.2 Cadre et environnement de l’épidémiologie

Pour calculer l’intervalle de confiance, il existe plusieurs formules. Elles sont toutes
approchées et donnent des résultats très proches sur le plan numérique. Une des méthodes
couramment utilisée consiste à calculer d’abord l’intervalle de confiance de ln(OR) grâce
à la formule :
s
h i 1 1 1 1
Bi , Bs = ln(OR) ± t α2 + + + . (1.2.10)
a b c d
On obtient ensuite l’intervalle de confiance de OR en prenant l’exponentielle des
bornes : h i
exp(Bi ), exp(Bs ) . (1.2.11)
Dans les enquêtes de cohorte (avec population fermée), l’estimation du risque relatif
(rapport de incidences cumulées) est donnée par :

a/(a + c)
RR = . (1.2.12)
b(b + d)
Le calcul de l’intervalle de confiance passe aussi par celui du logarithme :
s
c d
lnRR = ±t α2 + . (1.2.13)
n1 a n0 b
Puis on prend l’exponentielle des bornes. Dans les enquêtes transversales, on peut
aussi calculer l’équivalent, soit le ratio de prévalences, mais on a tendance à utiliser de
plus en plus l’odds ratio [3].

1.2.4 Surveillance épidémiologique


La nécessité de choix dans la lutte contre les processus pathologiques et le fait que
ces choix doivent être périodiquement remis en question en fonction de l’état sanitaire
de la population commandent une parfaite connaissance de cet état sanitaire qui ne peut
s’acquérir qu’au moyen de la surveillance épidémiologique.

La surveillance épidémiologique peut être définie comme le suivi et l’analyse épidé-


miologique systématique et permanente d’un problème de santé et de ses déterminants à
l’échelle d’une population, afin de les contrôler par des interventions au niveau individuel
ou collectif, et d’identifier des phénomènes inconnus en termes d’effets ou de déterminants.
Alors que la recherche épidémiologique a pour objectif l’acquisition de connaissances nou-
velles et généralisables à des populations différentes de celle où l’étude a été faite, la
surveillance a pour objectif l’acquisition de connaissances pour la population d’intérêt («
ici et maintenant ») mais a priori non généralisables à des populations différentes.

La surveillance épidémiologique a pour objectifs d’estimer l’importance épidémiolo-


gique des maladies pour identifier les besoins sanitaires et permettre des choix de priorités
débouchant sur des programmes de santé pertinents ; de mesurer l’impact des programmes
de santé qui en découlent et d’identifier les problèmes nécessitant une intervention d’ur-
gence.

La méthodologie a recours à deux approches non exclusives à savoir la surveillance


passive où le patient se présente au personnel de santé (c’est typiquement le cas des

19
1.2 Cadre et environnement de l’épidémiologie

formations sanitaires fixes) et la surveillance active où les intervenants de santé vont


chercher l’information nécessaire (c’est ce qui se passe par exemple, au cours d’une enquête
épidémiologique).

1.2.5 Notion de biais en épidémiologie


La mesure obtenue sur un échantillon est une estimation de la vraie mesure définie
au niveau de la population (RR, OR). Cette estimation serait très vraisemblablement
différente si l’on étudiait un autre échantillon provenant pourtant de la même population.
Ces variations, dites aléatoires résultent du phénomène des fluctuations d’échantillonnage.
La connaissance des lois statistiques qui régissent ces fluctuations permet donc d’assortir
la mesure obtenue d’une précision statistique, un intervalle de confiance par exemple. Elle
permet donc de conclure à l’existence d’une différence significative entre une estimation
et une valeur attendue, compte tenu des fluctuations d’échantillonnage, à l’aide de tests
statistiques appropriés [2]. On a en général les biais de sélection, les biais de classement
et les biais de confusion.

1.2.5.1 Biais de sélection


Il y a biais de sélection lorsque la population dont est extrait l’échantillon d’étude
(population source) est différente de la population à laquelle on souhaite généraliser les
résultats (population cible) ou lorsque les groupes de comparaison (exposés/non-exposés
ou cas-témoins) ne sont pas comparables. Le biais peut être dans la sélection de l’échan-
tillon d’étude ou dans le choix du groupe de référence [34].

1.2.5.2 Biais de classement


Un biais de classement peut intervenir si une erreur systématique affecte la mesure du
facteur de risque ou de l’état de santé. Si les sujets sont classés de façon dichotomique
pour l’exposition (malade/non malade), les erreurs de classement aboutiront par exemple,
à considérer non-malades des sujets malades en réalité (et vice versa). On distingue en
général deux types d’erreurs de classement dont les conséquences sont différentes sur les
estimations obtenues pour la mesure d’association. Il s’agit des erreurs différentielles et
non différentielles [44].

1.2.5.3 Biais de confusion


On parle de biais de confusion quand il existe un facteur extérieur à la chaîne causale
reliant l’exposition à la maladie considérée qui fausse l’estimation de l’association entre
exposition et maladie. L’association ainsi estimée est équivalente à celle qu’on aurait
observé si la fréquence du facteur d’exposition était la même entre les groupes exposés et
les groupes non-exposés ; c’est à dire si on avait supprimé l’association entre l’exposition
et le facteur de confusion ([2] et [34]).

1.2.6 Quelques terminologies


a) Épidémie :
L’épidémie peut être définie comme l’apparition dans un temps donné et auprès d’une

20
1.2 Cadre et environnement de l’épidémiologie

population donnée d’un nombre de cas de maladies ou de tout autre événement de santé.
Ces cas apparaissent de manière inattendue et en grand nombre. L’épidémie est claire-
ment limitée dans le temps et dans l’espace. Elle se manifeste par un nombre important
de cas en des endroits où ordinairement elle n’est pas présente (par exemple l’obésité) [34].

b) Endémie :
L’endémie désigne la persistance d’une maladie dans une collectivité ou un territoire ou à
l’état. Cette maladie peut être manifeste ou à un état latent. Quand on dit d’une maladie
qu’elle est endémique dans une région, on comprend que sa présence est connue, signalée ;
mais cela ne signifie pas qu’elle soit en progression ou qu’elle se répande contrairement à
l’épidémie [2].

c) Pandémie :
La pandémie désigne une épidémie qui s’étend au delà des frontières d’un pays et qui peut
se répandre à l’échelle mondiale, touchant ainsi des millions de personnes, quand celles
ci ne sont pas immunisées ou quand la médecine ne dispose d’aucun traitement contre la
maladie. Les plus grandes pandémies de maladies infectieuses qui ont marqué l’histoire de
l’humanité sont : la peste, le choléra, la variole, la grippe, la tuberculose, la poliomyélite
et le sida [2].

1.2.7 Taux de reproduction de base


Pour toute maladie, un enjeu sanitaire majeur est de savoir si elle se propage dans la
population et à quelle vitesse (temps de doublement). Ceci revient à calculer le nombre
moyen d’individus qu’une personne infectieuse infecte tant qu’elle est contagieuse. Ce
nombre est appelé le nombre de reproduction de base, et est noté (R0 ) [31]. Ce taux
est intuitivement facile à comprendre, mais s’il est lié au pathogène, son calcul s’avère
complexe. Le (R0 ) doit être utilisé avec prudence, car il peut conduire à des erreurs d’in-
terprétation, tant sur le rôle réel de ce (R0 ) a sur la propagation d’une maladie infectieuse
qu’aux capacités de contrôle d’une épidémie [58].

Le calcul du (R0 ) présuppose une population où tous les individus sont sains, sauf
l’individu infectieux introduit (le patient zéro)[34]. Si (R0 ) < 1 alors l’individu infecté
contamine moins d’un autre individu en moyenne, ce qui signifie que la maladie disparaît
de la population. Si (R0 ) > 1, alors la maladie se propage dans la population et devient
épidémique. Déterminer (R0 ) en fonction des paramètres du modèle permet ainsi de cal-
culer les conditions dans lesquelles la maladie se propage.

Comme le notent Van den Driessche et Watmough, dans le cas d’un seul comparti-
ment infecté, (R0 ) est simplement le produit du taux d’infection et de sa durée moyenne.
Lorsque le modèle est simple, il est souvent possible de trouver une expression exacte
de (R0 ). Pour cela, on considère généralement que la population est à l’état d’équilibre ;
autrement dit, que le nombre d’individus dans chaque compartiment ne varie plus.

Le (R0 ) peut parfois être dépendant de divers facteurs : région, comportements, densité
de population, organisation sociale ou a saisonnalité. Des chercheurs scientifiques ont
cherché à calculer le (R0 ) de la nouvelle maladie : leurs résultats ont varié du simple au
quintuple.

21
1.3 Cadre conceptuel des maladies émergentes

Maladies Mode de transmission (R0 )


Rougeole aérien 12–18
Coqueluche aérien 12–17
Varicelle aérien 10–12
Diphtérie contact (salive) 6–7
Variole contact 5–7
Polio contact (matière fécale) 5–7
Rubéole aérien 5–7
Oreillons aérien 4–7
VIH/SIDA (matière fécale) contact (sang, sperme, sécrétions vaginales) 2–5
Syndrome respiratoire aigu sévère aérien 2–5
Grippe (grippe espagnole de 1918) aérien 2–3.

Table 1.2 – Les valeurs de R0 et le mode de transmission de quelques maladies

Le tableau suivant 1.2 résume quelques valeurs de (R0 ) pour des maladies communes.

1.3 Cadre conceptuel des maladies émergentes


1.3.1 Historique du concept
L’idée d’émergence serait liée à la naissance de l’épidémiologie moderne au 19e siècle.
La première pandémie de choléra avance lentement vers l’Europe. Son apparition à Londres,
puis à Paris en 1832, de même que sa propagation et sa contagion sont alors étudiées pré-
cisément ; son agent est pourtant inconnu. Avant les années 1990, on parle de concepts
pathogéniques émergents. Dès les années 1960, on décrit des maladies émergentes en mé-
decine vétérinaire, mais aussi des « anthropozoonoses » émergentes. Des agents, virus ou
pathogènes émergents sont décrits dans la littérature dans les années 1970. Des épidémies
émergentes inquiètent alors les observateurs [22].

Stephen S. Morse est l’un des premiers scientifiques à défendre cette notion au début
des années 1990 ainsi que celle de réussite émergentielle. Le concept de maladie émergente
se serait réellement cristallisé aux États-Unis avec la publication d’un rapport officiel sur
ce thème, en 1992. Joshua Lederberg y envisage les maladies émergentes sous ses as-
pects évolutionnistes, environnementaux, sociaux et politiques. C’est par un historien des
sciences, spécialiste de l’histoire du sida, Mirko D. Gmerk, que le concept de maladie in-
fectieuse émergente entre dans la sphère publique. Ce croate avait décortiqué l’histoire du
sida dans un livre célèbre paru en 1989 et introduit le terme de pathocénose (pour définir
ce que les microbiologistes connaissent bien : les relations d’équilibre que les maladies
infectieuses entretiennent les unes avec les autres). Ce terme s’est révélé utile dans les
années 1990 pour attirer l’attention.

Le concept est cependant largement utilisé pour d’autres maladies, non infectieuses et
non transmissibles. Il permet, de plus, l’imagination et l’interprétation, par l’idée d’appa-
rition menaçante qu’il véhicule et la curiosité qu’il suscite. Des expressions comme « les
nouvelles menaces », « les nouveaux fléaux » en font aujourd’hui un concept médiatique.

22
1.3 Cadre conceptuel des maladies émergentes

1.3.2 Quelques concepts des maladies émergentes


1.3.2.1 Les maladies transmissibles
Une maladie transmissible (ou infectieuse) est une maladie provoquée par la transmis-
sion d’un germe pathogène à un hôte sensible. Les agents infectieux peuvent être transmis
à l’homme directement à partir d’autres personnes ou animaux infectés, ou indirectement
par l’intermédiaire de vecteurs, de particules en suspension dans l’air ou d’autres supports.

Les vecteurs sont des insectes ou d’autres animaux qui transmettent l’agent infectieux
d’une personne à l’autre. Les autres supports sont des objets ou éléments de l’environ-
nement contaminés (par exemple vêtements, couverts, eau, lait, aliments, sang, plasma,
solutions parentérales ou instruments chirurgicaux). Les maladies contagieuses sont celles
qui peuvent se propager chez l’homme sans l’intervention d’un vecteur ou d’un support
(contagieux, de la racine latine tangere "toucher", signifie littéralement « par contact »).
Le paludisme est par conséquent une maladie transmissible mais pas contagieuse, tan-
dis que la rougeole et la syphilis sont à la fois transmissibles et contagieuses. Certains
germes pathogènes provoquent la maladie non seulement du fait de l’infection, mais aussi
en raison des effets toxiques des substances chimiques qu’ils produisent. Par exemple,
Staphylococcus aureus est une bactérie qui peut infecter directement l’homme, mais les
intoxications alimentaires à staphylocoques sont dues à l’ingestion d’aliments contaminés
par une toxine produite par cette bactérie.

1.3.2.2 Les maladies infectieuses


Les maladies infectieuses sont causées par la transmission d’une bactérie, d’un virus,
d’un champignon ou d’un parasite. Une maladie infectieuse peut être bénigne : rhume,
infection urinaire, herpès 3 , grippe, etc ou plus graves. C’est le cas du Sida ou VIH, d’un
staphylocoque ou d’une pneumonie.

L’étude des agents infectieux relève de la biologie, de la microbiologie médicale, de


l’épidémiologie et de l’écoépidémiologie. Dans la nature, des maladies infectieuses se déve-
loppent chez tous les organismes vivants (animaux, végétaux, fongiques, micro-organismes,...
il existe également des virus de virus). En tant qu’interactions durables, les maladies infec-
tieuses font partie des boucles de rétroaction qui entretiennent la stabilité relative (équi-
libre dynamique) des écosystèmes, la plupart des pathogènes coévoluant avec leur hôte
depuis des millions d’années. Leur mode de transmission est variable et dépend de leur
réservoir (humain, animal, environnemental) et parfois de vecteurs (maladies vectorielles).

Les maladies infectieuses sont responsables dans le monde de 17 millions de décès par
an, soit un tiers de la mortalité et 43 % des décès dans les pays en voie de développement
contre contre 1 % dans les pays industrialisés. Elles entravent la santé de base des indi-
vidus et ont une influence négative sur chaque indice du développement humain et plus
particulièrement sur l’espérance de vie à la naissance, l’éducation et le PIB réel. Elles sont
responsables d’une forte mortalité dans les régions où l’hygiène connaît un déficit et où
l’accès aux soins est difficile.
3. L’herpès génital est une infection transmissible sexuellement (ITS) caractérisée par l’apparition de
petites vésicules douloureuses sur les organes sexuels. Ces vésicules sont transparentes et remplies de
liquide.

23
1.3 Cadre conceptuel des maladies émergentes

La prévention des maladies infectieuses vise à limiter le risque infectieux (y compris


professionnel, notamment pour les métiers de la santé, de contact avec les animaux, des dé-
chets, des cadavres, des eaux usées, des échantillons à analyser en laboratoires de biologie,
etc. Elle s’articule en trois volets : éviter l’infection, renforcer les défenses immunitaires
et prendre des traitements préventifs (prophylaxie) en cas de risque d’exposition.

1.3.2.3 Les maladies émergentes


Les maladies émergentes sont des maladies transmissibles nouvellement identifiées,
d’extension rapide, susceptibles de poser des problèmes de santé publique à l’échelle lo-
cale, régionale ou internationale. Il convient de souligner que les maladies d’origine toxique,
nutritionnelle, métabolique ou immunologique ne font pas partie des maladies émergentes
au sens strict du terme. Les maladies émergentes couvrent une large gamme de situations
dont des maladies dues à des agents d’apparition nouvelle ; des maladies dont la gamme
d’hôtes réceptifs s’est étendue et des maladies dont l’agent responsable est nouvellement
identifié alors qu’elles étaient déjà largement répandues.

Ainsi, une maladie émergente est une maladie dont l’incidence réelle augmente de
manière significative dans une population donnée, d’une région donnée et pendant une
période donnée, par rapport à la situation épidémiologique habituelle de cette maladie.

1.3.2.4 Les maladies reémergentes


Ce sont d’une part des maladies transmissibles connues qui réapparaissent, souvent
sous une forme différente, plus sévère, avec par exemple des microorganismes multirésis-
tants aux anti-infectieux. C’est le cas des mycobactérioses comme la tuberculose (Myco-
bacterium tuberculosis) et la lèpre (Mycobacterium leprae). Les maladies réémergentes
peuvent revêtir une forme clinique plus alarmante (dengue hémorragique, manifestations
pédiatriques du Chik, telles que des atteintes graves cardiaques, neurologiques et derma-
tologiques (épidermolyse bulleuse) depuis 2005) ; les exemples abondent dans les pays tro-
picaux. On peut citer une autre arbovirose : après 35 années d’absence, la fièvre d’Onyong
nyong (Flavivirus, Togaviridae) est réapparue en Afrique noire en 1997. Une nouvelle épi-
démie au virus Nipah est signalée au Bangladesh en 2001-2004, puis en 2006 et 2007 ; cet
agent est par ailleurs classé dans la catégorie des germes présentant un danger biologique,
c’est-à-dire germes devant être manipulés dans un laboratoire de sécurité biologique de
haut niveau ([22] et [24]).

Ce sont d’autre part des maladies connues qui sortent plus ou moins rapidement des
fluctuations moyennes habituelles (épidémies de salmonelloses, recrudescence d’infections
sexuellement transmissibles (IST)) On peut citer parmi ces dernières la gonococcie ou la
syphilis, quand il y a persistance d’une prise de risque sexuel. Dans les pays développés,
et en Europe en particulier, certaines shigelloses sont sexuellement transmissibles par voie
anale, considérées comme réémergentes quand elles provoquent des épidémies. Les infec-
tions à Mycoplasma genitalium, provoquant des urétrites non gonococciques (UNG) chez
l’homme sont considérées comme émergentes aux Etats-Unis. La réémergence de l’encé-
phalite à virus West Nile dans le bassin méditerranéen en 2000-2001 est une préoccupation
majeure en termes de santé publique [24]).

24
1.3 Cadre conceptuel des maladies émergentes

1.3.3 Quelques exemples des maladies émergentes dans le monde


• La peste noire qui, entre 1347 et 1352, a tué environ 30 % de la population euro-
péenne, soit 25 millions de personnes. Elle a été découverte en Inde en 1994, pays indemne
depuis 1956 ; à Madagascar dans la ville de Mahajanga en 1991, dernier cas en 1928 ; à
Oran (Algérie) en 2003, 50 ans après le dernier cas ; au Kirghizistan en 2013, 30 ans après
le dernier cas dépisté [22].

• La Maladie à virus Ebola (MVE) connue en Afrique centrale depuis 1976, en été
2014 en Afrique de l’Ouest dans 3 pays tels que la Guinée, le Libéria et la Sierra Léone.
L’épidémie de MVE d’Afrique de l’Ouest est une épidémie hors du commun si on la com-
pare aux épidémies d’Afrique centrale. Celles-ci sont des épidémies rurales, permettant
une intervention de riposte ciblée sur les villages atteints, alors que l’épidémie d’Afrique
de l’Ouest est une épidémie urbaine avec une grande mobilité de la population expliquant
son expansion rapide [22].

• La grippe aviaire, souche H5N1, hautement pathogène qui atteint l’homme en Asie
depuis 1997, puis au Moyen-Orient et en Afrique depuis 2006 ; l’Indonésie est fortement
touchée en 2007-2008.

• Le sida est emblématique des années 1980, le SRAS du début du XXIe siècle.
Le VIH, qui aurait réellement franchi la barrière d’espèces et se serait humanisé, est la
première cause de décès par maladie infectieuse dans le monde. Les chercheurs en « pa-
léovirologie » situent au début des années 1900 sa première apparition chez l’homme.
Mais celui-ci est retrouvé sur des échantillons humains de 1959. Le virus responsable du
SRAS (SRAS-CoV), aurait vu sa virulence tout à coup amplifiée ; la sélection du virus
chez l’animal, provoquant une souche plus virulente est une hypothèse [22].

• Les cancers d’origine infectieuse en font partie, comme ceux du col de l’utérus (le
vaccin est sur le marché) et, décrit récemment, de l’oropharynx (Human Papillomavirus),
mais aussi du naso-pharynx (virus d’Ebstein-Barr, Herpesviridae), du foie (hépatites vi-
rales), le sarcome de Kaposi dans le sida (Human Herpesvirus 8) et certains lymphomes
(virus HTLV-1).

• Le Covid-19 (corona virus desease 19) ou maladie infectieuse à virus corona, a fait
son apparition en décembre 2019, en Chine, dans la région de Wuhan. Le virus est bap-
tisé corona en raison de sa forme semblable celle d’une couronne. Aujourd’hui, la maladie
touche 176 pays et l’on dénombre 2,078,605 cas confirmés avec plus de 139,515 décès. Les
États Unis d’Amérique enregistrent le gros nombre d’infections avec 632 781 cas. Suivis de
l’Espagne, le pays d’Europe qui enregistre le plus gros chiffre avec 182 816 cas confirmés.
L’ Afrique compte 12 360 cas confirmés. Et dans la région de l’Ouest, la Côte d’Ivoire est
le pays le plus touché avec 742 cas. Le 14 mai 2020, le Burkina Faso enregistre au total
773 cas confirmés avec 592 guérisons et 51 décès depuis la 9 mars 2020 date à laquelle le
premier cas a été signalé.

Les facteurs entrainant l’émergence de ces maladies sont entre autres : le changements
climatiques et atmosphériques, le réchauffement de la planète, la modifications de la di-
versité biologique, la mondialisation et démographie (la population en zone tropicale a
doublé depuis 1950) ; les voyages et transports internationaux, les migrations humaines et

25
1.3 Cadre conceptuel des maladies émergentes

animales, l’urbanisation et la climatisation, le retour à la nature, la déforestation et l’occu-


pation des sols gestion des eaux élevages intensifs, densité d’animaux fragilisés et contact
avec l’homme, la technologies de l’agroalimentaire, la pression insecticide et l’adaptation
des vecteurs guerres, le déplacements de population,... [22].

Conclusion
Ce chapitre nous a permis de passer en revue les outils techniques nécessaires à la mo-
délisation, objectif de cette thèse. En effet, l’approche stochastique étant l’axe privilégiée
pour l’étude, il était important de revoir les processus stochastiques à travers la caracté-
risation, les familles usuelles et les chaines de Markov. Par ailleurs, à travers les cadres de
l’épidémie et des maladies émergentes vous avons rappelé les concepts fondamentaux et
les points forts de ces thématiques.

26
Chapitre 2

Contribution à la modélisation
stochastique en épidémiologie

Dans la modélisation en épidémiologie, l’approche stochastique aboutit généralement à


des modèles plus riches qu’en situation déterministe car les modèles stochastiques tiennent
compte du hasard. Dans un cadre déterministe, les équations différentielles constituent
l’outil mathématique idéal pour d’écrire des modèles en compartiments. Un modèle épidé-
miologique est généralement défini comme une représentation mathématique et/ou logique
de l’épidémiologie de la transmission des maladies et des processus y afférent.

Dans la section 1, nous passons en revue les modèles stochastiques existant dans l’ana-
lyse épidémiologique. Il s’agit entre autres des modèles de Reed-Frost, de Greenwood, de
Processus Galton-Watson et autres modèles SIR. Dans la section 2, nous présentons deux
contributions majeures de cette thèse sur des aspects stochastiques du modèle SIERS.

2.1 Modèles stochastiques usuels en épidémiologie


Il existe plusieurs modèles stochastiques décrivant la dynamique de transmission des
maladies en épidémiologie. Il n’est évidemment pas possible de donner une liste exhaustive
de tous ces modèles mais il a semblé important de faire un tour d’horizon des principales
approches.

2.1.1 Modèle de Reed-Frost


Créé en 1928 par le père de l’épidémiologie américaine moderne Wade Hampton Frost
(1880-1938) et son collègue biomathématicien Lowell Reed, le modèle de Reed et Frost
est une formalisation mathématique de la transmission des maladies.
Soient (Xt ) et (Yt ), t ∈ T deux processus stochastiques discrets représentant respective-
ment le nombre de susceptibles et le nombre d’infectieux au temps t tels que X0 = x0 et
Y0 = y0 ≥ 1. Soient P , la probabilité de contact entre les infectieux et les susceptibles, β,
la probabilité que ce contact provoque une infection et α, probabilité qu’il y ait aucune
infection après contact c’est à dire

α = 1 − P + P (1 − β) = 1 − P β. (2.1.1)
Si l’on suppose que l’infectieux Yt est identifié et est retiré de la population, on obtient
Xt +Yt = Xt−1 . Dans ce cas α peut être considéré comme la population des non infectieux,

27
2.1 Modèles stochastiques usuels en épidémiologie

et le nombre d’infectieux yt au temps t est déterminé par l’écart entre xt−1 et xt c’est à
dire yt = xt−1 − xt .
n o
P{(x,t)t ,(x,y)t+1 } = P (X, Y )t+1 = (x, y)t+1 /(X, Y )t = (x, y)t (2.1.2)
Soit
!
xt
P{(x,t)t ,(x,y)t+1 } = αyt xt+1 (1 − α)xi −xt−1 . (2.1.3)
xt+1
Où {Xt , t = 0, 1, ...} est une chaine de Markov avec Yt+1 = Xt − Xt+1 .

En particulier dans le modèle de Reed-Frost, un individu susceptible au temps t reste


susceptible au temps t+1 si tout contact avec un infectieux ne produit pas
 d’infection.
 Ce
événement se produit avec une probabilité αyt c’est à dire que Xt B Xt , αyt [20].

Et la matrice des probabilités de transitions de la première étape a pour éléments


P{(x,t)t ,(x,y)t+1 } donnée par :

!
xt
P{(x,t)t ,(x,y)t+1 } = αyt xt+1 (1 − α)yt+1 . (2.1.4)
xt+1

Il s’en suit que les réalisations (x, y)0 , (x, y)1 , ..., (x, y)T de l’épidémie ont pour pro-
babilité une chaine binomiale de produits de la forme (2.1.4). On peut donc dire que le
nombre d’infectieux dans une chaine binomiale successive est déterminé par une distribu-
tion binomiale.

En particulier de la relation (2.1.2), on a :


E(Xt+1 /Xt ) = αXt ,
E(Xt /X0 = x0 ) = αt X0 et
E(Yt /X0 = x0 ) = αt−1 (1 − α)X0 . Ce qui implique que E(Xt ) =⇒ 0 quand t =⇒ ∞.

2.1.2 Modèle de Greenwood


Tous deux des modèles de chaînes de Markov bivariées, les modèles de Greenwood et
de Reed-Frost différent dans la définition de la probabilité d’extinction.
Considérons la matrice des probabilités de transition d’ordre (x0 + 1) de la relation (2.1.2)
dont l’expression explicite est donnée par Pe . Dans le modèle de Greenwood, on s’intéresse
au premier temps T quand il n’y a pas d’infection et au nombre W de susceptibles infectés.
Ainsi, la matrice de probabilité associée est telle que :

 
1 . . . .

 1−α α . ... . 

(1 − α)2 2(1 − α)α α2 ... .
 
Pe = (2.1.5)
 
.. .. ..
 
 .. 

 . .   . . . 

x0 x0 −1 x0 x0 −2
(1 − α) x0 (1 − α) α 2
(1 − α) α 2
. . . α x0

28
2.1 Modèles stochastiques usuels en épidémiologie

On peut déterminer explicitement la distribution conjointe du coupe de variables aléa-


toires (T W).
 
Soit Pi0 = P X0 = i = δx0 i , la proportion des personnes susceptibles à l’état initial t0 = 0.

La probabilité jointe de la variable Xt ∀ t > 0,


x0 −(t−1)
Pji = P r{Xt = j, Yt ≥ 0} = Pit−1 Pij ;
X
(2.1.6)
i=j+1

où ∀ t ≥ 1 et j = 0, ..., i
!
i
Pij = P {Xt+1 = j/Xt = i, Yt > 0} = (1 − α)i−j αj . (2.1.7)
j
n−1
En utilisant (2.1.6) pour calculer récursivement Pi−k , on obtient finalement
n o
n−1 n−1 i−k
P (W, T ) = (n, k)/X0 = i, Y0 > 0 = Pi−k Pi−k,j−k = Pi−k α . (2.1.8)
On peut déterminer la distribution conjointe du coupe de variables aléatoires (W,T)
en utilisant les fonctions génératrices de probabilités [20]. Par ailleurs, rappelons que
l’épidémie s’arrête au moindre entier t tel que Yt = 0, ou par équivalence, au moindre t
tel que Xt = Xt−1 . En partitionnant la matrice (2.1.5) comme suit

P = Pe + Q; (2.1.9)

où Q = diag(1, α, ..., αx0 ) et Pe la matrice définie par la relation 2.1.5.

Pe est une matrice triangulaire des probabilités de transitions qui ne permet aucune
répétition et Q la matrice des probabilités de répétitions de l’état Xt ie pour la transition
{Xt−1 = i} vers {Xt = i}. Pour un certain état i et pour Yi = 0, on obtient :

P (T = t) = A0 Pe t−1 QE, t = 1, ..., x0 + 1; (2.1.10)

où A0 = (0, ...., 1) le vecteur des probabilités initiales correspondant à P {X0 = x0 } = 1


et E 0 = (1, 1, ...1) le vecteur ligne unité.

Le processus permet donc de déterminer exactement la probabilité au temps (t − 1)


au début des transitions de x0 à travers des états intermédiaires pour terminer comme
somme des états x0 − (t − 1), ..., 0 sans répétitions et de s’arrêter au temps t quand l’état
{Xt−1 = i} est répété.

La distribution des probabilités des fonctions génératrices est donnée par :



X 
Ψt (θ) = A0 Pe t−1 θt−1 θQE = A0 (I − θPe )−1 θQE; (2.1.11)
t=1

où Pe j = 0, pour j > x0 + 1.

29
2.1 Modèles stochastiques usuels en épidémiologie

2.1.3 Processus Galton-Watson


Un processus de Galton-Watson 1 est un modèle simple de reproduction de la popu-
lation (de bactéries, de neutrons, d’individus porteurs d’une maladie...), appartenant à
la famille des processus de branchement, caractérisé par le fait que chaque individu dans
la population meurt et se reproduit indépendamment des autres individus. Il s’agit d’un
processus en temps discret : chaque individu nait à une date entière k, meurt au temps k
+ 1 et produit un nombre aléatoire (éventuellement nul) de descendants à l’instant k +
1, qui vont vivre, mourir et se reproduire selon les mêmes mécanismes, de façon indépen-
dante.

Pour la formulation de ce modèle, on suppose l’existence d’une population d’individus


qui se reproduisent de manière indépendante. Chaque individu i donne naissance à Xi
individus et meurt. On suppose que les Xi sont des variables aléatoires indépendantes à
valeurs entières suivant la distribution p = (pk )k∈N .
i) Si p0 = P (Xi = 0), Xi = 0, alors l’individu i meurt sans se reproduire ;
ii) Si p0 = P (Xi = 0), Xi = 0, alors l’individu i meurt sans se reproduire ;
iii) Si p1 = P (Xi = 1), Xi = 1, alors il y a un remplacement un-pour-un de l’individu i ;
etc.
Notons Zn la taille de la population à la n-ème génération. On suppose souvent que
la population possède un seul ancêtre, ce qui se traduit par Z0 = 1.
P 0
Le nombre moyen d’enfants m = k kpk = ϕ (1) d’un individu typique de la population
considérée avec ϕ(s) = n>0 pn sn = E[sXi ].
P

L’évolution de la taille moyenne de la population est gouvernée par la formule de récur-


rence suivante, conséquence de la formule de Wald :

E[Zn+1 ] = mE[Zn ], on a donc E[Zn ] = mn . (2.1.12)


où mn sont les paramètres critiques du modèle. Si, à partir d’un certain rang, tous les
termes de la suite (Zn )n≥0 sont nuls, on dit qu’il y a extinction de la population.

Pour la classification d’un tel processus, il existe deux régimes séparés par une valeur
critique du paramètre :
i) Si m < 1, le processus de Galton-Watson est dit sous-critique. L’extinction de la
population se produit avec probabilité 1 ;
ii) Si m > 1 le processus de Galton-Watson est dit sur-critique. Alors la probabilité de
survie de ce nom est non nulle (la probabilité d’extinction est inférieure strictement
à 1). En cas de survie, le nombre de porteurs du patronyme connaît une croissance
exponentielle ;
iii) Si m = 1 alors le processus de Galton-Watson est dit critique. Son comportement est
plus complexe.
1. Historiquement, Galton et Watson ont introduit ce modèle pour étudier la perpétuation des lignées
des Lords en Angleterre au 19 e siècle : les individus sont des Lords qui transmettent leur titre uniquement
à leurs fils. Il s’agit alors d’étudier l’évolution de la population au cours du temps, i.e. la quantité Xn
quand n devient grand

30
2.1 Modèles stochastiques usuels en épidémiologie

2.1.4 Processus de naissance et de mort


Souvent utilisés en biologie, en démographie, en physique, ou en sociologie, pour rendre
compte de l’évolution de la taille d’une population, les processus de naissance et de mort
sont des processus de Markov continus (T = R+ ), à valeurs dans E = N tels que les seules
transitions non négligeables possibles à partir de k soient vers k + 1 ou vers k − 1. Soit
{Z(t)}t∈R+ un processus de Markov homogène. Nous identifions les états du processus
avec Ej (j ∈ N).

Le processus {Z(t)}t∈R+ est un processus de naissance et de mort, si les seules tran-


sitions directes possibles à partir de Ej (j ∈ N) sont : Ej −→ Ej appelée naissance avec
une probabilité λi et Ej −→ Ej−1 , si j > 0, appelée mort de probabilité pi > 0.

Un processus de naissance et de mort est de générateur infinitésimal suivant :

−λ0

0 0 0

λ0 ... ...

 µ1 −(µ1 + λ1 ) λ1 0 ... 0 ...

0 µ2 −(µ2 + λ2 ) λ2 ... 0 ...
 
 
 

 0 0 µ3 −(µ3 + λ3 ) ... 0 ...
. (2.1.13)
 .. .. .. .. .. .. ..

 . . . . . . .

0 0 0 ... µk −(µk + λk ) λk 
 

.. .. .. .. .. .. ..
 
. . . . . . .

Lorsque le système à un instant donné t est dans l’état Ek , on dit que la population
à l’instant t est de taille k. On pose alors indifféremment soit Z(t) = Ek soit Z(t) = k.

Une autre façon équivalente de définir le processus est d’introduire les événements et
leurs probabilités
 de façon suivante : 
X1 : P une naissance dans [t, t + ∆t[/population de taille k ) = λk ∆t + 0(∆t) ;
 
Y1 : P une mort dans[t, t + ∆t[/population de taille k ) = µk ∆t + 0(∆t) ;
 
X2 : P 0 naissance dans[t, t + ∆t[/population de taille k ) = 1 − λk ∆t + 0(∆t)
 
Y2 : P 0 mort dans[t, t + ∆t[/population de taille k ) = 1 − µk ∆t + 0(∆t) où λk ≥ 0 est
le taux de naissance pour une population de taille k, µk ≥ 0 est le taux de mort pour une
population de taille k (on pose µ0 ).

Plus intuitivement, on peut énoncer la propriété caractéristique suivante : supposons


que l’on observe l’évolution d’un processus de naissance et de mort de taille k à l’instant
t, en considérant un intervalle de temps de durée ∆t , avec ∆t assez petit. Alors, pendant
l’intervalle [t, ∆t[ , il peut survenir une naissance avec une probabilité proportionnelle à
∆t ou une mort avec une probabilité proportionnelle à ∆t, les coefficients de proportion-
nalité étant respectivement de λk et de µk (dépendants donc de la taille).

Notons que ces probabilités ne sont pas affectées quelque soit l’instant t (propriété
d’homogénéité) et quelques fussent les événements qui ont mené le processus dans son

31
2.1 Modèles stochastiques usuels en épidémiologie

état actuel (propriété sans mémoire). Soit Pk (t) la probabilité pour que la population soit
de taille k à l’instant t :
Pk (t) = P (Z(t) = k), k ∈ N. (2.1.14)
En particulier, la proposition suivante nous permet de déterminer les probabilité Pk (t).

Proposition 2.1.1. Soit {Z(t)}t∈R+ un processus de naissance et de mort avec le taux


de naissance λk , et le taux de mort µk , k ∈ N. On a :

dPk (t)

= −(λk + µk )Pk (t) + λk−1 Pk−1 (t) + µk+1 Pk+1 (t) si k ≥ 1






 dt



dPk (0) (2.1.15)
 = −λ0 P0 (t) + µ1 P1 (t)
dt







Pk (t) = 1, t ∈ N

 P
k∈N

Deux cas particuliers de cette famille sont beaucoup utilisés dans l’analyse de survie :
le processus de Yule et le processus de mort pure.

a) Processus de naissance de Yule


Le processus de naissance de Yule est un processus de naissance linéaire avec taux de
naissance de la forme νi = iν lorsqu’on est à l’état i ≥ 1. C’est la situation, par exemple,
lorsque chacune des cellules d’une population se divise en deux après un temps aléatoire
qui suit une loi exponentielle de paramètre ν, indépendamment des autres cellules. L’état
de la chaîne est le nombre total de cellules dans la population. Si ce nombre est i ≥ 1,
alors il augmente à i + 1 après un temps de séjour

Si = min(T1 , ..., Ti ) exp(νi ) (2.1.16)


indépendant des autres temps de séjour, où T1 , ..., Ti sont des temps aléatoires indé-
pendants de loi exp(ν). Ces variables représentent des temps de vie de cellules-mères avant
de se diviser en deux cellules-filles.

La loi de probabilité conditionnelle de Xt , le nombre de cellules au temps t > 0, étant


donné que X0 = 1, peut être obtenue à partir d’une analogie avec le processus de mort
linéaire. En effet, on a :
   
P X(t) > k/X(0) = 1 = P S1 + ... + Sk < t = (1 − exp(−νt))k (2.1.17)

pour tout k ≥ 1. Ainsi, le nombre de cellules qui sont présentes au temps t > 0 lorsqu’il
n’y a qu’une cellule au départ suit une loi géométrique de paramètre exp(−νt).

b) Processus de mort pure


Un processus de mort {Xt , t > 0} est une chaîne de Markov à temps continu sur les
entiers positifs avec transition de i ≥ 1 à i−1, qui correspond à une mort, avec probabilité
1 après un temps de loi exp(µi ). Le paramètre µi est le taux de mort avec lequel on passe
de l’entier i ≥ 1 à l’entier précédent. De plus, on a µ0 = 0 de telle sorte que 0 est un état
absorbant. Un processus de mort est toujours décroissant. Lorsque le processus est utilisé

32
2.1 Modèles stochastiques usuels en épidémiologie

pour décrire la taille d’une population, l’état 0 correspond à l’extinction de la population.

Dans un processus de mort linéaire, le taux de mort est de la forme µi = iµ lorsqu’on


est à l’état i ≥ 0. C’est le cas, par exemple, pour une population sans naissance où
chaque individu vit indépendamment des autres pendant un temps aléatoire qui suit une
loi exponentielle de paramètre µ. Ainsi, si la taille de la population est i ≥ 1 à un moment
donné, la taille diminue à i − 1 après un temps

Si = min(T1 , ..., Ti ) (2.1.18)


où T1 , ..., Ti sont des temps aléatoires indépendants de loi exp(µ). On a donc

Si exp(µi ).

De plus, ce temps de séjour est indépendant de tous les autres.

2.1.5 Le modèle SIR


Kermack et McKendrick proposent le premier modèle complet pour modéliser une
épidémie. L’idée principale vient du fait qu’en temps discret, le nombre de nouvelles in-
fections est proportionnel au produit du nombre d’infectés et de susceptibles.
Soient S(t), I(t) et R(t) désignant respectivement le nombre de personnes sensibles (per-
sonnes S), de personnes infectées (personnes I) et de cas de sida au temps t et on note
0
X(t) = {S(t), I(t), R(t)} où (’) est une transposée. Soit t0 = 0 le temps où quelques
VIH ont été introduits dans la population pour déclencher l’épidémie de sida. Ensuite,
{X(t), t > 0} est un processus stochastique tridimensionnel avec espace de paramètres
T = {t > 0} et avec l’espace d’état Q = {(i, j, k), i, j, kétant des entiers non négatifs}.
C’est un exemple de processus stochastique multidimensionnel avec un espace d’état dis-
cret et un espace de paramètres continu.

L’équation de la dynamique de la propagation d’une telle épidémie en population


fermée est de la forme :
 0

 x = −λx(t)y(t)
0
y = λx(t)y(t) − γy(t) ; (2.1.19)
 0

z = λy(t)
où x(t), y(t), z(t) représentent le nombre d’individus susceptibles, infectées et les cas
de SIDA au temps t. Les paramètres λ et γ représentent des constantes régissant l’infec-
tion et le rétablissement des individus.

Le premier modèle stochastique a été présenté par Reed et Frost en 1928, sur une
échelle de temps discret (typiquement, une génération), il décrit les probabilités d’évolu-
tion des différentes classes de la population. A chaque génération, l’état de la population
ne dépend que de la génération précédente, et les probabilités d’évolution sont binomiales.
En gardant les mêmes notations, on a donc :

 yj+1
P (Yj+1 = yj+1 /X0 = x0 , Y0 = y0 , ..., Xj = xj , Yj = yj ) = Cyxj+1
j
1 − q yj (q yj )xj −yj+1
(2.1.20)

33
2.2 Le modèle stochastique SEIRS en épidémiologie

Au temps initial, la population se compose de m infectés et n susceptibles. Chaque


infecté a une période de contagion qui suit une loi I (moyenne i variance σ 2 ) indépendante
de celle des autres. Et pendant cette période il rencontre un autre individu donné suivant
les instants de saut d’un processus de Poisson d’intensité λ/n. Tous ces processus sont
indépendants entre eux et des périodes de contagion quelconque. Ainsi, pendant un temps
dt, la probabilité qu’un infecté rencontre un individu initialement susceptible vaut λ. On
appellera En,m (λ, I) une telle épidémie.

2.2 Le modèle stochastique SEIRS en épidémiologie


2.2.1 Motivation
En épidémiologie, les maladies infectieuses possèdent deux concepts : l’infectiosité et
la contagion [Guegant et Choisy, 2008]. Le premier processus, un individu contracte une
maladie infectieuse lorsqu’il rentre en contact avec un foyer qui représente le site principal
de la maladie à partir duquel elle se propage et qui peut être de plusieurs nature. Dans
le deuxième processus, on cherche les modes et les voies de transmission de la maladie
d’un individu vers un autre selon les modes de transmission. Certains problématique liées
à la propagation des maladies infectieuses transmissibles sont de nature complexe et font
intervenir de nombreux facteurs issus de domaines de nature qualitative et/ou quantita-
tive. Les facteurs sont considérés comme les principales causes de la propagation de ces
maladies au sein de la population humaine. Ils sont multiples et liés à plusieurs facteurs
qu’il convient d’analyser dans une dimension globale à savoir : les caractéristiques et la
dynamique de la maladie (mode de transmission, durée d’infection,...), la structure sociale
des individus comme la concentration de la population dans une zone urbaine et les ren-
contres, les socio-économiques (démographique) et l’environnement (climat, pollution,..).
A ce titre, l’évolution des maladies infectieuses causée par ces facteurs a bien entendu des
conséquences sur la croissance économique, le développement, la sécurité et la durabilité.
Dans ce travail, nous proposons une version stochastique du modèle compartiment SEIRS
qui évolue dans un environnement aléatoire. Ce modèle tient compte de la variabilité des
taux de mortalité et d’immigration dans les différents compartiments.

2.2.2 Publication 1
Intitulé « Stochastic approach of epidemic model using the SEIRS » l’article ci-dessous
apporte une contribution au volet aléatoire de la modélisation en épidémiologie. Il a été
publié par la revue «European Journal of Pure and Applied Mathematics » EJPAM.
L’article est indexé dans la base de données Mathscinet / MR (MR3992608) et dans Zb
Math par le code (Zbl07099517).

34
EUROPEAN JOURNAL OF PURE AND APPLIED MATHEMATICS
Vol. 12, No. 3, 2019, 834-845
ISSN 1307-5543 – www.ejpam.com
Published by New York Business Global

Stochastic approach of epidemic model using the SEIRS


Hay Yoba Talkibing1 , Barro Diakarya2,∗ , Ouoba Fabrice1
1
UFR-SEA, Université Ouaga I, Pr Joseph Ki-Zerbo, Ouagadougou, Burkina Faso
2
UFR-SEG, Université Ouaga 2, Ouagadougou, Burkina Faso

Abstract. The study of infectious diseases represents one of the oldest and richest sectors of
biomathematics. The transmission dynamics of these diseases are still a major problem in math-
ematical epidemiology. In this work, we propose a stochastic version of a SEIRS epidemiological
model for infectious diseases evolving in a random environment for the propagation of infectious
diseases. This random model takes into account the rates of immigration and mortality in each
compartment and the spread of these diseases follows a four-state Markovian process. We first
study the stability of the model and then estimate the marginal parameters (means, variances and
covariates) of each disease state over time. Real measles data are applied to the model.

2010 Mathematics Subject Classifications: 60G05, 92D30, 60J10


Key Words and Phrases: Stochastic processes, epidemiology, Markov chain, SEIRS

1. Introduction

Infectious diseases are of increasing concern to authorities and public health officials
[2]. In the face of increasing bacterial resistance, the emergence of new pathogens and the
rapid spread of the epidemic make surveillance and prevention of disease transmission par-
ticularly important and indispensable. Even with permanent and continuous surveillance
of infectious diseases, it must be noted that their etiologies are still largely unknown. To
combat this random phenomenon, in recent decades mathematical models have been devel-
oped and implemented to study the spread of infectious diseases since the early twentieth
century in the field of mathematical epidemiology through the work of Daniel Bernoulli
[1] . Stochastic and deterministic models of epidemics allow researchers to gain valuable
knowledge about many infectious diseases and to study strategies to combat them.
The first stochastic epidemic models were presented by L. Reed and W, H. Frost in [3]
to accurately describe the discrete-time spread of disease in a population. These models
developed in 1928 and 1931[3] are based on the notion of probability and statistics. Later

Corresponding author.
DOI: https://doi.org/10.29020/nybg.ejpam.v12i3.3400
Email addresses: [email protected] (H. Y. Talkibing),
[email protected] (B. Diakarya), [email protected] (O. Fabrice)

http://www.ejpam.com 834 c 2019 EJPAM All rights reserved.


H. Y. Talkibing, B. Diakarya, O. Fabrice / Eur. J. Pure Appl. Math, 12 (3) (2019), 834-845 835

Bartlett [M. Costa 2011] proposed in 1949, the continuous time stochastic SIR model
which serves as the basis for stochastic models. These last yeas, we can find in the liter-
ature several works but much remains to be done with the emergence of some of the new
pathogens.

In this work, we are interested in the SEIRS model described in [7] for infectious
diseases. We propose a stochastic version of this model using birth and death processes
to describe the spread of infectious diseases in a random environment.

2. Stochastic probability of Birth and Mortality

In this section, we propose a stochastic version of the SEIRS model (fig 1) reviewed
above. So, we assume that the spread of the disease follows a linear process of birth and
death in continuous time and in four states in a variable environment. Moreover, we as-
sume that the switching between environments follows a homogeneous Markov chain in
continuous time.

A model of the dynamics of infectious disease transition can be formulated using a


stochastic process {Xn , n = 1, 2, 3, ...} as a Markov string with continuous time T and
discrete state space X0 , X1 , ..., Xn satisfying the following Markov property :

P (Xn+1 = jn+1 /X0 = j0 , X1 = j1 , ..., Xn = jn ) = P (Xn+1 = jn+1 /Xn = jn ). (1)

That is, the evolution of the process at time n+1 depends only on the state of the
process at time n but not on the past states 0, 1, 2, ..., n − 1 of the process. In biological
modeling, a disease transmission process described with the states X0 , ..., Xn can be seen
as a Markov chain with a transition matrix Q = (pij ) where the probabilities of the
transitions are such as :

pij = P (Xn+1 = j/Xn = i) for all i, j = 1, 2, 3, ..., n. (2)


The population of interest is divided into four compartments where each of them rep-
resents a specific stage of the epidemic. We have X1 for susceptible or holy individuals,
X2 for lectures, X3 for infected individuals and X4 for healers. Add to this model the
apparitions rates σi for i = 1, 2, 3, 4 independent of lambda and the natural death rates
µi for all i = 1, 2, 3, 4 independent of the disease in the classes of persons susceptible to
X1 (t), exposed X2 (t), infected X3 (t) and healed X4 (t) respectively at time t.

Moreover, let Z(t) = X1 (t) + X2 (t) + X3 (t) + X4 (t) be the population size at a given
time t. Assume that all rates are not time-dependent t and disease transmission occurs
only by contact between susceptible and infectious individuals in a relatively small time in-
terval dt. Once the vaccination is administered to the population, the immunized subjects
against the disease and healed subjects enter the compartment X4 and lose their immunity
H. Y. Talkibing, B. Diakarya, O. Fabrice / Eur. J. Pure Appl. Math, 12 (3) (2019), 834-845 836

rate significance
λ the rate of newborns
α the rate of attacks of the disease
β The infection rate
γ recovery rate
Θλ the rate of newborns vaccinated and immunized against the disease
τ the tau of individuals healed but having lost temporary immunity
η the tau of holy individuals vaccinated and immunized against the disease
Θ the tau of unvaccinated newborns
σi , i = 1.4 rates of immigrant individuals in different compartments
µi , i = 1.4 mortality rates of the different compartments independent of the disease
Xi, i = 1, 4 The steps in the process

against this disease after a given latent period to become susceptible again. Newborn un-
vaccinated enter the susceptible compartment X1 with a rate θ = 1 − λ and after contact
with an infected subject first expose themselves to the disease and become infected, healed
and susceptible again according to the diagram 1). In the case of infectious diseases, the
ideal objective is to eradicate these diseases completely by preventive measures or by set-
ting up a more effective mass vaccination program. Following the SEIR and SEIRS models
with vital dynamics, Anderson and May studied vaccinations applied to the population [7].

Figure 1: The propagation cycle of the SEIRS epidemic model

Transitions intensities are defined as a probability limit of transitions between times


t and t + dt, when dt tends to zero [4]. Under the assumption of the existence of these
limits, let’s determine the infinitesimal probability laws of each process over a small time
interval dt.

• Birth and emigration of S :

Once the population are vaccinated, the compartment S contains unimmunized indi-
H. Y. Talkibing, B. Diakarya, O. Fabrice / Eur. J. Pure Appl. Math, 12 (3) (2019), 834-845 837

viduals who are therefore susceptible to the disease. Among these individuals are immi-
grants with a rate of σ1 from another locality and newborns not immune to the disease
with a rate of λ. The probability that there will be a birth and then immigration of a
susceptible person in the n process state is given by :
 
S(t + dt) = n/S(t) = n − 1
 E(t + dt) = m/E(t) = m 
P 
 I(t + dt) = n0 /S(t) = n0  = [λ(1 − θ)(n − 1) + σ1 ]dt + 0(dt).
0 0
R(t + dt) = m /S(t) = m
• Mortality of S :

The mortality rate of compartment S, independent of the cause of the disease, is µ1 .


The probability of deaths in state n of the process is given by:
 
S(t + dt) = n/S(t) = n + 1
 E(t + dt) = m/E(t) = m 
P 
 I(t + dt) = n0 /S(t) = n0  = µ1 dt + 0(dt).
0 0
R(t + dt) = m /S(t) = m
• Transition from S to E:

The individuals in compartment S come into contact with infected people at a rate of
α and expose themselves to the disease. The probability of switching from the n state to
the m state is given by:
 
S(t + dt) = n/S(t) = n + 1
 E(t + dt) = m/E(t) = m − 1 
P
 0 0  = α(n + 1)dt + 0(dt)

I(t + dt) = n /S(t) = n
0 0
R(t + dt) = m /S(t) = m
• Mortality of E :

The probability of deaths in the m state of the process is given by :


 
S(t + dt) = n/S(t) = n
 E(t + dt) = m/E(t) = m − 1 
P
 0 0  = µ2 dt + 0(dt)

I(t + dt) = n /S(t) = n
0 0
R(t + dt) = m /S(t) = m
• Mortality of I:

The probability that there will be deaths regardless of the cause of the disease among
0
the infected in the n state of the process is given by:
H. Y. Talkibing, B. Diakarya, O. Fabrice / Eur. J. Pure Appl. Math, 12 (3) (2019), 834-845 838

 
S(t + dt) = n/S(t) = n
 E(t + dt) = m/E(t) = m + 1 
P
 0 0  = µ3 dt + 0(dt).

I(t + dt) = n /S(t) = n
0 0
R(t + dt) = m /S(t) = m
• Mortality of R :
0
The probability of deaths among people restored to the m state of the process is given
by:
 
S(t + dt) = n/S(t) = n
 E(t + dt) = m/E(t) = m 
P
 0 0  = µ4 dt + 0(dt).

I(t + dt) = n /S(t) = n
0 0
R(t + dt) = m /S(t) = m + 1

3. Stochastic probability of migration and Transition

• Immigration of E:

The compartment E contains people exposed to the disease after contact with the
patients. The probability of immigration at the m state of the process is therefore:
 
S(t + dt) = n/S(t) = n
 E(t + dt) = m/E(t) = m − 1 
P
 0 0  = σ2 dt + 0(dt)

I(t + dt) = n /S(t) = n
0 0
R(t + dt) = m /S(t) = m
• Transition from E to I:

The exposed individuals E, become infectious with a rate β and the probability of
0
passing from the state m and to the state n is given by:
 
S(t + dt) = n/S(t) = n
 E(t + dt) = m/E(t) = m + 1 
P
 I(t + dt) = n0 /S(t) = n0 − 1
 = β(m + 1)dt + 0(dt)

0 0
R(t + dt) = m /S(t) = m
• Immigration of I:
0
The probability of immigration to the state n of the process in compartment I is:
 
S(t + dt) = n/S(t) = n
 E(t + dt) = m/E(t) = m 
P
 I(t + dt) = n0 /S(t) = n0 − 1
 = σ3 dt + 0(dt)

0 0
R(t + dt) = m /S(t) = m
H. Y. Talkibing, B. Diakarya, O. Fabrice / Eur. J. Pure Appl. Math, 12 (3) (2019), 834-845 839

• Transition from I to R:

Infected individuals I heal with a rate of gammama. The probability of switching


0 0
from the state n and to the state m is given by :
 
S(t + dt) = n/S(t) = n
 E(t + dt) = m/E(t) = m 
P
 I(t + dt) = n0 /S(t) = n0 + 1
 = γ(n3 + 1)dt + 0(dt)

0 0
R(t + dt) = m /S(t) = m − 1
• Immigration of R:
0
The probability of immigration in compartment R in the m state of the process is:
 
S(t + dt) = n/S(t) = n
 E(t + dt) = m/E(t) = m 
P
 0 0  = [σ4 + θλ]dt + 0(dt)

I(t + dt) = n /S(t) = n
0 0
R(t + dt) = m /S(t) = m − 1
• Transition from R to S:

Recovered people become susceptible again with a rate of tau. The probability of
0 0
switching from the state m and to the state n is therefore:
 
S(t + dt) = n/S(t) = n − 1
 E(t + dt) = m/E(t) = m 
P
 0 0  = τ (n4 + 1)dt + 0(dt).

I(t + dt) = n /S(t) = n
0 0
R(t + dt) = m /R(t) = m + 1
• Transition from S to R:

Individuals immunized against the disease with a rate of τ after direct vaccination
coverage integrate the R compartments. The probability of transition from the n state to
0
the m state is therefore:
 
S(t + dt) = n/S(t) = n + 1
 E(t + dt) = m/E(t) = m 
P 0 0  = η(n + 3)dt + 0(dt).

I(t + dt) = n /S(t) = n
0 0
R(t + dt) = m /S(t) = m − 1

4. Stochastic and Linear properties of the transition

The Markov property for the law of a multistate process is that the events {X(t) = j},
j = 0, ..., n are independent on the past Xn−1 given X(s). For Markov processes, the
transition probability matrices satisfy the Chapman-Kolmogorov property [6]. The set of
H. Y. Talkibing, B. Diakarya, O. Fabrice / Eur. J. Pure Appl. Math, 12 (3) (2019), 834-845 840

transition intensities forms the matrix of transition intensity Q. The sum of the terms of
each line of these matrices is equal to zero. We have the matrix of transmission probabilities
Q such as .

 
−M1 + µ1 + α α 0 η
 
 
 0 −M2 + µ2 β 0 
 
Q=



 0 0 −M3 + µ3 γ 
 
 
τ 0 0 −M4 + τ + µ4

Where


 M1 = λ(1 − θ) + σ1 + η






 M2 = α + β + σ 2
⇒ (3)



 M3 = β + γ + σ3





M4 = γ + η + θλ + σ4
M1 , M2 , M3 et M4 are positive quantity.

The Kolmogorov equation gives the matrix of transition probabilities Q(t) as a function
of the exponential of a matrix :

P (t) = exp {Qt} .

The exponential of a matrix is calculated relatively easily, particularly when the ma-
trix can be diagonalized [4]. If Q has eigenvalues which are all different, it can be written
as Q = P DP −1 , where D is the diagonal matrix of eigen-values, and P is the matrix of
eigenvectors. In this case, the probability P (t) at stable condition gives P (t) = P etD P −1
where the exponential of a diagonal matrix D is a diagonal matrix whose diagonal terms
are the exponential of terms of D.

Using the cumulants generating function [5] , we then calculate the means, variances
and covariances of the disease states as a function of time. For this purpose, the probability
generating function is defined by :
X 0 0 0 0
Φ(x1 , x2 , x3 , x4 , t) = p(n, m, n , m , t)xn1 xm n m
2 x3 x4 .
0 0
n,n ,m,m >0
H. Y. Talkibing, B. Diakarya, O. Fabrice / Eur. J. Pure Appl. Math, 12 (3) (2019), 834-845 841

Using A(t) = (Ai,j (t))16i,j64 = (tAi,j ) [i 6, 4j 6], the matrix of births with positive or
null coefficients, such as :
 
λ(1 − θ) + σ1 0 0 0
 
 
 0 σ2 0 0 
 
 
Aij = 

;
 0 0 σ3 0 
 
 
 0 0 0 σ4 

and B(t) = (Bi,j (t)) the matrix of deaths given by:


 
µ1 + α + η −α 0 −η
 
 
 0 µ2 + β −β 0 
 
Bij = 

;

 0 0 µ3 + γ −γ 
 
 
−τ 0 0 µ4 + τ

then, the joint generating function of the moments is defined by:



X 0 0
0 0
M (a1 , a2 , a3 , a4 , t) = p(n, n , m, m , t)ea1 n ea2 n ea3 m ea4 m . (4)
0 0
n,n ,m,m =0

By setting xk = eak , we get ∂xk = eak ∂ak for all k = 1, 2, 3, 4

Let us define the generating function of the cumulants by:


0 0

X an1 an2 am m
3 a4
K(a1 , a2 , a3 , a4 , t) = k 0 0 (a1 , a2 , a3 , a4 , t) (5)
0 0
n! n ! m! m0 ! nn mm
0

n,n ,m,m =1

where knn0 mm0 (a1 , a2 , a3 , a4 , t) are cumulative:

dr K(a1 , a2 , a3 , a4 , t)
knn0 mm0 (a1 , a2 , a3 , a4 , t) = |t=0 . (6)
dtr
Furthermore, the generating function of the cumulants is computed as follows:

K(a1 , a2 , a3 , a4 , t) = logM (a1 , a2 , a3 , a4 , t) (7)


And
∂M (a1 , a2 , a3 , a4 , t) = eK ∂K(a1 , a2 , a3 , a4 , t). (8)
H. Y. Talkibing, B. Diakarya, O. Fabrice / Eur. J. Pure Appl. Math, 12 (3) (2019), 834-845 842

P∞ ai
By substituting ea = i=0 in (5) and then, by derivating the functions K(a1 , a2 , a3 , a4 , t),
i!
it comes that:

h ∞
X an

X (−a1 )n i ∂k
∂K(a1 , a2 , a3 , a4 , t) 1 nn0 mm0 (a1 , a2 , a3 , a4 , t)
= 1 + 3 − 2 (9)
∂t n! n! ∂a1
n=0 n=0
0 0
h ∞
X an2
∞ ∞
an1 X (−a2 )n
X
+ σ2 + α − 4
n0 ! n! 0 n0 !
n0 =0 n=0 n =0
i ∂k
nn mm (a1 , a2 , a3 , a4 , t)
0 0
− 5
∂a2
0
h X ∞
am X∞ ∞
an2 X (−a3 )m
3
+ σ3 +β
m=0
m! 0
n0 ! m=0 m!
n =0

X (−a3 )m i ∂k 0 0 (a , a , a , a , t)
nn mm 1 2 3 4
− 7 − 6
m! ∂a3
m=0
0 0 0
h X∞
am X∞ ∞
an1 X (−a4 )m X∞
am

X (−a4 )m
4 3
+ σ4 0 + η 0 +γ
m! n! m! m! 0 m0 !
m0 =0 n=0 m=0 m=0 m =0
0

X (−a4 )m i ∂k 0 0 (a , a , a , a , t)
nn mm 1 2 3 4
− 9 0 − 8 .
0
m! ∂a 4
m =0

Moreover, knowing that:



 E(X) = ∂knn0 mm0 (a1 , a2 , a3 , a4 , t)
. (10)

V (X) = ∂ 2 knn0 mm0 (a1 , a2 , a3 , a4 , t).
Which gives us:


 dk 0 0 (a1 , a2 , a3 , a4 , t)

 E(Xi (t)) = nn mm |t=0
 dai
(11)

 d2 knn0 mm0 (a1 , a2 , a3 , a4 , t)


 V (Xi (t)) = |t=0 pour i = 1, 2, 3, 4
da2i
Using the moment generating function (5), we can determine the average and variance
of each state.
The derivative of 5 gives:
0 0

X
∂K(a1 , a2 , a3 , a4 , t) an1 an2 am m
3 a4 0
= 0 0 kn,n0 ,m,m0 (a1 , a2 , a3 , a4 , t). (12)
∂t n! n ! m! m !
n,n0 ,m,m0 =0
H. Y. Talkibing, B. Diakarya, O. Fabrice / Eur. J. Pure Appl. Math, 12 (3) (2019), 834-845 843

By equalizing the two previous expressions (12) and (5) and using the relationship
(11), we obtain a system of linear differential equations of the first degree whose variables
are means of each state of the process defined by the relationship (13).

 dE(X1 )

 = ρ1 E(X1 )

 dt





 dE(X2 )

 = ρ2 E(X2 )

 dt
. (13)

 dE(X )

 3

 = ρ3 E(X3 ) + σ4 E(X2 X3 ) + ρ5 E(X2 )

 dt





 dE(X4 ) = ρ6 E(X4 ) + ρ7 E(X2 X4 ) − 5 E(X3 )

dt
With ρi , i = 1, ..., 8, the strictly positive constants defined by the system (14) :


 ρ1 = σ4 + σ2 + η + 8 − 5 − 4 + 3 − 2 + γ + α







 ρ2 = σ4 + η + 8 − 4 + 3 − 2 + γ + α + β







 ρ3 = σ4 + σ3 + σ2 + η − 9 + 8 − 7 + 6 − −5 − 4 + 3 − 2 + γ + α + β




ρ4 = σ3 − 7 + 6 − β (14)







 ρ5 = σ3 + σ7 − β







 ρ6 = σ4 + σ3 + σ2 + η − 9 + 8 − σ7 + 6 − 5 − 4 + 3 − 2 + γ + α + β






ρ7 = σ3 + −7 + 6 + β
The dispersion in turn of the average of each state of the process is given by the
relationship (15). For a statistic with little dispersion, the observations are close to each
other, and therefore to their average.

 dV (X1 )


 = 12 (σ2 + η + 2 + 3 + γ + α)V (X1 )

 dt





 dV (X2 )

 = 12 (σ4 + σ2 + η + 6 + 3 + 2 + γ + β)V (X2 )
 dt
. (15)

 dV (X3 )



 = 12 (σ4 + σ3 + σ2 + η + 9 + 3 + 2 + γ + β)V (X3 )

 dt





 dV (X4 ) = 1 (σ4 + σ3 + σ2 + η + 9 + 8 + 7 + +6 + +5 + 3 + α)V (X4 )

dt 2
H. Y. Talkibing, B. Diakarya, O. Fabrice / Eur. J. Pure Appl. Math, 12 (3) (2019), 834-845 844

The degree of the links between the different states of the process can be estimated
from the co-variables by solving differential equations of the relationship (16).


 dCOV (X1 X2 )

 = (σ4 + σ2 + η − 9 + 8 + 3 − 2 + γ + α)COV (X1 X2 )

 dt





 dCOV (X1 X3 )

 = (σ4 + σ3 + σ2 + η − 9 + 8 − 7 + 6 − 5 − 4 + 3 − 2 + γ + α + β)COV (X1 X3 )



 dt





 dCOV (X2 X3 )

 = (σ4 + σ3 + σ2 + η − 9 + 8 − 5 − 4 + 3 − 2 + γ + α + β)COV (X2 X3 )
 dt

 dCOV (X2 X4 )



 = (σ4 + σ2 + η − 9 − 5 − 4 + 3 − 2 + γ + α + β)COV (X2 X4 )

 dt





 dCOV (X3 X4 )

 = (σ4 + σ3 + σ2 − 9 + 8 + 7 + 6 − 5 − 3 − 2 + α + β)COV (X3 X4 )

 dt







 dCOV (X1 X4 ) = (σ + σ + η −  −  −  +  −  + γ + α)COV (X X )
4 2 9 5 4 3 2 1 4
dt
(16)
The resolution of the written equation system by the relationships (13), (15) and (16)
have as initial conditions:


 S(0) = S0 > 0, E(0) = E0 ≥ 0, I(0) = I0 > 0, R(0) = R0 ≥ 0






 S E I R
 Φ(x1 , x2 , x3 , x4 , 0) = x1 0 x2 0 x30 x4 0 , M (a1 , a2 , a3 , a4 , 0) = ea1 S0 ea2 E0 ea3 I0 ea4 R0
. (17)



 K(a1 , a2 , a3 , a4 , 0) = a1 S0 + a2 E0 + a3 I0 + a4 R0





E(X1 (0)) = S0 , E(X2 (0)) = E0 , E(X3 (0)) = I0 , E(X4 (0)) = R0

5. Conclusions

In this study, we have proposed the stochastic approach of the deterministic SEIRS
model with a vital dynamic and temporary immunity of [7]. whose balance and stability
have been studied. The stochastic approach can be used to accurately describe the spread
of infectious diseases in a random environment. This SEIRS model generalizes the SI, SIR
and SEIR models and is therefore a valuable tool for stochastic modelling of epidemiolog-
ical problems. The resulting systems of equations incorporate complexities and assume
that randomness is important and explicitly include it in the behaviour of the system com-
pared to the deterministic model that assumes that randomness has a negligible effect and
considers only the average behaviour of the system. For good monitoring and prevention
of transmission of epidemics, the results obtained provide more precision on the random
REFERENCES 845

evolution of the disease over time. The main disadvantage of this approach is that in
practice, it is often difficult to have data adapted to the model to be implemented. It is
also clear that most of the results remain valid not only for a finite number of Markovian
environments, but also for more general ergodic environments.

References

[1] J. Gani D. J. Daley. Epidemic modelling. In Cambridge University Press, editor, An


introduction, page 14, 2001.

[2] Bibliothque de l’OMS. Modlisation mathmatique pour le contrle et llimination du


paludisme. novembre 2010.

[3] J. Wu Fred Brauer, Pauline van den Driessche. Lecteure note in mathematics. In
Oxford Mathematical Biosciences Subseries: P.K. Maini, editor, Mathematical epi-
demiology, 1945.

[4] Forrest .W. Crawford Vladimir N. Minin Marc A. Suchard Lam Si Tung Ho, Jasen Ho.
Birth/birth-death processes and their cumputable transition probabilities with biolog-
ical applications. Cornell University Library, 7 Aug 2017.

[5] Abdelkarim Ed-Darraz Nicolas Bacaer. un environnement alatoire. Journal of Math-


ematical Biology, Springer Verlag (Germany), 2014.

[6] Christelle Verg Pierre Del Moral. Modeles et methodes stochastiques. In Springer,
editor, Une introduction avec applications. Comit de Lecture 20122015/Editorial Board
20122015, 2014.

[7] Marek B. Trawicki. Cdeterministic seirs epidemic model for modeling vital dynamics,
vaccinations, and temporary immunity. Molecular Diversity Preservation Interna-
tional, January 2017.
2.3 Probabilité d’extinction et modèle SEIRS

2.2.3 Commentaire
Dans cette contribution, nous avons présenté un modèle stochastique de type SEIRS
pour la propagation de l’infection dans le contexte de la transmission des maladies émer-
gentes. Ce modèle est basé sur les processus de naissance et mort linéaires de type mar-
kovien continu à espace d’état discret. La population étant subdivisée en quatre grands
sous-populations : S pour les personnes susceptibles, E pour les personnes exposées, I pour
les personnes infectées et R pour les personnes guéries. La maladie ne peut se transmettre
que par contact entre les personnes susceptibles et infectées. Toute personne guérie perd
l’immunité contre la maladie après un certain temps et redevient susceptible. De plus,
tous taux d’immigration, de mortalité et de naissance sont supposés non constants.

2.3 Probabilité d’extinction et modèle SEIRS


2.3.1 Motivation
La modélisation mathématique des caractéristiques clés des épidémies, telle que la
transmission de l’infection révèle une importance considérable pour compréhension de
la dynamique des épidémies. Les modèles stochastiques sont beaucoup plus conformes.
Il peuvent intégrer l’ensemble des sources d’hétérogénéité souhaitées (hétérogénéité spa-
tiale, temporelle, comportementale ou autre). Ils tiennent compte de la nature aléatoire de
tout événement de transmission et de développement d’une infection [Sauvage et Pontier,
2005]. Malgré les progrès en termes de traitement et la prévention, les maladies infec-
tieuses continuent à se propager au sein de la population humaine et il n’y que très peu
de telles maladies qui sont éradiquées.
Dans ce travail, nous proposons une approche de détermination de la probabilité d’ex-
tinction d’un processus de transmission de maladie infectieuse dans une population. Nous
avons étudié la stabilité globale du modèle SEIRS et son équilibre. Les probabilités des
processus dites probabilité d’extinction de chaque état du processus ont été proposées.

2.3.2 Publication 2
L’article qui suit est un des nos résultats dans cette contribution à la modélisation
épidémiologique. Il a été publié dans la revue portugaise SCIENCE E TECHNOLOGY
(ISSN : 2416-3953) indexée dans la grosse base de données Web of Science, Core Collection
Science Citation Index Expanded (ISI Thomson Reuters) / Pages 15-29.

47
ISSN:2416-3953 Vol. 35 (n. 2, 2020)

Extinction probability of the


stochastic model SEIRS
Hay Yoba Talkibing
UJKZ, UFR-SEA, BP 7021, Ouagadougou 03, BURKINA FASO
E-mail: [email protected]

Diakarya Barro
UFR-SEG, U.O2 12 BP: 417 Ouagadougou, BURKINA FASO
E-mail: [email protected]

Ouoba Fabrice
UJKZ, UFR-SEA, BP 7021, Ouagadougou 03, BURKINA FASO
E-mail: [email protected]

February 2, 2020

Abstract
The dynamics of disease transmission is still a major problem in math-
ematical epidemiology. In this work, we study the extinction probability of
a stochastic SEIRS-type model for infectious diseases evolving in a random
environment. We have determined the reproduction rate R0 and studied the
stability of the stochastic system based on the continuous Markov chain in
a discrete state. A simulation comparison of these two studies is made.

Keywords : Stochastic model, reproductive rate, Markov chain, epi-


demiology, Extension probability, SEIRS.
AMS classification codes (2010) : 91B70 , 60J10 , 92D30 .

1 Introduction
In the face of increasing bacterial resistance, the emergence of new pathogens and
the rapid spread of the epidemic, surveillance and prevention of disease trans-
mission become particularly important and indispensable. In spite of permanent

15
ISSN:2416-3953 Vol. 35 (n. 2, 2020)

and continuous surveillance of infectious diseases, their etiologies are still largely
unknown. To combat these random phenomena, in recent decades mathematical
models have been developed and implemented to study the spread of infectious
diseases since the beginning of the 20th century in the domain of mathematical
epidemiology due to the work of researchers such as Daniel Bernoulli [15].

Stochastic and deterministic models of epidemics allow researchers to gain valu-


able knowledge about many infectious diseases and to study strategies to combat
them. In 1927, Kermack and McKendrick proposed the first comprehensive model
to describe the behavior of an epidemic [1]. This basic deterministic model is
still used today for the development and implementation of even more complex
mathematical epidemic models. But these classical mathematical models are not
ensugh effective when there are a small number of epidemics, often using stochastic
methods where each infection and cure event is tracked.

The first stochastic epidemic models were presented by L. Reed and W, H.


Frost, and Greenwood [10] to accurately describe the discrete-time spread of dis-
ease in a population. These models developed in 1928 and 1931 were based on the
concept of probability and statistics. Later, Bartlett proposed the stochastic SIR
continuous-time model which serves as the basis for the stochastic models. One
can find in the literature several works such as Anderson and May, E. Pardoux,
Britton [18] but much remains to be done with the emergence of some of the new
pathogens.

In this paper, we propose a probabilistic approach to study the extinction of a


contamination process of a transmissible disease in a given population assimilating
a stochastic model of the SEIRS type evolving in a random environment, the
stochastic version of which has been proposed [1] for infectious diseases. We first
determine the reproduction tau R0 of the deterministic model of the phenomenon
and we determine the probability of extinction of the process by studying the
stability of the stochastic system then by simulation we make a comparison of the
results obtained.

2 Stochastic SEIRS Approach of the Infectious


Diseases
Let’s consider the stochastic model SEIRS [1] whose diagram of the dynamics of
disease spread is described in Figure 1. This model is based on the Markov chain of
discrete time and space states through the processes of birth and death to describe

16
ISSN:2416-3953 Vol. 35 (n. 2, 2020)

the spread of infectious diseases evolving in a random context.

The model is divided into four compartments where each compartment rep-
resents a specific stage of the epidemic : that is X1 for susceptible or healthy
individuals, X2 for exposed individuals, X3 for infected individuals and X4 for
cured individuals. To this model are associated the apparitions of rates σi , i=1 to
4 independent of λ and rates of natural deaths µi , i=1 to 4 independent of disease
in the classes of susceptible X1 (t), exposed X2 (t), infected X3 (t) and cured X4 (t)
respectively at time t. Then, the population size given a time t is such that :

Z(t) = X1 (t) + X2 (t) + X3 (t) + X4 (t). (2.1)


Rates are assumed to be constant over time and disease transmission occurs only
through contact between susceptible and infectious individuals within a relatively
small time interval dt.

After the administration of the vaccine to the population, subjects immunized


against the disease and cured subjects enter the X4 compartment and lose their
immunity to the disease after a given latent period to become susceptible again to
[2]. Unvaccinated newborns enter the susceptible compartment at X1 at a rate of
Θ and after contact with an infected subject first expose themselves to the disease
and become infected, recover and become susceptible again. Susceptible subjects
in compartment X1 receive the vaccines and go directly to compartment X4 of the
cured persons [1, 18].

By providing the appropriate vaccines to the public, the mass immunization


program serves to reduce the value of the basic R0 breeding stock, thereby extin-
guishing the disease. For a R0 greater than one, the infectious disease does not
eventually disappear and in fact causes an epidemic to occur. Because of successful
immunization programs that sometimes cause health problems for individuals, be-
cause vaccinations have associated risks, infected people may become overly wary
of the risks and may not receive the necessary vaccines until they have transmit-
ted the infectious disease to many other susceptible people . Before reaching an
outbreak, laws are sometimes passed to enforce vaccinations.

We summarize in the table (1), the set of parameters that will be described in
the model.

The following sections summarize the key resultats of our paper.

17
ISSN:2416-3953 Vol. 35 (n. 2, 2020)

Parameters Biological Description


λ Newborn rate.
θ Rate of newborns immunized against the disease after the vaccine
ρ Rate of newborns immunized against the disease
Θ rate of newborns not immunized against the disease after vaccination
α Rate of contact between infected and susceptible individuals.
σi Rates of susceptible, exposed, infected and cured immigrants respectively in
the compartment with immunity to the disease after vaccination.
τ Rate of healed persons who have lost immunity to disease.
η Rate of susceptible people immunized against the disease after vaccination.
µi Mortality rates independent of disease
respectively in the Xi compartments.
β Infection rate.
γ Rate of recovery or people being taken out.

Table 1: The set of model parameters

Figure 1: Diagram of the spread of the SEIRS epidemic model [1]

3 Basic reproduction rate R0


In epidemiological study, R0 is the average number of individuals infected by a sin-
gle infected individual, in a fully susceptible population, during its entire period
of infection. It provides the critical conditions for which an epidemic develops or
disappears : RA15,A13,A16 . Epidemiologists classify the infectious potential of com-
municable diseases according to this parameter R0 . This quantity is a threshold

18
ISSN:2416-3953 Vol. 35 (n. 2, 2020)

that can provide insight into the dynamics of disease transmission and can also
guide strategies to control its spread. It is generally referred to as the basic re-
production number. R0 is one of the key concepts that mathematics has brought
to epidemic theory. Calculating the quantity R0 , requires first determining the
equilibrium points of the disease.

The law describing the spread of the disease through the compartments (fig 1)
gives us the following equations :


dX1 (t)

 = (λ − θ) − (µ1 + η)X1 (t) + αX3 (t)X1 (t) + τ X4 (t) + σ1
dt








 dX2 (t)
= αX3 (t)X1 (t) − (µ2 + β)X2 (t) + σ2


dt






dX3 (t) (3.1)
= βX2 (t) − (µ3 + γ)X3 (t) + σ3
dt







 dX (t)
 4
= γX3 (t) + ηX1 (t) − (τ + µ3 )X4 (t) + θ + σ4


dt







X1 (0) = x01 , X2 (0) = x02 , X3 (0) = x03 , X4 (0) = x04

Which is equivalent to the following



dX1 (t)

 = π + αX3 (t)X1 (t) − εX1 (t) + τ X4 (t) − θ
dt








 dX2 (t)
= αX3 (t)X1 (t) − ΩX2 (t) + σ2


dt






dX3 (t) (3.2)
= βX2 (t) − ΓX3 (t) + σ3
dt








 dX4 (t)
= γX3 (t) + ηX1 (t) − KX4 (t) + φ


dt







X1 (0) = X10 , X2 (0) = X20 , X3 (0) = X30 , X4 (0) = X40

Where, the different parameters are given by

19
ISSN:2416-3953 Vol. 35 (n. 2, 2020)



 π = λ + σ1




ε = µ1 + η








 Ω = µ2 + β


(3.3)
Γ = µ3 + γ








K = τ + µ3








φ = θ + σ4

In the absence of disease, X4 =0 and we get the equilibrium point defined by :


π−θ T
w= , 0, 0 . (3.4)
ε
Proposition 3.1 Under the relationship (3.2), the reproduction rate is given by :
αβ(λ + σ1 − θ)
R0 = . (3.5)
(µ1 + η)(µ2 + β)(µ3 + γ)
Proof 3.1 Let’s look for Van Den Driessche’s K-matrix, the so-called new gener-
ation matrix.

   
αX1 (t)X3 (t) + σ2 ΩX2 (t)
F(X2 (t), X3 (t)) =   ; V(X2 (t), X3 (t)) =  (3.6)
0 −βX2 (t) + ΓX3 (t) − σ3
So, it follows that
∂F1 ∂F1 ∂V1 ∂V1
   

∂Fi  ∂X2 ∂X3  ∂Vi  ∂X2 ∂X3 


F = = ;V = = (3.7)
   
∂Xj  ∂F ∂Xj  ∂V

2 ∂F2  2 ∂V2 
∂X2 ∂X3 ∂X2 ∂X3
Then, it comes that :

α(π − θ)
   
0 Ω 0
F (w) = 
 ε  ; V (w) = 
  (3.8)
0 0 −β Γ

20
ISSN:2416-3953 Vol. 35 (n. 2, 2020)

Figure 2: Simulation of the solution of model and the basic reproduction rate R0 .

1
 
α(π − θ) αβ(π − θ) α(π − θ)
   
0  Γ 0 
K = F V −1 =
 ε 
 =
  εΩΓ εΓ 

 β 1 
0 0 0 0
ΩΓ Γ

αβ(λ + σ1 − θ)
R0 = . (3.9)
(µ1 + η)(µ2 + β)(µ3 + γ)
In particular, if R0 < 1, the diseases is asymptotically stable. But if, R0 > 1,
the diseases is asymptotically unstable.

4 The probability of extinction of the disease


In case of an outbreak, the ideal goal is to completely eradicate these diseases
through preventive measures or by implementing a more effective mass vaccination

21
ISSN:2416-3953 Vol. 35 (n. 2, 2020)

program. We are interested here in determining a probability of extinction [10] w


of the disease as a function of time.

w = lim G(t, 0, 0, 0, 0) (4.1)


t→∞

where
X ′ ′ ′ ′
G(t, x1 , x2 , x3 , x4 ) = p(t, n, m, n , m )xn1 xn2 xm m
3 x4 ; (4.2)

with the initial condition G(t0 , x1 , x2 , x3 , x4 ) = xn1 1 xn2 2 xn3 3 xn4 4 .

The cumulative probability generating function (4.17) [10] satisfies the follow-
ing progressive Kolmogorov equation :
(t)
dGj Xh 
(t)
 i
(t)
(s) = aij (−s) 1 − Gj (s) − bij (−s) Gi (s). (4.3)
ds i

where aij (t) and bij (t), ∀ 1 ≤ i, j ≤ 4 are respectively the components of the
matrices of birth rates A(t) and deaths B(t) obtained in the study of HY Talkibing
et all. [1], where

 
λ(1 − θ) + σ1 0 0 0  
  µ1 + α + η −α 0 −η
   
 0 σ2 0 0   





 0 µ2 + β −β 0 

A(t) =   ; B(t) =  (4.4)
 0 0 σ3 0   





 0 0 µ3 + γ −γ 

   
 0 0 0 σ4 
−τ 0 0 µ4 + τ

Then, the probability of extinction of the contamination process of a disease


in a given population is therefore defined by the expression :

′ ′
w = w1n w2n w3m w4m (4.5)

where each wj is obtained as follows :


(t)
wj = 1 − lim Gi (0); (4.6)
t→∞

22
ISSN:2416-3953 Vol. 35 (n. 2, 2020)

(t)
and Gi (s), for t > 0 being the solutions obtained from solving the following
system :
(t)

 dG1 h 
(t)
 i
(t)

 (s) = τ + p 1 − G 1 (s) − q G1 (s)



 ds


(t)

dG2

 h   i
(t) (t)
(s) = + 1 (s) (µ + G2 (s)


 α σ 2 − G 2 − 2 β)



 ds


(t)

dG3

 h   i
(t) (t)
(s) = β + σ3 1 − G3 (s) − (µ3 + γ) G3 (s)



 ds

(4.7)
(t)
dG
 h   i
(t) (t)

4
(s) = η + γ + σ4 1 − G4 (s) − (µ4 + γ) G4 (s)






 ds


(t)

Gj (−t) = 1








p = λ(1 − θ) + σ1








q = α + η + µ1 .

So, we find out if w <1 or w >1 and it depends on the resolution of the non-
linear system (4.7) which does not admit an exact solution.

According to the work of Arnold (1998) (See [9]), the study of the stability of
the relation (4.7) system can be reduced to the following system of homogeneous
differential equations :

dX(t)
= HX(t); (4.8)
dt
where X ∈ R4 is the vector of the different states of the process while

 
λ + σ1 − ~ α 0 η
 
 

 0 σ 2 − µ2 − β β 0 

H=

;
 (4.9)

 0 0 σ 3 − µ3 − γ γ 

 
0 0 0 σ 4 − µ4 − τ

23
ISSN:2416-3953 Vol. 35 (n. 2, 2020)

with ~ = λθ + µ1 + α + η, the random matrix, difference between birth and


morality.

Moreover the authors showed that this stability depends on the sign of λ1 (A, B),
the largest Lyapunov exponent of (4.8).

Furthermore, Bacaer and Khaladi (2012) [10] have also shown that the study of
the stability of (4.7) can be alternatively formulated in terms of net reproducibility
R0 .

Let’s assume that the H matrix is irreducible, that is the G(H) graph is strongly
related. Moreover let f (x) be the characteristic polynomial of the matrix H, that
isf (x) = det(H −xI), I being the unite matrix of order 4, the following eigenvalues,
components of the vector U, associated with the matrix H are the solutions of the
equation f (x) =0 :
 
λ + σ1 − ~
 σ 2 − µ2 − β 
U =  σ 3 − µ3 − γ  .
 (4.10)
σ 4 − µ4 − τ
As in [5, 9], all eigenvalues of the matrix H have a strictly negative real part,
that is Re(Ui ) < 0, 1 ≤ i ≤ 4, then the null solution of the system (4.8) is asymp-
totically stable.

So, the passage matrix P associated with the vector U is analytically given by
the following expression :
 
1 P 2 P 4 P9
 
 
 0 1 1 0 
 
P (t) = 


 (4.11)
 0 0 P6 0 
 
 
0 0 0 1
if the following relationship checks out :

3(σ4 − µ4 − τ ) + µ2 + β + µ3 + γ − σ1 − σ2 − σ3 − λ − ~ = 0. (4.12)

The constants P2 , P4 , P6 and P9 are such that :

24
ISSN:2416-3953 Vol. 35 (n. 2, 2020)

α

 P2 =
~ + σ 2 − λ − σ 1 − µ2 − β








 α

 P4 =
~ + σ 3 − λ − σ 1 − µ3 − γ



. (4.13)
 µ2 + β + σ 3 − µ3 − σ 2 − γ
P6 =






 β



 η
 P9 =


λ + σ 1 + τ + µ4 − ~ − σ 4
The matrix H can therefore be writhen in the form :

H = P DP −1 . (4.14)
That is, more explicitly,

   
1 P 2 P 4 P9 B1 0 0 0 P6 −P2 P6 P2 0
   
   
 0 1 1 0 
 0 B2 0 0   −P6 P2 −1 1 
 
 
    (4.15)
   
 0 0 0 
P6  0 0 B3 0  0 0 1 0 
 
 
   
0 0 0 1 0 0 0 B4 0 0 0 P6

where


 B 1 = λ + σ1 − ~




 B 2 = σ 2 − µ2 − β


(4.16)
B 3 = σ 3 − µ3 − γ








B 3 = σ 4 − µ4 − τ

In the relationship (4.15), we use the following expressions :

25
ISSN:2416-3953 Vol. 35 (n. 2, 2020)



 ζ = λ + σ1 − ~


 

 U = P −1 X(t)  ∆ = σ 2 − µ2 − β


and . (4.17)
′ ′
U =P −1
X (t) ̟ = σ 3 − µ3 − γ
 







κ = σ4 − µ4 − τ.

The solution of the system (4.8) is obtained by solving the problem (4.17) and
the analytical expression of this solution is given by the following relation which
defines the final states of the process over time.


(1 − P6 )P2 x02 e∆t + (1 − P6 )x01 eζt + P6 x02 e∆t + P6 x01 eζt − P6 P2 x03 e̟t − x04 eκt
X (t) =

1

P6 (1 − P6 )








P x0 e∆t + P6 x01 eζt − P6 P2 x03 e̟t − x04 eκt

 X2 (t) = 6 2



P6 P2 (1 − P6 )


X3 (t) = x03 e̟t








x0


 X4 (t) = 4 eκt .


P6
(4.18)

26
ISSN:2416-3953 Vol. 35 (n. 2, 2020)

Figure 3: Simulation of the evolution of the process, solution to the problem over
time.

27
ISSN:2416-3953 Vol. 35 (n. 2, 2020)

5 Conclusion
The aim of this work was to study the probability of extinction of a process of
SEIRS-type disease contamination whose rates of immigration and mortality are
assumed to be non-constant. The continuous Markovian process of birth and
death in a discrete state space has been used to describe the phenomenon. The
extinction probability obtained by determining the basic reproductive tau R0 of
the deterministic model is compared to that obtained using the stochastic method
by simulations of the phenomenon.

These approaches can be used as a basis for application by health specialists.


Our work opens up very interesting and varied perspectives that will be the subject
of our next articles. Indeed, we will be interested in the application of our various
results to real data and other aspects of modeling in epidemiology.

References
[1] HY Talkibing, B Diakarya, O Fabrice Stochastic Approach in
Epidemic Modeling Using the SEIRS, Vol 12, No 3 (2019),DOI:
https://doi.org/10.29020/nybg.ejpam.v12i3.3400, European Journal of
Pure and Applied Mathematics 2019;

[2] Marek B. Trawicki Deterministic Seirs Epidemic Model for Modeling Vital
Dynamics, Vaccinations, and Temporary Immunity.http://www.mdpi.com/
doi:10.3390/math5010007,January 2017,

[3] A. Gray, D. Greenhalgh, X. Mao, J. Pan, The SIS epidemic model with Marko-
vian switching, J. Math. Anal. Appl. 394 (2012) 496-516.

[4] Paul E. Parham Edwin Michael Outbreak properties of epidemic models :


The roles of temporal forcing and stochasticity on pathogen invasion dynam-
ics.ELSEVIER Journal of theoretical Biology 271 (2011) 1-9.

[5] M. Slatkin, The dynamics of a population in a Markovian environment, Ecol-


ogy 59 (1978) 249-256.

[6] Dimitrios Milios, Guido Sanguinetti, and David Schnoerr Probabilistic Model
Checking for Continuous Time Markov Chains via Sequential Bayesian Infer-
ence. arXiv:1711.01863v1 [cs.LO] 6 Nov 2017

28
ISSN:2416-3953 Vol. 35 (n. 2, 2020)

[7] T. Tang, Z. Teng, Z. Li, Threshold behavion in a chass of stochastic SIRS


epidemic models with nonlinear incidence, Stoch. Anal. Appl. 33 (2015) 9940-
1019.

[8] Lam Si Tung Ho, Jasen Ho, Forrest .W. Crawford, Vladimir N. Minin, Marc A.
Suchard ¡¡ Birth/birth-death processes and their cumputable transition proba-
bilities with biological applications. arXiv:1603.03819v2 [stat.CO] 7 Aug 2017

[9] M. Siakalli, Stability properties of stochastic differential equations driven by


Levy noise (Ph.D. thesis), University of Sheffeld, 2009.

[10] Nicolas Bacaër, Abdelkarim Ed-Darraz Sur les processus linéaires de nais-
sance et de mort dans un environnement aléatoire. Journal of Mathematical
Biology, Springer Verlag (Germany), 2014,

[11] Y. Zhao, D. Jiang, The threshold of a stochastic SIS epidemic model with
vaccination, Appl. Math. Comput. 243 (2014) 718-727.

[12] Organisation mondiale de la Santé Modélisation mathématique pour le


contrôle et l’élimination du paludisme. COLLECTION PROGRÈS ET COL-
LECCTION IMPACT, ISBN 978 92 4 250041 7, Numéro 5 novembre 2010.

[13] J.-M. Morel, Cachan F. Takens, Groningen B. Teissier, Paris Lecture Notes in
Mathematics. Mathematical Biosciences Subseries: P.K. Maini, Oxford, 1945

[14] C. Chen, Y. Kang, Dynamics of a stochastic multi-strain SIS epidemic model


driven by Levy noise, Comm. Nonl. Sci. Numer. Simul. 42 (2017) 379-395.

[15] Pierre Del Moral Christelle Vergé Modèles et méthodes stochastiques, Une
introduction avec applications. Springer

[16] X. Mao, C. Yuan, Stochastic Differential Equations with Markov Switching,


Imperial College Press, London, 2006.

[17] Z. Teng, L. Wang, Persistence and extinction for a class of stochastic SIS
epidemic models with nonlinear incidence rate, Physica A 451 (2016) 507-
518.

[18] Abdoulaye Diamoutene, Farid Noureddine, Bernard Kamsu-


Foguem, Diakarya Barro. Quality control in machining using or-
der statistics. Measurement-Journal of the International Measure-
ment Confederation (IMEKO), Elsevier, 2018, 116, pp.596-601.
10.1016/j.measurement.2017.11.036. hal02053206

29
2.4 Commentaire

2.4 Commentaire
Notre contribution dans de ce travail était d’étudier la probabilité d’extinction d’un
processus de contamination des des maladies infectieuses d’un modèle compartimental
stochastique SEIRS de type markovien étudié dans l’article précédent et dont les taux
d’immigration et de mortalité sont supposés non constants. Le processus de naissance
et de mort de type markovien continu dans un espace d’état discret a été utilisé pour
décrire le phénomène. La probabilité d’extinction obtenue de chaque état du processus
est comparée graphiquement à la valeurs du taux de reproduction de base R0 du modèle
déterministe par des simulations du phénomène. Ces approches peuvent être utilisées
comme outils d’application par les spécialistes de la santé.

63
Chapitre 3

Analyse géostatistique et
épidémiologie

Dans le chapitre précèdent, nous avons proposé des approches stochastiques pour la
propagation de l’épidémie à l’échelle temporelle. Ces approches ne tiennent pas compte
de la dimension spatiale du phénomène de l’émergence des maladies infectieuses, dans
ce chapitre, nous allons nous intéresser à l’analyse spatiale des foyers épidémiques par
l’évaluation de l’influence de la contamination d’une région sur les autres. Cette influence
peut se traduire par la mesure de dépendance entre les processus stochastiques via les
outils géostatistiques basés sur les fonctions copules, très utilisées en pratique.

La première section consiste en une introduction à l’analyse geostatistique. Après


une présentation de cet outil de modélisation spatiale, nous donnons ses méthodes et
des éléments d’estimation. Dans la section 2, nous faisons une synthèse de l’analyse des
extrêmes multivariés, en particulier les résultats issus de l’approche par blocs des maxima,
beaucoup utilisés dans la modélisation en épidémiologie. La section 3 fait le lien entre
l’épidémiologie et l’analyse des copules stochastiques.

3.1 Introduction à la géostatistique


La géostatistique constitue une branche très importante de l’analyse statistique spa-
tiale [57]. Il faut noter que des problèmes essentiellement géostatistiques ont été abordés
depuis fort longtemps : en art des mines certes, mais aussi en météorologie, topographie,
cartographie, pour ne citer que quelques exemples. A la croisée des chemins entre la sta-
tistique, les mathématiques et les sciences de la Terre, la géostatistique est le domaine
des statistiques spatiales basée sur la théorie des champs aléatoires pour répondre à des
questions de prédictions spatiales.

3.1.1 Présentation de la géostatistique


La géostatistique est un vaste domaine de la statistique en plein essor et qui a d’im-
portantes applications dans des domaines comme la santé publique, l’agriculture et l’ex-
ploration des ressources, ainsi que dans les études environnementales et écologiques.

On peut définir la géostatistique comme l’étude des variables numériques réparties dans
l’espace ou encore la méthode de traitement statistique de données localisées. Cette der-

64
3.1 Introduction à la géostatistique

nière étudie des phénoménes dont l’observation est un processus aléatoire Z = {Zs , s ∈ S}
indexé par un ensemble spatial S, Zs appartenant à un espace d’états D. Développée à
partir de préoccupations trés pratiques (recherche miniére), la géostatistique a fait l’objet,
sous l’impulsion de Georges Matheron [21] et de ses collégues de l’école des Mines de Fon-
tainebleau, de trés importants développements méthodologiques. Les illustrations les plus
simples concernent des problémes tels que l’interpolation des températures ou des préci-
pitations. Mais les travaux les plus importants concernent les applications géologiques et
miniéres que l’on peut trouver par exemple chez Chilés et al 2009 (voir [54]).

Il faut distinguer essentiellement deux approches de la géostatistique :

i) La géostatistique linéaire : Elle étudie les combinaison linéaire de la fonction aléa-


toire étudiée. Elle utilise les outils tels que le variogramme, le covariogramme, le krigeage
simple, ordinaire et le cokrigeage ;
ii) La géostatistique non linéaire : Elle étudie les combinaisons non-linéaires de la fonc-
tion aléatoire étudiée. Elle regroupe les méthodes d’espérance conditionnelle, du krigeage
disjonctif, et les simulations conditionnelles.

Le principal domaine d’utilisation de la géostatistique a historiquement été l’estimation


des gisements miniers, mais son domaine d’application actuel est beaucoup plus large et
tout phénomène spatialisé peut être étudié en utilisant la géostatistique.

3.1.2 Méthodes de la géostatistique


En géostatistique, les méthodes de simulation visent à proposer une variable régionali-
sée reproduisant un phénomène ou un processus. En particulier il s’agit d’une application
des méthodes probabilistes à des variables régionalisées permettant une analyse cohé-
rente des données, des incertitudes ainsi que la structure spatiale de la teneur du minerai.
Ces méthodes sont particulièrement employées en géostatistique non linéaire, comme sou-
vent le seul moyen techniquement disponible pour l’estimation de grandeurs. En effet, les
méthodes de modélisation géostatistique donnent la meilleure estimation de la variable
régionalisée, mais lissent le résultat et donc échouent à reproduire une variabilité naturelle
du phénomène.

Les grandes lignes de la modélisation géostatistique sont : analyse descriptive, analyse


spatiale ou variographie, ajustement du variogramme expérimental et prédiction spatiale
ou krigeage.

L’outil de modélisation des données géoréférencées est le champ aléatoire. Principale-


ment, pour les données de type géostatistiques, la position observée n’est pas modélisée
comme aléatoire car elle est choisie par le statisticien. Par exemple, un jeu de données
métrologiques est observé sur une collection de stations métrologiques, des données de
pollutions atmosphériques sur une collection de lieux où l’on a implanté des appareils de
mesure. Par ailleurs, l’unité géographique associée à la donnée est ici ponctuelle : repérer
la latitude et la longitude des stations météorologiques ou des appareils de mesure. Plus
formellement, pour le champ aléatoire servant à modéliser notre phénomène, l’espace des
indices sera un domaine de Rd contenant un rectangle de volume strictement positif et
l’indice s varie donc continûment dans cet espace.

65
3.1 Introduction à la géostatistique

En général, le caractère aléatoire des phénomènes rend difficile la modélisation. Ainsi,


la modélisation dans un cadre déterministe ne permet pas souvent de donner une large
compréhension du phénomène. Par conséquent, le recours à un modèle probabiliste permet
la formalisation de notre connaissance et nos incertitudes sur le phénomène aléatoire. Dans
toute la suite, nous considérons la modélisation dans le cadre probabiliste.

3.1.3 Éléments d’estimation géostatistiques


Le concept de fonction aléatoire est un outil nécessaire à l’étude géostatistique d’une
variable régionalisée. Nous verrons dans la suite comment rattacher la mesure d’une va-
riable régionalisée au concept de fonction aléatoire pour pouvoir exploiter ses propriétés.

3.1.3.1 Hypothèses de travail


Pour permettre l’inférence, hypothèses limitatives supplémentaires d’ergodicité de la
fonction et de la stationnarité du processus doivent être réalisées.

a) Ergodicité
L’hypothèse d’ergodicité suppose que l’information statistique peut être obtenue à
partir d’une seule réalisation quelconque de la fonction aléatoire définie sur un domaine
spatial infiniment grand. Autrement dit, une réalisation de la fonction aléatoire sur un
grand domaine (c-à-d pour un grand nombre de variables aléatoires) apporte la même
information qu’un grand nombre de réalisations de la fonction aléatoire.

En particulier, la moyenne spatiale réalisée sur la variable régionalisée est alors sup-
posée égale à l’espérance mathématique de la fonction aléatoire :
1 Z Z Z
m = E[Z(s)] = lim z(s)ds (3.1.1)
D→+∞ D D

L’étude des moments de la fonction aléatoire à partir d’une réalisation est alors possible.

b) La stationnarité
Trois acceptions de la stationnarité sont utilisées en géostatistique :
i) La stationnarité stricte qui stipule qu’en se déplaçant par translation, toutes les ca-
ractéristiques de la fonction aléatoire restent invariantes ;
ii) La stationnarité au second ordre qui requiert les conditions suivantes :
E[(Z(s)] = m(s) = m ∀s ∈ Rd








E[(Z(s) − m)2 ] = σ 2 (3.1.2)





Cov[Z(s + h), Z(s)] = E[(Z(s + h) − m)(Z(s) − m)] = C(h)

En pratique, cette hypothèse de stationnarité s’avère souvent trop forte. La limite la


plus importante vient de ce que la moyenne peut changer sur le territoire d’intérêt,
et que la variance peut ne pas être bornée lorsque cette aire d’intérêt croit. C’est
Georges Matheron qui a tiré les conséquences de ces limites de la stationnarité faible
en proposant la notion, encore plus faible, de la stationnarité intrinsèque voir[55].

66
3.1 Introduction à la géostatistique

iii) La stationnarité intrinsèque stipule que la moyenne des accroissement du processus


est nulle. C’est-à-dire E[(Z(s + h) − Z(s))2 ] = 0.
Les accroissements peuvent être stationnaires sans que le processus lui-même le soit.

3.1.3.2 La fonction covariance ou le corrélogramme


Dans un champ aléatoire, la covariance mesure la force de la relation qui existe entre
deux variables aléatoires qui le représentent dans les différentes sites d’observation. L’exis-
tence de la fonction de corrélation d’un champ aléatoire dépend directement de l’existence
de la fonction de covariance de ce champ :

Définition 3.1.1. [57]


On appelle fonction de corrélation ou le corrélogramme (si elle existe) du champ aléatoire
Z = {Z(s), s ∈ Rd }, la fonction, qu’on note C définie sur Rd × Rd dans [−1, 1] par :

Cov[Z(s), Z(t)]
∀(s, t) ∈ Rd × Rd , C(s, t) = q q (3.1.3)
V [Z(s)] V [Z(t)]

La covariance satisfait deux propriétés importantes :


i) Symétrie : C(s, t) = C(t, s),
ii) Défini-positivité
hP i : Considérons par exemple la variance d’une somme du type :
V ar i λi Zsi . A l’aide de C elle s’écrit ni λi λj C(si , sj ).
n P

En tant que variance, cette somme doit être positive, ceci quels que soient les λi , ce
qui exprime que la fonction C est une fonction de type positif.

Il existe un catalogue de modèles paramétriques dont la défini-positivité est établie et


dont chaque famille correspond à un comportement type (figure 3.1). En voici quelques
exemples simples :

• Le modèle pépitique pur : ρ(h) = I0 (h)


Cette structure est en fait une absence de structure et peut s’interpréter comme une er-
reur de mesure, comme un bruit ou parfois comme une manière commode de prendre en
compte un phénomène structuré à une échelle non résolue par les données.

• Le modèle exponentiel : ρ(h) = exp(−h/a)


Dans ce modèle, la décroissance de la covariance est linéaire à l’origine et décroit très
rapidement aux grandes valeurs de h sans jamais s’annuler.

• Le modèle gaussien : ρ(h) = exp(−h/a)2


Ici la décroissance à l’origine est très lente (les dérivées en 0 sont nulles à tous les ordres)
ce qui donne une allure très lisse aux réalisations correspondantes.

• Le modèle puissance : ∀h ∈ Rd , ρ(h) = C0 + bkhkλ si h 6= 0d avec C0 ≥ 0, b ≥ 0


et 0 < λ ≤ 2.

• Modèle de Whittle-Matern La classe des modèles de Whittle-Matern est une


classe très importante en application, car elle engendre beaucoup d’autres outils (en jouant
sur les paramètres). Elle est définie par :

67
3.1 Introduction à la géostatistique

Figure 3.1 – Quelque famille de covariances

 1−ν  ν
2 h khk
 
ρ(h) = C0 + b Kν (3.1.4)
Γ(ν) a a
où 0 < ρ < 1, a > 0, ν > 0, Γ(.) est la fonction gamma et K la fonction de Bessel
modifiée telle que : −1 ≤ ρ(h) ≤ 1 car elle engendre beaucoup d’autres familles des cor-
rélogrammes. On peut aussi travailler avec d’autres familles telles que la famille stable ou
la famille de Cauchy et les techniques statistiques restent les mêmes.

Le modèle pépitique pur et le modèle exponentiel ci-dessus dépendent d’un paramètre


d’échelle a qui gouverne l’intensité de la dépendance spatiale. Plus a est élevé, plus dé-
pendance se propage à longue distance.

Les trois premiers modèles correspondent à une fonction aléatoire de variance unité
(ρ(0) = 1). On obtient un modèle de variance quelconque en multipliant un modèle normé
par une variance σ 2 : C(h) = σ 2 ρ(h). Un calcul simple montre que σ 2 est la limite du
variogramme en + inf ∗ , cette valeur est appelée palier du variogramme.

3.1.3.3 Le variogramme et ses dérivées


Définition 3.1.2. [55]
Soient Z = {Z(s), s ∈ Rd } ∈ L2 un champ aléatoire stationnaire au second ordre et C
son covariogramme. On appelle variogramme du champ aléatoire Z, la fonction ϑ définie
sur Rd dans R+ par : ∀h ∈ Rd ,

ϑ(h) = V [Z(h + s) − Z(s)] = 2[C(0Rd − C(h))] s ∈ Rd (3.1.5)

Si la fonction de covariance d’un champ aléatoire n’existe pas, on utilise souvent le


variogramme ou le semi-variogramme de ce champ introduit en 1971 par G. Matheron :
Définition 3.1.3. [54]
On appelle semi-variogramme (si elle existe) du champ aléatoire Z = {Z(s), s ∈ Rd }, la

68
3.1 Introduction à la géostatistique

Figure 3.2 – Exemple des nuées variographiques

fonction, qu’on note γ définie sur Rd × Rd dans R+ par :


1
∀(s, t) ∈ Rd × Rd , γ(s, t) = V [Z(s) − Z(t)] (3.1.6)
2
Un calcul simple montre qu’il est relié à la covariance par la relation :
1
 
γ(s, t) = C(s, s) + C(t, t) − C(s, t) (3.1.7)
2
Ainsi, d’un point vue théorique il est équivalent de connaitre la covariance ou le va-
riogramme de la variable étudiée. L’usage courant confond souvent ces deux fonctions en
désignant l’une et l’autre par fonction de structure.

On peut faire le lien entre ces notions théoriques et les nuées variographiques empi-
riques observées (figures 3.2).

Définissons la covariance empirique et le variogramme empirique (figure 3.3) par :


0 1 X 2
C (h) = Zi Zj − Z (3.1.8)
nh si sj ∈Sh
P
où Z = zi .
En supposant que la dérivé est nulle, le variogramme empirique est donc :
0 1 X
γ = (Zi − Zj )2 (3.1.9)
2nh si sj ∈Sh

où Sh = {(si , sj ) : |si − sj | ' h} et nh = CardSh .


Le variogramme est un bon outil pour mesurer la dépendance spatiale entre deux réa-
lisations d’un champ aléatoire. Cependant, quand il s’agit des observations extrêmes, son

69
3.1 Introduction à la géostatistique

Figure 3.3 – Le variogramme empirique

usage est très limité car il se peut qu’il n’existera pas pour de telles observations.

Par exemple, si nous considérons un champ aléatoire max-stable avec des lois de proba-
bilités marginales univariées de Fréchet unitaire. Pour un tel champ aléatoire l’espérance
et la variance ne sont pas finies et par conséquent le variogramme n’existe pas théori-
quement. On introduit donc de nouveaux outils tels que le madogramme qui remplacent
le variogramme et qui permet de mesurer la dépendance spatiale entre deux processus
extrêmes.

Définition 3.1.4. [42]


Soit Z = {Z(x), x ∈ Rd } un processus aléatoire stationnaire défini sur un espace proba-
bilisé (Ω A, P ) à espace d’état R tel que son espérance est fini. On appelle madogramme
(figure 3.4) du champ aléatoire Y, la fonction, qu’on note M, définie sur Rd dans R+ par :
E(|Z(x + h) − Z(x)|)
∀h ∈ Rd , M (h) = , x ∈ Rd
2

3.1.3.4 Le krigeage ou l’interpolation spatiale


Le krigeage est une méthode d’interpolation applicable à des données réparties dans
l’espace. Elle s’appuie sur les outils géostatistiques linéaires, notamment le variogramme
et le covariogramme. La théorie du krigeage a été initialement développée par un ma-
thématicien français G. Matheron à partir des travaux de D.G.Krige 1 . Il existe plusieurs
types de krigeage. Citons entre autres, le krigeage simple (pour une fonction aléatoire
1. L’ingénieur minier sud-africain. Dans les années 50, Krige a développé une série de méthodes sta-
tistiques empiriques permettant de déterminer la distribution de minerais à partir d’un ensemble de
forages

70
3.1 Introduction à la géostatistique

Figure 3.4 – Le madogramme d’un champs aléatoire et le coefficient extrémal θ(h)

71
3.1 Introduction à la géostatistique

d’espérance connue), le krigeage ordinaire (pour une fonction aléatoire d’espérance incon-
nue), le krigeage universel (pour la prise en compte d’une dérive), le cokrigeage (pour
l’étude de différents phénomènes liés)([47] ; [55]).

a) Principes
La résolution d’un problème d’estimation locale ou globale par krigeage s’articule tou-
jours autour des étapes suivantes :

i) Recueil et pré-traitement des données : il s’agit de nettoyer la variable régionalisée


z de ses valeurs aberrantes, valeurs mal codées... La donnée peut être transformée
(par bijection) en un paramètre qui sera estimé à sa place, avant transformation
réciproque.
ii) Décision de l’estimation attendue : généralement, il est cherché une estimation en
chaque point d’une grille, parfois en chaque volume élémentaire.
iii) Choix d’un modèle : un modèle de fonction aléatoire Z associée à z est proposé,
selon les hypothèses faites sur sa stationnarité, sa valeur moyenne, les éventuels
paramètres auxiliaires.
iv) Calage d’un variogramme : sur la considération du variogramme expérimental, un
modèle de variogramme γ est choisi, respectant les conditions découlant du choix
du modèle.
v) krigéage proprement dit : le type de krigeage dépend du choix du modèle, et du type
de résultat attendu. Il varie selon le choix du voisinage.
vi) Post-traitement : une éventuelle transformation réciproque est appliquée ; le résultat
est commenté.

b) Les contraintes du krigeage


Le fait que le krigeage est l’estimateur linéaire de variance minimale se traduit par
quatre contraintes successives, qui permettent d’écrire le système de krigeage pour toutes
les variantes de la méthode.

i) Linéarité : Dans un souci de réalisme, on pose que la quantité à estimer est une
fonction linéaire de la fonction aléatoire étudiée. L’estimateur est posé comme combinai-
son linéaire des données, de poids inconnus pour l’instant.

ii) Autorisation : L’erreur d’estimation doit être une combinaison linéaire autorisée,
c’est-à-dire que son espérance et sa variance doivent être définies. La condition d’autori-
sation s’écrit différemment selon le modèle sous-jacent supposé (on supposera toujours le
support borné). Dans le modèle stationnaire d’ordre 2, toutes les combinaisons linéaires
sont autorisées, et il n’y a pas de contrainte. Par contre, dans le modèle intrinsèque, une
P
combinaison linéaire est autorisée si et seulement si son poids total est nul : λi = 0

iii) Universalité : On exige de l’estimateur qu’il ne présente pas de biais statistique


par rapport à la quantité à estimer. Cette contrainte peut être nommée contrainte de
non-biais ou d’espérance nulle.

72
3.1 Introduction à la géostatistique

a) Le krigeage simple
Le krigeage simple est un outil d’estimation géostatistique qui suppose connue la valeur
de la moyenne. Il attribue un poids important à la moyenne globale connue.
Si on suppose que Z est d’espérance nulle, le biais s’écrit :

E(Zsks0 ) = E(
X
λi )E(Zi ) = 0 (3.1.10)
i

La condition précédente est donc automatiquement vérifiée. La deuxième impose que les
poids λi soient solution du système matriciel

Cλ = C0 (3.1.11)

où par abus de notation, C désigne la matrice des covariances entre les points variables
aux points de mesure. C’est-à-dire C = (C(si − sj ))ij .

En notant λks = C −1 C0 , la solution de notre problème s’écrit :

Z ks (s0 ) = (Z1 , ..., Zn )λks . (3.1.12)

Cette expression est assez commode à manipuler et met en évidence le fait qu’on
ne doit inverser la matrice C qu’une seule fois lorsque qu’on veut kriger Z en différents
points. En revanche elle n’explicite pas du tout les propriétés statistiques et géométriques
du krigeage. Si E[Z(s)] = m où m est non nul mais connu, il suffit d’appliquer la technique
précédente à Y (s) = Z(s) − m.

b) Le krigeage ordinaire
Le krigeage qualifié d’ordinaire, constitue le point d’orgue de la géostatistique. Dans le
krigeage ordinaire, la valeur moyenne n’est pas connue. On peut en trouver des utilisations
simples dans l’interpolation des températures (JOLY et al. 2009) ou dans des études sur
la qualité de l’air (LLOYD et al. 2004).
On suppose Z une variable aléatoire d’espérance m inconnue la condition de non biais
de la forme : X
m λi = 0 (3.1.13)
i

C’est donc un problème de minimisation sous contrainte.


Propriété 3.1.1. Une propriété probabiliste du krigeage L’erreur de krigeage est non
corrélée avec les données :
h i
Cov Z(s) − Z k (s), Z(si ) = 0 (3.1.14)

Par conséquent, le krigeage et l’erreur de krigeage sont non corrélés :


h i
Cov Z(s) − Z k (s), Z k (s) = 0 (3.1.15)

On peut donc écrire tout champ aléatoire comme la somme de son krigeage et d’une
erreur non corrélée : Z(s) = Z k (s) + sigmak U où U est une variable centrée réduite non
corrélée à Z(s). Cette propriété ouvre la voie à une technique de simulation appelée kri-
geage conditionnant.

73
3.2 Éléments de lois extrêmes multivariées

Le krigeage fournit une valeur estimée en n’importe quel point de l’espace s0 . L’erreur
commise Z(s) − Z(s0 ) est évidemment inconnue mais on peut évaluer la variance de cette
erreur appelée variance de krigeage. Dans le cas du krigegae simple elle s’écrit :

σ ks = C(0) −
X
λi C(si − s0 ). (3.1.16)
i

Pour le krigeage ordinaire, on obtient :

σ k0 = C(0) −
X
λi C(si − s0 ) − µk0 (3.1.17)
i

où µk0 est la valeur du multiplicateur de Lagrange dans la solution du système ??.

3.2 Éléments de lois extrêmes multivariées


Dans cette section nous rappelons quelques notions liées aux lois multivariées et leurs
propriétés fondamentales qui sont beaucoup utilisées dans l’analyse des extrêmes multi-
variés.
Les modèles multidimensionnels des valeurs extrêmes sont les distributions limites,
lorsque la taille de l’échantillon tend vers l’infini, de la loi conjointe des maxima margi-
naux, convenablement normalisés. Dans l’analyse des extrêmes multivariées, il est ,alors,
usuel d’étudier les vecteurs des maxima (ou minima) pris composante par composante.
Dans cette section nous allons énoncer des résultats essentiels sur les maxima(minima)
des vecteurs aléatoires et sur les distributions asymptotiques des vecteurs des maxima
(minima) normalisés.

3.2.1 Préliminaires
3.2.1.1 Rappels sur les lois multivariées
Une distribution ou fonction de répartition m-dimensionnelle est une fonction F :
Rm → I = [0, 1] telle qu’il existe un espace de probabilité et un vecteur aléatoire X =
(X1 , ..., Xm ) tels que, pour toute réalisation x = (x1 , ..., xm ) ∈ Rm de X, on a

F (x) = F (x1 , ..., xm ) = P (X ≤ x) = P (X1 ≤ x1 ; ...; Xm ≤ xm ) .

Le résultat suivant, démontré dans [10], résume les propriétés d’une distribution mul-
tivariée.
Théorème 3.2.1. (Distribution multivariée) [27]
Une fonction F : Rm → I est une distribution m-dimensionnelle si et seulement si :
(i) Pour tout xi , i = 1, ..., m, on a

 lim F (x1 , ..., xi−1 , t, xi+1 , ..., xm ) = 0
t→−∞
(3.2.1)
 et lim ... lim F (t1 , ..., tm ) = 1
t1 →+∞ tm →+∞

(ii) Pour tout (x1 , ..., xm ) ∈ Rm et (y1 , ..., ym ) ∈ Rm , on a

∆(1) (1)
x1 ,y1 ...∆xm ,ym F (y1 , ..., ym ) ≥ 0 (3.2.2)

xi ,yi est défini pour tout t ∈ R


m
où l’opérateur ∆(i) par :

74
3.2 Éléments de lois extrêmes multivariées

∆(i)
xi ,yi F (t) = F (t1 , ..., ti−1 , yi , ti+1 , ..., tm ) − F (t1 , ..., ti−1 , xi , ti+1, ..., tm ) (3.2.3)

La propriété (ii) signifie en particulier que F est croissante par rapport à chaque
variable.
Dans le cas bidimensionnel la relation (3.2.2) équivaut à l’inégalité du rectangle que doit
vérifier toute fonction de répartition bivariée Fi [6].

F (x01 , x02 ) − F (x01 , x2 ) − F (x1 , x02 ) + F (x1 , x2 ) ≥ 0 (3.2.4)

sous l’hypothèse

(x1 , x2 ) ∈ R2 , (x01 , x02 ) ∈ R2 tels que x1 ≤ x01 et x2 ≤ x02 . (3.2.5)

Lorsque les variables X1 , ..., Xm sont mutuellement indépendantes, alors on a


m m
F (x) = Π P (Xi ≤ xi ) = Π Fi (xi ) ,
i=1 i=1

où Fi est la distribution marginale univariée de la composante X i , i = 1, ..., m.


Si en particulier X est un vecteur continu, alors pour tout x = (x1 , ...xm ) ∈ Rm , on a
Z x Z xm Z x1
F (x) = f (x) dx = ... f (t1 , ..., tm ) dtm ...dt1 ,
−∞ −∞ −∞

où la fonction positive f est la densité de probabilité conjointe de X, définie par


∂ m F (x1 , ..., xm )
f (x) = , x = (x1 , ..., xm ) ∈ Rm .
∂x1 .....∂xm
Les fonctions densités marginales univariées fi de f sont données par
Z +∞ Z +∞
fi (xi ) = ... f (u1 , ..., ui−1 , xi , ui+1 , ..., um ) dum ...dui+1 dui−1 ...du1.
−∞ −∞

De façon similaire, on a par exemple


Z +∞ Z +∞
f1,2 (x1 , x2 ) = ... f (x1 , x2 , u3 , ..., um ) dum ...du4 du3 .
−∞ −∞

Comme dans l’analyse des distributions univariées, il existe des familles standard de
distributions de probabilité pour les vecteurs aléatoires.

3.2.1.2 Max-infiniment divisibilité et max-stabilité


L’ordre d’une distribution multivariée F est la valeur maximale k ≥ 1 telle que F k est
toujours une distribution. En particulier, si k −→ +∞, alors F est dite max-infiniment
divisible (Max-id) i.e pour tout t > 0, F t est une distribution.
Considérons un vecteur aléatoire {Xn , n ≥ 1} = {(Xi,1 ; ...; Xi,m ) ; 1 ≤ i ≤ n}, de loi
conjointe F. Soient Mn , le vecteur des maxima associé à Xn et FMn sa distribution. Alors,
 
Mn = (Mn,1 ; ...; Mn,m ) = max (Xi,1 ) , ..., max (Xi,m ) ; (3.2.6)
1≤ i ≤ n 1≤ i ≤ n

75
3.2 Éléments de lois extrêmes multivariées

et pour toute réalisation (x1 , ..., xn ) de Xn on a :

P (Mn,1 ≤ x1 ; ...; Mn,m ≤ xn ) = FMn (x1 , ..., xn )

D’après Resnick [19], l’étude du comportement stochastique des lois des maxima et
des records multivariés établit que, pour tous entiers positifs t1 < t2 < ... < tn , on a
   
t2 −t1
FMn (x1 , ..., xn ) = F t1
min (xi ) F min (xi ) ...F tn −tn−1 (xn ) .
1≤ i ≤ n 2≤i≤n

En particulier, si les composantes du vecteurs aléatoires (Xn ) sont i.i.d de distribution


commune F, alors,
FMn (x1 , ..., xn ) = F n (x1 , ..., xn ). (3.2.7)
Cependant, l’égalité (3.2.7) requiert que pour tout t > 0, la fonction F t soit une
distribution, i.e F est max-id.
Les notions de fonctions max-id et de fonctions max-stables sont beaucoup utilisées
dans l’analyse multivariée des valeurs extrêmes.

Définition 3.2.1. (max-stabilité multivariée)


Une distribution multivariée G est max-stable si, pour tout t > 0, il existe des fonctions
multivariées σ(t) > 0 et µ(t) ∈ R telles que

Gt (x) = G [σ(t)x + µ(t)] = G [σ1 (t)x1 + µ1 (t), ..., σm (t)xm + µm (t)] . (3.2.8)

3.2.2 Modèles paramétriques des extrémes multivariés


L’analyse des VEM n’est pas une extension immédiate du cas univarié. En effet, l’ab-
sence de norme naturelle et d’ordre total dans Rn ne permettent pas de faire une com-
paraison systématique. Aussi, plusieurs approches ont été considérées pour comparer les
vecteurs. L’approche la plus partagée a consisté à comparer les vecteurs, composante par
composante. Dans la pratique, on considère les valeurs extrêmes de données multivariées
de phénomènes climatiques ou de l’environnement. Par exemple, on fait la collecte des
données sur plusieurs sites et l’on s’intéresse au maximum de vitesse de vent, de pluvio-
métrie et de température sur chaque site.

3.2.2.1 Lois des extrêmes multivariés


Dans l’analyse des extrêmes multivariés, il est usuel d’étudier les vecteurs des maxima
et des minima pris composante par composante. On considère un échantillon d’observa-
tions à m dimension {(Xn ) , n ≥ 1} ou une famille de n vecteurs aléatoires i.i.d {Xk , k = 1, 2, .., m}
tels que Xk = (Xk,1 ; ...; Xk,m ) ∈ Rm de distribution F.

Définition 3.2.2. (Loi extrême multivariée)


Une fonction multivariée G est dite distribution des valeurs extrêmes associée à un échan-
tillon, s’il existe des suites de vecteurs de normalisation

σn = {(σ1,n , ..., σm,n ) ; σj,n > 0} et µn = {(µ1,n , ..., µm,n ) ; µj,n ∈ R} (3.2.9)

telles que

76
3.2 Éléments de lois extrêmes multivariées

Figure 3.5 – Exemple d’une sélection par blocs des maximas dans un cadre univarié

 
M1,n −µ1,n −µm,n
≤ x1 ; ...; Mm,n

G(x1 , ..., xm ) = lim P σ σ
≤ xm 
n7−→+∞ 1,n m,n
(3.2.10)
n
= lim F (σ1,n x1 + µ1,n , ..., σm,n xm + µm,n ) 
n7−→+∞

où les distributions marginales de la loi limite G sont non-dégénérées. On dit que F ap-
partient au max-domaine d’attraction multivarié de G.

Exemple 3.2.1. Soit X = {(X1 , ..., Xm ) ; m ≥ 2} , un vecteur aléatoire distribué suivant


le modèle multivarié de Pareto tel que, pour tous θ ≥ 1 et x = (x1 , ..., xm ) > 0 tel que
xθi ≤ 1
P
1≤ i ≤ m
 1
θ

xθi 
X
F (x) = 1− ; θ ≥ 1.
1≤ i ≤ m

Par les coefficients de normalisation


1 1
 
σi = Fi−1 1− = et µi = h (σi ) = 0, (3.2.11)
n n
On établit que la loi extrême G associée est telle que
  1
 θ 
θ θ1
 
∈ R.
X
G (x) = lim P (Mn ≤ σn x) = exp −  xi  ; xi (3.2.12)
n−→+∞  
 1≤ i ≤ m 

C’est la loi logistique multivariée, avec pour paramètre θ, le coefficient de corrélation


entre les variables marginales Xi .

3.2.2.2 Propriétés des modelés extrêmes multivariés


Les deux résultats suivants démontrés respectivement dans voir [10] et dans [38] ré-
sument les propriétés essentielles des distributions des VEM.

Proposition 3.2.1. (Propriétés d’une loi extrême)

i) Toute distribution des VEM est continue (car toutes les marges le sont).

77
3.2 Éléments de lois extrêmes multivariées

ii) Les distributions marginales de G sont supposées non-dégénérées i.e

lim F n (σn,i xi + µn,i ) = Gi (xi ) ; 1 ≤ i ≤ m. (3.2.13)


n7−→+∞ i

iii) Toutes les marges d’une distribution des VEM sont du type extrême i.e.
1
  
  −
xi − µ i

 
   




 exp − 1 + ξi ξi si ξi 6= 0
  σi +

Gi (xi ) = 
 
 .
 ( "  #)
xi − µ i

 

exp − exp − si ξi = 0




σi +

De plus si F ∈ M DA (H) alors Fi ∈ M DA (Hi ) .


iv) Toute distribution des VEM G est max-stable et max-id.

Le résultat suivant établit l’équivalence entre les distributions des VEM et les distri-
butions max-stables.

Théorème 3.2.2. La classe des distributions extrêmes multivariées est précisément celle
des distributions max-stables avec des marges non dégénérées.

3.2.3 Notion de Max-domaine d’attraction


La recherche du domaine d’attraction d’une distribution extrême G consiste à déter-
miner les distributions F pour lesquelles la loi du maximum renormalisé converge vers une
loi max-stable G. On dit alors que la distribution F appartient au Max-Domaine d’At-
traction (MDA) de G et on note F ∈ M DA (G) . Les notions de fonctions alpha-stables,
de fonctions à variation lente ou de fonctions à variation régulière. Pour une loi α−stable,
on a la caractérisation générale suivante.

Définition 3.2.3. Une variable aléatoire appartient au domaine d’attraction d’une loiα −
stable Gα s’il existe des constantes de normalisation { σn > 0} et {µn ∈ R} telles que
S n − µn loi
−→ Gα ie lim P (Sn ≤ σn x + µn ) = Gα (x) (3.2.14)
σn n−→+∞ n−→+∞

Les résultats suivants caractérisent les domaines d’attraction de la loi normale et des
lois alpha-stables. Pour la démonstration, voir [2].

Plus généralement le théorème suivant, démontré dans [9], caractérise le MDA d’une loi
extrême quelconque.

Théorème 3.2.3. Théoréme 1.6 (voir [20]) Soit F une distribution quelconque. Les
propriétés suivantes sont équivalentes.
· i) F ∈ M DA(G)
Il existe des suites de constantes σn > 0 et µn ∈ R telles que,∀x ∈ R.
· ii) lim F n (σn x + µn ) = G(x).
n−→+∞
Mn − µn
 
· iii) lim P ≤ x = G (x) .
n−→+∞ σn

78
3.3 Éléments de copules stochastiques

MDA(Fréchet) MDA(Weibull) MDA(Gumbel)


1  
Suites σn = F −1 (1 − ) σn = xF − F −1 1 − 1
n
σn = 1
normalisantes n µn = log n
µn = 0 µ n = xF
loi de Cauchy
loi exponentielle
loi de Pareto
loi gamma
Loi de Burr loi uniforme unitaire
Lois loi normale
lois α−stables loi béta
loi log-normale
loi log-gamma
loi de Weibull
Loi de Student

Table 3.1 – Récapitulatif des domaines d’attraction des lois extrêmes univariées

· iv) lim nF̄ (σn x + µn ) = − log G(x) avec lim G (x) = 0.


n−→+∞ n−→+∞

Le résultat suivant permet de construire les suites normalisantes éventuellement asso-


ciées à une loi quelconque (voir [19]).

Proposition 3.2.2. (Suites normalisantes)


Si pour une distribution F il existe une distribution extrême G telle que F ∈ M DA(G),
alors les suites associées à cette normalisation {σn > 0} et {µn ∈ R}sont données par
1
σn = F −1 (1 − ) et µn = h(σn )
n
où h est la fonction de hasard de F.

Plus généralement connaissant la distribution F, comment déterminer la distribution


extrême dont le MDA contiendrait F ? La réponse à cette question est relativement com-
plexe et dépend de la forme de la fonction F. Toutefois, les résultats suivants donnent les
critères les plus utilisés.

Pour les notions de fonctions à variation régulière (RV) ou de variation lente utilisées
dans les résultats qui suivent. Le tableau suivant résume les MDA des trois lois extrêmes.

3.3 Éléments de copules stochastiques


De nombreuses situations nécessitent de prendre en compte la dépendance entre va-
riables aléatoires. C’est pourquoi la modélisation de la dépendance conjointe est un sujet
central et fondamental dans les domaines des statistiques et des probabilités. Par exemple
dans le domaine de l’épidémie spatiale, il existe très souvent beaucoup d’informations sur
les lois et comportements marginaux des phénomènes mais très peu sur l’effet conjoint
sur les comportements simultanés. Le concept de copule a été introduit par Sklar en 1959
[17], afin de résoudre un problème de probabilité qui a été énoncé par Fréchet. L’étude
des fonctions copules et leurs applications en statistiques est un phénomène qui est plutôt
moderne, et encore plus en biologie. En effet, les fonctions copules, largement utilisées en
statistique financière, sont des fonctions qui relient les fonctions de distributions multiva-
riées à celles des distributions univariées [8]. En effet, les fonctions copules sont devenues
un outil standard et sont largement utilisées pour étudier, la dépendance stochastique, les
processus extrêmes, les modèles géostatistiques, les modèles de survie,...

79
3.3 Éléments de copules stochastiques

3.3.1 Présentation des copules


3.3.1.1 Définitions et propriétés des copules
En se plaçant dans le cas où la loi de référence des variables aléatoires est la loi
uniforme sur [0,1], on peut définir les fonctions copules comme les fonctions de répartition
multidimensionnelles des vecteurs aléatoires dont les marginales sont des lois uniformes
[17].

Définition 3.3.1. [32]


Une copule de dimension d est une fonction définie de I d = [0, 1]d dans I = [0, 1] telle
que :
• Pour tout vecteur aléatoire u = (u1 ; . . . ; ud ) ∈ I d on a C(u) = 0 si au moins une
coordonnée de u est égale à 0 ;
• C(1, . . . , 1, ui , 1, . . . , 1) = ui pour tout ui ∈ I , i = 1 . . . d
• C est décroissante c’est à dire pour tout u = (u1 ; . . . ; ud ) et v = (v1 ; . . . ; vd ) dans I d
tels que ui ≤ vi pour i = 1, . . . , d , on a :
2 2
(−1)i1 +i2 +...+id C(xi1 ; . . . ; xid ) ≥ 0
X X
...
i1 =1 id =1

où x1j = uj et x2j = vj pour j = 1 . . . d

En particulier, en dimension deux d’espace, on obtient la définition suivante :

Définition 3.3.2. [17]


En particulier, une copule bivariée est une fonction : C : I 2 → I telle que
- ∀u ∈ I ; C(0, u) = C(u, 0) = 0
- ∀u ∈ I ; C(1, u) = C(u, 1) = u
- ∀(u1 , v1 ); (u2 , v2 ) ∈ I 2 tels que u1 ≤ v1 et u2 ≤ v2

C(u1 , v1 ) − C(u1 , v2 ) − C(u2 , v1 ) + C(u2 , v2 ) ≥ 0

Cette dernière inégalité est connue sous le nom d’inégalité rectangulaire.

3.3.1.2 Propriétés particulières des copules


La valeur ajoutée de l’utilisation des copules dans la modélisation stochastique réside
au niveau de ses propriétés particulières.

Propriété 3.3.1. [8]


• u = (u1 , . . . , ud ) les fonctions f (u) = C(u1 , . . . , ui−1 , u, ui+1 , . . . , ud ) sont croissantes ;
• les fonctions copules sont lipschitziènnes :
d
∀u, v ∈ I d : |C(u) − C(v)| ≤
X
|ui − vi |
i=1

La définition suivante présente la copule sous la forme de "fonction de répartition".

80
3.3 Éléments de copules stochastiques

Définition 3.3.3. Une copule est une fonction de répartition dont les lois marginales sont
uniformes sur I. Si C est une copule sur <d , il existe un vecteur aléatoire U = (U1 ; . . . ; Ud )
tel que :
P (U1 ≤ u1 ; . . . ; Ud ≤ ud ) = C(u1 ; . . . ; ud )
et P (Ui ≤ u) = u pour tout i = 1 . . . d et u ∈ I
Le théorème de Sklar, démontré dans [29], fournit une représentation canonique d’une
distribution multivariée via la donnée des distributions marginales et de la structure de
dépendance.
Théorème 3.3.1. [43]
Soit F une fonction de répartition d-dimensionnelle de lois marginales F1 , . . . , Fd . il existe
une copule C telle que :

∀(x1 ; . . . ; xd ) , F (x1 ; . . . ; xd ) = C(F1 (x1 ); . . . ; Fd (xd ))

Si les lois marginales F1 ; . . . ; Fd sont continues , alors la copule C est unique et définie
par :
∀(u1 ; . . . ; ud ) ∈ I d , C(u1 , . . . , ud ) = F (F1−1 (u1 ), . . . , Fd−1 (ud ))
Ce résultat est important en pratique pour les applications à l’assurance et à la finance ,
car il indique que l’analyse d’une problématique multivariée peut être décomposée en deux
étapes à savoir : l’identification des distribution marginales et l’analyse de la structure de
dépendance entre les composantes.
Remarque 3.3.1. Lorsque les marginales ne sont pas continues, il est toujours possible
de définir une copule, mais celle-ci n’est plus unique et de ce fait perd beaucoup de son
intérêt .
Corollaire 3.3.1. Si le vecteur (X1 ; . . . ; Xd ) admet la fonction de répartition F de lois
marginales continues F1 ; . . . ; Fd et de copule C. Alors C est la fonction de répartition du
vecteur (F1 (X1 ); . . . ; Fd (Xd )).
Définition 3.3.4. (Densité de copule)
On dit que la copule C sur I d admet une densité s’il existe une fonction positive c telle
que : Z u1 Z ud
C(u1 ; . . . ; ud ) = ... c(u1 ; . . . ; ud )du1 . . . dud
0 0
si c est continue, on a alors, pour tout (u1 , ..., un ) ∈ [0, 1]n
∂ dC
c(u1 , ..., un ) = .
∂u1 . . . ∂ud
On remarque que pour vérifier qu’une fonction de d variables C, d fois dérivables est
une copule, il suffit de vérifier que

C(1, . . . , 1, u, 1, . . . , 1) = u, pour tout u ∈ I

et que la dérivée croisée vérifie :


∂ dC
≥0
∂u1 . . . ∂ud
L’invariance par translation marginale est l’un des atouts fondamentaux des copules.
Elle fait la différence entre les copules et les mesures d’association classiques.

81
3.3 Éléments de copules stochastiques

Théorème 3.3.2. (invariance par transformations marginales croissantes)


Soit (X1 , . . . , Xd ) un vecteur aléatoire dont la loi admet la copule C , soit f1 , . . . , fd des
fonctions strictement croissantes sur Im(X1 ), . . . , Im(Xd ) respectivement. Alors la loi du
vecteur (f1 (X1 ), . . . , fd (Xd )) admet C pour copule.

Proposition 3.3.1. Si F est une fonction de répartition admettant la densité f continue,


alors les marginales F1 , . . . , Fd sont continues, de densité respectives f1 , . . . , fd et la copule
de F admet la densité c définie par :

f (F1−1 (u1 ), . . . , Fd−1 (ud ))


c(u1 , . . . , ud ) =
f1 (F1−1 (u1 )) . . . fd (Fd−1 (ud ))

Corollaire 3.3.2. La relation entre la fonction de densité f (x1 , . . . , xd ) et la densité


c(u1 , . . . , ud ) est donnée par :
d
Y
f (x1 , . . . , xd ) = c(F1 (x1 ), . . . , Fd (xd )) fi (xi )
i=1

Définition 3.3.5. On dit qu’une copule C1 est plus petite qu’une autre copule C2 (ou que
C2 est plus grande que C1 ) et on écrit C1 < C2 (ou C2 > C1 ) si :

∀u = (u1 , . . . , ud ) ∈ I d ; C1 (u) ≤ C2 (u)

Cette relation d’ordre est partielle car on ne peut pas comparer toutes les copules entre
elles. Néanmoins , on montre que pour toute copule C : C − < C < C + .

La définition suivante permet d’introduire quelques copules usuelles.

Définition 3.3.6. .

i) On appelle borne inférieur de Fréchet, la copule définie par :


d
X 
d −
∀u = (u1 , . . . , ud ) ∈ I ; C (u) = max ui − d + 1, 0
i=1
.
ii) On appelle borne supérieur de Fréchet, la copule définie par :

∀u = (u1 , . . . , ud ) ∈ I d ; C + (u) = min (u1 , . . . , ud )

iii) On appelle copule produit, la copule définie par :

∀u = (u1 , . . . , ud ) ∈ I d ; C ⊥ (u) = u1 . . . ud

3.3.2 Quelques familles usuelles des copules


Dans cette sous section, nous pressentons quelques familles des copules très utilisées
dans la pratiques et leurs propriétés caractéristiques.

82
3.3 Éléments de copules stochastiques

3.3.2.1 Copules élémentaires


a) La copule indépendante
Lorsque les variables {Xi ; i = 1, ..., n} sont indépendantes, la copule associée est la
copule indépendante ou copule produit Π telle que :

Π (u1 , ..., un ) = u1 × ... × un ; (u1 , ..., un ) ∈ I n = [0, 1]n .


Cette copule admet la densité constante 1 sur In .

b) La borne supérieur de de Fréchet


La copule minimale ou borne supérieure de Fréchet
M (u1 , ..., un ) = min (u1 , ..., un ) ; (u1 , ..., un ) ∈ I n .
Cette copule n’admet pas de densité bien qu’elle soit dérivable presque partout.

c) La borne inférieur de de Fréchet


On vérifie que pour n = 2 et (u1 , ..., un ) ∈ I n , la fonction
X 
W (u1 , ..., un ) = max ui + n − 1, 0 .
définit une copule. C’est la copule maximale ou borne inférieure de Fréchet. Elle vérifie
(voir [17]), pour tout (u1 , ..., um ) ∈ I m
W (u1 , ..., um ) ≤ C(u1 , ..., um ) ≤ M (u1 , ..., um ); (u1 , ..., um ) ∈ I n .

3.3.2.2 Copule elliptique


Comme dans l’analyse des distributions univariées, il existe des familles standard de
distributions de probabilité pour les vecteurs aléatoires.

a) Distribution elliptique multivariée


La loi normale multivariée est caractérisée par la définition suivante.
Définition 3.3.7. Un vecteur aléatoire X = (X1 , ..., Xm ) suit une distribution gaus-
sienne (ou normale) multivariée de vecteur moyen µ = (µ1 , ..., µm ) si sa fonction densité
conjointe est donnée, pour tout x = (x1 , ..., xn ) ∈ Rn , par
1 1
 
fX,Σ (x) = q exp − (x − µ)t Σ−1 (x − µ) , (3.3.1)
n
(2π) détΣ 2

où Σ est la matrice de covariance de X définie telle que


V ar(X1 ) ... Cov(X1 , X2 )
 
 .. 

 . 

Σ=
 .. .. .. 
;

 . . Cov(Xj , Xi ) . 

... 
Cov(Xi , Xj )
 
 
Cov(Xn , X1 ) ... V ar(Xn )
On note X N (µ, Σ) .

83
3.3 Éléments de copules stochastiques

Une définition complète des distributions elliptiques permet une meilleure compréhen-
sion de nos résultats.

Définition 3.3.8. (distribution elliptique)


Soit X = (X1 , ..., Xn ) un vecteur aléatoire n-dimensionnel. On dit que X est distribué
elliptiquement (ou simplement elliptique) si et seulement si, pour tout vecteur µ ∈ Rn ,
toute matrice symétrique définie positive Σ de taille n × n et toute fonction
 φ : R+ → R,
T
la fonction caractéristique ϕX−µ de X − µ est de la forme ϕX−µ (t) = φ t Σt et on écrit
X En (µ, Σ, φ) .

Plus précisément, la fonction de densité ϕ d’un vecteur aléatoire elliptique X de di-


mensions n de paramètre µ = (µ1 , ..., µn ) ∈ Rn et de matrice de corrélation Σ, s’écrit (s’il
existe) sous la forme
cn 1
 
ϕ (x) = q gn (x − µ)t Σ−1 (x − µ) (3.3.2)
det (Σ) 2

pour tout x = (x1 , ..., xn ) ∈ Rn ; où gn est le générateur de la fonction de densité, cn le


coefficient de normalisation défini par
 
n
Γ 2
Z +∞
n
−1
−1
cn = n x 2 gn (x) dx ; (3.3.3)
(2π) 2 0

n
vérifie la contrainte 0+∞ x 2 −1 gn (x) dx < +∞.
R

La forme du générateur donne généralement la famille normale multivariée ou la famille


t-Student. Le cas particulier où n = 1 fournit la classe des distributions symétriques. Le
résultat suivant fournit une représentation stochastique de vecteurs aléatoires elliptiques
lorsque la matrice de dispersion a un rang complet.
Les copules elliptiques sont généralement définies comme des copules de distribution
elliptiques. En particulier, si ΨΣ est la distribution elliptique multivariée de marginale
commune Ψ et de matrice de corrélation Σ, alors la copule elliptique provient de la relation
(3.3.2) par
  1 n   o
CΣθ (u1 , . . . , un ) = ΨΣ Ψ−1 −1
1 (u1 ), . . . , Ψn (un ) = √ exp − 21 Ũ T Σ−1 Ũ ; (3.3.4)
det Σ

où Ũ = (Ψ−1 (u1 ), . . . , Ψ−1 (un )) est le vecteur quantile de la distribution marginale.

Bien qu’elles ne puissent pas être exprimées par une forme explicite, les structures
elliptiques mettent en place différents degrés de corrélation et fournissent une riche source
de distributions avec de nombreuses propriétés exploitables des distributions normales
multivariées. Deux familles de structures elliptiques les plus connues (distributions et
copules) sont la famille gaussienne et la famille t de Student.

84
3.3 Éléments de copules stochastiques

b) La copule Gaussienne
Dans la relation (3.3.4) si Ψ(x) désigne la fonction de répartition de la loi normale
standard alors la loi gaussienne multivariée de matrice de covariance

V ar(X1 ) ... Cov(X1 , X2 )


 
 .. 

 . 

Σ=
 .. .. .. 
;

 . .
Cov(Xj , Xi ) . 

... 
Cov(Xi , Xj )
 
 
Cov(Xn , X1 ) ... V ar(Xn )

La copule Gaussienne est beaucoup utilisée dans la modélisation financière. Soit R la


matrice de corrélation d’un vecteur gaussien standard N(0, R) (de moyennes nulles et de
variance 1). Notons ΦR,n la distribution conjointe de cette loi i.e
Z x1 Z xn
1 1
 
ΦR,n (x1 , . . . , xn ) = ... q exp − Y t R−1 Y dy1 . . . dyn ;
−∞ −∞ n
(2π) det R 2

alors la copule Gaussienne associée à la loi N(0,R) est donnée par :


 
CR,n (u1 , . . . , un ) = ΦR,n Φ−1 (u1 ), . . . , Φ−1 (un ) ; (u1 , . . . , un ) ∈ I n
où Φ−1 est la fonction inverse de la loi normale standard N(0,1).

Remarque 3.3.1. La copule Gaussienne et la t-copule appartiennent à la famille des


copules elliptiques.

c) La copule de Student ou t-copule


Comme la copule Gaussienne, la copule de Student ou t-copule est paramétrée par
une matrice R décrivant la dépendance deux à deux entre les variables. Soit TR,ν,n la
distribution de Student multivariée de dimension n, à n degré de liberté, et de matrice
de matrice de corrélation R. La copule de Student CR,v associée à cette distribution est
définie telle que :
 
CR,v (u1 , . . . , un ) = TR,v Tv −1 (u1 ), . . . , Tv −1 (un ) ;


v+1
 
Z x Γ 1 dt
Tν (x) = 2 √ ,
−∞ v vΠ ! v+1
Γ t2 2
2 1+
v
et
v+n
 
Z x1 Z xn Γ 1 dt1 . . . dtn
TR,v (x1 , . . . , xn ) = ... 2 n √ .
−∞ −∞ v (vΠ) 2 det R T
! v+n
Γ t Rt 2
2 1+
v

85
3.3 Éléments de copules stochastiques

On déduit de (2.12) la densité de la t-copule par :


   n−1  − v+n
v+n v Y T RY 2
Γ 2
Γ 2
1+ v
c (u1 , . . . , un ) = n √ ;
− v+1

v+1
Γ 2
det R n

Yi2 2
Π 1+ v
i=1

où Y = (Yi ) , i = 1, . . . , n avec Yi = Tν−1 (ui ) .


Comparativement à la copule Gaussienne, la t-copule permet, grâce à son degré de
liberté, de mieux tenir compte des queues de distributions épaisses. En outre, la copule
de Gauss est une copule asymptotique de la t-copule lorsque v tend vers l’infini.

Figure 3.6 – Exemple d’une copule gaussienne pour une corrélation ρ = −0.9

Figure 3.7 – Exemple de densité de la copule de Student pour une corrélation ρ = −0.9

86
3.3 Éléments de copules stochastiques

3.3.2.3 Copules de valeurs extrêmes


Les copules de valeur extrême fournissent des modèles appropriés pour la structure
de dépendance entre événements extrêmes [38]. Lorsque l’on s’intéresse au comportement
des processus extrêmes spatiaux tels que les réalisations épidémiologiques extrêmes dans
l’espace, la caractérisation de la dépendance des extrêmes est une notion fondamentale
pour toute inférence statistique sur la distribution jointe des extrêmes.

Définition 3.3.9. [38] On appelle copule de valeurs extrêmes, toute copule C telle que :
1
∀t > 0 ; C t (ut1 , . . . , utd ) = C(u1 , . . . , ud ).

Ces copules tirent leur nom du fait que les distributions qui leur sont associées par
le théorème de Sklar, sont des modèles extrêmes multivariés. Les familles des copules
de valeurs extrêmes coïncident avec l’ensemble des copules des distributions de valeurs
extrêmes.

Définition 3.3.10. [43] Une copule d-variée est dite max-stable si elle satisfait la relation
suivante : 1 1
C(u1 , . . . , ud ) = C n (u1n , . . . , udn ) ; (u1 , . . . , ud ) ∈ I d , n ∈ N

La représentation des copules de valeurs extrêmes peut être simplifiée en utilisant le


concept de max-stabilité.

Théorème 3.3.3. Une copule C est dite de valeurs extrêmes si et seulement si elle est
max-stable.

Théorème 3.3.4. [8] Soit G une distribution de valeurs extrêmes , de lois marginales
G1 et G2 et de copule CG . Une distribution H , de marginales H1 et H2 et de copule C
appartient au domaine d’attraction de G si et seulement si H1 et H2 appartiennent aux
domaines d’attraction de G1 et G2 respectivement et CH satisfait
1 1
CG (u, v) = lim CH (u n , v n )n ; ∀u, v ∈ I
n→+∞

D’après la théorie univariée, les marginales H1 et H2 appartiennent à l’un des trois types
GEV.

Dans le cas bidimensionnel, Geoffroy (1958), Tiago de olivera (1958) et Sibuya (1960)
ont donné la forme générale des copules de valeur extrêmes. Et Pickands (1981) a donné
la forme générale des copules de valeurs extrêmes multidimensionnelles.

Théorème 3.3.5. Soit C une copule extrême bivariée. Alors il existe une fonction convexe
A définie sur [0, 1] et qui satisfait la condition max (t, 1 − t) ≤ A(t) ≤ 1 telle que
" !#
ln(v)
C(u, v) = exp ln(uv)A ∀u, v ∈ I
ln(uv)

la fonction A est appelée fonction de dépendance de Pickands associée à C.

87
3.3 Éléments de copules stochastiques

3.3.2.4 Copules archimédiennes


La théorie des copules archimédienne a été introduite et développée par le professeur
Christian Genest de l’université de Laval au Québec [8]. Ces copules ont l’intérêt de
décrire des structures de dépendance très diverses dont notamment les dépendances dites
asymétriques, où les coefficients de queue inférieure et de queue supérieure diffèrent.
Définition 3.3.11. Soit ϕ une fonction convexe, continue, strictement décroissante défi-
nie sur [0; 1] et à valeurs dans [0; +∞[ telle que ϕ(1) = 0 et ϕ[−1] son inverse généralisée.
Alors la fonction C définie par :

C(u, v) = ϕ[−1] [ϕ(u) + ϕ(v)]

est une copule archimédienne de générateur ϕ.


Si en plus ϕ(0) = ∞, on dit ϕ est un générateur strict. Dans ce cas, ϕ[−1] = ϕ−1 et
C(u, v) = ϕ−1 [ϕ(u) + ϕ(v)] est dite copule archimédienne stricte.
Théorème 3.3.6. Soit C une copule archimédienne, de générateur ϕ. Alors
1 C est symétrique
2 C est associative, c’est à dire C(C(u, v), w) = C(u, C(v, w)) pou tout u, v, w ∈ I =
[0, 1].
Pour la copules archimédienne la dépendance de queue peut être exprimée en fonction
de son générateur :
Théorème 3.3.7. [43]
Soient X et Y deux variables aléatoires dont la copule C est archimédienne de générateur
ϕ. Alors le tau de Khendal entre X et Y est donné par
Z 1
ϕ(t)
τ =1+ dt
0 ϕ0 (t)
Théorème 3.3.8. Pour la copule de Gumbel on a ϕ(t) = (− ln t)θ avec θ ≥ 1. Alors
ϕ(t) t ln t
0
=
ϕ (t) θ
d’où
1
τ =1−
θ
Théorème 3.3.9. [8]
Soit C une copule archimédienne de générateur ϕ. si (ϕ−1 )0 (0) est finie alors C n’a pas de
dépendance supérieure au niveau de la queue de distribution. si C présente une dépendance
supérieure au niveau de la queue de distribution, alors (ϕ−1 )0 (0) = −∞ et de plus on a :
(ϕ−1 )0 (2x)
λU = 2 − 2 lim
x→0 (ϕ−1 )0 (x)

Théorème 3.3.10. [43]


Soit C une copule archimédienne de générateur ϕ. Le coefficient de dépendance inférieure
de la queue de distribution de C est donnée par
(ϕ−1 )0 (2x)
λL = 2 lim
x→0 (ϕ−1 )0 (x)

88
3.3 Éléments de copules stochastiques

Copule Générateur
Indépendance −ln(u)
Clayton u−θ − 1, θ ≥ 0
 −θu
e −1

Franck −ln −θ , θ 6= 0
 e −1 
Gumbel − ln(u)θ , θ ≥ 1

Table 3.2 – Exemples de copules archimédiennes et leurs générateur

Par exemple : Soit X = (X1 , ..., Xd ) un vecteur de durées de vies résiduelles, dont la
loi de survie jointe est supposée Schur-constante (i.e. à la fois Schur-concave et Schur-
convexe). Alors il existe S : R+ −→ [0, 1] telle que

P (X1 > x1 , ..., Xd > xd ) = S(x1 + ... + xd ). (3.3.5)


Les lois marginales Xi sont alors Schur-constantes (i.e. suivent des lois exponentielles),
et la copule de survie de X est une copule Archimédienne de générateur S −1 . Notons
également que les durées de vies conditionnelles sont identiques, au sens où

P (Xi − xi > t/X > x) = P (Xj − xj > t/X > x), (3.3.6)

pour tout t > 0 et x ∈ R + . En particulier, si S est la fonction de survie d’une loi de


Paréto, on obtient la copule de Clayton, et si S est la fonction de survie d’une distribution
de Weibull, on obtient la copule de Gumbel.

3.3.3 Copules et max-stabilité


La généralisation de la distribution des valeurs extrêmes multivariées classiques au cas
spatial est un processus de max-stabilité dont la discussion est simplifiée en supposant que
toutes ses distributions marginales univariées sont Fréchet unité [38]. Nous pressentons
les densités copules des processus max-stables.

Soit Xi = (Xi1 , ..., Xid ), i = 1, ..., n un échantillon aléatoire indépendant et identi-


quement distribué de fonction de distribution conjointe F = F1 , ..., Fd et de copule CF .
On supposons que F continue. Considérons le vecteur des maxima par composante :
Mn = (Mn1 , ..., Mnd ) où Mnj = maxi=1,...,n Xij .

Étant donné les fonctions de distribution conjointe et marginale de Mn sont données


par F n et F1n , ..., Fdn respectivement, il s’ensuit que la copule Cn de Mn est donnée par :
1/n 1/n
Cn (u1 , ..., ud ) = CF (u1 , ..., ud )n , (u1 , ..., ud ) ∈ [0, 1]d (3.3.7)
La famille des copules de valeurs extrêmes se présente comme les limites des copules
Cn quand la taille de l’échantillon n tend vers l’infini.

Définition 3.3.12. Une copule CF est appelée copule des valeurs extrêmes s’il existe une
copule CF telle que
1/n 1/n
limn→∞ CF (u1 , ..., ud )n = C(u1 , ..., ud )

89
3.4 Statistiques spatiales et épidémiologie

pour tout (u1 , ..., ud ) ∈ [0, 1]d . La copule CF ainsi défini est dans le domaine d’attrac-
tion de C. Cette représentation des copules des valeurs extrêmes peut être simplifiée en
utilisant le concept de max-stabilité.
Définition 3.3.13. Une copule C en dimension d est dit max-stable si elle satisfait à la
1/m 1/m
relation : Cn (u1 , ..., ud ) = C(u1 , ..., ud )m , ∀m ≥ 1 et (u1 , ..., ud ) ∈ [0, 1]d
Une copule est une copule de valeur extrême si et seulement si elle est max-stable.

3.4 Statistiques spatiales et épidémiologie


L’étude de la variabilité spatiale d’un processus en épidémiologie telle que la propa-
gation des maladies épidémiques émergentes dans l’espace est très importante pour les
décideurs. L’épidémiologie spatiale peut être définie comme la description des variations
spatiales des maladies dans une population donnée, et l’analyse et la compréhension de
ces variations en relation avec des facteurs de risque.

La statistique spatiale étudie des phénomènes dont l’observation est un processus


aléatoire X = {Xs , s ∈ S} indexé par un ensemble spatial S, Xs appartenant à un espace
d’états E. La localisation d’un site d’observation s ∈ S est soit fixée et déterministe, soit
aléatoire. Classiquement, S est un sous-ensemble bidimensionnel, S ⊂ R2 . Mais S peut
aussi être unidimensionnel ou encore être un sous-ensemble de R3 . D’autres domaines,
ainsi la statistique bayésienne ou la planification des expériences numériques, peuvent
faire appel à des espaces S de dimension d ≥ 3. Notons enfin que l’étude d’une dynamique
spatiale ajoute la dimension temporelle au spatial, indexant par exemple l’observation par
(s, t) ∈ R2 × R+ si la dynamique est bidimensionnelle [57].

Dans le domaine de la santé, l’analyse spatiale n’est pas seulement utilisée pour des
études en épidémiologie. Elle intervient également au niveau des politiques publiques,
avec le développement de nouvelles applications en santé publique : systèmes d’alerte,
systèmes de gestion de crises, systèmes de prévention et d’analyse de risques, préparation
de campagne de vaccination. L’analyse spatiale permet de répondre à un certain nombre
de questions. Elle offre ainsi des éléments qui permettent de consolider l’épidémiologie «
classique » et d’enrichir la démarche des autres disciplines.

3.4.1 Données de santé pour l’analyse spatiale


Les principales sources sur les déterminants de l’état de santé ou du système de santé
émanent des organismes publics ou privés de santé (hôpitaux, réseaux de pharmacies,
ministère de la santé, assurances maladies). Ces organismes fournissent des données sur
le système de soins, sur le recours aux soins, sur la consommation de soins et de mé-
dicaments, au niveau individuel mais le plus souvent à un niveau agrégé. Des enquêtes
spécifiques sont menées lorsque l’on a besoin d’informations complémentaires sur la pré-
sence d’un pathogène, d’une maladie, ou sur les relations entre une variable de santé et un
facteur de risque supposé. Observations, enquêtes, relevés, captures et mesures de terrain
sont effectués pour caractériser la présence ou l’abondance d’un organisme, d’un vecteur
ou d’un réservoir. Ces enquêtes utilisent le plus souvent des sondages, et ne recueillent
pas de données exhaustives.

90
3.4 Statistiques spatiales et épidémiologie

Il existe trois types des données utilisées en épidémiologie spatiale selon leurs particu-
larités.

3.4.1.1 Données ponctuelles


Un système d’information géographique fondé sur la géolocalisation des individus,
qu’ils soient des cas ou appartiennent à la population à risque, permettrait de disposer de
toute l’information spatiale d’intérêt pour le phénomène étudié. Les données disponibles
seraient de type ponctuel où chaque observation (individu) correspondrait à un point au
sein de la région d’étude. Ce type de données spatiales est en réalité rarement disponible
en dehors de grandes cohortes.

Soit x = {x1 , ..., xn }, xi ∈ S ⊂ Rd un ensemble des sites où ont lieu les observations qui
est aléatoire tout comme le nombre n = n(x) de sites observés : x est une réalisation d’un
processus ponctuel spatial X observé dans la fenêtre S. Le processus X est dit marqué si en
outre on observe une marque en chaque xi , par exemple la longueur de l’aiguille observée
en xi . Une question centrale dans l’analyse statistique des processus ponctuels consiste
à savoir si la répartition des points est plutôt régulière ou bien si elle est due au hasard
(processus ponctuel de Poisson) ou encore si elle présente des agrégats [57]. Comme pour
les séries temporelles, la statistique spatiale se différencie de la statistique classique par
le fait que les observations sont dépendantes : on dit que X est un processus spatial ou
encore que X est un champ aléatoire.

3.4.1.2 Les données géostatistiques


Soit S est un sous-espace continu de Rd , le champ {Xs , s ∈ S} étant observé en n sites
fixés {s1 , ..., sn } ∈ S et l’espace d’état E étant réel. C’est par exemple le cas des don-
nées pluviométriques ou encore des données de porosité d’un sol. Les sites d’observation
peuvent être disposés régulièrement ou non. La géostatistique aborde, par exemple, les
questions de modélisation, d’identification et de séparation des variations à grande et à
petite échelle, de prédiction (ou krigéage) en un site non-observé et de reconstruction de
X partout sur S.

3.4.1.3 Les données latticielles


Soit S est un ensemble discret fixé non-aléatoire, généralement S ⊂ Rd , et X est ob-
servé sur S. Les sites s peuvent représenter des unités géographiques d’un réseau muni
d’un graphe de voisinage G, la variable Xs intégrant une quantité d’intérêt sur cette unité
s. L’espace d’état E est réel ou non. En analyse d’image, S est un ensemble régulier de
pixels. Parmi les objectifs étudiés, signalons la construction et l’analyse de modèles expli-
catifs, l’étude de la corrélation spatiale, la prédiction, la restauration d’image [57].

À chacune des données correspondent une ou plusieurs méthodes d’analyse. Nous pres-
sentons une méthode d’auto-corrélation spatiale des données très utilisée en épidémiologie.

3.4.2 Tests statistiques en analyse spatiale


Le test de Moran mesure le degré d’auto-corrélation spatiale des données dans son
ensemble. C’est l’indice d’auto-corrélation spatiale le plus utilisé en santé publique (Ro-

91
3.5 Modélisation géostatistique par les copules

binson, 2000). L’auto-corrélation spatiale mesure l’intensité de la relation entre la proxi-


mité des lieux et leur degré de ressemblance, ou plus simplement la ressemblance entre
unités géographiques voisines (Pumain and Saint-Julien, 2004). La statistique de Moran
(1948), notée I, se présente sous la forme d’un rapport entre la covariance des valeurs
de la variable d’intérêt dans les unités spatiales voisines et la variance globale de cette
variable :
P P
N zi zj wij
I= P i j P 2 (3.4.1)
( j zi zj ) j zi
où où N est le nombre des sites, X est la moyenne de X, zi = xi − x et xi est le taux
de maladie dans le site i. Wij sont les poids spatiaux spécifiant la relation de proximité
entre deux sites voisins. La statistique de Moran centrée et réduite suit asymptotiquement
une loi normale d’espérance nulle et de variance unitaire et sert ainsi de base au test de
l’auto-corrélation spatiale dans une série (J. Le Gallo, 2010).

3.5 Modélisation géostatistique par les copules


3.5.1 Motivation
La transmission des maladies infectieuses est étroitement liée aux concepts de proxi-
mité spatiale et temporelle, car la transmission est plus susceptible de se produire si les
individus à risque sont proches dans un cadre spatial et temporel. Dans le cas de l’appari-
tion de maladies non transmissibles, la proximité des facteurs de risque environnementaux
peut être importante. Les analyses épidémiologiques doivent donc tenir compte à la fois
de l’espace et du temps, le principe de base étant d’examiner la dépendance entre les
observations par rapport à ces deux dimensions. Bien que cette étape semble simple et
logique, elle entraine une certaine complication, car les inférences résultant des méthodes
classiques d’analyse statistique supposent que les observations sont indépendantes les unes
des autres. La conséquence de l’ignorance de la dépendance, si elle existe, est que les in-
tervalles de confiance estimés sont plus étroits qu’ils ne devraient l’être.
Dans ce travail, nous introduisons des nouveaux outils d’analyses géostatistiques basés
sur les fonctions copules, qui sont des distributions jointes des variables aléatoires. Ces
outils sont très nécessaires pour la mesure de la dépendance des variables aléatoires non
gaussiennes.

3.5.2 Publication 3
Intitulé « Geostatistical analysis with copula-based models of madograms, correlo-
grams and variograms.» l’article ci-dessous apporte une contribution aux outils géostatis-
tiques pour l’analyse spatiale en épidémiologie. Il a été publié par la revue « European
Journal of Pure and Applied Mathematics » EJPAM. Cet article est indexé dans les grosses
bases de données dans le domaine ; dans Mathscinet / MR avec le code (MR3992608) et
dans ZbMath, code (Zbl07099528).

92
EUROPEAN JOURNAL OF PURE AND APPLIED MATHEMATICS
Vol. 12, No. 3, 2019, 1052-1068
ISSN 1307-5543 – www.ejpam.com
Published by New York Business Global

Geostatistical analysis with copula-based models of


madograms, correlograms and variograms.
Fabrice Ouoba1 , Diakarya Barro2,∗ , Hay Yoba Talkibing1
1
LANIBIO, UFR-SEA, Université Ouaga 1, Pr JKZ, Burkina Faso
2
UFR-SEG, Université Ouaga 2, Burkina Faso

Abstract. This paper investigates models of stochastic dependence with geostatistical tools.
Specifically, we use copulas to propose new models of stochastic spatial tools such as variograms,
correlograms and the madograms. Copula versions of covariograms are provided both in second
stationnary and intrinsic frameworks. Moreover, some usual families of models of variograms are
clarified with the corresponding parameters

1. Introduction

Spatial statistics focus on phenomena whose observations is a random process Z =


{Zs , s ∈ S} indexed by a spatial set S = {s1 , . . . , sn } while Zs denotes a geographical
space D. Such technics where developed first in geostatistics more specifically from the
for geologists. Geostatistics are applications of probabilistic analysis methods to the study
of phenomena that extends into space and present a structuration. Here, space refers to
be the geographical space, but it may be the temporal axis or more abstract spaces. To
quantify this structure, the geostatistical tools used are mainly the variogram, the correl-
ogram and the madogram depending on the type of sampled data.

While modelling spatial extreme variability of an isotropic and max-stable field, Cooley
et al. (2006) have introduced the F-madogram γF (h) defined by
γF (h) = 21 E {|F (Z (s)) − F (Z (s + h))|} . (1)
where h is the average value of the separating distance between the two points. This
tool provides a generalization of the so called λ-madogram associated to the distribution
underlying the stochastic process, such as:
n o
γF (h) = 21 E [F (Z (s))]λ − [F (Z (s + h))]1−λ ; λ ∈ ]0, 1[ . (2)


Corresponding author.
DOI: https://doi.org/10.29020/nybg.ejpam.v12i3.3389
Email addresses: [email protected] (O. Fabrice)
[email protected] (B. Diakarya), [email protected] (H. Y. Talkibing)

http://www.ejpam.com 1052 c 2019 EJPAM All rights reserved.


O. Fabrice, D. Barro, H. Y. Talkibing / Eur. J. Pure Appl. Math, 12 (3) (2019), 1052-1068 1053

The variogram or the semi-variogram makes it possible to determine whether the distri-
bution or parameters studied have a structure, random or periodic. Its representation has
three characteristic properties: the nugget effect, the range and the sill. The nugget effect
characterizes the variability at the origin. The sill, if it exists, is characterized by the
attainment of a plateau where the semi-variogram become constant with the evolution of
h and the range which characterizes the limiting distance of spatial structuring.

The correlogram function is identical to the linear coefficient between a series of spatial
data. It’s given by:

cov(Z(s1 ), Z(s2 ))
ρ(s1 , s2 ) = corr(Z(s1 ), Z(s2 )) = . (3)
σs1 σs2

It is possible to express graphically the correlation between two variables by mean of


their separate distance h. In particular, for spatial extreme or spatial temporal phenomena,
geostatistical tools such as the variogram or correlogram are not appropriate for studying
the spatial structuring of data.
Typically, the madogram or variogram of the first order is used to characterize this
spatial structure of the extreme data. Such as, for all separating distance h,

E(|Z(s + h) − Z(x)|
M (h) = . (4)
2

While studying spatial models of extreme values, Barro et al.[2] have considered a set
of locations S = {x1 , ..., xs } ⊂ R2 , where the process is observed. If Yk,1 ; ...; Yk,s denote
independent copies from the second-order stationary random field, for k = 1, ..., n, they
poined out that every spatial univariate marginal laws lies in the domain of attraction of
the real-value parametric Generalized extreme value (GEV) distribution, defined spatially
on the subdomain:

Sξ = {xi ∈ S; σi (xi ) + ξi (xi ) (yi (xi ) − µi (xi )) > 0} ⊂ S,

such as:
  h  i −1 

 exp − 1 + ξi (xi ) yi (xi )−µi (xi ) ξi (xi ) if ξi (xi ) 6= 0
σi (xi )
GEV (yi (xi )) = n n  oo ; (5)

 exp − exp − yi (xi )−µi (xi )
σi (xi ) if ξ i (xi ) = 0

where the parameters {µi (xi ) ∈ R}, {σi (xi ) > 0} and {ξi (xi ) ∈ R} are referred to as
the spatial version of location, the scale and the shape parameters for the site xi respec-
tively.

The major contribution of this paper is to propose new models of geostatistical depen-
dence tools by using copula functions. Indeed, the variogram, the correlogram and the
O. Fabrice, D. Barro, H. Y. Talkibing / Eur. J. Pure Appl. Math, 12 (3) (2019), 1052-1068 1054

madogram of spatial variable are modeled via the copula underlying their joint distribu-
tion. Specifically, section 2 gives the background tools of stochastic analysis that turn to
be necessary, while section 3 deals with our main results, copulas versions of variogram,
madogram, covariogram and correlogram via copulas.

2. Preliminaries

This section summaries definitions and properties on the copulas of multivariate joint
processes dependence which turn out to be necessary for our approach. For this purpose
the definition of multivariate copula is necessary. Moreover, we provide a survey of the
main geostatistical tools used in this paper.

2.1. Some geostatistical tools in spatial dependence


The covariance of a random field measures the strength of the relationship witch exists
between the random variables witch represents it in the different observation sites. It is
defined on Rd × Rd in R, f or all (s1 , s2 ) ∈ Rd × Rd ,

c(s1 , s2 ) = Cov[Z(s1 ), Z(s2 )] = E[Z(s1 )Z(s2 )] − m(s1 )m(s2 ).

Since, Z +∞ Z +∞
E[Z(s1 )Z(s2 )] = z1 z2 h(s1 , s2 )dz1 dz2 ,
−∞ −∞
the covariance function can still be written such as:
Z +∞ Z +∞
c(s1 , s2 ) = z1 z2 h(s1 , s2 )dz1 dz2 − m(s1 )m(s2 )
−∞ −∞

where m(s1 ) is the mean of Z(s1 ) and h(s1 , s2 ), the joint density function of Z(s1 ) and
Z(s2 ). The Cauchy-Schwarz inequality links the covariance between Z(s1 ) and Z(s2 ) to
the variance of Z(s1 ) and Z(s2 ),
p
Cov[Z(s1 ), Z(s2 )]| ≤ V ar[Z(s1 )]V ar[Z(s2 )].

The madogram of a random field, especially used in the extreme case, determines the
strength of the relationship between the random variables that represents it in the different
observation sites. It is set to Rd in R+ by:
E(|Z(s1 + h) − Z(s1 )|)
∀h ∈ Rd , M (h) = ; ∀s1 ∈ Rd .
2

2.2. A Survey of Copulas Functions


Copulas functions can be used to describe the dependence of variables or for spatial
interpolation. The copula were introduced by Sklar [10] in order to characterize a vector
Z = (Z1 , . . . , Zn ) having given marginal laws. According to Sklar’s theorem, all functions
O. Fabrice, D. Barro, H. Y. Talkibing / Eur. J. Pure Appl. Math, 12 (3) (2019), 1052-1068 1055

of continuous multivariate distributions F to marginal F1 , . . . , Fd , there is a copula function


C such that
F (s1 , . . . , sn ) = C[F1 (s1 ), . . . , Fd (sd ].

Definition 1. An n-dimensional copula is a distribution function Cn : [0, 1]n −→ [0, 1]


satisfying the following properties.
i) C(u) = 0 if one of the coordinates of u is zero, that is

Cn (u1 , ..., ui−1 , 0, ui+1 , ..., un ) = 0; f or, all (u1 , ..., ui−1 , ui+1 , ..., un ) ∈ [0, 1]n−1 .

ii)
Cn (u1 , ..., ui−1 , 1, ui+1 , ..., un ) = Cn−1 (u1 , ..., ui−1 , ui+1 , ..., un ),
, an (n-1) copula for all i.
iii) The volume VB of any rectangle B = [a, b] ⊆ [0, 1]n is positive, that is,
Z
bn bn−1 b1
VB ([a, b]) = ∆an ∆an−1 . . . ∆a1 C(u) = dCn (u1 , ..., un ) ≥ 0. (6)
B

where,

∆bakk C(u) = C(u1 , . . . , uk−1 , bk , uk+1 , . . . , un ) − C(u1 , . . . , uk−1 , ak , uk+1 , . . . , un ) ≥ 0.

The use of copulas in stochastic analysis whas justified by the canonical parametriza-
tion of Sklar, see Joe [9]or Nelsen [12], such that the n-dimensional copula C associated to
a random vector (X1 , ..., Xn ) with cumulative distribution F and with continuous marginal
F1 , ..., Fn is given, for (u1 , ..., un ) ∈ [0, 1]n by

C(u1 , ..., un ) = F [F1−1 (u1 ), ..., Fn−1 (un )]. (7)

Differentiating the formula (7 ) shows that the density function of the copula is equal
to the ratio of the joint density f of F to the product of marginal densities hi such as, for
all (u1 , ..., un ) ∈ [0, 1]n ,
 
∂ n C (u1 , ..., un ) f F1−1 (u1 ), ..., Fn−1 (un )
c(u1 , ..., un ) = =  −1   . (8)
∂u1 ...∂un f1 F1 (u1 ) × ... × fn Fn−1 (un )

3. The Main Results of the Study

Let Z be a random field in n sites Z = {Z(s1 ), . . . , Z(sn )}. Suppose H(si , sj ) and
h(si , sj ) are the attached distribution and density functions of Z(.) with marginal distri-
butions FZ (si ) at the site si .
O. Fabrice, D. Barro, H. Y. Talkibing / Eur. J. Pure Appl. Math, 12 (3) (2019), 1052-1068 1056

3.1. Modeling the Madogram and the F-Madogram via Copulas


The following result provides a relation between the F-madogram and the underlying
copula function.

Theorem 1. Let CF be the copula underlying a stochastic process Z = {Z(s1 ), . . . , Z(sn )} .


Then, the generalized F-madogram is such that:
Z 1  1  1
1
γF (h) = udCF,h u λ , u 1−λ − [C(λ) − Dh (λ)] , (9)
0 2

where !
1 σZ2 s
C(λ) = ,
2 1 + λσZ2 s
and !
1 σZ2 s+h
Dh (λ) = ,
2 1 + (1 − λ)σZ2 s+h
for λ ∈]0; 1[, h being the average value of the separating distance between the two points.

Proof. Consider a bivariate distribution F, satisfying the key assumption. By noting


that
|a − b| = 2 max(a, b) − (a + b),
and using this relation in (2), it follows that :
 
E 2 max [F (Z(s))]λ , [F (Z(s + h))]1−λ − [F (Z(s))]λ − [F (Z(s + h))]1−λ
γF (h) = .
2
Then,
  
γF (h) = E max [F (Z(s))]λ , [F (Z(s + h))]1−λ ]
n    o
− 12 E [F (Z(s))]λ − E [F (Z(s + h))]1−λ (10)

Furthermore,
   
FZs ,Zs+h ,λ (u) = P max [F (Z(s))]λ , [F (Z(s + h))]1−λ ≤ u .

Thus,  
FZs ,Zs+h ,λ (u) = P [F (Z(s))]λ ≤ u, [F (Z(s + h))]1−λ ≤ u ,

It yields that
 1 1

FZs ,Zs+h ,λ (u) = P F (Z(s)) ≤ u λ , F (Z(s + h)) ≤ u 1−λ ,
O. Fabrice, D. Barro, H. Y. Talkibing / Eur. J. Pure Appl. Math, 12 (3) (2019), 1052-1068 1057

Therefore  1 1

FZs ,Zs+h ,λ (u) = CF,h u λ , u 1−λ f or all λ ∈]0; 1[.

which is equivalent to,


   Z 1
λ 1−λ
E max [F (Z(s))] , [F (Z(s + h))] = udFZs ,Zs+h ,λ (u).
0

It follows that, for all λ ∈]0; 1[,


   Z 1  1 1

E max [F (Z(s))]λ , [F (Z(s + h))]1−λ = udCF,h u λ , u 1−λ . (11)
0

Furthermore, one have


   σZ2 s
E max [F (Z(s))]λ = , (12)
1 + λσZ2 s

and
   σZ2 s+h
E max [F (Z(s + h))]1−λ = ∀λ ∈]0; 1[. (13)
1 + (1 − λ)σZ2 s+h
Using (11), (12) and (13) in (10), it follows that
Z 1 " #
 1 1
 1 σZ2 s σZ2 s+h
γF (h) = udCF,h u λ , u 1−λ − +
0 2 1 + λσZ2 s 1 + (1 − λ)σZ2 s+h

which proves the relation (9) as disserted.



Let Z = Z(x), x ∈ Rd be a regular random field defined on Rd . It is a well known
that the madogram associated to the random field Z is the function M , mapping Rd to
R+ such as:
E(|Z(x + h) − Z(x)|)
∀h ∈ Rd , M (h) = , x ∈ Rd . (14)
2
Proposition 1. ( Copula-based madogram )
If Z(.) is a stationary random field of order two then, the relation between its madogram
and the copula function bivariate is given by:
Z 1
M (h) = FZ−1 (u)dCh (u, u) − µ,
0

where µ = E(Z(x + h)) = E(Z(x)), Ch (., .) being the jointed copula function which de-
scribes the dependence structure between two remote sites of h.

The following figure provide a representation of the joint copula of these two variables.
O. Fabrice, D. Barro, H. Y. Talkibing / Eur. J. Pure Appl. Math, 12 (3) (2019), 1052-1068 1058

Figure 1: Graph of a joint distribution of copula

Proof. Recall that |a − b| = 2 max(a, b) − (a + b). Using this relation in (14), it’s comes
that f or all h, x ∈ Rd
E (2 max[Z(x + h), Z(x)] − Z(x + h) − Z(x))
M (h) = . (15)
2
Since E(.) is a linear application, the relation (15) gives
E (2 max[Z(x + h), Z(x)]) − E (Z(x + h)) − E (Z(x))
M (h) = .
2
Thus,
M (h) = E (max[Z(x + h), Z(x)]) − µ. (16)
Furthermore,
P (max[Z(x + h), Z(x)] ≤ z) = P (Z(x + h) ≤ z, Z(x) ≤ z) ,
which is equivalent to:
P (max[Z(x + h), Z(x)] ≤ z) = Ch (P (Z(x + h) ≤ z) , P (Z(x) ≤ z))
Thus,
P (max[Z(x + h), Z(x)] ≤ z) = Ch (FZ (z), FZ (z)) ,
so, Z 1
E (max[Z(x + h), Z(x)]) = FZ−1 (u)dCh (u, u).
0
Substituting this expression in the equation (16) and taking into account that z = FZ−1 (u),
we obtain the result: Z 1
M (h) = FZ−1 (u)dCh (u, u) − µ.
0
Which proves the assertion.
O. Fabrice, D. Barro, H. Y. Talkibing / Eur. J. Pure Appl. Math, 12 (3) (2019), 1052-1068 1059

3.2. Modeling the covariogram via copulas


The variogram allows to measure the linear dependence between the random variables
of a field. For two given sites, the associated variogram is given by

ϑ(si , sj ) = V ar(Z(si ) − Z(sj )) = V ar(Z(si )) + V ar(Z(sj )) − 2ĉ(si , sj ). (17)

These tools do not take into account the extreme data observed in the different observation
sites. However, the copula function makes it possible to model the extreme data and to
detect any nonlinear link between different observation sites. So, it is necessary to express
the variogram and the covariogram via the copula to allow the model to take into account
the spatial structure even in case of extremes data. The model could also be able to detect
the presence of some nonlinear dependence.

Theorem 2. Let Z = {Z(s1 ), . . . , Z(sn )} be a stochastic process with variogram given by


(14). Then, the covariogram ĉ(si , sj ) and the copula function are linked by the relation.

ϑ(si , sj ) = σZ2 (si ) + σZ2 (sj ) − 2ĉ(si , sj ) (18)

where Z 1Z 1
ĉ(si , sj ) = FZ−1 (u)FZ−1 (v)c(u, v)dudv − mi mj .
0 0
The quantity mi being the mean of Z(si ); c(u, v) the copula density function attached to
Z(si ) and Z(sj ).

Proof. Let ui = F (Z(si )) = FZ (si ). It’s follow that:

zi = FZ−1 (ui ) =⇒ dui = fZ (zi )dzi ,

where fZ (si ) is the density function of the variable Z(si ).


So, it comes that
1
dzi dzj = dui duj .
fZ (zi )fZ (zj )
Similarly, according to Sklar’s theorem [10], it follow that, for all couple of sites
(si , sj ) ∈ S 2
H(si , sj ) = C(FZ (si ), FZ (sj )).
Moreover,  
f H1−1 (u), Hn−1 (un )
c(u, v) =  −1   . (19)
f1 F1 (u1 ) × ... × Fn Fn−1 (un )
The relation between the joint density function h(si , sj ) and the joint density function of
the copula c(u, v) is given by:

h(si , sj ) = c(u, v)fZ (zi )fZ (zj ).


O. Fabrice, D. Barro, H. Y. Talkibing / Eur. J. Pure Appl. Math, 12 (3) (2019), 1052-1068 1060

Using these expressions in the covariogram expression, it follows that


Z 1Z 1
ĉ(si , sj ) = FZ−1 (u)FZ−1 (v)c(u, v)dudv − mi mj .
0 0

By using the last relation in the variogram expression, it follows that


Z 1Z 1
2 2
ϑ(si , sj ) = σZ (si ) + σZ (sj ) − 2 FZ−1 (u)FZ−1 (v)c(u, v)dudv − 2mi mj .
0 0

The following figure provide a representation of some theoretical variogram

Figure 2: Graph of some theoretical variograms

3.3. Modeling the correlogram via copulas


The correlogram measures the spatial dependence between two sites si and sj for all
i and j. The following result gives a relation between the correlogram and the copula
function.
Theorem 3. Let Z = {Z(si ), . . . , Z(sj )} be a stochastic process on a geostatistical domain
S. For two sites si , sj ∈ S, the correlogram is given, via the associated copula by
Z 1 Z 1 −1
FZ (u) FZ−1 (v) mi mj
ρ(si , sj ) = c(u, v)dudv − ; (20)
0 0 σZ (si ) σZ (sj ) σZ (si ) σZ (sj )
2
where mi denotes the mean of Z(si ), c(u, v) = ∂ ∂u∂v
C(u,v)
being the density function of the
copula C and σZ (si ) and the standard error of Z(si ) and Z(sj ).
O. Fabrice, D. Barro, H. Y. Talkibing / Eur. J. Pure Appl. Math, 12 (3) (2019), 1052-1068 1061

Proof. By definition, the correlogram of a random field in two observation sites is given
by:
ĉ(si , sj ) 1
ρ(si , sj ) = = × ĉ(si , sj ).
σZ (si )σZ (sj ) σZ (si )σZ (sj )
Using the result of precedent theorem (theorem 3), we get (20).

3.4. Stationnary framework for covariance modeling


In spatial context, the stationarity describes in a way, a form of spatial homogeneity of
regionalization. From a mathematical point of view, stationarity hypothesies consists in
assuming that the probabilistic properties of a set of values do not depend on the absolute
position of the associated sites, but only on their separation.
Under the assumption of the second order stationarity of the random field Z(.), the
mean function deviates a constant and the covariance depends only on the distance sepa-
rating the sites. So,

E(Z(si )) = µ ∀i = 1, n and ĉ(si , sj ) = ĉ(si − sj ) = ĉ(hij ).

Previous relationships can be written differently. The following result gives a rela-
tionship between the covariogram and the copula function in second-order stationarity
case.

Corollary 1. In a second order stationarity framework the covariogram is given by


Z 1Z 1
ĉ(si , sj ) = ĉ(hij ) = FZ−1 (u)FZ−1 (v)chij (u, v)dudv − µ2 , (21)
0 0
where hij = |si − sj | and chij (u, v) the jointed copula density function of the two localized
variables at two remote sites of hij .
Proof. Under the assumption of two order stationarity, the result of theorem (Theorem
3) gives the relation (21).

Similarly, under the assumption of second-order stationaity, the correlogram and the
variogram are expressed as a function af the copula by the relation,
Proposition 2. Assuming that hij = si − sj is the average distance and using the relation
(21), then, the correlogram is such as
Z 1 Z 1 −1
FZ (u)FZ−1 (v) µ2
ρ(hij ) = chij (u, v)dudv − . (22)
0 0 ĉ(0Rd ) ĉ(0Rd )
and  Z 
1Z 1
ϑ(hij ) = 2 ĉ(0Rd ) + µ − 2
FZ−1 (u)FZ−1 (v)chij (u, v)dudv . (23)
0 0
O. Fabrice, D. Barro, H. Y. Talkibing / Eur. J. Pure Appl. Math, 12 (3) (2019), 1052-1068 1062

Proof. Under the hypothesis of two order stationary and using the relation (21), the
result of theorem (Theorem 3) gives the result (22) and (23).

Proposition 3. The relationship between the variogram and the covariogram is such
than,
1
ĉ(hij ) = ĉ(0Rd ) − ϑ(hij ).
2
Proof. Let us consider the relations (21) and (23). It is known that:
Z 1Z 1
ĉ(si , sj ) = ĉ(hij ) = FZ−1 (u)FZ−1 (v)chij (u, v)dudv − µ2 ,
0 0

and  Z 
1Z 1
ϑ(hij ) = 2 ĉ(0Rd ) + µ − 2
FZ−1 (u)FZ−1 (v)chij (u, v)dudv .
0 0
Adding the two relations above, we get:

2ĉ(hij ) + ϑ(hij ) = 2ĉ(0Rd ).

So
1
ĉ(hij ) = ĉ(0Rd ) − ϑ(hij ).
2

3.5. Covariogram in Stationnary intrinsic framework


Consider an intrinsic random field Z(.) without drift, that is, the average of the incre-
ments is zero and the variance of the increments is the variogram. The intrinsic hypothesis
is written:
E[Z(x + h) − Z(x)] = 0,
and 
V ar[Z(x + h) − Z(x)] = E [Z(x + h) − Z(x)]2 = 2γ(h). (24)
By integrating the intrinsic hypothesis, we obtain the following result.

Theorem 4. Let Z(.) An intrinsic random field without drift. It follows that the covari-
ance is such that
Z 1Z 1
ĉ(si , sj ) = ĉ(hij ) = FZ−1 (u)FZ−1 (v)chij (u, v)dudv − µ2 , (25)
0 0

while the correlogram is:


Z 1Z 1
FZ−1 (u)FZ−1 (v) µ2
ρ(hij ) = chij (u, v)dudv − .
0 0 ĉ(0Rd ) ĉ(0Rd )
O. Fabrice, D. Barro, H. Y. Talkibing / Eur. J. Pure Appl. Math, 12 (3) (2019), 1052-1068 1063

And the variogram


 Z 1Z 1 
ϑ(hij ) = 2 ĉ(0Rd ) + µ2 − FZ−1 (u)FZ−1 (v)chij (u, v)dudv .
0 0

Where µ denote the mean, ĉ(0Rd ) the variance and chij (u, v) the density copula function.
Proof. By considering again the relation (24) we obtain:
1 
γ(h) = E [Z(x + h) − Z(x)]2 . (26)
2
Now, it comes that

E [Z(x + h) − Z(x)]2 = E([Z(x + h)]2 ) − 2E(Z(x + h)Z(x)) + E([Z(x)]2 ).

So, by taking into account the density of the copula,


Z 1Z 1
 2 2
E [Z(x + h) − Z(x)] = ĉ(0Rd ) + µ − 2 FZ−1 (u)FZ−1 (v)chij (u, v)dudv + ĉ(0Rd ) + µ2 .
0 0

Furthermore, we have,
Z 1Z 1

E [Z(x + h) − Z(x)] 2
= 2ĉ(0Rd ) + 2µ + −2 2
FZ−1 (u)FZ−1 (v)chij (u, v)dudv.
0 0

Using this last relation in the equation (26), we get finaly,


 Z 1Z 1 
2 −1 −1
ϑ(h) = 2 ĉ(0Rd ) + µ − FZ (u)FZ (v)chij (u, v)dudv . (27)
0 0

The variogram expression is similar in the intrinsic and second-order case, we deduce that
the covariance and correlogram expressions remain unchanged.

Remark 1. The variogram is related to the covariogram by the relation:


Z 1Z 1
ĉ(si , sj ) = ĉ(hij ) = FZ−1 (u)FZ−1 (v)chij (u, v)dudv − µ2 . (28)
0 0
and  Z 
1Z 1
2
ϑ(hij ) = 2 ĉ(0Rd ) + µ − FZ−1 (u)FZ−1 (v)chij (u, v)dudv . (29)
0 0
Adding the two relations above, we get finaly,

2ĉ(hij ) + ϑ(hij ) = 2ĉ(0Rd )

and
1
ĉ(hij ) = ĉ(0Rd ) − ϑ(hij ).
2
O. Fabrice, D. Barro, H. Y. Talkibing / Eur. J. Pure Appl. Math, 12 (3) (2019), 1052-1068 1064

3.6. Mains families of models of variograms


In this section we summary some of the most usefull models of variagrams in spatial
modeling

a) Families with bearing or transition models

Families or Modeles of variograms Parameter


· Pure nugget
 effect model
0 for i = j
γ(hij ) =
1 ĉ ∀i 6= j
· Meaning: reflects an absence of spatial structuring, due at
the presence of an undetectable micro-structure experimentally.
· Spherical model of parameter range a and sill ĉ (valid in Rd , d 6 3)
( 35 khij k3 7 khij k5 3 khij k7
kh k2
ĉ(7 aij2 − 3 + 5 − 7 ) pour 0 6k hij k6 a
2 γ(k hij k) = 4 a 2 a 4 a a
ĉ pour k hij k> a
· Meaning: the presence of an undetectable micro-structure experimentally.
Gaussian model of parameter a and sill ĉ
k hij k2 √
3 γ(k hij k) = ĉ(1 − exp(− )) a 3
a2
· Meaning: the sill is reached
√ asymptotically and the practical range
can be taken equal to a 3

b) Bessel and Polynomial models of variogram

Models includes mainly two models: the k modified model characterized


O. Fabrice, D. Barro, H. Y. Talkibing / Eur. J. Pure Appl. Math, 12 (3) (2019), 1052-1068 1065

· Bessel modified
 model 
1 k hij k α khij k
γ(k hij k) = ĉ 1 − α−1 ( ) Kα ( a )
2 Γ(α) a
characterized by sill ĉ, scale factor a and parameter α, and
1 with α > 0
Γ being thefunction of Euler interpolating the factorial K(α) . 
1 u 1 u
π Σ∞ k=0 ( )2k−α − Σ∞ k=0 ( )2k+α
k!Γ(−α + k + 1) 2 k!Γ(α + k + 1) 2
Kα (u) =
2 sin(απ)
· The Bessel Jmodel 
k hij k −α k hij k
γ(k hij k) = ĉ 1 − ( ) Γ(α + 1)Jα ( ) ;
2a a
· α = −1/2 for cosine model
2 characterized by sill ĉ, scale factor a and parameter α, and
· α = 1/2 for sinus model
Jα being the Bessel function of the first kind of order α,
u (−1)k u
Jα (u) = ( )α Σ∞ k=0 ( )2k ..
2 k!Γ(α + k + 1) 2
· Polynomial  Models
 with a scope and threshold ĉ 
 35 ij k
kh 35 khij k3 7 k hij k5 25 khij k7
3 ĉ 12 a − 3 + − 7 pour 0 6k hij k6 a on Rd for d 6 3
γ(k hij k)= 8 a 2 a5 24 a

ĉ pour k hij k> a
· An other Polynomial
  Models with a scope and threshold ĉ
k h k k h k 3 k h k 5
 5 ij 5 ij ij
4 ĉ − + pour 0 6k hij k6 a
γ(k hij k) = 2 a 2 a3 a5

ĉ pour k hij k> a

Figure 3: Graph of the extremal coefficient


REFERENCES 1066

4. Conclusion

The results of the study provides important characterizations of the variogram, the
correlogram in a copula framework. Especially, they show on one hand that these tools are
limited when data includes extremes values, in an other hand, that they have a copulawise
extension, allowing the copula to model the data in the spatial context. Moreover, the
study provides tools to analyze data and perform a comparative study with existing tools.

References

[1] Barro, D. (2009). Conditional Dependence of Trivariate Generalized Pareto Dis-


tributions, Asian Journal of Mathematics & Statistics Vol. 2 No.2, 20-32. DOI:
ajms.2009.20.32
[2] Barro, D. (2012). Geostatistical Analysis with Conditional Extremal Copulas, Inter-
national Journal of Statistics and Probability; Vol. 1 No.2, 2012. ISSN 1927-7032
E-ISSN 1927-7040
[3] Beirlant J., Goegebeur Y, Segers J. and Teugels,J. (2005). Statistics of Extremes:
theory and application, Wiley, Chichester, England.
[4] Bondar, I., McLaughlin, K., & Israelsson, H. (2005). Improved Event Location Un-
certainty Estimates, 27th Seismic Research Review, 299-307
[5] Bordossy, A. (2006). Copula based geostatistical models for groundwater quality pa-
rameters. Water Resources Research 42.
[6] Cooley D. Poncet P. and P. Naveau (2006). Variograms for max-stable random .elds.
In Dependence in 8 Probability and Statistics. Lecture Notes in Statistics 187 373.390.
Springer, New York
[7] Dossou-Gbete S., B., Somé and Barro, D. (2009). Modelling the Dependence of Para-
metric Bivariate Extreme Value Copulas, Asian Journal of Mathematics & Statistics,
Vol 2, Issue3, 41-54 DOI: .3923/ajms.2009.41.54
[8] Kazianka, H.(2009). Spatial modeling and interpolation using copulas. PhD thesis,
University of Klagenfurt. Ribatet (2011)- Statistical Modelling of Spatial Extremes
A. C. Davison, S. A. Padoan and M. Ribatet October 3, 2011
[9] Nelsen, R.B. (1999). An Introduction to copulas. Lectures notes in Statistics 139,
Springer-Verlag Joe H., 1997, Multivariate Models and Dependence Concepts. Mono-
graphs on Statistics and Applied Probabilty 73, Chapman and Hall, London. ISBN
978-0-412-7331
[10] Pickands, J. (1981). Multivariate extreme values distributions. in Bulletin of inter-
national Statistical Institute (Buenos Aires), Procedings of the 43 rd Session, pp
859-878.
REFERENCES 1067

[11] Sklar, A.(1973). Random variables, joint distribution functions, and copu-
las.Kybernetika, 9(6),449-460.9

[12] Schmitz, V. (2003). Copulas and Stochastic Processes, Aachen University, PhD dis-
sertation

[13] M.Frechet Sur la loi de probabilité de l’écart maximum. Annales de la


société Polonaise de Mathématiques,6.(1927).93-116.

[14] D. Barro Contribution à la modélisation statistique des valeurs extrêmes mul-


tivariées Thèse de l’Université de Ouagadougou. Décembre (2010)

[15] P.J.Diggle & P.J.Ribeiro Jr. Model-based Geostatistics. Springer Series in Statistics,
Springer Science and Business Media, LLC, Springer. New York. (2007).

[16] C. Dombry Théorie spatiale des extrêmes et propriétés des processus max-
stables. Document de synthèse en vue de l’habilitation à diriger des recherches,
Université de Poitiers, UFR Sciences Fondamentales et Appliquées. Novembre (2012).

[17] R.A. Fisher & L.H.C. Tippett. Limiting Forms of the Frequency of the Largest or
Smallest Member of a Sample. Proceedings of the Cambridge Philosophical Society,
24.(1928). 180-190.

[18] C. Fonseca, L. Pereira, H. Ferreira & A.P. Martins. Generalized Madogram and Pair-
wise Dependence of Maxima over two Regions of a Random Fiel. arXiv: 1104.2637v2
[math.ST] 24 Jan 2012. (2012).

[19] A.L. Fougères & P. Soulier. Limit Conditional Distributions for Bivariate Vectors
with Polar Representation. Stochastic Models, 26(1). (2010). 54-77.

[20] M. Fréchet. Sur la loi de probabilité de l’écart maximum. Annales de la


société Polonaise de Mathématiques, 6. (1927). 93-116. C. Gaet

[21] Beirlant, J., Goegebeur, Y., Segers, J., and Teugels, J. (2005). Statistics of Extremes:
theory and application -Wiley, Chichester, England.

[22] Coles, S. (2001). An introduction to statistical modeling of extreme values- Springer-


Verlag (London), 2001.

[23] Degen M. (2006). On Multivariate Generalised Pareto Distributions and High Risk
Scenarios - thesis, Department of Mathematics, ETH Zürich.

[24] D. Barro (2009) Conditional Dependence of Trivariate Generalized Pareto Distribu-


tions. Asian Journal of Mathematics & Statistics Year: 2009 | Volume: 2 | Issue: 2 |
Page No.: 20-32. DOI: 10.3923/itj.2012.76.84
REFERENCES 1068

[25] Diakarya Barro, Moumouni Diallo, and Remi Guillaume Bagré “Spatial Tail De-
pendence and Survival Stability in a Class of Archimedean Copulas,” Inter. J. of
Mathematics and Mathematical Sciences, vol. 2016, Article ID 8927248, 8 pages,
2016. doi:10.1155/2016/8927248

[26] Ferreira, H. and Ferreira,M. (2012) Fragility Index of block tailed vectors. ScienceDi-
rect. ELsevier vol. 142 (7), 1837–1848 http ://dx.doi.org/10.1016/j.bbr.2011.03.031

[27] Fougères, A., L (1996). Estimation non paramétrique de densité unimodales


et de fonctions de dépendance- thèses doctorat de l’Université Paul Sabatier de
Toulouse.

[28] Husler, J., Reiss, R.-D.(1989). Extreme value theory - Proceedings of a conference held
in Oberwolfach, Dec. 6-12,1987. Springer, Berlin etc. Lenz, H.

[29] Joe, H. (1997). Multivariate Models and Dependence Concepts - Monographs on


Statistics and Applied Probabilty 73, Chapman and Hall, London.

[30] Kotz, S., Nadarajah, S. (2000). Extreme Value Distributions, Theory and Applica-
tions - Imperial College Press - [48] S. Lang , Linear Algebra

[31] Michel, R.(2006). Simulation and Estimation in Multivariate Generalized Pareto Dis-
tributions- Dissertation, Fakultät für Mathematik, Universität Würzburg, Würzburg.

[32] Nelsen, R.B. (1999). An Introduction to copulas- Lectures notes in Statistics 139,
Springer-Verlag

[33] Resnick, S.I. (1987). Extreme Values, Regular Variation and Point Processes-
Springer-Verlag.

[34] Schmitz, V. (2003). Copulas and Stochastic Processes, Aachen University, PhD dis-
sertation

[35] Tajvidi, N. (1996a)- Confidence Intervals and Accuracy Estimation for Heavy-tailed
Generalized Pareto Distribution- Thesis article, Chalmers University of Technology.
http://www.maths.lth.se/matstat/staff/∼nader/.
3.5 Modélisation géostatistique par les copules

3.5.3 Commentaires
Cet article nous a permis de partir des outils de dépendance stochastique tels que
les copules statistiques pour modéliser les outils techniques de la géostatistique. Plus
spécifiquement, dans ce papier la relation entre la distribution conjointe associée au ma-
dogramme est utilisée pour modéliser cette dernière par la copule qui permet la paramétri-
sation canonique de cette dernière. Il est de même pour la caractérisation du variogramme
et du corrélogramme. En effet dans une situation de valeurs extrêmes, l’utilisation des ces
outils comporte des limites

Conclusion
Dans ce travail, nous avons proposé des caractérisations très importantes des outils
géostatistiques pour l’étude de la variabilité spatiale des champs aléatoires. Nous avons
présenté quelques méthodes geostatistiques existantes et les outils techniques d’estima-
tion puis quelques notions des copules ayant servi à introduire des nouveaux outils géo-
statistiques tels que le variogramme et le corrélogramme très utiles dans la modélisation
stochastique spatiale des phénomènes des maladies infectieuses émergentes. Les résultats
montrent d’une part que ces outils sont limités lorsque les données comprennent des va-
leurs extrêmes, d’autre part qu’ils ont une structure permettant à la copule de modéliser
les données dans le contexte spatial. De plus, l’étude fournit des outils pour analyser les
données et réaliser une étude comparative avec les outils existants.

110
Conclusion générale

L’émergence des maladies infectieuses apparait de plus en plus comme un risque mani-
feste pour le développement d’un pays. Cette menace, qui est devenue réalité ces dernières
années lors de la propagation de l’eboola, de la grippe A et du coronavuris, contribue à
une prise de conscience générale sur la vulnérabilité du système de santé et sur la nécessité
de quantifier sa capacité à affronter toute crise.

Cette thèse avait pour objectif d’apporter des éléments de réponse essentiellement à la
modélisation stochastique en épidémiologie : comment contrôler le début d’une épidémie
dans une population supposée non fermée, quels sont les paramètres permettant l’explo-
sion d’une épidémie et comment évaluer l’influence d’une région épidémique sur une autre ?

Après avoir rappelé quelques notions des processus stochastiques et leur grande famille,
des concepts de l’épidémiologie et des maladies émergentes, puis des modèles stochastiques
existant en épidémiologie, nous avons proposé des nouvelles approches stochastiques per-
mettant l’analyse temporelle et spatiale de la dynamique de la propagation des maladies
infectieuses émergentes. Le modèle épidémiologique compartimental SEIRS stochastique
proposé intègre une période de latente correspondant au fonctionnement de certaines ma-
ladies, une perte d’immunité après un certains temps et des taux d’immigration et de
mortalité supposés non constants. Ce modèle basé sur les processus de naissance et de
mort de type markovien est capable de prédire correctement la propagation des certaines
maladies infectieuses émergentes dans un environnement aléatoire et peut aussi être uti-
lisé pour tester l’efficacité d’un vaccin. De plus, du point de vue spatiale, nous avons
introduit des nouveaux outils geostatistiques basés sur la fonction copules pour quantifier
la dépendance spatiale de la propagation des maladies. Il est aussi à noter que ces outils
sont limités dés lors que nos données contiennent des valeurs extrêmes.

Nos travaux ouvrent des perspectives très intéressantes et variées qui feront l’objet
de nos prochaines publications à court, moyen et longues termes. En effet, nous serons
intéressés par l’application de nos différents outils aux données réelles et à d’autres aspects
de la modélisation en épidémiologie. Par ailleurs un problème fort intéressant tant du
point de vue pratique que du point de vue théorique pourrait consister à développer des
packages du logiciel R pour les simulations de ces outils.

111
Bibliographie

[1] A.C.Davison et R.L Smith.« Models for exceedancy over High Thresholds ».Journal
of the Royal Statistical Society Séries B 52.(1990) 393-442.
[2] Alain-Jacques Valleron L’épidémiologie humaine Conditions de son développement
en France, et rôle des mathématiques.», 17, avenue du Hoggar Parc d’activités de
Courtaboeuf, BP 112 91944 Les Ulis Cedex A, France.
[3] Anderson RM.,May RM.(1979).Population biology of infectious diseases : Part I.»
Nature, 280 (5721) : 361-7.
[4] Andersson H., Britton T.(2000).Stochastic epidemics and their statisitcal analysis.»
Springer-Verlag, New York.
[5] Bailey N. (1975). The Mathematical Theory of Infectious Diseases.» Griffinn, London.
[6] Barro, D Contribution à la modélisation statistique des valeurs extrêmes multiva-
riées». Thèse de l’Université de Ouagadougou. Décembre 2010.
[7] Barro, D. (2012).« Geostatistical Analysis with Conditional Extremal Copulas, Inter-
national Journal of Statistics and Probability» ; Vol. 1 No.2, 2012. ISSN 1927-7032
E-ISSN 1927-7040.
[8] Bordossy, A. (2006). « Copula based geostatistical models for groundwater quality
parameters.» Water Resources Research 42.
[9] Bouleau, N., «Processus Stochastiques et Applications», Hermann, 1988.
[10] Bouy E.(2002) «Multivariate Extremes at Work for Portfolio Risk Measurement».
Warwick Business School Working Paper Series, WP01-10.
[11] Carrat F.,Valleron AJ.(1992). Epidemiologic mapping using the kriging method : ap-
plication to an influenza-like illness epidemic in France ». Am J Epidemiol, 135 :
1293-1300.
[12] Cooley D. Poncet P. and P. Naveau (2006). «Variograms for max-stable random
.elds. In Dependence in 8 Probability and Statistics.» Lecture Notes in Statistics 187
373.390. Springer, New York.
[13] Cox D.R. et Muller H.D. The theory of stochastic processes », Chapman and Hall.
London (1965)
[14] Dominique Foata et Aimé Fuchs Processus stochastiques, Processus de Pois-
son,chaînes de Markov et martingales ». 2e édition, 1998, DUNOD, ISBN 210 048850
3
[15] Doob J L (1942). What is a stochastic process ?». The American Mathematical
Monthly, 49, pp. 648–653.
[16] Douglas H, Peter P (2006). Stochastic Differential Equations in Science and Engi-
neering». World Scientific Publishing. ISBN 981-256-296-6.

112
BIBLIOGRAPHIE

[17] Fabio Gobbi, Silvia Romagnoli, Sabrina Mulinacci, Umberto Cherubini,« Dynamic
Copula Methods in Finance», ISBN-10 : 0470683074, Wiley, 1 (November 21, 2011)
[18] Foata, D., Fuchs, A.Processus stochastiques», Dunod, Paris, 2004,
[19] Freedman, D. A. Markov Chains», Springer-Verlag, New York, 1983,.
[20] Håkan Andersson, Tom Britton « Stochastic Epidemic Models and Their Statis-
tical Analysis, Volume 151 of Lecture Notes in Statistics » January 2000 DOI :
10.1007/978-1-4612-1158-7 Publisher : Springer-Verlag
[21] Hans Wackernagel «Multivariate Geostatistics, An Introduction With Applications,
Second», Completely Revised Edition : Springer, Berlin, 1998, 291 pp., ISBN 3-540-
64721-X, DM 89.00.
[22] Hélène Fagherazzi-Pagel. Maladies émergentes et réémergentes chez l’homme :
concepts, facteurs d’émergence, alertes, riposte et coopération mondiale». [Rapport
de recherche] Institut de l’information Scientifique et Technique (INIST-CNRS) .2008
,7 2p. ,tableaux .hal-01456817.
[23] Gordon P, Théorie des chaines de Markov finies et ses applications.» Dunod. Paris,
(1965).
[24] Jean Blancou, Bruno B. Chomel, Albino Belotto, François Xavier Meslin Emer-
ging or re-emerging bacterial zoonoses : factors of emergence, surveillance and
control». Vet. Res. 36 (2005) 507–522 507 c INRA, EDP Sciences, 2005, DOI :
10.1051/vetres :2005008
[25] Kermack WO., McKendrick AG. (1933). Contributions to the mathematical theory of
epidemics-III. Further studies of the problem of endemicity.» Proc Roy Soc Lond A,
141 : 94-122.
[26] Lo, G.S.(2016). Weak Convergence (IA). Sequences of random vectors». SPAS Books
Series. Saint-Louis, Senegal-Calgary, Canada. Doi : 10.16929/sbs/2016.0001. Arxiv :
1610.05415. ISBN : 978-2-9559183-1-9.
[27] Lo,G.S.(2017) Measure Theory and Integration By and For the Lear-
ner». SPAS Books Series. Saint-Louis, Senegal-Calgary,Canada.Doi :
http ://dx.doi.org/10.16929/sbs/2016.0005, ISBN : 978-2-9559183-5-7.
[28] Lo, G.S.(2018). Mathematical Foundation of Probability Theory».
SPAS Books Series. Saint-Louis, Senegal-Calgary, Canada.Doi :
http ://dx.doi.org/10.16929/sbs/2016.0008. Arxiv : arxiv.org/pdf/1808.01713
[29] LO G.S.(2018). A simple proof of the theorem of Sklar. Journal of Ma-
thematical Facts and Short Papers». Volume 1(1), pp 19- 23. Doi :
http ://dx.doi.org/10.16929/jmfsp/19.003
[30] MATHERON, G., ROTH, C., AND DE FOUQUET, C. Modelisation et cokrigeage
de la charge et de la transmissivite avec conditions aux limites a distance finie.»In
Cahiers de Geostatistique (Fontainebleau, 1993), vol.3, École des Mines de Paris, pp
61-76.
[31] Mollison D., Isham V. et al. (1994). Epidemics : models and data.» J R Stat Soc Ser
A Stat Soc, 157 (1) : 115-49.
[32] Nelsen, R.B. (1999). «An Introduction to copulas- Lectures notes in Statistics 139»,
Springer-Verlag (ISBN 10 : 0387986235, ISBN 13 : 9780387986234 )
[33] O’Neill P., Balding D. et al. (2000). Analysis of infectious disease data from household
outbreaks by Markov chain Monte Carlo methods». Applied Statistics, 49 : 517-542.

113
BIBLIOGRAPHIE

[34] Paul-Marie BERNARD et Claude LAPOINTE, Mesures statistiques en épidémiolo-


gie»,Presses de l’Université du Québec 2875, boul.Laurier, Sainte-Foy(Québec)G1V
2M3
[35] P. Del Moral and C. Vergé,«Modèles et méthodes stochastiques, Mathématiques et
Applications 75 », DOI 10.1007/9783-642-54616-7-1, c , Springer-Verlag Berlin Hei-
delberg 2014.
[36] P.J. Diggle P.J.Ribeiro Jr. «Model-based Geostatistics. Springer Series in Statistics»,
Springer Science and Business Media, LLC, Springer. New York. (2007).
[37] Picard P. (1980). Applications of martingale theory to some epidemic models». Jour-
nal of Applied Probability, 17 : 583-599.
[38] Pickands, J. (1981). « Multivariate extreme values distributions.» in Bulletin of in-
ternational Statistical Institute (Buenos Aires), Procedings of the 43 rd Session, pp
859-878.
[39] Rogers, L.C.G. and D. Williams, « Diffusions, Markov Processes and Martingales»,
Vol. 2, Ito Calculus, John Wiley and Sons, 1987.
[40] ROTH, C., AND CHILES, J. P. « Modelisation geostatistique des ecoulements sou-
terrains : comment prendre en compte les lois physiques [with a detailed summary in
english].» Hydrogeologie(1997), 23-32.
[41] Ross, S. Introduction to Probability Models», Academic Press, Seventh Edition, San
Diego, 2000.
[42] S.Coles et J.Tawn.Modelling Extreme Multivariate Events».Journal of the Royal Sta-
tistical Society Series.B 53(2).(1991) 377-392
[43] Schmitz, V. (2003). «Copulas and Stochastic Processes, Aachen University», PhD
dissertation
[44] Sylvia Wassertheil-Smoller Biostatistics and epidemiology : a primer for health and
biomedical prefessionals, 3rd ed.». 2003, Springer-Verlag, ISBN 0-387-40292-6
[45] S. Zeiser, U. Franz, O. Wittich, V. Liebscher.«Simulation of genetic networks model-
led by piecewise deterministic Markov processes». IET Syst Biol., vol. 2, no. 3, pp.
113–135 (2008).
[46] S. N. Ethier and T. G. Kurtz. « Markov rocesses : Characterization and Conver-
gence», Wiley Series Probability and Statistics (1986).
[47] T. C. Coburn ; J. M. Yarus ; R. L. Chambers « Stochastic Modeling and Geostatis-
tics : Principles, Methods, and Case Studies, Volume II», American Association of
Petroleum Geologists, DOI : https ://doi.org/10.1306/CA51063, January 01, 2006
[48] Tom Britton, Désiré Ouédraogo,« SEIRS epidemics in growing populations »,
arXiv :1703.09581v1 [q-bio.PE] 28 Mar 2017.
[49] T. Sellke. « On the asymptotic distribution of the size of a stochastic epidemic.» J.
Appl. Prob., vol. 20, no. 390 (1983).
[50] U. Franz, V. Liebscher, S. Zeiser. «Piecewise-deterministic Markov processes as limits
of Markov jump processes». Adv. in Appl. Probab., vol. 44, no. 3, pp. 729–748 (2012).
[51] VER HOEF, J. M., AND CRESSIE, N. «Multivariable spatial predietion». Mathe-
matical Geology 25 (1993), 219-240.
[52] YAO, T., AND JOURNEL, A. G.« Automatie modelling of(eross)eovarianee tables
using Fast Fourier Transform.II» Mathematical Geology 30 (1998), 589-615.

114
BIBLIOGRAPHIE

[53] YOUNSI F. Z. Mise en place d’un système d’information décisionnel pour le suivi et
la prévention des épidémies». Thèse de l’Université d’Oran. 2015/2016.
[54] WACKERNAGEL, H., WEBSTER, R., AND OLIVER, M. A. « A geostatistical
method for segmenting multivariate sequences of soil data ».In Classification and
Related Methods and Data Analysis (Amsterdam, 1988), H. H. Bock, Ed., Elsevier
(North-Holland), pp.641.-Q50.
[55] WACKERNAGEL, H. «Geostatistical techniques for interpreting multivariate spa-
tial information». In Quantitative Analysis and Mineral and Energy Resources (Dor-
drecht, 1988), C. F. Chung, Ed., vol. C-223 of NATO ASI Series, Reidel, pp. 393-409.
[56] W.E. Ricker. «Handbook of computation for biological statistics of fish populations.»
Bulletin 119 of the Fisheries Resource Board, Canada, Ottawa (1958).
[57] Xavier Guyon, Carlo Gaetan «Modélisation et statistique spatiales », Comité de Lec-
ture 2008–2011/Editorial Board 2008–2011, 7 juin 2008
[58] Valleron AJ. (2000). The roles for modeling in epidemiology». C. R. Acad. Sci. III,323
(5) : 429-33.

115
Annexes

Annexe 1 : Synthèse sur les valeurs extrêmes


La modélisation statistique des valeurs extrêmes revêt généralement deux aspects :
l’analyse de la structure de dépendance conjointe (en dimension supérieure à 1) et l’ana-
lyse des distributions marginales univariées. Les deux dernières décennies ont vu le déve-
loppement de la modélisation statistique des valeurs extrêmes particulièrement univariées.
En témoignent les nombreux ouvrages tels que Resnick [38] Joe H. [10], Réiss et Thomas
[6], Kotz et Nadarajah [1], Beirlant et al. [42] et beaucoup de revues.

Lorsque les observations sont unidimensionnelles, la loi des valeurs extrêmes est com-
plètement définie par trois paramétres réels. Les résultats univariés sont plus complets et
sont directement exploitables. Il faut distinguer principalement deux approches dans la
modélisation des extrêmes univariés : l’approche des maxima et l’approche de renouvelle-
ment ou de dépassement d’un seuil.

1. Lois des statistiques d’ordre


Soit X1 , ..., Xn une suite de n variables aléatoires réelles indépendantes et identique-
ment distribuées (i.i.d) de loi commune F. Dans les applications les (Xi ), i ∈ {1, ..., n}
représentent généralement les valeurs d’un processus mesurées à intervalles de temps régu-
liers ; par exemple les relevées journalières de la vitesse du vent sur un site météorologique.
On range ces variables par "ordre croissant de grandeur". Pour cela, on définit la statistique
d’ordre i, notée Xi:n , telle que

X1:n ≤ ... ≤ Xi−1:n ≤ Xi:n ≤ Xi+1:n ≤ ... ≤ Xn−1:n ≤ Xn:n

Deux statistiques d’ordre sont particulièrement intéressantes dans l’étude des valeurs
extrêmes. Il s’agit de la plus grande statistique d’ordre

Mn = Xn:n = max (X1 , ..., Xn ) ; la statistique du maximum

et de la plus petite statistique d’ordre

Wn = X1:n = min (X1 , .., Xn ) ; la statistique du minimum.

L’écart D = Mn − Wn est la déviation extrême. On vérifie d’autre part la relation de


dualité suivante
min (X1 , .., Xn ) = − max (−X1 , ..., −Xn ) (3.5.1)
Cette relation (1.4) permet de transférer les résultats d’une statistique extrême à
l’autre. Par conséquent, dans toute la suite, on pourra se limiter à des caractérisations du

116
maximum.
Remarque 1.1 Par construction, les statistiques d’ordre ne sont pas indépendantes
même si les variables Xi sont i.i.d.

A partir de la distribution commune F des n variables Xi , le résultat suivant donne la


loi de la statistique d’ordre Xi:n .
Proposition 3.5.1. [6]
La fonction de répartitionFi:n de Xi:n est donnée pour tout x∈ R, par :
n
Cni [F (x)]i [1 − F (x)]n−i .
X
Fi:n (x) = P (Xi:n ≤ x) =
i=1

Et la densité fi:n de Xi:n est liée à la densité commune f des Xi par :


n!
fi:n (x) = [F (x)]i−1 [1 − F (x)]n−i f (x) .
(i − 1)! (n − i)!

Les lois des statistiques extrêmes Mn et Wn s’en déduisent aisément, x ∈ R par :

FMn (x) = [F (x)]n , la loi du maximum


FWn (x) = 1 − [1 − F (x)]n , la loi du minimum.

Remarquons que les expressions ci-dessus de FMn et FWn peuvent s’obtenir très faci-
lement en considérant d’autres relations 2 .
En considérant quelques exemples lorsque la fonction F est la loi normale standard,
les figures suivantes montrent comment évolue la statistique d’ordre du maximum lorsque
n’évolue.

2. Loi extrême unidimensionnelle


L’étude des lois des valeurs extrêmes univariées est basée sur une approche parallèle
à celle du théorème central limite, qui est le fondement de la statistique inférentielle. Ce
théorème établit que pour une suite de variables aléatoires réelles i.i.d {Xn , n ≥ 0}, de
variance σ 2 et d’espérance mathématique µ finies, alors
Sn − nµ loi
√ −→ N (0, 1) ;
σ n n−→+∞
ou en termes de fonction de répartition :

" ! #
X̄n − E (X)
lim P n ≤ x = Φ (x) ;
n−→+∞ σX
2. En effet, si X1 , ..., Xn est une suite de n variables aléatoires réelles i.i.d, on vérifie aisément les
relations suivantes :
n
{Mn ≤ x} ⇐⇒ {max (X1 , ..., Xn ) ≤ x} ⇐⇒ ∩ {Xi ≤ x}
i=1
n
{Wn ≥ x} ⇐⇒ {min (X1 , ..., Xn ) ≥ x} ⇐⇒ ∩ {Xi ≥ x} .
i=1

117
où Φ est la fonction de répartition de la loi normale standard
P N (0, 1) et X̄n , la
Xi
1≤ i ≤ n
variable d’échantillonnage de la moyenne définie par X̄n = n
.
Parallèlement au théorème central limite, on peut se poser la question naturelle sui-
vante, pour la statistique du maximum : peut-on trouver des suites de normalisation
{σn > 0} et {µn ∈ R} et une loi non-dégénérée de distribution G telles que
Mn − µn loi
−→ G i.e lim P (Mn ≤ σn x + µn ) = G (x) (3.5.2)
σn n−→+∞ n−→+∞

Si la relation (3.5.2) est vérifiée, on dit que la variable correspondante est max-stable.

Définition 3.5.1. (Max-stabilité d’une distribution)


Une variable non-dégénérée X et sa fonction de distribution F sont dites max-stables s’il
loi
existe des suites de coefficients de normalisation {σn > 0} et {µn ∈ R} tels que Mn =
σn X + µn pour un échantillon de variables i.i.d (Xi ) ; i = 1, .., n.

Ce lemme intervient dans la démonstration du théorème de Fisher-Tippett.

Théorème 3.5.1. Théorème 1.1 (Fisher-Tippett) Soit (Xi , i ≥ 1) une suite de va-

riables aléatoires i.i.d. S’il existe des suites de normalisation {σn > 0} et {µn ∈ R} et
une distribution non-dégénérée G vérifiant la relation (3.5.2), alors G est de la forme
suivante :
x−µ
    
Gumbel, Λ(x) = exp − exp − ;x∈R 

σ



 (  −1/ξ ) 
x−µ
 


exp − 1 + ξ

,x > 0
 

Fréchet, Φξ (x) = 

σ

+



0  si x ≤ 0 
(3.5.3)
 1 
  
x−µ
  

ξ
  
exp − − ; x≤µ

 

Weibull, Ψξ (x) = 

σ

+
 

 

si x ≥ µ

1
 

où {µ ∈ R} , {σ > 0} et {ξ ∈ R} sont les paramètres de la variable X.

Une distribution de valeurs extrêmes est donc, à une translation et un changement


d’échelle prés, une distribution de Gumbel, Fréchet ou de Weibull.
La figure suivante présente les courbes des densités de trois lois extrêmes standard.

Remarque 3.5.1. Les trois types de distributions de valeurs extrêmes sont différents
d’un point de vue modélisation. Cependant, chacune peut s’obtenir par une transformation
fonctionnelle de l’autre. Plus précisément si X > 0 est une variable aléatoire, on vérifie
aisément les relations suivantes :
−1
X Φθ ⇐⇒ ln X θ Λ ⇐⇒ Ψθ . (3.5.4)
X
Dans le résultat suivant (voir [19]) fait le lien entre une loi extrême et une max-stable.
Les trois types extrêmes ont des comportements asymptotiques différents. En effet,
la densité de probabilité décroit exponentiellement pour la distribution de Gumbel et

118
polynomialement pour celle de Fréchet. Par conséquent, il n’est pas commode de travailler
avec les trois types en même temps dans la modélisation des phénomènes extrêmes. Pour
ce faire, Von Mises en 1954 et Jenkinson en 1955 proposent une famille paramétrique, la
distribution Généralisée des Valeurs Extrêmes (GVE), qui permet d’unifier les trois types
extrêmes d’après le résultat suivant (voir [10]).

Théorème 3.5.2. (Unification des trois types)


S’il existe des suites de constantes de normalisation {σn > 0 } et {µn ∈ R} et une dis-
tribution limite non dégénérée G vérifiant (1.6), alors G est de la forme
i− 1
 ( )
h 
x−µ ξ

exp − 1 + ξ si ξ 6= 0


σ

+
GV E (x) = Gµ,σ,ξ (x) =      (3.5.5)
x−µ

exp − exp − si ξ = 0


σ

+

où{µ ∈ R} , {σ > 0} et {ξ ∈ R} sont respectivement des paramètres de localisation,


d’échelle et forme de la variable.

Remarquons que les paramètres µ et σ sont en fait les limites des suites normalisantes
{σn > 0} et {µn ∈ R}. On vérifie aisément que la forme généralisée de la fonction densité
de probabilité correspondante est définie sur le même domaine, pour tout x ∈ R par
 
− 1+ξ  −1 
 
1 x−µ x−µ
   
ξ ξ

gµ,σ,ξ (x) = 1+ξ exp − 1 + ξ .
σ σ  σ 

Le paramètre de forme ξ ou indice des valeurs extrêmes donne, à travers ses différentes
valeurs possibles, une grande flexibilité à la distribution GVE, lui permettant ainsi de
décrire les trois types de comportements asymptotiques représentés par les distributions
extrêmes. En effet :
Si ξ = 0, alors Gµ,σ,0 (x) = Λ(x), loi de Gumbel

Si ξ > 0, alors Gµ,σ,ξ (x) = Φ 1 (x), loi de Fréchet


ξ

Si ξ < 0, alors Hµ,σ,ξ (x) = Ψ −1 (x) , loi de Weibull


ξ

Cette unification a beaucoup simplifié l’implémentation statistique des distributions


des valeurs extrêmes car une inférence effectuée sur le paramètre de forme ξ, les données
montrent elles-mêmes le type de comportement asymptotique le plus approprié, évitant
ainsi tout choix subjectif du modèle.
On range les données en blocs de maxima Mn,1 , Mn,2 , ..., Mn,m auxquels on ajuste la
distribution GVE.
Si dans beaucoup de problèmes traitant des données environnementales on utilise les
observations extrêmement grandes, certaines applications se basent plutôt sur les plus
petites valeurs.
Par exemple, la durée de vie d’un système peut être considérée comme la durée de vie
minimale d’un certain nombre n de composantes individuelles de durée de vie. Pour ces
applications, en utilisant la relation de dualité (1.4) le théorème suivant permet de définir
de façon analogue, une distribution GVE associée au minimum (voir [38]).

119
Figure 3.8 – Densité de la distribution des valeurs extrêmes et la fonction de répartition

Théorème 3.5.3. (Loi extrême du minimum)


S’il existe des suites de normalisation { σn > 0} et {µn ∈ R}et une distribution limite
non-dégénéréeG̃ telle que
Wn − µn
 
lim P ≤ x = G̃(x);
n−→+∞ σn

alors la distribution G̃est de la forme


− 1 
 
x − µ̃
 
ξ̃

G̃(x) = 1 − exp − 1 − ξ˜ où σ̃ > 0, µ̃, ξ˜ ∈ R
 σ̃ + 

Démonstration. La démonstration de ce théorème est longue et a été formulée plusieurs


fois. Une version plus moderne se trouve dans [19], proposition 0.3. Néanmoins, nous le
redémontrons ici mais suivant un autre raisonnement qui, d’une part, permet d’introduire
des quantités qui nous seront utiles par la suite dans l’estimation des paramètres, et d’autre
part, donne la forme générale des lois limites formulée plus loin par le théorème1.3.
Supposons qu’il existe une suite de normalisation {(σn , µn ) , n ≥ 1} telle que σn > 0
et la suite de terme σn−1 (Mn − µn ) converge en loi vers une loi limite G non constante.
Pour toute fonction g continue et bornée, on a
h  i
lim E g σn−1 (Mn − µn ) = E (g (G))
n−→+∞

Supposons par simplicité que la loi X1 possède la densité f > 0. Alors, la loi de Mn
possède la densité nF (x)n−1 f (x) d’après la proposition 1.1. On a donc
x − µn
h  i Z  
In = E g σn−1 (Mn − µn ) = g nF (x)n−1 f (x) dx
R σn
Comme f > 0, la fonction F est inversible et d’inverse connue. On pose pour t > 1
1
 
−1
U (t) = F 1− .
t

120
En particulier, on a
1 1
U (t) = x ⇐⇒ 1 − = F (x) ⇐⇒ P (X > x) = .
t t
On effectue le changement de variable
v n
 
F (x) = 1 − , i.e x = U .
n v
On obtient    
n
Z U v
− µn 
v
n−1
In = g  1− 1]0,n] (v) dv.
R σn n
v n−1
 
Remarquons que 1 − 1]0,n] (v) converge en croissant vers e−v 1{v>0} . Comme
n
par hypothèse In converge pour tout g, il est naturel, mais erroné à priori, de penser que
pour tout v > 0, la suite de terme
n
 
U − µn
Jn (v) = v
σn
converge.
  Supposons malgré tout que cette convergence ait lieu. On déduit en considérant
1
Jn − Jn (1) que pour tout w > 0,
w
U (wn) − U (n)
−→ h (w) .
σn n−→+∞

Comme la variable W est non triviale cela implique que la fonction h n’est pas égale à
une constante. Comme la fonction U est croissante, la fonction h est également croissante.
Supposons que plus généralement, on ait pour tout w > 0,

U (wx) − U (x)
−→ h (w) ,
σ (x) x→+∞

où σ (x) = σ[x] pour x ≥ 1, [x] désignant la partie entière de x. Soit w1 , w2 > 0, on a

U (w1 w2 x) − U (x) U (w1 w2 x) − U (xw1 ) σ (xw1 ) U (w1 x) − U (x)


= + .
σ (x) σ (w1 x) σ (x) σ (x)

σ (xw1 )
En faisant tendre x vers l’infini dans l’égalité ci-dessus, on obtient que converge
σ (xw1 )
pour tout w1 > 0. En notant l (w1 ) la limite, il vient que

h (w1 w2 ) = h (w2 ) l (w1 ) + h (w1 ) (3.5.6)

Par ailleurs, la fonction l est mesurable et localement bornée. Comme la fonction h


est croissante et non constante, on en déduit que l est strictement positive. De plus en
posant yw0 = x, on a pour w0 > 0

σ (xw) σ (yw0 w) σ (y) l (w0 w)


l (w) = lim = lim = .
x−→+∞ σ (x) y−→+∞ σ (y) σ (yw0 ) l (w0 )

121
Ainsi, pour tous w, w0 > 0, on a

l (w0 w) = l (w) l (w0 ) ,

où l est une fonction strictement positive mesurable localement bornée. Le lemme


précédent garantit qu’il existe ξ ∈ R tel que l (w) = wξ , et donc de (1.7) on a

h (w1 w2 ) = h (w2 ) w1ξ + h (w1 ) pour tous w1 , w2 > 0.

On peut alors distinguer les cas suivants :


• Si ξ = 0 on obtient l’équation fonctionnelle

h (w1 w2 ) = h (w2 ) + h (w1 ) .

Et donc h (w) = c log (w) , c > 0.


• Si ξ 6= 0, par symétrie , on a

h (w1 w2 ) = h (w2 ) w1ξ + h (w1 ) = h (w1 ) w2ξ + h (w2 ) .

En particulier, on a
   
h (w1 ) 1 − w2ξ = h (w2 ) 1 − w1ξ .

h (w)
Cela implique que h (w) = 0 si w = 1, et sinon ξ
est constant.
 1 − w
Par conséquent, on obtient h (w) = c wξ − 1 . À un changement d’échelle prés, on
peut choisir c = 1ξ et à une translation prés, on peut choisir U (n) = bn .
En définitive, il vient que

v −ξ − 1
  
n
U v
− µn 1
  

si ξ 6= 0
lim =h = ξ
n−→+∞ σn v 
− log (v) si ξ = 0

On peut maintenant calculer la limite de In = E [g (σn−1 (Mn − µn ))] . Il vient par le


théorème de la convergence dominée

v −ξ − 1 −v
Z ! Z
−1/ξ
 
lim In = g e 1{v>0} dv = g (y) 1{1+ξy>0} d e−(1+ξy) ,
n−→+∞ ξ

v −ξ − 1
où on a posé y = si ξ 6= 0 et y = log (v) si ξ = 0.
ξ
−1/ξ
Ainsi, la distribution de la loi limite est Hξ (x) = e−(1+ξx) . C’est la forme standard
de la distribution définie plus loin par la relation (1.10)

122
Annexe 2 : Éléments de files d’attentes
Une file d’attente ou queue est un regroupement d’individus attendant d’une manière
organisée quelque chose dans un service ou dans une administration. La file d’attente
résulte d’une demande supérieure à la capacité d’écoulement d’une offre (bien ou service).
La théorie des files d’attente est la sous-branche des probabilités qui étudie les solu-
tions optimales de gestions de files d’attente. En particulier, la file d’attente s’applique à
différentes situations :
• Trafic aérien : atterrissage et décollage des avions ;
• Télécommunications : gestion des appels entrants et sortant d’un standard ;
• Guichetière : SONABEL, ONEA, Clinique sanitaire, hôpital ;
• Informatique : Stockages des programmes informatiques avant leur traitement.
La famille des files d’attentes fait partie des processus stochastiques utilisés dans la
modélisation en épidémiologie, objet du présent travail. Aussi, avons-nous jugé nécessaire
d’ajouter des éléments de files d’attente avant d’en présenter les particularités des types
usuels en fonction de leurs classification.

I. Caractéristiques et classification des files d’attente


1. Caractéristiques du système des files d’attente
Plusieurs modèles ont été proposés pour analyser les files d’attente. Le succès d’une
telle analyse repose sur le modèle approprié. Généralement, la file d’attente est caractérisée
par les étapes suivantes : les arrivées, la durée du service, le nombre de serveurs, la capacité
du système, la discipline du service et la population totale.

1.1 Arrivée des clients


La suite stochastique des instants d’arrivées des clients. Les files d’attente résultent de
la variabilité dans le processus d’arrivées et de services. En effet, il y a file d’attente lorsque
le degré est élevé entre les intervalles des arrivées successives et les temps de services. Ces
variations peuvent être modélisées par des lois de probabilité. Dans les modèles classiques
des files d’attente :
• Le nombre d’arrivées pendant un intervalle de temps suit une loi de Poisson ;
• Le temps de service suit une loi exponentielle.

1.2 La durée du service


Considérons une file à serveur unique et notons Dn la variable aléatoire mesurant
l’instant de départ du niéme client du système et Yn , la variable aléatoire indépendantes et
identiquement distribuées, mesurant le temps de service du niéme client (temps séparant le
début et la fin du service). Un instant de départ correspond à une fin de service, mais ne
correspond pas forcément à un début de service. Il se peut en effet qu’un client qui quitte
la station laisse celle-ci vide. Le serveur est alors inoccupé jusqu’à l’arrivée du prochain
client.

123
La durée moyenne de service est notée 1/µ où µ est le taux de service.

La distribution du temps de service la plus simple à étudier est la distribution expo-


nentielle. Cependant, la propriété sans mémoire de la loi exponentielle fait que celle-ci
n’est généralement pas très réaliste pour modéliser les phénomènes réels. On est donc
souvent obligé de recourir à d’autres distributions de service.

1.3 Le nombre de serveurs


La capacité de service dépend de la capacité de chaque serveur et du nombre de
serveurs disponibles un serveur pour un client à la fois. Le système peut fonctionner à
serveur unique ou multiple.

Remarque 3.5.2. Si plusieurs serveurs travaillent en équipe constituent un seul serveur.


Par exemple une équipe de chirurgie, la fabrication de pièces dans une usine ou le service
dans certains restaurants.

1.4 La capacité du système


La capacité du système est le nombre maximum de clients présents dans la file ou
entrain de se faire servir. Elle peut être finie ou infinie. Soit K la capacité de la file
(incluant le ou les clients en service). Une file à capacité illimitée vérifie K = +∞.
Lorsque la capacité de la file est limitée et qu’un client arrive alors que cette dernière est
pleine, le client est perdu.

1.5 Discipline de service


C’est la discipline de la file d’attente ou ordre de traitement des clients. Dans beaucoup
de d’entreprises (banque, administration, cinéma, clinique, restaurants) c’est la règle FIFO
(First in first out) ce qui correspond à PAPS (premier arrivé premier servi). Cette règle
semble procurer aux clients un sentiment de justice même si elle semble pénaliser ceux
dont le temps de service est court.

Remarque 3.5.3. Cependant, il faut souligner que certains services ne se servent pas de
cette règle. C’est le cas, par exemple, dans les :
• Salles d’urgence des hôpitaux (où il existe trois niveaux d’intervention avec priorité
pour les cas graves) ;
• Usines : priorité pour les commandes urgentes ;
• Ordinateurs : par importances des paquets.

Le tableau 3.3 donne les disciplines classiques de files d’attente.

1.5 La population totale


La population constitue la source de clients potentiels. Elle est caractérisée par son
nombre d’élément (fini ou infini).

124
Différents sigles des disciplines Exemple
FIFO (First in First Out)
ou PAPS (premier arrivé, premier servi) Banques, restaurants, ...
LIFO (Last in First Out)
ou DAPS (dernier arrivé, premier servi) Les stocks et leurs valorisations.
SIRO (Service in Random Order)
ou Ordre aléatoire Réseau routier
PRI (Priority ordery) (par priorité) Hopital (urgences), usines
G.O (General Order)

Table 3.3 – sigles des files d’attente

2. Les mesures de performance


Le gestionnaire des files d’attente dispose de cinq outils ou indices pour évaluer la
performance du système.
• Le nombre moyen de clients dans la file ;
• Le temps moyen d’attente dans le système avant d’être servi ;
• Le taux d’utilisation du système (pourcentage de la capacité utilisée) ;
• Le coût associé au niveau du service ;
• La probabilité de découragement.

3. Classification des files d’attente


Pour décrire une file d’attente on utilise la notation de Kendall qui comprend cinq
symboles dans l’ordre A/B/s/N/K :
• A : loi ou distribution des inter-arrivées successives ;
• B : loi ou distribution de temps de service (durée) ;
• s (nombre) : nombre de serveurs (nombre de serveurs montés en parallèle) ;
• N (nombre) : capacité maximale du système (serveurs + files d’attente ou taille de la
file d’attente et la taille de la population source ). N est omis s’il est infini ;
• K : discipline de service par défaut FIFO ou PAPS).

Pour spécifier les distributions A et B on adopte la convention suivante :


• M : Distribution de Processus Markovien ou loi “sans mémoire” (arrivées poisson-
niennes, service exponentiel) ;
• D : loi déterministe ou uniforme (pas une variable aléatoire, une seule valeur admise) ;
• E(k) : loi “Erlang-k”ou distribution d’Erlang d’ordre k ;
• Hk : loi hyper exponentielle d’ordre k ;
• GI : loi générale, les variables successives étant supposées indépendantes ;
• G : loi générale, sans hypothèse d’indépendance.

125
Exemple 3.5.1. Quelques exemples classiques
• M/M/1 fait référence au modèle de base : arrivées poissonniennes, service exponentiel,
un seul serveur, Capacité infinie, ou file d’attente non bornée.
• M/D/2/9 indique des arrivées poissonnienne, deux services de durées constantes, un
nombre maximal de 7 personnes dans la file.

II. Synthèse des caractéristiques des types usuels


1. Étude de la file du type M/M/1
Les files d’attente de Markov (M/M/s) sont les plus simples à analyser à cause du
caractère markovien des arrivées et du service. Les résultats des processus stochastiques
usuels (du chapitre précédent) peuvent donc être appliqués. Dans une file du type M/M/1,
on se situe sous les hypothèses suivantes :
• Les arrivées suivent une loi de Poisson moyenne de λ, (λ > 0) par unité de temps ;
• Les temps de services suivent une loi exponentielle de taux µ, (µ > 0) par unité de
temps ;
• Il n’y a qu’un seul serveur ;
• La capacité de la file d’attente est infinie (nombre quelconque de clients).

1.1 La distribution des arrivées (modèles des naissances purs)


Dans une file du type M/M/1 la variable aléatoire N(t) représentant le nombre de
client qui arrivent au système entre les instants 0 et t vérifie les propriétés suivantes
i) X (0) = 0;



 λh + 0 (h) si j = n + 1





0 (h) si j ≥ n + 2




ii)Le taux moyen d’arrivée est λ i.e Pnj (t) = 



 1 − λh + 0 (h) si j = n.





0 si j < n

On obtient le système différentiel suivant (Équations avancées).

dPn (t)

(λt)n e−λt

= −λPn (t) + λPn−1 (t)

 
⇐⇒  Pn (t) = − ).
 
dt n!
dP0 (t)  i.e X (t)
= −λP0 (t) P (λt)



dt
Propriété 3.5.1. La distribution des arrivées d’une file du type M/M/1 est une loi de
(λt)n e−λt
Poisson de paramètre λt c’est à dire que : Pn (t) = − .
n!

126
1.2 La distribution des inter-arrivées
Soit T, la variable aléatoire représentant le temps qui s’écoule entre deux arrivées
consécutives. Les deux événements suivants sont équivalents

{ X (t) = 0} ⇐⇒ {T > t} donc P ( X (t) = 0) = P (T > t) .

Soient F(t) la fonction de répartition de T et f(t) la densité de T. On a :


P( X (t) = 0) = P (T(> t) = 1 − F (t) = e−λt =⇒ F (t) = 1 − e−λt .
λ exp(−λt si t > 0
Par suite f (t) = densité exponentielle de paramètre λ.
0 si t ≤ 0 .

Conclusion 3.5.1. Si X(t) Poisson (lambdat) ⇔ T exponentielle (λ) ou encore


{Arrivée P oisson(λt)} ⇔ Inter-arrivée Exponentielle (λ)}.

1.3 La distribution des départs (modèles de mort pure)


A un instant donné, on suppose qu’il y a N clients dans le système, donc Y(0) = 0 où
Y est la v.a représentant le nombre de nombre de départ avec un taux de départ de µ.
La probabilité de transition est donnée par :
≤n−2


 0 (h) si j
µh + o (h) si j =n−1


Pnj (t) =


 1 − µh + 0 (h) si j = n.
0 si j ≥n+1

On obtient le système différentiel suivant (Équations avancées).



−µPN (t) si n = N
dPn (t)


= −µPN (t) + µPn+1 (t) si 0 < n < N .
dt 

µP1 (t) si n = 0
(µt)N −m e−µt
Plus généralement, on a affaire à la loi de probabilité suivante : Pm (t) = ,
(N − m)!
pour m = 1, .., N et P0 (t) = 1 − lim∞
m=1 Pm

(µt)N −m e−µt

si 1 < m < N



(N − m)!

Pm (t) = (3.5.7)
(µt)N −j
lim∞ N −m


 1− m=1 e sim = 0.
(N − j)!

C0 est une loi de Poisson tronquée en N.

Propriété 3.5.2. Dans une file d’attente M/M/1 en régime permanent, les processus de
départ suivent une loi de Poisson tronquée en N (au lieu de ∞).

1.4 Distribution des temps de service (ou lois des inter-départ)


Soit V la variable aléatoire représentant le temps de service. Notons F (v) la fonction de
répartition de V et f (v) la fonction densité de probabilité. Les deux événements suivants
sont équivalents

{ Y (v) = N } ⇐⇒ {V > v} donc P ( Y (v) = N ) = P (V > v)

127
En fait l’événement {V > v} signifie qu’il n’y a pas de départ dans l’intervalle [0, v]
−µv
avec PN (V > v) = e (
−µv −µv µe−µv si v > 0
Par suite, 1 − F (v) = e =⇒ F (v) = 1 − e et donc f (v) = ,
0 sinon
densité exponentielle de paramètre µ.

Conclusion 3.5.2. Si Y (t) Ptronc (µt) ⇐⇒ V exponentielle(µ) ou encore


{Départ Poisson tronqué(λt)} ⇐⇒ {Service Exponentielle(µ)}.

1.5 Distribution des temps d’attente dans le système (TS )


Propriété 3.5.3. Dans une file d’attente M/M/1en régime permanent, le temps moyen
1
d’attente dans le système est E(Ts ) = .
µ−λ

2. Étude de la file du type M/M/1/N


Dans une file du type M/M/1/N, on se situe sous les hypothèses suivantes :
• K est la capacité de la file, soit en attente, soit en service ;
• Quand un client arrive alors qu’il y a déjà K clients présents dans le système, il est
perdu ;
• La file est stable sans conditions.

2.1 Distribution stationnaire


A un instant donné, on suppose qu’il y a N clients dans le système, la probabilité de
transition est donnée par :


 λ (h) +o (h) si j =n+1
1 − (λ + µ)h +o (h) si j=n


Pnj (h) =


 µh + 0 (h) +o (h) si j =n−1
o (h) si non

On obtient le système différentiel suivant (Équations avancées).



−λP0 t+ µP1 (t) si n = 0
dPn (t)


= − (λ + µ) Pn (t) + λPn−1 (t) + µPn+1 (t) si 0 < n < N
dt
−µPN (t) + λPN −1 (t) + µPN +1


si N = n .
(
ρn P0 si n = 0, 1, ..., N
La résolution du système conduit à Pn =
0 sinon .
Par ailleurs en utilisant l’équation de normalité, limkn=0 Pn = 1. il vient alors que
1−ρ
P0 limN n
n=0 ρ = 1 =⇒ P0 = et par suite.
1 − ρN +1
n

 (1 − ρ) ρ

si n = 0, 1, ..., N
Pn = 1 − ρ N +1
0 sinon

En particulier, lorsque N tends vers l’infini, on trouve le résultat de la fille M/M/1.

128
2.2 Longueur de la file
Il s’agit du nombre de personnes dans la queue. Le nombre moyen de clients noté
E(Ls ).
Proposition 3.5.2.
h En régime permanent, i la longueur moyenne du système est donnée
N N +1
ρ 1 − (N + 1) ρ + N ρ
par E(Ls ) = où ρ est l’intensité du trafic.
(ρ − 1) (1 − ρN +1 )
Remarque 3.5.4. .
1) P0 est la probabilité que le système soit vide ;
2) PN la probabilité que le système soit pleine ;
3) 1 − PN : la probabilité que le système ne soit pas pleine : TS = T f + V E (NS ) =
E (Nf ) + λef f =⇒ E (Nf ) = µλ(1−Pµ
N)
.

2.3 Autres paramètres de performance


a) Le débit X
Le service s’effectue avec un taux dans chaque état où le système contient au moins
un client.
k (1 − ρ) µ
X = Pr oba {file non vide} µ = lim Pn µ = [1 − P0 ] µ = .
n=1 1 − ρN +1

b) Le taux d’utilisation du serveur


Le taux d’utilisation est la probabilité pour que le serveur de la file soit occupé :
1 − ρN
U = limN
n=1 p (n) = [1 − p (0)] = ρ .
1 − ρN +1

Mesures de performance h
Équations i
ρ 1 − (N + 1) ρN + N ρN +1
Nombre moyen de clients système E (Ls ) =
(ρ − 1) (1 − ρN +1 )
λ2
Nombre moyen de clients E (Lq ) = L̄q =
µ (µ − λ)
ρ 1 − (N + 1) ρ + N ρN +1
N
1 − ρN +1
Temps moyen d’attente système E (Ts ) = × ×
ρ−1 1 − ρN +1 µ (ρ − ρN +1 )
λ
Temps moyen d’attente file E (Tq ) =
µ (µ − λ)
Probabilité système soit vide P0 = 1 − ρ
Probabilité n clients système Pn = ρn P0 = (1 − ρ) ρn

Table 3.4 – Tableau des paramètres de performances

3. Quelques comparaisons
3.1 Tableau comparatif des files M/M/1 et M/M/c
Le tableau suivant permet de comparer les deux systèmes :

129
Mesures de performance File M/M/1 File M/M/c !
ρ λ Pa
Nombre moyen de clients système E (Ls ) = = E (Ls ) = ρ 1 +
1−ρ µ−λ c−ρ
λ2 ρP a
Nombre moyen de clients file E (Lq ) = E (Lq ) =
µ (µ − λ) c−ρ
Nombre moyen au guichet ρ ρ !
1 1 1 1 Pa
Temps moyen d’attente système E (Ts ) = = E (Ts ) = 1+
µ1−ρ 1−λ µ c−ρ
λ Pa
Temps moyen d’attente file E (Tq ) = E (Tq ) =
µ (µ − λ) µ (c − ρ)
1
Probabilité système vide P0 = 1 − ρ P0 = ρ n
ρc
Pc−1
n=0
+  
n! c! 1 − ρ
c
Probabilité n clients dans système Pn = ρn P0 = (1 − ρ) ρn Pn = ρn P0 = (1 − ρ) ρn
Probabilité d’attente ou P0 ρ c
Pa = ρ Pa =
Taux d’utilisation du serveur (c − 1)! (c − ρ)

Table 3.5 – Tableau comparatif des files M/M/1 et M/M/c

3.2 Tableau comparatif entre M/M/C et M/M/C/N


Le tableau suivant établit un parallèle entre les paramètres de performance des files
des types M/M/C et M/M/C/N.

File M/M/C M/M/C/N


 −1  ρ N −c+1 −1
n n c ) 1−(
Pc−1 ρ ρc Pc−1 ρ ρ c
Lois (à vide) P0 =  + P0 =  n=0 + ∗
 
n=0
n! ρ  n! c! ρ 
c!(1− ) 1−
c c
ρ n P0
 n
ρ P0


 si 0 ≤ n < c 
 si 0 ≤ n < c
n! n!
 
Lois (Probabilité

 

Pn = Pn =
(stationnaire) 
 ρ n P0

 ρ n P0
n≥c si c ≤ n ≤ N
 

 si 

cn−c c! cn−c c!
P0 (ρ)c+1
E(Nf ) = ∗
ρc+1 1 (c − 1)!(c − (ρ)2
Moyennes file E(Nf ) = × P0
(c + 1)! (c − ρ)2 
ρ ρ ρ

1 − ( )N −c − (N − c)( )N −c (1 − )
c c c
1 − PN
Moy. systéme E(Ns ) = E(Ns ) = E(Nf ) + µ
µ

Table 3.6 – Tableau de liens entre les paramètres de performance des files M/M/C et
M/M/C/N.

Annexe 3 : Codes R
Dans cette section, nous présentons quelques codes de nos images.

130
################################
#---------------------------------------
#Fonction de covariances
#---------------------------------------
#Famille des Covariances
#-----------------------------
library(SpatialExtremes)
r <- seq(0, 7, 0.1)
covariance(nugget=1,sill=1,range=3,smooth=1, cov.mod="whitmat",col=1,ylim=c(0, 1))
covariance(nugget=1,sill=1,range=3,smooth=1,cov.mod="powexp",add=T,col =4)
lines(r, expcov(r, d=0.7), col=5)
lines(r, gaucov(r,d=1,.3), col=6)
legend("topright",c("Whittle-Matern","Puissance","Exponentielle","Gauss"),lty = 1:4,
col = 1:4, inset=.05)

#---------------------------------------
#Variogramme
#-----------------------------
#1.Variogramme empirique
#------------------------------------
vario.c = variog(geodata, op="cloud")
plot(vario.c, main = "Nuée variographique",pch=’+’)

vario.b = variog(geodata)
plot(vario.b, main = "Variogramme empirique")

#---------------------------------------
#Théorie des valeurs extrêmes
#---------------------------------------
#Fonction de répartition et densité de probabilité
#-----------------------------
library(evd)
par(mfrow=c(1,2))
curve(dgev(x, loc=0, scale=1 ,shape=0), xlim=c(-7,7),ylim=c(0,1),
main="Densité de probabilité",xlab="Observations",yla="")
curve(dgev(x, loc=0, scale=1, shape=1 ),add=T, col= "red")
curve(dgev(x, loc=0, scale=1, shape=-1 ),add=T, col="green")
legend("topleft",c("Gumbel","Fréchet","Weibull"),col=c(1,"red","green"),lty=1)
curve(pgev(x, loc=0, scale=1 ,shape=0), xlim=c(-7,7),ylim=c(0,1),
main="Fonction de répartition",xlab="Observations",yla="")
curve(pgev(x, loc=0, scale=1, shape=1 ),add=T, col="red")
curve(pgev(x, loc=0, scale=1, shape=-1 ),add=T, col="green")
legend("topleft",c("Gumbel","Fréchet","Weibull"),col=c(1,"red","green"),lty=1)

131
UNIVERSITE JOSEPH KI-ZERBO
---------------
École Doctorale
Sciences et Technologie
---------------
Laboratoire d’Analyse Numérique,
d’Informatique et de BIOmathématiques
L.A.N.I.BIO
N° d’ordre ...................

Thèse Présentée
Par Fabrice OUOBA
Pour l’obtention du grade de

Docteur de l’Université Joseph KI-ZERBO


Option : Sciences Appliquées
Spécialité : Statistique et Modélisation Stochastique

TITRE DE LA THÈSE
Contribution à la modélisation géostatistique avec des
applications minières et modèles SEIRS.
Soutenue publiquement le 27 novembre 2020

Président : M. Gane Samb LO, Professeur Titulaire, Université Gaston Berger, Sénégal
(Rapporteur Externe) ;

Membres : - M. Blaise SOME, Professeur Titulaire, Université Joseph KI-ZERBO, Burkina


Faso (Rapporteur Interne) ;
- M. Bisso SALEY, Professeur Titulaire, Université Abdou Moumini, Niger
(Rapporteur externe) ;
- M. Somdouda SAWADOGO, Professeur Titulaire, Institut Des Sciences, Burkina
Faso (Examinateur) ;
- M. Diakarya BARRO, Professeur Titulaire, Université Thomas Sankara, Burkina
Faso
(Directeur de thèse).
1
Table des matières

Liste des enseignants i

Introduction générale 1

1 Généralités sur la géostatistique et le cadre minier 7


1.1 Présentation de la géostatistique . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.1 Méthodes de la géostatistique . . . . . . . . . . . . . . . . . . . . . 8
1.1.2 Géostatistique et analyse spatiale . . . . . . . . . . . . . . . . . . . 9
1.2 Quelques outils techniques de la géostatistique . . . . . . . . . . . . . . . . 11
1.2.1 Notion de Champs aléatoires . . . . . . . . . . . . . . . . . . . . . . 11
1.2.2 Modèles de variogrammes et ses dérivés . . . . . . . . . . . . . . . . 17
1.2.3 Modèles d’ajustement du variogramme . . . . . . . . . . . . . . . . 21
1.3 Cadre minier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.3.1 Contexte et justification . . . . . . . . . . . . . . . . . . . . . . . . 29
1.3.2 Quelques concepts de base . . . . . . . . . . . . . . . . . . . . . . . 30
1.3.3 Industrie minière et Ressources minérales . . . . . . . . . . . . . . . 32
1.3.4 Éléments de classification des ressources . . . . . . . . . . . . . . . 34

2 Analyse géostatistique par les copules multivariées 36


2.1 Copule dans la modélisation stochastique . . . . . . . . . . . . . . . . . . 36
2.1.1 Rappels sur les fonctions de répartitions . . . . . . . . . . . . . . . 37
2.1.2 Présentation des copules . . . . . . . . . . . . . . . . . . . . . . . . 39
2.1.3 Copules et variables aléatoires . . . . . . . . . . . . . . . . . . . . . 41
2.1.4 Propriétés particulières des copules . . . . . . . . . . . . . . . . . . 43
2.1.5 Quelques familles usuelles de copules . . . . . . . . . . . . . . . . . 45
2.2 Modélisation des outils géostatistiques par les copules . . . . . . . . . . . . 57
2.2.1 Modélisation des madogrammes par les copules . . . . . . . . . . . 57
2.2.2 Modélisation de covariogramme à partir des copules . . . . . . . . . 61
2.2.3 Modélisation du corrélogramme par les copules . . . . . . . . . . . . 63
2.2.4 Cadre stationnaire pour la modélisation de la covariance . . . . . . 64
2.2.5 Covariogramme dans un cadre de la stationnarité intrinsèque . . . . 66
2.2.6 Principales familles de modèles de variogrammes . . . . . . . . . . . 68

3 Modèles géostatistiques et Estimation 71


3.1 Rappels sur les méthodes classiques d’estimation . . . . . . . . . . . . . . . 72
3.1.1 Méthode du maximum de vraisemblance . . . . . . . . . . . . . . . 72
3.1.2 Méthode de l’inférence marginale . . . . . . . . . . . . . . . . . . . 73
3.1.3 Méthode de vraisemblance canonique . . . . . . . . . . . . . . . . . 74
3.1.4 Méthode de moment . . . . . . . . . . . . . . . . . . . . . . . . . . 74

i
TABLE DES MATIÈRES

3.2 Éléments d’estimation géostatistique . . . . . . . . . . . . . . . . . . . . . 75


3.2.1 Notion d’estimation géostatistique . . . . . . . . . . . . . . . . . . . 75
3.2.2 Estimation du variogramme et ses dérivés . . . . . . . . . . . . . . 77
3.2.3 Estimation du covariogramme et du corrélogramme . . . . . . . . . 78
3.2.4 Estimation du coefficient extrémal . . . . . . . . . . . . . . . . . . . 79
3.2.5 La vraisemblance composite . . . . . . . . . . . . . . . . . . . . . . 81
3.2.6 Validation croisée . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
3.2.7 Estimation géostatistique ou krigeage . . . . . . . . . . . . . . . . 85
3.3 Applications à l’estimation dans le domaine minier . . . . . . . . . . . . . 90
3.3.1 Cadres géographique et géologique . . . . . . . . . . . . . . . . . . 91
3.3.2 Représentation des données et analyse descriptive . . . . . . . . . . 94
3.3.3 Estimation géostatistique . . . . . . . . . . . . . . . . . . . . . . . 96

4 Approche stochastique du modèle SEIRS 109


4.1 Éléments de rappels sur les processus stochastiques . . . . . . . . . . . . . 109
4.1.1 Présentation des processus stochastiques . . . . . . . . . . . . . . . 109
4.1.2 Quelques familles usuelles de processus stochastiques . . . . . . . . 111
4.2 Propriétés stochastiques du modèle SEIRS . . . . . . . . . . . . . . . . . . 114
4.2.1 Présentation du modèle SEIRS . . . . . . . . . . . . . . . . . . . . 115
4.2.2 Probabilités de naissance et de mortalité . . . . . . . . . . . . . . . 117
4.2.3 Probabilités de migration et de transition du modèle . . . . . . . . 119
4.2.4 Propriétés stochastiques et linéaires de la transition . . . . . . . . . 121
4.3 Probabilité d’extinction du modèle SEIRS . . . . . . . . . . . . . . . . . . 127
4.3.1 Nouvelle approche stochastique du modèle SEIRS . . . . . . . . . . 127
4.3.2 Taux de reproduction de base R0 . . . . . . . . . . . . . . . . . . . 128
4.3.3 Probabilité d’extinction de la maladie . . . . . . . . . . . . . . . . . 132

Conclusion générale 139

Annexe 141
Annexe 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
Annexe 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
Annexe 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147

ii
Table des figures

1 Mine d’or en Afrique du sud . . . . . . . . . . . . . . . . . . . . . . . . . . 2

1.1 Forme du semi-variogramme. Source :Esri France . . . . . . . . . . . . . . 19


1.2 Modèle exponentiel de portée a et de palier C . . . . . . . . . . . . . . . . 23
1.3 Modèle cubique de portée a et de palier C . . . . . . . . . . . . . . . . . . 23
1.4 Modèles de transition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.5 Modèles de transition à effet de trou de palier C . . . . . . . . . . . . . . . 26
1.6 Modèle stable généralisé . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.7 Modèle puissance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.8 Modèle ponctuel et régularisé . . . . . . . . . . . . . . . . . . . . . . . . . 29

2.1 Représentation des copules dans le cas bidimensionnel. . . . . . . . . . . . 41


2.2 Représentation de la copule minimale . . . . . . . . . . . . . . . . . . . . . 45
2.3 Représentation de la copule maximale . . . . . . . . . . . . . . . . . . . . . 46
2.4 Représentation des copules Archimédiennes . . . . . . . . . . . . . . . . . . 51
2.5 Représentation graphique d’une distribution jointe de copule . . . . . . . . 60
2.6 Représentation de quelques modèles de variogramme . . . . . . . . . . . . 63
2.7 Représentation du coefficient extrémal . . . . . . . . . . . . . . . . . . . . 70

3.1 Schéma de calcul du semi-variogramme . . . . . . . . . . . . . . . . . . . . 78


3.2 Représentation d’un domaine d’échantillonnage. . . . . . . . . . . . . . . . 88
3.3 Carte de jura à gauche et Carte de la France à droite . . . . . . . . . . . . 91
3.4 Image du cobalt(source : Futura Sciences . . . . . . . . . . . . . . . . . . . 93
3.5 Représentation du domaine d’échantillonnage . . . . . . . . . . . . . . . . 94
3.6 Histogrammes des variables de la base. . . . . . . . . . . . . . . . . . . . . 95
3.7 Matrice de corrélation linéaire . . . . . . . . . . . . . . . . . . . . . . . . . 96
3.8 Résumé des données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
3.9 Représentation de la variable cobalt(Co) . . . . . . . . . . . . . . . . . . . 97
3.10 Représentation de la nuée variographique . . . . . . . . . . . . . . . . . . . 98
3.11 Tableau résumant les valeurs du variogramme expérimental . . . . . . . . . 99
3.12 Représentation du variogramme expérimental du cobalt . . . . . . . . . . . 100
3.13 Le variogramme expérimental ajusté par le modèle Sphérique . . . . . . . . 101
3.14 Variogramme expérimental ajusté par le modèle Exponentiel . . . . . . . . 101
3.15 Variogramme expérimental ajusté par le modèle de Matern . . . . . . . . . 102
3.16 Résultat de la validation croisée . . . . . . . . . . . . . . . . . . . . . . . . 104
3.17 Krigeage des concentrations de cobalt . . . . . . . . . . . . . . . . . . . . . 105
3.18 Représentation du krigeage avec contour . . . . . . . . . . . . . . . . . . . 107
3.19 Représentation de la variance des erreurs de concentration de Co . . . . . . 108

4.1 Cycle de propagation du modèle épidémique SEIRS . . . . . . . . . . . . . 116

iii
TABLE DES FIGURES

4.2 Cycle de propagation du modèle épidémique SEIRS . . . . . . . . . . . . . 128


4.3 Simulation de la solution du modèle et du taux de reproduction de base. . 131
4.4 Simulation de l’évolution du processus, solution (4.44) du problème (4.46)
au cours du temps. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137

iv
Liste des tableaux

2.1 Quelques familles de générateurs archimédiens . . . . . . . . . . . . . . . . 51

3.1 Les paramètres des modèles de variogrammes théoriques . . . . . . . . . . 103


3.2 Résultat de la validation croisée. . . . . . . . . . . . . . . . . . . . . . . . . 103
3.3 Tableau de prédiction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106

4.1 Tableau récapitulatif des processus et leurs états . . . . . . . . . . . . . . . 110


4.2 L’ensemble des paramètres du modèle . . . . . . . . . . . . . . . . . . . . . 128

v
Liste des enseignants

Les professeurs ayant contribué significativement à l’essor du laboratoire Lanibio la-


bellisé en centre régional d’excellence de l’UEMOA :
1. Pr NACOULIMA Ousseynou, Université des Antilles et de la Guyane, FRANCE.
2. Pr Blaise SOME, Université Joseph Ki-Zerbo, BURKINA FASO.
3. Pr Jacques TEGHEM, Université de MONS, BELGIQUE.
4. Pr Longin SOME, Université Joseph Ki-zerbo, BURKINA FASO.
5. Pr Simplice DOSSOU-GBÉTÉ, Université de Pau et des Pays de l’Adour, FRANCE.
6. Pr Gabriel BISSANGA, Université Marien N’Gouabi, CONGO-BRAZZAVILLE.
7. Pr Benjamin MAMPASSI, Université Cheik Anta Diop de Dakar, SENEGAL.
8. Pr MENSAH Patrick, Institut Polytechnique Felix Houphouet Boigny, Côte d’Ivoire.
9. Pr KOKOU Tcharie, Université de LOME, TOGO.
10. Pr Gane Samb LO,, Université Gaston Berger, SENEGAL.
11. Pr Berthold ULUNGU, Université de Kinshassa, RDC.
12. Pr Clovis NITIEMA, Université Thomas SANKARA, BURKINA FASO.
13. Pr Saley BISSO, Université Abou Moumouni, NIGER.
14. Pr BARRO Diakarya, Université Thomas SANKARA, BURKINA FASO.
15. Pr SO Ousseni, Institut Des Sciences, BURKINA FASO.
16. Pr Somdouda SAWADOGO, Institut Des Sciences, BURKINA FASO.
17. Pr KABRE/BARRO Géneviève, Institut Des Sciences, BUKINA FASO.
18. Pr N’GARASTA Garkodje, Université de N’DJAMENA, TCHAD.
19. Pr ABBO Bakary, Université de N’DJAMENA, TCHAD.

Fait à Ouagadoudougou, le 19/09/2020

Le Directeur du LANIBIO

Professeur Blaise SOME,


Chevalier de l’ordre des Palmes Académiques
Médaille d’honneur des collectivités territoriales,
Membre de l’Académie Nationale des Sciences, des Arts et des Lettres du Burkina Faso.

i
Dédicace

A
Ma très chère mère Marie Ouango.

ii
Remerciements

C’est un réel plaisir pour moi de pouvoir remercier ici les personnes qui m’ont soutenu
et guidé, de près ou de loin, tout au long des travaux de la présente thèse.

En premier lieu, je désire exprimer ma gratitude à mon directeur de recherche, le


professeur Diakarya BARRO de l’Université Thomas Sankara (Burkina Faso), qui a bien
voulu accepter de diriger cet travail. Je voudrais lui témoigner ma profonde reconnais-
sance aussi pour sa disponibilité et surtout ses conseils. Que le tout puissant lui accorde
les grâces nécessaires d’encadrer autant que possible mes jeunes frères.

Je remercie très sincèrement le professeur Blaise SOME, directeur du laboratoire LA-


NIBIO, non seulement pour m’avoir accepté dans son laboratoire pour mes travaux de
Master et de thèse, mais aussi et surtout ses conseils. Je le remercie pour tout ce qu’il fait
pour la promotion de la recherche en mathématiques appliquées à l’Université Joseph Ki
Zerbo (JKZ) en particulier et en Afrique en général.

Messieurs les professeurs Gane Samb LO, Pierre Clovis S. NITIEMA et Bisso SA-
LEY ont accepté d’être rapporteurs de cette thèse. Je les remercie pour la disponibilité et
le soin avec lequel ils ont examiné ce travail et pour l’intérêt qu’ils lui ont porté. La qualité
de leurs amendements m’a permis d’améliorer très significativement la valeur scientifique
de ce travail.

Je remercie également les professeurs Blaise SOME, Somdouda SAWADOGO, Sa-


ley Bisso et Diakarya BARRO, pour avoir accepté honorer de leur présence en siégeant
dans le jury et Gane Samb LO pour avoir accepté de présider ledit jury.

Je voudrais également signifier ma gratitude aux enseignants du master MAIME et


du laboratoire, mes amis qui ont beaucoup contribué à l’aboutissement de ce travail. Que
chacun retrouve à travers ces lignes, l’expression de ma reconnaissance.

Je n’oublie pas mon frère jumeau de thèse, Hay Yoba Talkibing, pour ses coups de
main dans l’utilisation du logiciel R et aussi pour ses conseils.

Je ne saurai terminer sans remercier très sincèrement ma famille : mon papa Grégoire
OUOBA et ma maman Marie Jeanne OUANGO, mes amis, et plus particulièrement mon
frère de sang Francis OUOBA et ma conjointe Mme OUOBA née OUEDRAOGO Fadilat,
qui ont su m’encourager et me soutenir tout au long de ce projet.

iii
Résumé et Abstract

Résumé
La problématique de l’utilisation de la géostatistique dans la modélisation des phénomènes
spatiaux est devenue incontournable aujourd’hui dans de nombreux domaines d’applica-
tions. Cette approche d’analyse statistique est d’autant plus incontournable et plus im-
portante que les nouvelles techniques et technologies d’estimation permettent une réelle
révolution dans les domaines tels que le secteur minier. Cette thèse propose une contri-
bution à la modélisation géostatistique avec des applications à des données minières et
une introduction de l’approche stochastique aux modèles SEIRS. C’est ainsi que nous
avons d’abord rappelé les outils géostatistique de base ainsi que les notions fondamen-
tales du cadre minier. Nous avons ensuite utilisé les copules statistiques pour modéliser
la dépendance spatiale et l’estimation des outils techniques d’analyse spatiale tout en
proposant une application de ces résultats à un jeu de donné minier pour la prédiction
de la concentration du cobalt d’une région donnée. Enfin, nous proposons une approche
stochastique du modèle SEIRS en utilisant des processus de naissance et de mort pour
d’écrire la propagation des maladies infectieuses dans un environnement aléatoire et sa
probabilité d’extinction.

Mots-clés : Modélisation géostatitique, copules, variogramme, corrélogramme, ma-


dogramme, krigeage, SEIRS.

Abstract
The issue of using geostatistics in the modeling of spatial phenomena has become es-
sential today in many fields of application. This approach to statistical analysis is all the
more essential and more important as the new techniques and technologies of estimation

iv
LISTE DES TABLEAUX

allow a real revolution in fields such as the mining framework. This thesis proposes a
contribution to geostatistical modeling with applications to mining data and the SEIRS
model. This is how we first recalled the basic geostatistical tools as well as the funda-
mental notions of the mining framework. We then used the statistical copulas to model
the spatial dependence and the estimation of technical spatial analysis tools while propo-
sing an application of these results to a mining data set for the prediction of the cobalt
concentration of a given region. Finally, we propose a stochastic version of the SEIRS
model using birth and death processes to write down the spread of infectious diseases in
a random environment and its probability of extinction.

Keywords : Geostatistical modeling, copulas, variogram, correlogram, madogram,


kriging.

v
Sigles, Abréviations et Notations

F : fonction de répartition.
VR : variation régulière.
I : intervalle unitaire [0,1].
L : fonction à variation lente.
al. : et autres.
etc : et cetera.
F : fonction de survie associée à la fonction de répartition F.
E(X) : espérance mathématique de la variable aléatoire X.
V(X) : variance de la variable aléatoire X.
|.| : valeur absolue.
R : l’ensemble des nombres réels.
xF : point terminal droit de la fonction de répartition F.
xF : point terminal gauche de F.
Fn : fonction de répartition empirique.
d : convergence en distribution.
POT : peaks-Over-Threshold.
MDA : max-domaine d’attraction.
GPD : generalyzed Pareto distribution (distribution de Pareto généralisée).
min(A) : minimum de l’ensemble A.
max(A) : maximum de l’ensemble A.
p.s : presque sûrement.
v.a : variable aléatoire.
RV (α, a) : ensemble des fonctions à variation régulière de coefficient α au voisinage de a.
i.i.d : indépendantes et identiquement distribués.
GEVD : generalized extreme values distribution (distribution des valeurs
SEIRS : saintes, exposées, infectées, guéries, saintes.
extrêmes généralisée ).
EMV : estimateur du maximum de vraisemblance
Cov(X,Y) : covariance entre les v.a X et Y.
(Ω, A, P ) : espace de probabilité d’espace univers Ω, d’algèbre A et de loi de probabilité P.
c-à-d : c’est-à-dire.
L(.,x) : log-vraisemblance conditionnelle aux données observées x.
F.A : fonction aléatoire.
* : opérateur d’estimation par krigeage ; ainsi Z* est l’estimateur de krigeage de Z.
λi : le poids affecté par le krigeage à la valeur en xi .
µ : le paramètre de Lagrange utilisé dans le krigeage.

vi
LISTE DES TABLEAUX

γ(h) : la valeur du variogramme γ pour une distance h entre x et x + h.

C(h) : la valeur de la covariance C pour une distance h.


fl , l = 1. . . : les fonctions de base dans le cas du krigeage universel, f0 = 1.
fli : la valeur de fl au point xi .

vii
Introduction générale

Le concept de Géostatistique a fait son apparition en milieu du 20e siècle, dans un


contexte très particulier de l’estimation des reserves de gisements. En effet, dans les années
1950, un professeur de l’Université du Witwatersrand en Afrique du Sud, Daniel G. Krige
[28] s’est aperçu que la variabilité de la teneur du minerai d’or était liée à la taille, c’est à
dire au support sur laquelle celle-ci était calculée. En particulier, la variabilité des teneurs
sur panneau est ainsi beaucoup plus faible que la variabilité des teneurs sur carottes. Par
la suite un ingénieur français du Corps des Mines, Georges Matheron [71] y consacra sa vie
et fonda le centre géostatistiques de l’École des mines de Paris à Fontainebleau. Dans ce
même contexte Daniel Krige [28] donne une approche empirique (régression) pour corriger
les problèmes de biais conditionnels observés dans les mines a travers les questionnements
suivants : pourquoi moins que prévu ? Comment prévoir et tenir compte de l’effet support ?
Au delà de cette utilisation initiale de la prévision des réserves minières, la géostatistique
est aujourd’hui utilisée dans des domaines variés tels que : l’évaluation de ressources natu-
relles (minières, pétrolières, forestières, etc), la pollution, l’agronomie, les grands travaux
de génie civil (topographie), la météorologie, l’océanographie, la géophysique ou l’analyse
d’images, la facturation, la géothermie, l’environnement etc.

L’évolution de la géostatistique comprend trois phases chronologiques [5].


La première phase, située à la fin des années 1950, coı̈ncide avec l’étape d’inspiration ex-
clusivement minière en Afrique du sud. En effet, dans ce pays, les mineurs d’or rencontrent
de sérieux problèmes, ce qui déclenche les premières recherches. D’autres chercheurs tels
que Matheron (mines), Matern (foresterie), Gandin (météorologie) [47] contribuent qua-
litativement à cette recherche en développant un ensemble d’outils donnant naissance à
la géostatistique linéaire stationnaire 1 . Depuis lors, le néologisme krigeage est né pour
témoigner de la rencontre entre une technique mathématique de régression et les diffi-
1. Matheron donne le nom de krigeage à la méthode d’estimation qu’il développe

1
cultés d’exploitation du minerai d’or [5]. Il faut signaler que cette première période de la
géostatistique revêt deux caractéristiques. Du point de vue pratique, les moyens de calculs
demeurent rudimentaires, aussi les publications abondent-elles en formules d’approxima-
tion, courbes ou abaques, qui progressivement constituent un véritable capital afin d’éviter
aux utilisateurs de reprendre des calculs fastidieux (voir [71]). Sur le plan théorique, on
remarque que les formalismes qui s’élaborent se placent souvent dans le cadre d’une loi de
distribution donnée. En terme de champs d’application, la géostatistique s’étend, outre
l’or, à d’autres produits : uranium, fer, nickel, cuivre, cobalt.

Figure 1 – Mine d’or en Afrique du sud

La deuxième phase de cette évolution concerne la décennie de 1970 − 1980. A cette


deuxième période, la notion de géostatistique linéaire non stationnaire apparaı̂t en 1973,
celle de géostatistique non linéaire en 1975 et la géostatistique linéaire multivariable et

2
les méthodes de simulations en 1980. Sur le plan de la modélisation, on cherche à élargir
les hypothèses de travail. C’est le développement d’une géostatistique non stationnaire
avec l’apparition de formalismes nouveaux tels que simulations conditionnelles ou non,
ensembles aléatoires.

La troisième phase de l’évolution géostatistique est exclusivement basée sur la géostatistique


multivariée et les méthodes de simulations. Cette étape est une synthèse dont il est trop
tôt de prévoir les aboutissements. Elle correspond à la présente période de contexte infor-
matique de plus en plus confortable permettant à la géostatistique de se développer dans
les directions les plus variées. Récemment, le développement des technologies de position-
nement et simultanément des ressources informatiques a permis l’explosion des Systèmes
d’Information Géographique (SIG). Ces nouveaux outils informatiques facilitent la gestion
d’une information d’ordre géographique et favorisent donc naturellement le recours aux
méthodes de statistiques spatiales. L’intrusion de ces outils a suscité le développement de
méthodes d’analyse spatiale dans de nouveaux domaines d’application où la géographie
joue un rôle prépondérant : l’économie et l’aménagement du territoire.

Dans le même ordre d’idée, face à l’augmentation des résistances bactériennes, l’émergence
des nouveaux pathogènes et la propagation rapide de l’épidémie, la surveillance et la
prévention de la transmission de la maladie deviennent, particulièrement, importantes
et indispensables. Malgré une surveillance permanente et continue des maladies infec-
tieuses, il est à constater que leurs étiologies restent encore largement méconnue [72]. Pour
lutter contre ces phénomènes aléatoires, au cours des dernières décennies, des modèles
mathématiques ont été élaborés et mis en œuvre pour étudier la propagation des ma-
ladies infectieuses depuis le début du XXe siècle dans le domaine de l’épidémiologie
mathématique grâce aux travaux de Daniel Bernoulli [73].

Les modèles stochastiques et déterministes des épidémies permettent aux chercheurs


d’acquérir des connaissances précieuses sur de nombreuses maladies infectieuses et d’étudier
des stratégies pour les combattre. C’est en 1927 que Kermack et McKendrick proposent
le premier modèle complet pour modéliser une épidémie. Ce modèle déterministe de base
sert encore aujourd’hui pour l’élaboration et la mise en œuvre de modèles épidémiques

3
mathématiques encore plus complexes [39]. Mais ces modèles mathématiques classiques
ne sont pas très efficaces lorsqu’il y a un petit nombre d’épidémies, on fait souvent recours
à des méthodes stochastiques où l’on suit chaque évènement d’infection et de guérison.

Les premiers modèles stochastiques d’épidémie ont été présentés par L. Reed et W,
H.Frost,et Greenwood pour décrire avec precision la propagation des maladies en temps
discret dans une population. Ces modèles développés dans les années 1928 et 1931 sont
basés sur la notion des probabilités et de la statistique. Plus tard, Bartlett a proposé le
modèle stochastique SIR en temps continu qui sert la base des modèles stochastiques. De
nos jours, on rencontre dans la littérature plusieurs travaux tels que Anderson et May,
E. Pardoux, Britton, ... mais beaucoup reste à faire avec l’émergence de certaines des
nouveaux pathogènes.

Malgré ces différentes techniques proposées, les erreurs de prévision géostatistique dans
le domaine minier reste énorme car les teneurs peuvent varier brusquement d’un point
d’échantillonnage à un autre (voir [87]). Comme le krigeage prend en compte la struc-
turation spatiale (le modèle de variogramme) et que les variations brusques des teneurs
affectent le variogramme (voir [14] et [38]), il serait bon, pour minimiser les erreurs de
prédictions, de modéliser ces outils de dépendance spatiale de sorte à tenir comptes des
teneurs extrêmes.
De plus, l’approche déterministe du modèle SEIRS n’est pas trop efficaces lorsqu’il y a un
petit nombre d’épidémies. Il serait mieux, pour tenir compte du caractère aléatoire des
épidémies, de donner une approche stochastique de ce modèle et déterminer sa probabilité
d’extinction. Ce sont ces problématiques qui sou-tendent les travaux de la présente thèse.

La copule est un outil de modélisation statistique qui permet de caractériser la dépendance


stochastique d’un phénomène. C’est une fonction qui relie une loi multivariée à ses lois
marginales. Elles sont utilisées dans plusieurs domaines : finance, sciences de l’environne-
mental, bioinformatique, statistique spatiale etc. Les copules modélisent aussi la structure
de dépendance entre deux ou plusieurs quantités et offrent plusieurs possibilités dans la
construction de la loi jointe, particulièrement avantageuse dans le cas des modèles non
gaussiens. C’est donc un outil très utile pour l’étude spatiale en général, et pour la ca-

4
ractérisation de la distribution de ces phénomènes spatiaux en particulier.
L’introduction des copules dans la modélisation de la dépendance stochastique multivariée
a été motivée par certaines insuffisances de l’outil traditionnel de mesure de dépendance :
le coefficient linéaire de Bravais-Pearson. En effet, il faut noter que cet outil de dépendance
comporte quelques insuffisances dans la pratique :

. les moments d’ordre 2 doivent être finis pour que ce coefficient soit défini,

. il n’intègre que la dépendance linéaire (rare en finance et environnement),

. une corrélation nulle n’implique pas nécessairement l’indépendance,

. le cadre de travail est gaussien (restriction sur la structure de dépendance). En par-


ticulier, dans le domaine de l’analyse spatiale.

Par ailleurs, il faut ajouter que la méthode classique de modélisation multivariée admet
généralement des lois marginales identiques ce qui ne permet pas une décomposition de la
loi multivariée en ses distributions marginales univariées et en une fonction de dépendance,
rendant possibles des extensions naturelles de certains résultats obtenus dans le cas uni-
varié.

Un objectif capital de cette thèse est de modéliser les outils de dépendance géostatistique
linéaire pour estimer les ressources dans un contexte minier de façon à minimiser les er-
reurs de prédictions et de donner une approche stochastique du modèle SEIRS afin de
tenir compte du caractère aléatoire dans la modélisation d’une épidémie.

Notre apport dans cette thèse, a été une contribution à la modélisation des outils géostatistiques
linéaires de base en utilisant les copules afin de caractériser la distribution spatiale des
phénomènes, et l’ estimation voir prédiction de la répartition du phénomène dans le cadre
spatial ou spatio-temporel. De plus, nous avons proposé la version stochastique du modèle
SEIRS et son extinction. Notre travail se répartit en quatre grands chapitres.

Dans le chapitre 1, nous présentons les généralités sur la géostatistique et le cadre minier.
Plus précisément, nous présentons la géostatistique à travers les méthodes géostatistiques
et l’intérêt de l’analyse géostatistique pour la statistique spatiale. En outre, nous présentons
quelques outils techniques de la géostatistique à travers la notion de champs aléatoires

5
stationnaires ; le modèle de variogramme et ses dérivés qui permettent de mesurer la
dépendance spatiale de ces phénomènes. Enfin, nous présentons le cadre minier à travers
les concepts de base dans ce secteur, l’industrie minière et des éléments de classification.

Le chapitre 2 marque le début de notre contribution dans la modélisation géostatistique.


Nous y présentons la copule multivariée dans la modélisation de la dépendance stochas-
tique et la modélisation des principaux outils de la geostatistique à travers une de nos
publications.

Dans le chapitre 3, nous présentons les modèles géostatistiques et estimation à travers


les méthodes classiques d’estimation, les éléments d’estimations géostatistiques, l’estima-
tion géostatistique par krigeage et une application de ces outils aux jeux de donnés pour
estimer.

Dans le chapitre 4, nous présentons l’approche stochastique du modèle SEIRS. Ce cha-


pitre est une contribution à la modélisation d’un phénomène épidémiologique en tenant
compte de son caractère aléatoire et sa probabilité d’extinction.
Une conclusion générale de cette thèse exposera les acquis et présentera les perspectives
possibles de recherches.

La partie annexe de ce document synthétise un certain nombre d’outils, qui complète


le travail pour une bonne compréhension de nos résultats.

6
Chapitre 1

Généralités sur la géostatistique et le


cadre minier

Ce chapitre est une synthèse de rappels des outils géostatistiques utilisés dans cette
thèse. En particulier, il porte sur la présentation et la caractérisation de la géostatistique
et l’environnement conceptuel du domaine minier, premier champ d’application de cette
science. Dans la section 1, nous présentons les généralités sur la géostatistique : la présentation,
les méthodes et la relation entre la géostatistique et la statistique spatiale. La section 2
passe en revue les différents outils techniques de la géostatistique. Le variogramme y oc-
cupe une place importante et en particulier les différents modèles d’ajustements. Quand à
la section 3, il résume les concepts fondamentaux, les termes techniques dans le domaine
minier.

1.1 Présentation de la géostatistique


La géostatistique constitue une branche très importante de l’analyse statistique spa-
tiale. Il est clair que des problèmes essentiellement géostatistiques ont été abordés depuis
fort longtemps, en art des mines certes, mais aussi en météorologie, en topographie, en
cartographie, pour ne citer que quelques exemples (voir [67]). A la croisée des chemins
entre la statistique, les mathématiques et les sciences de la Terre, la géostatistique est le
domaine des statistiques spatiales basée sur la théorie des champs aléatoires pour répondre
à des questions de prédictions spatiales.

Développée à partir de préoccupations très pratiques (recherche minière), la géostatistique


a fait l’objet, sous l’impulsion de Georges Matheron [71] et de ses collègues de l’école des

7
1.1 Présentation de la géostatistique

Mines de Fontainebleau, de très importants développements méthodologiques. Les illustra-


tions les plus simples concernent des problèmes tels que l’interpolation des températures
ou des précipitations. Mais les travaux les plus importants concernent les applications
géologiques et minières que l’on peut trouver par exemple chez Chilès et al 2009 (voir
[46]).

Il faut distinguer essentiellement deux approches de la modélisation géostatistique : les


approches linéaire et non linéaire.

− La géostatistique linéaire étudie les combinaisons linéaires de la fonction aléatoire


étudiée et utilise les outils tels que le variogramme, le covariogramme, le krigeage
(simple, ordinaire) et le cokrigeage.

− La géostatistique non linéaire s’intéresse plutôt à des combinaisons non-linéaires de


la fonction aléatoire étudiée et regroupe les méthodes d’espérance conditionnelle, du
krigeage disjonctif et les simulations conditionnelles.

Le domaine d’utilisation de la géostatistique a historiquement été la modélisation sta-


tistique dans le domaine des mines, mais son domaine d’application actuel est beaucoup
plus large et tout phénomène spatialisé peut être étudié en utilisant la géostatistique.

1.1.1 Méthodes de la géostatistique

En géostatistique, les méthodes de simulation visent à proposer une variable régionalisée


reproduisant un phénomène ou un processus. En particulier, il s’agit d’une application
des méthodes probabilistes à des variables régionalisées permettant une analyse cohérente
des données, des incertitudes ainsi que la structure spatiale de la teneur du minerai.
Ces méthodes sont particulièrement employées en géostatistique non linéaire, comme sou-
vent le seul moyen techniquement disponible pour l’estimation de grandeurs. En effet, les
méthodes de modélisation géostatistique donnent la meilleure estimation de la variable
régionalisée, mais lissent le résultat et donc échouent à reproduire une variabilité naturelle
du phénomène.

Les grandes lignes de la modélisation géostatistique sont :

8
1.1 Présentation de la géostatistique

• L’analyse descriptive ;

• L’analyse spatiale ou variographie ;

• L’ajustement du variogramme expérimental ;

• La prédiction spatiale ou krigeage.

L’outil de modélisation des données géoréférencées est le champ aléatoire. Principa-


lement, pour les données de type géostatistique, la position observée n’est pas modélisée
comme aléatoire car elle est choisie par le statisticien. Par exemple, un jeu de données
météorologiques est observé sur une collection de stations météorologiques, des données de
pollutions atmosphériques sur une collection de lieux où l’on a implanté des appareils de
mesure. Par ailleurs, l’unité géographique associée à la donnée est ici ponctuelle : repérer
la latitude et la longitude des stations météorologiques ou des appareils de mesure. Plus
formellement, pour le champ aléatoire servant à modéliser notre phénomène, l’espace des
indices sera un domaine de Rd contenant un rectangle de volume strictement positif et
l’indice s varie donc continûment dans cet espace.

En général, le caractère aléatoire des phénomènes rend difficile la modélisation. Ainsi,


la modélisation dans un cadre déterministe ne permet pas souvent de donner une large
compréhension du phénomène. Par conséquent, le recours à un modèle probabiliste per-
met la formalisation de notre connaissance et nos incertitudes sur le phénomène aléatoire.
Dans toute la suite, nous considérons la modélisation dans le cadre probabiliste.

1.1.2 Géostatistique et analyse spatiale

L’objectif de l’analyse spatiale est de comprendre et d’explorer la relation entre le po-


sitionnement spatial des objets et des phénomènes et leurs caractéristiques. La littérature
distingue traditionnellement trois types de données spatiales : les données ponctuelles, les
données continues et les données surfaciques (voir [84]).

9
1.1 Présentation de la géostatistique

a) Les données ponctuelles

L’analyse spatiale des données ponctuelles a pour objectif de quantifier l’écart entre
la distribution spatiale des observations et une distribution complètement aléatoire dans
l’espace. Le processus générateur des données génère les coordonnées géographiques as-
sociées à l’apparition d’une observation. On ne détermine pas la valeur de l’observation ;
mais sa localisation. Il s’agit, par exemple, du lieu d’apparition d’une maladie lors d’une
épidémie, ou de la répartition dans l’espace de certaines espèces d’arbres.

b) Les données surfaciques

L’analyse spatiale de ces données permet de définir la structure de voisinage des ob-
servations en quantifiant l’influence qu’exercent les observations sur leurs voisines, mais
aussi l’évaluation de la significativité de cette influence. Pour ces données, la localisation
des observations est considérée comme fixe, mais les valeurs associées sont générées sui-
vant un processus aléatoire. Il s’agit, par exemple, du PIB par région, ou du nombre de
mariages par mairie. Le terme ”surfacique” est une connotation, car ces données ne sont
pas nécessairement représentées sur une surface.

c) Les données continues

L’analyse spatiale des données continues cherche à prédire la valeur d’une variable
en un point où elle n’a pas été échantillonnée tout en précisant la fiabilité de cette
prédiction. La géostatistique est vue comme étant l’analyse spatiale des données conti-
nues. En présence de données continues, il existe une valeur pour la variable d’intérêt en
tout point du territoire étudié. Les données sont générées de façon continue sur un sous
ensemble de Rd . En revanche, ces données sont mesurées uniquement en un nombre dis-
cret de points. Il s’agit, par exemple, de la composition chimique du sol (utile à l’industrie
minière), de la qualité de l’eau ou de l’air (pour des études sur la pollution), ou encore de
diverses variables météorologiques. La géostatistique aide également à optimiser le plan
d’échantillonnage des données.

10
1.2 Quelques outils techniques de la géostatistique

1.2 Quelques outils techniques de la géostatistique


1.2.1 Notion de Champs aléatoires

1.2.1.1 Définition d’un champ aléatoire

Soit (Ω, A, P ) un espace probabilisé et D un domaine de R.

Définition 1.2.1 (Voir [67]) Un champ aléatoire (ou une fonction aléatoire) sur D à
valeurs dans R est une fonction de deux variables, notée Z(s, w) telle que, pour chaque
site s0 ∈ D, Z(s0 , w) est une variable aléatoire sur (Ω, A, P ), et pour chaque w0 ∈
Ω, Z(s, w0 ) est une fonction de D → R.

Généralement, on parle de processus stochastique lorsque d = 1 et de champ aléatoire


lorsque d ≥ 2. La variable régionalisée z(s) est une réalisation du champ aléatoire Z(s).
Un champ aléatoire est totalement caractérisé par les distributions fini-dimensionnelles.
Pour toute valeur de n et tout ensemble de n-uplets on a : pour si ∈ Rd , i = 1, . . . , n ;

Fs1 ,...,sn (B1 × · · · × Bn ) = P ((Z(s1 ), . . . , Z(sn )) ∈ B1 × · · · × Bn ),

où B1 , . . . , Bn sont des boréliens de R.


Les lois de distributions doivent vérifier des conditions minimales de cohérence, appelées
condition de Kolmogorov (Voir [67]).

Définition 1.2.2 (Conditions de Kolmogorov)


On appelle conditions de Kolmogorov les deux conditions suivantes :

(i) Condition de symétrie : la distribution fini-dimensionnelle doit être constante par


permutation :
Fs1 ,...,sn (B1 × · · · × Bn ) = Fsi1 ,...,sin (Bi1 × · · · × Bin )

où (i1 , . . . , in ) est une permutation quelconque de 1, . . . , n.

(ii) Condition de cohérence par les lois marginales

Fs1 ,...,sn−1 (B1 × · · · × Bn−1 ) = Fs1 ,...,sn (B1 × · · · × Bn−1 × R).

11
1.2 Quelques outils techniques de la géostatistique

Notons que si ces deux conditions ne sont pas vérifiées, alors il ne peut pas exister de
champ aléatoire sur Rd ayant les lois Fs1 ,...,sn−1 comme lois fini-dimensionnelles. Dans la
suite, on considère que ces conditions sont toujours vérifiées.

1.2.1.2 Les caractéristiques d’un champ aléatoire

a) Loi spatiale

Considérons une fonction aléatoire {Zs , s ∈ D} et une série de points {s1 , . . . , sk }. Le


vecteur aléatoire {Z(s1 ), . . . , Z(sk )} est caractérisé par une fonction de répartition
qui dépend de k arguments :

Fs1 ,...,sk (Z1 , . . . , Zk ) = P [Z(s1 ) ≤ z1 , . . . , Z(sk ) ≤ zk ].

L’ensemble des fonctions de répartition, pour tous les entiers k et tous les choix
possibles de {z1 , . . . , zk } ∈ D, constitue la loi spatiale de la fonction aléatoire. La
donnée de la loi spatiale est une information extrêmement riche, qui fournit de
très nombreuses caractéristiques statistiques 1 sur Z. On peut associer à la variable
régionalisée, toutes les transformations d’une variable aléatoire sous l’hypothèse
d’existence. En particulier, on détermine les moments et les caractéristiques as-
sociées.

b) Moments d’un champ aléatoire


Soit Z = Zs , s ∈ Rd un champ aléatoire défini sur l’espace probabilisé (Ω, A, P)
à espace d’état (R, BR ). Pour s ∈ Rd , on note Fs la loi de probabilité de la variable
aléatoire Z(s).

− Le moment non centré d’ordre k ∈ N∗ , s’il existe du champ aléatoire Z


définit sur Rd dans R par : ∀s ∈ Rd ,
1. certaines propriétés, comme la continuité ou la dérivabilité des réalisations de Z, la loi des valeurs
supérieures et inférieurs de Z sur un ensemble, la connexité des ensembles où Z est supérieur à une valeur
donnée, échappent à la loi spatiale.

12
1.2 Quelques outils techniques de la géostatistique

Z
k
mk (s) = E(Z (s)) = z k dFs (z), k ∈ N∗ .
Rd

Tout comme dans l’analyse statistique classique, on définit le moment centré


d’ordre k par :
Z
µk = E[Z(s) − E (Z(s))] = k
[z(s) − E(Z(s))]k f (z)dz.
R

− L’espérance du champ aléatoire Z est le moment d’ordre un de Z définit sur


Rd dans R par :
∀s ∈ Rd , m(s) = E(Z(s)).

Le champ aléatoire Z = Zs , s ∈ Rd est centré si sa fonction de moyenne m est
nulle, c’est-à-dire :
∀s ∈ Rd , m(s) = 0.

− La variance du champ aléatoire Z caractérise la mesure de la plus ou moins


grande dispersion de Z(s) autour de sa moyenne m(s) et quantifie ainsi son ca-
ractère plus ou moins  aléatoire . Elle est définie de Rd dans R+ par : ∀s ∈ Rd ,

v(s) = V ar(Z(s)) = E((Z(s) − m(s))2 ). (1.1)

C’est le moment d’ordre deux du champ Z.

c) Covariance
La covariance d’un champ aléatoire mesure la force de la relation qui existe entre les
variables aléatoires qui le représentent dans les différents sites d’observation. C’est
pour cette raison qu’elle joue un rôle primordial dans le problème de prédiction. Elle
est définie sur Rd × Rd dans R par : ∀ (s1 , s2 ) ∈ Rd × Rd ,

c(s1 , s2 ) = Cov[Z(s1 ), Z(s2 )],

i.e par définition, on a

c(s1 , s2 ) = E([Z(s1 ) − m(s1 )][Z(s2 ) − m(s2 )]).

13
1.2 Quelques outils techniques de la géostatistique

Soit

c(s1 , s2 ) = E[Z(s1 )Z(s2 )] − m(s1 )m(s2 ).

De plus, la covariance est une fonction bilinéaire, dont la variance est la forme
quadratique associée. En particulier, on a :

Cov[Z(s1 ), Z(s1 )] = V ar[Z(s1 )].

Comme dans un contexte non spatiale, l’inégalité de Cauchy-Schwarz relie la cova-


riance entre Z(s1 ) et Z(s2 ) aux variance de Z(s1 ) et Z(s2 ) :

p
|Cov[Z(s1 ), Z(s2 )]| ≤ V ar[Z(s1 )]V ar[Z(s2 )]. (1.2)

Lorsque le processus est stationnaire d’ordre 2, la fonction de covariance ne dépend


plus de la position mais de l’écart entre les points de mesure. Dans ces conditions
elle est définie par :

C(h) = E([Z(s + h) − m][Z(s) − m)] ∀s ∈ Rd . (1.3)

La propriété caractéristique d’une fonction de covariance est d’être semi-définie po-


sitive.

Proposition 1.2.1 (Voir [24])



Supposons que la fonction de covariance c du champ aléatoire Z = Zs , s ∈ Rd
existe, alors c est une fonction semi-définie positive, c’est-à-dire :

∀ n ∈ N∗ , ∀ a = (a1 , . . . , an ) ∈ Rn , ∀ (s1 , . . . , sn ) ∈ (Rd )n :

Σni=1 Σnj=1 ai aj c(si , sj ) ≥ 0

d) Corrélogramme

En statistique spatiale, la fonction d’auto-corrélation joue presque le même rôle

14
1.2 Quelques outils techniques de la géostatistique

que la fonction de covariance puisque son existence dépend directement de celle de


la fonction de covariance. Son avantage réside du fait qu’elle est adimensionnée.

Définition 1.2.3 (Voir [24])



On appelle fonction de corrélation du champ aléatoire Z = Zs , s ∈ Rd , la fonction
notée ρ, définie sur Rd × Rd dans [−1, 1] par :
∀ (s1 , s2 ) ∈ Rd × Rd ,

Cov[Z(s1 ), Z(s2 )] c(s1 , s2 )


ρ(s1 , s2 ) = p p =p p . (1.4)
V ar[Z(s1 )] V ar[Z(s2 )] v(s1 ) v(s2 )

Lorsque le processus Z est stationnaire au second ordre, la fonction de corrélation


s’appelle corrélogramme et s’écrit sous la forme

C(h)
ρ(h) = . (1.5)
C(0Rd )

En rappel, dans un contexte non spatialisé, le coefficient de corrélation linéaire entre


deux variables X et Y est :

Cov(X, Y )
ρ(X, Y ) = .
σX σY

e) Le variogramme

Le variogramme d’un champ aléatoire en deux sites s1 et s2 est la moitié de la


variance de l’accroissement de ce champ en ces deux points. Il est donné par la
formule :

1
γ(s1 , s2 ) = V ar[Z(s2 ) − Z(s1 )].
2

On vérifie aisement que

1
γ(s1 , s2 ) = E[([Z(s2 ) − Z(s1 )] − [m(s2 ) − m(s1 )])2 ].
2

15
1.2 Quelques outils techniques de la géostatistique

1.2.1.3 La stationnarité

En statistique classique, l’inférence des paramètres est rendue possible par la répétition
indépendante des données. En statistique spatiale cependant, on observe très souvent une
réalisation unique des données. Par exemple, un épisode de pollution à l’ozone, une région
agricole particulière, une épidémie végétale, etc.
Pour pouvoir réaliser l’inférence statistique pour un événement unique, il faut donc
en quelque sorte substituer l’hypothèse sur les répétitions indépendantes par une hy-
pothèse sur le champ aléatoire qui considère que certaines de ses caractéristiques sont
identiques d’un point à l’autre de l’espace. On pose donc les hypothèses de stationnarité.
La littérature distingue trois types de stationnarité.

a) La stationnarité stricte

La stationnarité stricte correspond à l’invariance par translation de la loi spatiale


de la fonction aléatoire. Soit en termes mathématiques : ∀k ∈ N∗ , ∀s1 , s2 , . . . , sk ∈
Rd , les vecteurs aléatoires (Z(s1 ), . . . , Z(sk )) et (Z(s1 + h), . . . , Z(sk + h)) ont la
même loi de probabilité conjointe. Cette propriété exprime l’idée que toutes les ca-
ractéristiques de la régionalisation sont invariantes dans l’espace. On peut toutefois
la restreindre aux deux premiers moments de la fonction aléatoire, qui sont les ou-
tils manipulés par la géostatistique linéaire. Comme exemple de champs aléatoires
strictement stationnaires, dans la théorie des séries temporelles, les bruits blancs
forts.

b) La stationnarité au second ordre

Elle stipule que ses deux premiers moments (espérance et fonction de covariance)
existent et sont invariants par translation c’est-à-dire

E(Z(s)) = m indépendant de s 
(1.6)
Cov(Z(s + h), Z(s)) = c(h) ne dépend que de h 

Cette dernière relation s’écrit encore Cov(Z(s1 ), Z(s2 )) = c(s1 − s2 ).

16
1.2 Quelques outils techniques de la géostatistique

c) La stationnarité intrinsèque

Elle stipule que le champ des accroissements

4Z h = 4Z h (s) = Z(s + h) − Z(s), s ∈ Rd , h ∈ Rd




est un champ aléatoire stationnaire au second ordre c’est-à-dire





 E(4Z h ) = 0 indépendant de s



 V ar(4Z h ) = E(Z(s + h) − Z(s))2

ne dépend que de h.

1.2.2 Modèles de variogrammes et ses dérivés

1.2.2.1 Caractérisation du variogramme

En 1971 Georges Matheron [5] a proposé l’utilisation du semi-variogramme comme


une alternative à la fonction de covariance d’un champ aléatoire dont la définition est la
suivante :

Définition 1.2.4 (Voir [67]) On appelle semi-variogramme du champ aléatoire Z =


Zs , s ∈ Rd la fonction notée γ, définie de Rd × Rd dans R+ par : ∀(s, s0 ) ∈ Rd × Rd ,


1 1
γ(s, s0 ) = E[([Z(s0 ) − Z(s)] − [m(s0 ) − m(s)])2 ] = V ar[Z(s0 ) − Z(s)].
2 2

Le variogramme du champ aléatoire Z est associé à la fonction notée ϑ, définie sur Rd ×Rd
dans R+ par le double du semi-variogramme. Soit pour tout (s, s + h) ∈ Rd × Rd

ϑ(s + h, s) = V ar[Z(s + h) − Z(s)], .

17
1.2 Quelques outils techniques de la géostatistique

Sous l’hypothèse de la stationnarité au second ordre, cette expression peut aussi s’écrire
sous la forme :

1
ϑ(h) = E[([Z(s + h) − Z(s)] − [m(s + h) − m(s)])2 ].
2

Dans la proposition qui suit, il est résumé quelques propriétés du variogramme d’un champ
aléatoire intrinsèquement stationnaire (Voir [24]).

Proposition 1.2.2 Soient Z = Z(s), s ∈ Rd un champ aléatoire intrinsèquement sta-
tionnaire et ϑ son variogramme, alors :

1. ϑ est nul à l’origine :


ϑ(0Rd ) = 0.

2. ϑ est une fonction positive :

∀h ∈ Rd , ϑ(h) ≥ ϑ(0Rd ) = 0.

3. ϑ est une fonction paire :


∀h ∈ Rd , ϑ(h) = ϑ(−h).

4. ϑ est une fonction conditionnellement définie négative :

n
X
∀n ∈ N∗ , ∀a = (a1 , a2 , . . . , an ) ∈ Rn , tel que ai = 0 et
i=1

n X
X n
d n
∀(s1 , s2 , . . . , sn ) ∈ (R ) on a : ai aj ϑ(sj − si ) ≤ 0.
i=1 j=1

5. Si l est une application linéaire définie sur Rd dans Rd , alors le champ aléatoire Z l =

Z[l(s)], s ∈ Rd est intrinsèquement stationnaire de variogramme ϑl défini par :

∀h ∈ Rd , ϑl (h) = ϑ[l(h)] = ϑ ◦ l(h).

6. Si ϑ est borné au voisinage de l’origine 0Rd , alors :

∃a ∈ R+ , ∃b ∈ R+ tels que : ∀ h ∈ Rd , ϑ(h) ≤ a k h k2 +b.

18
1.2 Quelques outils techniques de la géostatistique

7. Si ϑ est continu à l’origine 0Rd , alors ϑ est continu en tout h ∈ Rd où ϑ est localement
borné.

Remarque 1.2.1 Le variogramme d’un champ aléatoire est souvent utilisé dans le cas où
sa fonction de covariance n’existe pas. En effet, les champs aléatoires  intrinsèquement
stationnaire  ont des accroissements stationnaires au second ordre et dont le vario-
gramme existe et pas nécessairement la fonction de covariance.

Le graphe de γ(s, s + h) en fonction de h a les caractéristiques suivantes :


− Il passe par l’origine pour h = 0 c’est-à-dire Z(s + h) = Z(s);
− Généralement elle est croissante ;
− Dans la majeure partie des cas, elle croı̂t jusqu’à une certaine limite appelée palier,
puis s’aplatit.
La figure suivante illustre bien les différentes parties de la représentation de γ(s, s + h).

Lorsque le variogramme a atteint sa limite supérieure c’est-à-dire son palier, il n’y a

Figure 1.1 – Forme du semi-variogramme. Source :Esri France

plus de corrélation entre les échantillons séparés par cette distance h : cette distance cri-
tique est appelée portée du variogramme.

Pour certains phénomènes spatiaux, la dépendance n’est pas uniforme d’une direction

19
1.2 Quelques outils techniques de la géostatistique

à une autre. On parle ainsi d’isotropie lorsque le variogramme ou le covariogramme ne


dépend que de la norme k h k du vecteur h et non de sa direction. Dans ce cas

1
ϑ(h) = E[([Z(s + h) − Z(s)] − [m(s + h) − m(s)])2 ] = ϑ(k h k2 ).
2

Et donc

C(h) = E([Z(s + h) − m][Z(s) − m)] = C(k h k2 ).

On parle d’anisotropie lorsque la dépendance est directionnelle. Autrement dit, le vario-


gramme dépend du vecteur h(~h). Dans ce cas, on adopte les notations

ϑ(h) = ϑ(~h)

et
C(h) = E([Z(s + h) − m][Z(s) − m)] = C(~h).

Cependant dans le cas anisotropique, la modélisation se fait en utilisant les modèles


isotropiques suivant la direction de dépendance.

1.2.2.2 Le madogramme

En géostatistique, le variogramme est un bon outil pour mesurer la dépendance spatiale


entre deux réalisations d’un champ aléatoire. Cependant, quand il s’agit des observations
extrêmes, son usage est assez limité car il se peut qu’il ne soit pas défini pour de telles
observations. Par exemple, en considérant un champ aléatoire max-stable avec des lois
de Fréchet unitaires, l’espérance mathématique et la variance ne sont pas finies et par
conséquent le variogramme n’existe pas théoriquement ; d’où la nécessité d’introduire de
nouveaux outils qui jouent le même rôle que le variogramme d’où le madogramme.

Définition 1.2.5 (madogramme)



Soit Z = Z(x), x ∈ Rd un champ aléatoire défini sur un espace probabilisé (Ω, A, P ) à
espace d’état R tel que son espérance est finie. On appelle madogramme du champ aléatoire
Z la fonction, qu’on note M , définie sur Rd dans R+ par :

E(|Z(x + h) − Z(x)|)
M (h) = , x ∈ Rd (1.7)
2

20
1.2 Quelques outils techniques de la géostatistique

Un des résultats caractérisant le madogramme est le suivant :

Proposition 1.2.3 [67] Si M est le madogramme d’un champ aléatoire stationnaire Z =



Z(x), x ∈ Rd défini sur un espace probabilisé (Ω, A, P ) à espace d’état R alors, on a :
1. M (0Rd ) = 0;
2. M est une fonction positive : ∀h ∈ Rd , M (h) ≥ M (0Rd ) = 0;
3. M est une fonction paire : ∀h ∈ Rd , M (h) = M (−h);
4. ∀(h, k) ∈ Rd × Rd , M (h + k) ≤ M (h) + M (k).

Remarque 1.2.2 Dans le cadre de la modélisation de la variablité spatiale des extrêmes


d’un processus isotrope et max-stable, Cooley et al. (2006) ont introduit le F-madogramme
γF (h) définie par :
γF (h) = 12 E {|F (Z (s)) − F (Z (s + h))|} . (1.8)

où h est la distance entre deux point de mesure. Cet outil fournit une généralisation de
ce que l’on appelle le λ-madogramme associé à la distribution sous-jacente du processus
stochastique, tel que :

n o
γF (h) = 21 E [F (Z (s))]λ − [F (Z (s + h))]1−λ ; λ ∈ ]0, 1[ . (1.9)

Cas particulier : le rodogramme

Le Rodogramme d’un champ aléatoire Z noté R(h) est défini comme étant le variogramme
1
d’ordre , c’est-à-dire, pour tout x ∈ Rd
2
p 
R(h) = E |Z(x + h) − Z(x)| , x ∈ Rd . (1.10)

1.2.3 Modèles d’ajustement du variogramme

La fonction de covariance d’un champ aléatoire mesure la force de la liaison entre


les variables aléatoires qui représentent ce champ. Dans le cas de la stationnarité au
second ordre ou cette fonction existe nous l’appelons covariogramme. Par conséquent, on
peut caractériser un modèle de champs aléatoires stationnaires au second ordre par son

21
1.2 Quelques outils techniques de la géostatistique

covariogramme ou par son variogramme. En effet, si C est son covariogramme et ϑ son


variogramme, nous avons :

1
∀h ∈ Rd , ϑ(h) = 2[C(0Rd ) − C(h)] ⇔ C(h) = C(0Rd ) − ϑ(h).
2

Dans le cas où le champ aléatoire est simplement et intrinsèquement stationnaire, nous le
caractérisons par son variogramme.

Dans cette section, nous donnons quelques modèles du semi-variogramme d’un champ
aléatoire intrinsèquement stationnaire. Il faut noter que les deux principales caractéristiques
d’un variogramme sont :

i) Son comportement à l’origine, qui traduit le degré de régularité de la régionalisation.

ii) La présence où l’absence d’un palier, c’est-à-dire γ(h) = γ(∞)=constante quand
k h k> a. Rappelons que l’existence d’un palier est synonyme de stationnarité
d’ordre deux (voir [67]) ; il existe alors une fonction de covariance qui se déduit du
variogramme par la relation

C(h) = γ(∞) − γ(h).

Dans ce travail, on s’intéresse aux modèles théoriques isotropes, qui ne dépendent que de
r =k h k. Ces modèles peuvent être classés en trois catégories.

− Les modèles avec paliers et avec un comportement à l’origine.

− Les modèles avec palier et effet de trou : sinus cardinal, modèles J de Bessel.

− Les modèles sans palier : modèles puissances, linéaire et logarithmique.

1.2.3.1 Modèles avec palier ou modèles de transition

a) Modèle exponentiel de portée a et de pallier C


Il s’agit du modèle :

h  r i
∀r ∈ R+ ; γ(r) = C 1 − exp −
2

22
1.2 Quelques outils techniques de la géostatistique

Il faut noter que le modèle exponentiel n’atteint son palier que asymptotiquement.
On peut toute fois définir une portée pratique égale à 3a pour laquelle le vario-
gramme atteint 95% de la valeur de son palier.

Figure 1.2 – Modèle exponentiel de portée a et de palier C

b) Modèle cubique de portée a et de palier C


Il s’agit du modèle

2 3 5 7
 C(7 r − 35 r + 7 r − 3 r )

pour 0 6 r 6 a
∀r ∈ R+ ; γ(r) = a2 4 a3 2 a5 4 a7 .
C pour r > a

Ce modèle est valide dans Rd , d ≤ 3.

Figure 1.3 – Modèle cubique de portée a et de palier C

Les fonctions aléatoires associées aux modèles d’ajustement du variogramme sont

23
1.2 Quelques outils techniques de la géostatistique

différentes. Par exemple, le modèle cubique caractérise les fonctions aléatoires dérivables
en moyenne quadratique, tandis que le modèle gaussien correspond aux fonctions
aléatoires infiniment différentiables.

c) Le modèle triangulaire
Il s’agit du modèle :

 Cr

+
pour 0 6 r 6 a
∀r ∈ R ; γ(r) = a .
 C pour r > a

Ce modèle est valide seulement dans l’espace R et la covariance associée est égale, à
un facteur multiplicatif près, au covariogramme géométrique du segment de longueur
a dans l’espace R. Plus généralement, un modèle autorisé dans R est

α
 Cr

pour 0 6 r 6 a
∀r ∈ R+ ; γ(r) = a ;
 C pour r > a

avec 0 < α 6 1.

d) Le modèle quadratique
Il s’agit du modèle :

2
 C(2 r − r ) pour 0 6 r 6 a

∀r ∈ R+ ; γ(r) = a a2 .
C pour r > a

Ce modèle est valide dans Rd , d ≤ 3.

e) Le modèle circulaire
Il s’agit du modèle :
 r
 2r r2 2 r
+
 C( 1 − 2
− arcsin( )) pour 0 6 r 6 a
∀r ∈ R ; γ(r) = πa a π a .

 C pour r > a

Ce modèle est valide dans Rd , d ≤ 2 et la covariance associée est égale, à un fac-


teur multiplicatif près, au covariogramme géométrique du cercle de diamètre a dans
l’espace R2 .

24
1.2 Quelques outils techniques de la géostatistique

Figure 1.4 – Modèles de transition

Les modèles précédents utilisent deux paramètres : le palier C et un facteur d’échelle


a lié à la portée. D’autres modèles de transition font appel à un troisième paramètre
α:

f) Le modèle stable de palier C, facteur d’échelle a et paramètre α


Il s’agit du modèle :

+
n r αo
∀r ∈ R ; γ(r) = C 1 − exp[−( ) ] avec 0 6 α 6 2
a

portée pratique : a α 3. Les modèles exponentiels et gaussien sont en fait des cas
particuliers de ce modèle, correspondant aux paramètres α = 1 et α = 2.

g) Le modèle gamma de palier C, facteur d’échelle a et paramètre α


Il s’agit du modèle :
 
 1 
∀r ∈ R+ ; γ(r) = C 1− r avec α > 0
 (1 + )α 
a
p√
α
portée pratique : a 20 − 1. Le modèle gamma de paramètre α = 1 porte le nom

25
1.2 Quelques outils techniques de la géostatistique

de modèle hyperbolique.

h) Le modèle de Cauchy de palier C, facteur d’échelle a et paramètre α


Il s’agit du modèle :
 
 
+
 1 
∀r ∈ R ; γ(r) = C 1 − avec α > 0
 r2 α 
 (1 + 2 ) 
a
p√
α
portée pratique : a 20 − 1.

Figure 1.5 – Modèles de transition à effet de trou de palier C

Ces modèles couvrent une large gamme de fonctions lorsqu’on fait varier le pa-
ramètre α.
D’autre modèles de transition sont les modèles à effet de trou, que nous allons
détailler à présent.

1.2.3.2 Modèles à effet de trou

L’effet de trous se manifeste lorsque le variogramme n’est pas monotone, mais présente
une ou plusieurs oscillations. Ces oscillations ont en général une interprétation physique,
qu’il convient de mettre en évidence (phénomène périodique ”amorti” par exemple).

a) Modèle cosinus de période a et amplitude 2C(valide seulement dans R)

26
1.2 Quelques outils techniques de la géostatistique

Il s’agit du modèle :

∀r ∈ R+ ; γ(r) = C {1 − cos(2πr/a)} .

Un tel variogramme oscille indéfiniment ; il ne possède ni portée ni portée pratique.


La fonction aléatoire associée est une sinusoı̈de parfaite de période a ; seule sa phase
est aléatoire( voir [67]).

b) Modèle stable généralisé, de paramètres a, α, β et palier C.


Il s’agit du modèle :

∀r ∈ R+ ; γ(r) = C(1 − [1 − β(r/a)α ]exp[−(r/a)α ]) avec 0 < α 6 2 et 0 6 β 6 α.

Plus les paramètres α et β sont proches de 2 et α, plus l’effet de trou est prononcé ;
lorsque β = 0, on retrouve le modèle stable. Ce modèle est valides dans Rd , d 6 α/β.

Figure 1.6 – Modèle stable généralisé

1.2.3.3 Modèles sans palier

Ces modèles débordent du cadre stationnaire d’ordre deux. Ils correspondent à des
fonctions aléatoires intrinsèques strictes.

27
1.2 Quelques outils techniques de la géostatistique

a) Modèle puissance
Il s’agit du modèle :

∀r ∈ R+ ; γ(r) = ωrθ avec 0 < θ < 2.

L’exposant θ est lié au degré de continuité de la variable régionalisée. A la limite où


θ tend vers 0, le variogramme est purement pépitique [5].
A titre d’exemple, le mouvement brownien 2 fractionnaire de paramètre η ∈]0, 1[
est un processus aléatoire dans R qui a pour variogramme le modèle puissance
γ(r) = r2η .

Figure 1.7 – Modèle puissance

b) Modèle linéaire
γ(r) = ωr

Il s’agit d’un cas particulier du modèle puissance, avec un exposant égal à 1.

c) Modèle logarithmique
Il s’agit du modèle :
γ(r) = 3α ln(r)

où α est un scalaire positif appelé dispersion absolue.


Le modèle logarithmique est très particulier, car il vaut −∞ en r = 0 , ce qui
2. Le mouvement brownien est un processus aléatoire à accroissements gaussiens stationnaires.

28
1.3 Cadre minier

”contredit” la définition même d’un variogramme.

Figure 1.8 – Modèle ponctuel et régularisé

Ce modèle, utilisé historiquement pour la description des gisements aurifères sud-africains,


est tombé en désuétude.

1.3 Cadre minier


1.3.1 Contexte et justification

Le secteur minier joue un rôle capital dans la croissance économique des pays afri-
cains. Au cours de ces dernières années, l’exploitation des ressources minières a connu un
développement considérable dans le monde et particulièrement en Afrique. Le continent
africain se trouve ainsi en tête en termes de réserves mondiales d’un certain nombre de
matières comme la bauxite, la chromite, le cobalt, le diamant, le manganèse, etc. Malgré
le développement croissant de ce secteur, l’Afrique reste confrontée à une pauvreté accrue
de sa population.

De plus, la mine est le domaine originel de la géostatistique (voir [66]). Cette discipline a
développé un certain nombre de concepts et de méthodes permettant de formaliser et de
résoudre les problèmes rencontrés à différents stades de l’évaluation minière.

• des réserves in situ (tonnages de minerai et de métal).

• des réserves récupérables (pourcentage de minerai et de métal contenu dans des


blocs au-dessus d’une teneur critique) ainsi que la variance d’estimation.

29
1.3 Cadre minier

Dans la section suivante nous donnons quelques définitions des termes de base couramment
utilisés dans le domaine miniers.

1.3.2 Quelques concepts de base

a) Métaux

Les métaux sont des matériaux présentant à la fois une bonne résistance mécanique
et une facilité de mise en forme. Ils ont généralement pour caractéristiques d’être de
bons conducteurs d’électricité et de chaleur. Les métaux usuels (électro-ménager dans les
ménages) sont produits par la conversion de minerais métalliques en produits finis. Dans
la majorité des cas, ceci nécessite l’utilisation de produits chimiques et de technologies
spéciales. On distingue principalement :

• Les métaux lourds : ceux dont la densité est supérieure à 5g/cm3 et dont le numéro
atomique est supérieur à celui du sodium (Z = 11).

• Les métaux précieux : ils sont rares et ont une grande valeur économique. Exemple :
Or et l’argent.

• Les métaux purs : ils sont en générale trop mous, trop fragiles ou trop réactifs.
Exemple : bismuth, calcium, cobalt, cuivre, étain...

b) Le minerai

Le minerai vient du mot latin ”minera” qui signifie mine. C’est une roche naturelle
contenant une ou plusieurs substances utiles pouvant éventuellement être extraites et
traitées pour être utilisées par l’homme. Ce terme est généralement appliqué à des roches
renfermant des minéraux métallifères à l’état natif (or, argent, cuivre, etc.) ou combiné
avec d’autres éléments pour former des minéraux plus complexes : oxydes (fer, aluminium,
etc.), sulfures (plomb, zinc, etc.), silicates (nickel, vanadium, etc.) , carbonates (calcium,
etc.), phosphates (terres rares, etc.) et autres types.

c) Gisement

Dans le contexte minier, un gisement est une concentration d’une ressource naturelle
dans le sol ou le sous-sol que l’on peut exploiter en construisant une mine à ciel ouvert,

30
1.3 Cadre minier

souterraine et/ou des puits de forage. Le terme gı̂te minéral est synonyme de gisement
mais est réservé le plus souvent à des masses minérales comportant un ou plusieurs métaux
susceptibles d’une exploitation (gı̂te métallifère).

d) Ressource

Le concept ”Ressource minérale” désigne la quantité totale d’un minerai existant dans
une zone donnée, sans considérer les possibilités d’exploitation présentes ou futures. On
appelle ressource initiale la quantité de ressource avant sa production. Ces ressources
peuvent être classifier de la façon suivante (voir wikipédia) :

. Ressource prouvée ou ressource 1P : c’est une ressource dont la probabilité


de récupération est supérieur ou égale à 90%. On parle de  réserve prouvée  ou
 réserve 1P  si l’exploitation d’une ressource prouvée est économiquement et tech-
niquement rentable.

. Ressource prouvée et probable ou ressource 2P : c’est une ressource dont l’exis-


tence a une probabilité supérieure à 50%. Si l’exploitation d’une ressource prouvée
est aussi rentable économiquement et techniquement, on parle alors de  réserve
prouvée et probable  ou  réserve 2P .

. Ressource prouvée, probable et possible ou ressource 3P : c’est une ressource dont


l’existence sous terre est probable, avec une probabilité supérieure à 10%. On par-
lera de  réserve prouvée et possible  ou  réserve 3P  si, dans les conditions
économiques et techniques actuelles, l’exploitation d’une ressource prouvée est ren-
table.

e) Réserves

Les réserves sont des ressources techniquement et économiquement récupérables. Les


estimations de la quantité de minerai disponible dans une réserve sont subjectives et tem-
porelles par nature. Elles sont périodiquement réévaluées en fonction de la production
passée, de l’amélioration des techniques, des conditions économiques, des connaissances

31
1.3 Cadre minier

géologiques, etc. Elles peuvent aussi être classées de manière similaires aux ressources :

. Réserve prouvée ou réserve 1P : c’est une ressource 1p dont l’exploitation actuelle


est jugée rentable économiquement et techniquement. Elle correspond généralement
à une estimation basse de ce qui pourra être extrait.

. Réserve prouvée et probable ou réserve 2P : C’est une ressource 2P dont l’exploita-


tion est jugée rentable dans les conditions économiques et techniques du moment.
Cette quantité correspond à l’espérance mathématique du minerai exploitable. A
priori, elle est considérée comme l’estimation la plus juste de ce qu’un gisement
peut produire. C’est souvent la principale information publiée à propos des gise-
ments découverts. Pendant l’exploitation d’un gisement, l’estimation de la réserve
1P est supposée tendre vers celle de la réserve 2P.

. Réserve prouvée, probable et possible ou réserve 3P : c’est une ressource 3P dont


l’exploitation est jugée rentable dans les conditions économiques et techniques ac-
tuelles. Il s’agit de l’estimation la plus optimiste de ce qu’un gisement peut produire.

f ) Prospection minière

C’est l’ensemble des investigations limitées à des travaux de surface, en vue de mettre
en évidence des indices de substances minérales, soit par des méthodes et procédés simples,
soit par des méthodes d’exploration modernes utilisées pour la reconnaissance régionale.

1.3.3 Industrie minière et Ressources minérales

a) Industrie minière

L’industrie minière est le secteur économique qui regroupe les activités de prospection
et d’exploitation de mines.

Elle concerne l’extraction des minéraux, de terres rares et des métaux dont le cuivre,
le fer ou l’or. Son activité est cadrée dans la plupart des pays par un Code minier.

32
1.3 Cadre minier

Elle est une source importante de revenus (directe et indirecte) de pollution de l’eau,
de l’air, des sols et des écosystèmes par les métaux. Elle exploite des ressources fossiles ou
non-renouvelables aux échelles humaines de temps, en nécessitant d’importantes quantités
d’énergie et parfois d’eau. Elle laisse des séquelles minières, que la législation demande
dans un nombre croissant de pays de réduire, traiter et compenser au fur et à mesure de
l’exploitation ou dans le cadre de  l’après-mine .

b) Ressources minérales

Une ressource minérale est une concentration de matériau présent naturellement, sous
forme, solide, liquide ou gazeuse, dans la croûte terrestre, sous une forme et une quan-
tité telles que son extraction à des fins économiques est effectivement ou potentiellement
faisable. Ces ressources sont simplement évaluées et ne sont pas toutes découvertes. Les
réserves minérales prouvées sont une partie des ressources à la fois repérées géologiquement
et susceptibles d’être exploitées dans des conditions techniques et économiques rentables.
Les réserves minérales non prouvées ne sont pas géologiquement connues.

L’évaluation de la quantité d’une ressource dans une zone donnée dépend de nombreux
paramètres du gisement, dont la localisation, la profondeur, la taille, la configuration, la
nature minérale, la qualité, la densité, les caractéristiques géologiques, la proximité de
ressources voisines. Pour le pétrole, la porosité de la roche, la viscosité la pression et la
température entrent également en jeu.

La production classique pour la conception d’une mine ou d’un projet miniers en


général, commence par l’identification de la minéralisation qui est une phase fondamen-
tale dans la réussite d’un projet minier (voir [11]). La détermination des caractéristiques
géologiques et géotechniques du sol avant les travaux d’extraction permet la planification
des tâches et leur réalisation dans les délais impartis. L’étude du sous-sol se fait à partir
des observations récoltées sur le terrain par des levés cartographiques, par des mesures
géophysiques ou encore par des forages. Souvent, les campagnes de reconnaissance par
forages coûtent cher.

33
1.3 Cadre minier

Cependant, ces données sont toujours en nombre limité de sorte qu’un modèle géologique
est bâti sur une large part d’interprétation du géologue. Pour compléter ces reconnais-
sances ponctuelles, les bureaux d’études procèdent le plus souvent à faire des estimations
de réserves minières par des interpolations linéaires par partitionnement dans l’espace ou
par des considérations statistiques. L’estimation de réserve est un paramètre utile afin
d’évaluer la rentabilité du gisement, et de justifier l’arrêt ou la continuité des travaux.
Les techniques d’évaluation de réserve sont des méthodes ayant comme objectif de fournir
des estimations de la teneur pour tout élément de volume ou de surface à partir d’un
échantillonnage limité. Elles sont basées sur le calcul de la moyenne pondérée, qui a at-
tribué des poids à des observations spatiales de ces dernières, par apport à l’élément de
volume ou de surface que l’on veut estimer. Parmi ces techniques on cite :

. La méthode de section.

. Les méthodes conventionnelles : Interpolation par partitionnement dans l’espace


(méthode de polygone, méthode triangle) ; Interpolation barycentrique (méthode
de l’inverse de distance).

. Les méthodes géostatistiques (le Krigeage).

1.3.4 Éléments de classification des ressources

Il y a de nombreuses classifications dans la littérature, basées sur toute une diversité


de critères. Certaines se fondent sur des critères économiques, comme l’utilisation finale
de la substance utile extraite, alors que d’autres se fondent sur des facteurs géologiques.
De manière courante, souvent pour le grand public, les ressources minérales sont classées
en fonction de leur utilisation :

∗ Substances énergétiques ou combustibles : Pétrole, gaz, charbons, bitumes, uranium

∗ Minerais métalliques :

− Métaux de base (cuivre, plomb, zinc),

− Métaux d’alliage (chrome, cobalt, fer, molybdène, nickel, manganèse, tungstène),

− Métaux précieux (or, argent, platine)

34
1.3 Cadre minier

− Métaux rares (lithium, tantale, beryllium, gallium, germanium, mercure , cad-


mium, indium, terres rares)

∗ Minerais non métalliques (minéraux industriels).

Dans la suite de notre travail, nous considérons un des métaux d’alliage : le cobalt.

Conclusion partielle
Ce chapitre nous a permis de résumer les outils géostatistiques nécessaires pour la
compréhension de la répartition des métaux dans un contexte minier. Nous avons d’abord
présenté dans une première section, des généralités sur la géostatistique à travers la
présentation de la géostatistique, ses méthodes, et ses liens avec l’analyse spatiale. En-
suite, dans une seconde section, nous avons présenté les outils techniques géostatistiques
en présentant la notion du champ aléatoire, les modèles de variogrammes et les modèles
d’ajustement. Enfin, dans une troisième section, nous avons présenté le cadre minier à
travers le contexte, les concepts de base et l’industrie minière.

35
Chapitre 2

Analyse géostatistique par les


copules multivariées

Ce chapitre porte sur la modélisation géostatistique à partir des copules qui utilisent
la paramétrisation canonique de Sklar pour permettre la construction des distributions
multivariées indépendamment des lois marginales unidimensionnelles.

Dans la section 1, nous présentons les fonctions copules. Plus précisément, la définition
formelle des copules est donnée en dimension deux et en dimension supérieure. Nous rap-
pelons le théorème de Sklar qui est le fondement mathématique de toute la théorie des
copules. Nous rappelons les grandes familles usuelles de copules en fonction des lois de
probabilités classiques.

La section 2 porte sur la modélisation des outils techniques de la géostatistique :


le variogramme, le corrélogramme et le madogramme. Cette section marque surtout le
début de notre contribution à la modélisation à travers un article publié dans le journal
EJPAM.

2.1 Copule dans la modélisation stochastique


Une copule est une distribution multivariée dont les lois marginales sont uniformes
sur [0, 1] et qui possède une structure de dépendance particulière. Les copules permettent
ainsi de créer des distributions multivariées dont les marginales sont de lois quelconques
et dont les propriétés de dépendances peuvent être très variées.

36
2.1 Copule dans la modélisation stochastique

2.1.1 Rappels sur les fonctions de répartitions

2.1.1.1 Rappels sur les fonctions de répartition

Soit (Ω, T ) un espace probabilisé.

Définition 2.1.1 (fonction de répartition)

• On appelle vecteur aléatoire de dimension n, un n-uplet X = (X1 , ...., Xn ) où chaque


Xi est une variable aléatoire (v.a) continue.

• Une fonction f : Rn −→ [0, +∞[ est dite fonction densité du vecteur X ou fonction
densité conjointe des X1 , ...., Xn si elle vérifie :
R
i) Rn f (x1 , ..., xn ) dx1 .....dxn = 1 (exhaustivité de l’intégrale de f ) .
En particulier, en dimension 2, la propriété d’exhaustivité équivaut à :
Z +∞ Z +∞  Z +∞ Z +∞ 
f (x, y)dx dy = f (x, y)dy dx = 1
−∞ −∞ −∞ −∞

.
ii) La loi de X est telle que pour tout choix de a1 ∈ R, ...., an ∈ R :
Z a1 Z an
P (X1 ≤ a1 ; ...; Xn ≤ an ) = .... f (x1 , ..., xn ) dx1 .....dxn .
−∞ −∞

iii) Pour toute réalisation (x1 , . . . , xn ) de X,


Z x1 Z xn
F (x1 , . . . , xn ) = ... f (t1 , . . . , tn )dt1 . . . dtn .
−∞ −∞

En particulier, en dimension 2, la fonction de répartition de (X,Y) est une application


F définie de R2 dans R par F (x, y) = P (X ≤ x, Y ≤ y), ∀(x, y) ∈ R2 et vérifiant les
propriété suivantes :

• 0 ≤ F (x, y) ≤ 1, ∀(x, y) ∈ R2 .

37
2.1 Copule dans la modélisation stochastique

• lim F (x, y) = 0 et lim F (x, y) = F2 (y) où F2 est la f.r marginale de Y.


x−→− ∞ x−→+ ∞

• lim F (x, y) = 0 et lim F (x, y) = F1 (x) où F1 est la f.r marginale de X.


y−→− ∞ y−→+ ∞

   
• lim lim F (x, y) = 1 et lim lim F (x, y) = 1.
x−→+ ∞ y−→+ ∞ y−→+ ∞ x−→+ ∞

• ∀ x ≤ x0 , y ≤ y 0 ∈ R̄ alors F (x0 , y 0 ) − F (x0 , y) − F (x, y 0 ) + F (x, y) ≥ 0.

• F est continue (sauf peut-être en un nombre fini de points où elle est continue à droite)
∂ 2 F (x, y)
et possède une dérivée partielle d’ordre 2, f (x, y) = .
∂x∂y
La 2-croissance ou inégalité du rectangle de la distribution conjointe F d’un couple de
v.a provient du fait que, pour tout domaine quarrable D de R2 , on a :
Z Z
P (D) = f (x, y)dxdy ≥ 0.
D

En particulier pour le rectangle D = [x, x0 ] × [y, y 0 ] . On a :

Z x0 Z y0
P (D) = f (t, r)dtdr = F (x0 , y 0 ) − F (x0 , y) − F (x, y 0 ) + F (x, y) ≥ 0.
x y

2.1.1.2 Inverse généralisé ou pseudo-inverse

Soit X une v.a continue et F sa fonction de répartition.

Définition 2.1.2 On définit le pseudo-inverse ou inverse généralisé de F par la formule :

F −1 (u) = inf {x ∈ R, F (x) > u} .

pour u ∈ [0, 1] et la convention inf ∅ = +∞ et inf R = inf(] − ∞, a]) = −∞.


Le pseudo-inverse possède les deux propriétés suivantes :

(i) {F (x) 6 u} = {x 6 F −1 (u)} pour tout u ∈ [0, 1] et x ∈ R.

(ii) ∀u ∈ F (R), F (F −1 (u)) = u.

On dit qu’une v.a X est continue si sa fonction de répartition l’est. Dans ce cas, F (R) =
[0, 1] et la propriété (ii) est vraie pour tout u.

38
2.1 Copule dans la modélisation stochastique

Dans le cas d’un vecteur (X1 , . . . , Xn ), on définit également sa fonction de répartition sur
Rn par :
F (x1 , . . . , xn ) = P (X1 6 x1 , . . . , Xn 6 xn ),
n
et que l’on étend à R .

Remarque 2.1.1 Dans le cas où F est strictement monotone l’inverse généralisé coı̈ncide
avec l’inverse classique.

2.1.2 Présentation des copules

2.1.2.1 Une fonction de répartition particulière

Considérons un vecteur aléatoire (X1 , . . . , Xn ) et définissons la fonction C telle que :

C : [0, 1]n → [0, 1]

(u1 , . . . , un ) 7→ F (F1−1 (u1 ), . . . , Fn−1 (un )) = C(u1 , . . . , un );

où Fi sont les fonctions de répartition des variables aléatoires Xi , les marginales de X et
Fi−1 les inverses généralisées des Fi .

Proposition 2.1.1 La fonction C est bien définie et possède les trois propriétés sui-
vantes :

(i) ∀(u1 , . . . , un ) ∈ [0, 1]n , C(u1 , . . . , ui−1 , 0, ui+1 , . . . , un ) = 0.

(ii) ∀ui ∈ Fi (R) = [0, 1], on a : C(1, . . . , 1, ui , 1, . . . , 1) = ui .

(1) (1) (2) (2)


(iii) ∀(u1 , . . . , un ) ∈ [0, 1]n , ∀(u1 , . . . , un ) ∈ [0, 1]n ,

X Pn
j=1 ij
(i ) (i )
(−1) C(u1 1 , u2 2 , . . . , un(in ) ) > 0.
(i1 ,...,in )∈{1,2}n

Démonstration 2.1.1 La propriété (i) vient du fait que, pour toute loi multivariée

F (x1 , . . . , xi−1 , −∞, xi+1 , . . . , xn ) = 0,

39
2.1 Copule dans la modélisation stochastique

n
pour (x1 , . . . , xn ) ∈ R . En effet,

C(u1 , . . . , ui−1 , 0, ui+1 , . . . , un ) = F (F1−1 (u1 ), . . . , Fi−1


−1
(ui−1 ), Fi−1 (0), Fi+1
−1
(ui+1 ), . . . , F1−1 (un ))

= F (x1 , . . . , xi−1 , −∞, xi+1 , . . . , xn ) = 0.

(ii) vient du fait que

C(1, . . . , 1, ui , 1, . . . , 1) = F (+∞, +∞, . . . , Fi−1 (ui ), +∞, . . . , +∞)

= Fi (Fi−1 (ui )) = ui si ui ∈ Fi (R).

c’est une propriété de la loi uniforme univariée.



(1) (2)


 0 6 u1 6 u1 6 1

(iii) Dans le cas n = 2, (iii) signifie que pour ,


 0 6 u(1) 6 u(2) 6 1

2 2

(2) (2) (2) (1) (1) (2) (1) (1)


C(u1 , u2 ) − C(u1 , u2 ) − C(u1 , u2 ) + C(u1 , u2 ) > 0

Ce qui se réécrit :

n o
(2) (1) (2)
0 6 P F1−1 (u11 ) < X1 6 F1−1 (u1 ), F2−1 (u2 ) < X2 6 F2−1 (u2 ) .

ce qui est vrai.


Plus généralement dans le cas n, la propriété (iii) est vérifiée.

2.1.2.2 Définition des copules

Dans le cas multivarié, une n-copule C est une fonction de distribution Cn définie de
[0, 1]n dans [0, 1] qui vérifie les conditions suivantes :

i) les distributions marginales sont uniformes, c-à-d,

Cn (u1 , ..., ui−1 , 0, ui+1 , ..., un ) = 0; pour tout (u1 , ..., ui−1 , ui+1 , ..., un ) ∈ [0, 1]n−1 ;

ii) Cn (u1 , ..., ui−1 , 1, ui+1 , ..., un ) = Cn−1 (u1 , ..., ui−1 , ui+1 , ..., un ), c’est-à-dire, une (n-1)

40
2.1 Copule dans la modélisation stochastique

copule pour tout i ;

iii) la copule Cn est continue en appliquant une des propriétés de Lipschitz, c’est-à-dire,
le volume VB pour tout rectangle B = [a, b] ⊆ [0, 1]n est positive. Ainsi,
Z
VB ([a, b]) = ∆bann ∆ban−1
n−1
. . . ∆ba11 Cn (u) = dCn (u1 , ..., un ) ≥ 0. (2.1)
B

est la différence de l’ordre n de Cn sur [a, b] dont la différence première est :

∆bakk C(u) = C(u1 , . . . , uk−1 , bk , uk+1 , . . . , un ) − C(u1 , . . . , uk−1 , ak , uk+1 , . . . , un ).

La figure ci-dessous illustre bien la propriété (ii).

Figure 2.1 – Représentation des copules dans le cas bidimensionnel.

2.1.3 Copules et variables aléatoires

Les copules héritent de plusieurs propriétés des distributions jointes. Dans l’étude des
copules, un des plus célèbres résultats est le théorème de Sklar que nous présentons par
le théorème suivant et qui est le fondement stochastique de l’outil des copules.

L’importance des copules dans la modélisation stochastique est soulignée par Sklar(1959)
dans son théorème qui s’énonce comme suit.

41
2.1 Copule dans la modélisation stochastique

Théorème 2.1.1 (Théorème de Sklar)


Soit F une fonction de distribution multivariée avec des marges F1 , . . . , Fn . Il existe une
n
n-copule C telle que, pour (x1 , . . . , xn ) ∈ R ,

F (x1 , . . . , xn ) = C(F1 (x1 ), . . . , Fn (xn )). (2.1)

Et si les distributions marginales F1 , . . . , Fn sont toutes continues alors C est unique sinon
C est seulement déterminée sur le produit cartésien ImF1 × · · · × ImFn .

Preuve 2.1.1 la preuve de ce théorème est tirée du livre de Lo et al.[34] [35] (Voir
annexe)

Considérons F comme une fonction de distribution n-variée avec les distributions margi-
nales continues F1 , . . . , Fn et C sa copule associée. La réciproque du théorème de Skar se
formule comme suit, pour (u1 , . . . , un ) ∈ [0, 1]n ,

C(u1 , . . . , un ) = F (F1−1 (u1 ), . . . , Fn−1 (un )); (2.2)

où

F −1 (t) = inf {x ∈ R|F (x) ≥ t, 0 ≤ t ≤ 1}

avec la convention inf(∅) = −∞.

Cette réciproque du théorème de Sklar offre une méthode de construction assez simple
d’une copule connaissant la distribution jointe et les distributions marginales. La méthode
de construction basée sur celle-ci est la méthode d’inversion. L’exemple suivant en est une
application dans un cas de fonction bivariée.

L’usage des copules dans l’analyse stochastique est justifié par la paramétrisation ca-
nonique de Sklar, voir Joe [9] & Nelsen [12], telle que les copules n-dimensionnelle C, les
vecteurs aléatoires (X1 , ..., Xn ) avec la distribution cumulative F et ses marges continues

42
2.1 Copule dans la modélisation stochastique

F1 , ..., Fn sont liés par la relation : pour tout (u1 , ..., un ) ∈ [0, 1]n

C(u1 , ..., un ) = F [F1−1 (u1 ), ..., Fn−1 (un )]. (2.3)

La différenciation de la formule (2.3) montre que la fonction de densité de la copule


est égale au rapport de la densité jointe h de H sur le produit des densités marginales hi
telles que, pour tout (u1 , ..., un ) ∈ [0, 1]n ,

f F1−1 (u1 ), ..., Fn−1 (un )


 
∂ n C (u1 , ..., un )
c(u1 , ..., un ) = =  −1  . (2.3)
∂u1 ...∂um f1 F1 (u1 ) × ... × hn [Fn−1 (un )]

Soit Z un vecteur aléatoire dans Rm et H = H1 × . . . × Hm ⊂ Rm un demi-espace


fermé avec P (Z ∈ H) > 0.

Exemple 2.1.1 Considérons la distribution logistique bivariée de Gumbel telle que, pour
tout x, y ∈ R, H(x, y) = [1 + e−x + e−y ]−1 . par intégration, on trouve que les lois margi-
nales sont identiques, de fonction de répartition HX (x) = (1 + e−x )−1 . Cette fonction est
1
facilement inversible et les fonctions inverses sont respectivement : F1−1 (u) = −ln( − 1)
u
−1 1 2
et F2 (v) = −ln( − 1), avec (u, v) ∈ I . Le célèbre théorème de Sklar permet d’avoir
v
la copule associée à F (x, y) qui s’écrit :

1 1 uv
C(u, v) = F (F1−1 (u), F2−1 (v)) = [1 + eln( u −1) + eln( v −1) ]−1 = .
u + v − uv

2.1.4 Propriétés particulières des copules

Comme l’a souligné Fischer dans ”Encyclopedia Statistical Sciences” les copules sont
d’un grand intérêt pour le statisticien pour deux raisons principales : d’une part elles per-
mettent de construire des familles de distributions multivariées à partir des distributions
marginales univariées données ( théorème de Sklar) et d’autre part elles constituent un ou-
til de mesure de dépendance entre distributions univariées tout en restant invariantes sous
des transformations strictement monotones de celles-ci. Les résultats suivants résument
les propriétés fondamentales des copules.

Proposition 2.1.2 Soit C la copule associée au vecteur aléatoire (X1 , . . . , Xd ). Si les

43
2.1 Copule dans la modélisation stochastique

fonctions ϕ1 , . . . , ϕd , définies chacune de R dans R, sont continues et strictement crois-


santes, alors C reste la copule associée au vecteur (ϕ1 (X1 ) , . . . , ϕd (Xd )).

Théorème 2.1.2 (caractérisation de la copule indépendante)


Soient X et Y deux v.a.c. et CXY la copule associée. Alors X et Y sont indépendantes
si et seulement si CXY = Π.

En utilisant le théorème sur les transformations de v.a.c. on établit le résultat suivant.

Théorème 2.1.3 Soient deux v.a.c. X et Y de copule associée CXY. Si α et β sont des
fonctions strictement croissantes sur Im(X) et Im(Y) respectivement alors on Cα(X)β(Y ) =
CXY.

Ce théorème établit que la copule est invariante par des transformations strictement
croissantes des variables aléatoires. Par exemple la copule de la distribution lognormale est
la même que celle de la loi normale (en effet la première est une transformation strictement
croissante (y = logx) de la seconde). De façon générale, lorsqu’une des transformations
est strictement décroissante, en utilisant le théorème (transformations de couples de v.a.
) on a le résultat suivant.

Théorème 2.1.4 Soient X et Y deux variables aléatoires continues de copule CXY . Si f


et g sont des fonctions strictement monotones sur Im(X) et Im(Y ) respectivement :

i) si f est strictement croissante (%) et g strictement décroissante (&) alors ∀u, v ∈ I;

Cf (X)g(Y ) (u, v) = u − CXY (u, 1 − v)

ii) si f est strictement & et g strictement % alors

Cf (X)g(Y ) (u, v) = v − CXY (1 − u, v)

iii) si f et g sont strictement décroissante alors

Cf (X)g(Y ) (u, v) = u + v − 1 + CXY (1 − u, 1 − v) = C(u,


e v).

44
2.1 Copule dans la modélisation stochastique

2.1.5 Quelques familles usuelles de copules

Nous présentons dans cette section quelques familles de copules.

2.1.5.1 La copule indépendante

Lorsque les variables {Xi ; i = 1, ..., n} sont indépendantes alors la copule associée est
la copule indépendante ou copule produit Π telle que, pour tout (u1 , ..., un ) ∈ [0, 1]n

n
Y
Π (u1 , ..., un ) = u1 × ... × un = ui .
i=1

Cette copule admet la densité constante 1 sur In .

2.1.5.2 Les bornes de Fréchet-Hoeffding

a) La copule minimale

La copule minimale ou borne supérieure de Fréchet

M (u1 , ..., un ) = min (u1 , ..., un ) ; (u1 , ..., un ) ∈ I n

Cette copule n’admet pas de densité bien qu’elle soit dérivable presque partout. La
figure 2.2 illustre bien une copule minimale.

Figure 2.2 – Représentation de la copule minimale

45
2.1 Copule dans la modélisation stochastique

b) La copule maximale

On vérifie que pour n = 2 et (u1 , ..., un ) ∈ I n , la fonction

X 
W (u1 , ..., un ) = max ui + n − 1, 0 .

définit une copule. C’est la copule maximale ou borne inférieure de Fréchet. Elle vérifie
(voir [17]), pour tout (u1 , ..., um ) ∈ I m

W (u1 , ..., um ) ≤ C(u1 , ..., um ) ≤ M (u1 , ..., um ); (u1 , ..., um ) ∈ I n .

La figure suivante illustre bien une copule maximale.

Figure 2.3 – Représentation de la copule maximale

2.1.5.3 La copule empirique

Soit (X, Y ) un couple de variables aléatoires continues. Considérons un échantillon de


taille n de ce couple. Posons :

En = {(xk , yk ), k = 1, ..., n} .

46
2.1 Copule dans la modélisation stochastique

La copule empirique associée à cet échantillon est la fonction Cn donnée par :

i j XX p q
Cn ( , ) = fn ( , );
n n p q
n n

où fn est la fonction fréquence définie par :



1
i j n
si (xi , yj ) ∈ En

fn ( , ) = .
n n  0 sinon

2.1.5.4 Famille des copules max-stables

Dans cette sous-section, notre objectif est de mettre en relief la spécificité d’une copule
max-stable. Cette particularité est formulée dans le théorème suivant.


Théorème 2.1.5 Soit X k , k = 1, . . . , n un échantillon de vecteurs aléatoires i.i.d. et
Mn le vecteur des maxima associé. Si C est la copule associée à Mn alors

 n
1/n 1/n
C (u1 , . . . , ud ) = C u1 , . . . , u d .

Preuve 2.1.2 Soit X k , k = 1, . . . , n un échantillon i.i.d de vecteurs aléatoires de fonction


de distribution jointe F de distributions marginales F1 , . . . , Fd . Soit Mn le vecteur des
maxima,
Mn = max X11 , . . . , X1n , . . . , max Xd1 , . . . , Xdn .
  

Connaissant la définition du vecteur des maximums Mn , déterminons C sa copule as-


sociée. Sa fonction de distribution jointe F(n) , est définie par

F(n) (x1 , . . . , xd ) = P max X11 , . . . , X1n ≤ x1 , . . . , max Xd1 , . . . , Xdn ≤ xd .


   

Puisque les d−uplets X1j , . . . , Xdj , 1 ≤ j ≤ n sont i.i.d de fonction de distribution jointe


F , on a

F(n) (x1 , . . . , xd ) = F n (x1 , . . . , xd )

= [C (F1 (x1 ) , . . . , Fd (xd ))]n . (2.4)

Or pour chaque marge Fi , 1 ≤ i ≤ d, la fonction de distribution F(n,i) de max {Xi1 , . . . , Xin }

47
2.1 Copule dans la modélisation stochastique

est donnée par

F(n,i) (xi ) = P max Xi1 , . . . , Xin ≤ xi = Fin (xi ) .


 

Ce qui implique que


1/n
Fi (xi ) = F(n,i) (xi ) .

1/n
Par suite, en remplaçant les Fi , 1 ≤ i ≤ d respectivement par les Fi , 1 ≤ i ≤ d dans
l’équation (2.4), on obtient

h  in
1/n 1/n
F(n) (x1 , . . . , xd ) = C F(n,1) (x1 ) , . . . , F(n,d) (xd ) .

Ce qui donne

 
1/n 1/n
F(n) (x1 , . . . , xd ) = C n F(n,1) (x1 ) , . . . , F(n,d) (xd ) . (2.5)

Le théorème de Sklar permet de conclure.

Une généralisation du résultat en (2.5), engendre la notion de la max-stabilité d’une


copule. Elle se reformule comme dans la définition ci-après.

Définition 2.1.3 Une copule C est dite max-stable si pour tout réel strictement positif
α et pour tout ui ∈ [0, 1] , 1 ≤ i ≤ d, on a

 
1/α 1/α
C (u1 , . . . , ud ) = C α u1 , . . . , ud .

Exemple 2.1.2 Si les X1j , . . . , Xdj , 1 ≤ j ≤ n sont indépendantes alors les

max Xi1 , . . . , Xin , 1 ≤ i ≤ d




sont aussi indépendantes. Donc la copule max-stable associée est


" d
#n d
Y 1/n
Y
Π(n) (u1 , . . . , ud ) = ui = ui .
i=1 i=1

Aussi, toutes les copules de la famille de Gumbel-Hougaard, de paramètre θ ≥ 1, définie

48
2.1 Copule dans la modélisation stochastique

par  "
d
#1/θ 
 X 
Cθ (u1 , . . . , ud ) = exp − (− ln ui )θ
 
i=1

sont des copules max-stables.

Définition 2.1.4 Une copule C est dite copule des valeurs extrêmes si elle vérifie la
propriété de max-stabilité suivante

 n
1/n 1/n
C u1 , . . . , ud −→ C (u1 , . . . , ud ) (2.6)

lorsque n → +∞ pour (u1 , . . . , ud ) ∈ [0, 1]d .

Proposition 2.1.3 L’ensemble des copules extrêmes coı̈ncide avec l’ensemble des copules
max-stables.

Preuve 2.1.3 Il est trivial de voir qu’une copule max-stable est une copule des valeurs
extrêmes. Démontrons sa réciproque. Autrement dit prouvons qu’une copule des valeurs
extrêmes est une copule max-stable.
Soit C une copule des valeurs extrêmes, il existe donc une copule C∗ qui satisfait
l’équation (2.6). Par suite, pour tout réel r strictement positif, on a

   
r 1/r 1/r rn 1/rn 1/rn
C u1 , . . . , ud = lim C u1 , . . . , ud (2.7)
n→+∞

En posant m = rn, l’équation (2.7) devient

   
r 1/r 1/r m 1/m 1/m
C u1 , . . . , ud = lim C u1 , . . . , ud = C (u1 , . . . , ud ) .
m→+∞

Par conséquent, C est max-stable.

Cette proposition confirme l’étroite relation entre les processus max-stable et celui
des valeurs extrêmes. En outre, elle offre une autre manière de présenter une copule des
valeurs extrêmes. Une autre présentation est disponible, celle de Pickands [76].

49
2.1 Copule dans la modélisation stochastique

2.1.5.5 Famille des copules Archimédiennes et Archimax

a) Copule des Archimédiennes

Les copules archimédiennes bivariées ont été largement développées par Genest et Mac-
kay ([10]). La famille des copules Archimédiennes multivariées présente le double avantage
d’avoir une forme analytique explicite et de tenir compte de toutes les dépendances entre
les variables aléatoires unidimensionnelles.

Une copule C est Archimédienne si et seulement si elle est de la forme


" #
X
C(u1 , ..., um ) = φ−1 φ(ui ) ; (u1 , ..., um ) ∈ I m .
1≤ i ≤ m

où φ : [0, 1] −→ [0, +∞[, est appelé générateur Archimédien, est une fonction continue
strictement décroissante telle que.

· φ(1) = 0 et ϕ(0) = +∞.

· φ−1 la pseudo-inverse de ϕ soit complètement monotone sur [0, +∞[ c-à-d

(k)
∀t ≥ 0 et ∀k ≥ 0, (−1)k φ−1 (t) ≥ 0;

(k)
où (φ−1 ) est la dérivée d’ordre k de φ−1 .
Pour le cas particulier où n = 2, il suffit que φ soit convexe.
Par exemple, pour φ (t) = (− log t)θ avec θ > 1, on obtient le modèle logistique bivarié
défini pour tout (u1 , u2 ) ∈ I 2 , par :

n 
θ
1 o
θ θ
Cθ (u1 , u2 ) = exp − (− ln u1 ) + (− ln u2 ) ; (u1 , u2 ) ∈ [0, 1]2 .

Le tableau suivant donne les quatre familles de générateurs archimédiens bivariés


usuelles.

Une des particularités des copules Archimédiennes est leur propriété de symétrie et d’as-
sociativité. Elle se résume dans le théorème ci-après.

50
2.1 Copule dans la modélisation stochastique

Famille Générateur, ϕθ (t) Copule, C(u1 , u2 ); (u1 , u2 ) ∈ I 2


Indépendante ϕθ (t) = −lnt C(u1 , u2 ) = Π(u1 , u2 ) = u1 u2 (produit)
 −1
Clayton −θ
ϕθ (t) = t − 1 Cθ (u1 , u2 ) = u−θ −θ
1 n+ u2 − 1
θ
;θ > 0
 1 o
Gumbel ϕθ (t) = (− ln t)θ ; θ ≥ 1 Cθ (u1 , u2 ) = exp − (− ln u1 )θ + (− ln u2 )θ θ
 
(e−θu1 −1)(e−θu2 −1)
 −θt 
e −1 −1
Franck, θ 6= 0 ϕθ (t) = − log e−θ −1 Cθ (u1 , u2 ) = θ log 1 + e−θ −1

Table 2.1 – Quelques familles de générateurs archimédiens

Théorème 2.1.6 Soit C une copule Archimédienne de générateur ϕ. Alors

1. C est symétrique, i.e pour tous u, v ∈ [0, 1], C (u, v) = C (v, u).

2. C est associative, i.e pour tous u, v, w ∈ [0, 1], C (C (u, v) , w) = C (u, C (v, w)) .

La figure suivante donne la représentation de trois copules de la famille archimédienne à


savoir : la copule de Clayton, de Frank et de Gumbel.

Plus généralement, les copules revêtent plusieurs autres propriétés. L’ouvrage de Nel-

Figure 2.4 – Représentation des copules Archimédiennes

sen [79] est une bonne référence en matière de modélisations impliquant les copules.
En particulier, cette section nous rappelle les propriétés des copules Archimédiennes. La
flexibilité est un autre atout copules Archimédiennes qui nous sert dans la description de
la structure de dépendance des classes de variogramme. Ces résultats sont exposés dans
la section qui suit.

51
2.1 Copule dans la modélisation stochastique

b) Copule Archimax

Les copules Archimax ont été introduites par Capéraé et al. . Comme leur nom l’in-
dique, ces copules regroupent les copules Archimédiennes et toutes les copules max-stables.

Définition 2.1.5 Une fonction bidimensionnelle est une copule Archimax si et seulement
si elle est de la forme :
  
−1 ϕ (u1 )
Cϕ,A (u1 , u2 ) = ϕ [ϕ (u1 ) + ϕ (u2 )] A ,
ϕ (u1 ) + ϕ (u2 )

pour tout 0 ≤ u1 , u2 ≤ 1, avec A la fonction de dépendance de Pickands et ϕ une fonction


génératrice d’une copule archimédienne.

Par exemple, pour ϕ (x) = ln (1/x), la copule Cϕ,A est une copule des valeurs extrêmes,
c-à-d   
ln u1
Cϕ,A (u1 , u2 ) = exp (ln u1 + ln u2 ) A .
ln u1 + ln u2
Pour A (t) = 1, la copule Cϕ,A se réduit à une copule Archimédienne.

2.1.5.6 La famille des copules elliptiques

Comme dans l’analyse des distributions univariées, il existe des familles standard de
distributions de probabilité pour les vecteurs aléatoires.

a) Distribution elliptique multivariée

La loi normale multivariée est caractérisée par la définition suivante

Définition 2.1.6 Un vecteur aléatoire X = (X1 , ..., Xm ) suit une distribution gaus-
sienne (ou normale) multivariée de vecteur moyen µ = (µ1 , ..., µm ) si sa fonction densité
conjointe est donnée, pour tout x = (x1 , ..., xn ) ∈ Rn , par
 
1 1 t −1
fX,Σ (x) = p exp − (x − µ) Σ (x − µ) , (2.8)
(2π)n détΣ 2

52
2.1 Copule dans la modélisation stochastique

où Σ est la matrice de covariance de X définie telle que


 
V ar(X1 ) ... Cov(X1 , X2 )
 
..
.
 
 
.. ..
 
Σ= ...
.
 
. Cov(Xj , Xi ) .
 
 ... 
 Cov(Xi , Xj ) 
 
Cov(Xn , X1 ) ... V ar(Xn )

On note X N (µ, Σ) .

Une définition complète des distributions elliptiques permet une meilleure compréhension
de nos résultats.

Définition 2.1.7 (distribution elliptique)


Soit X = (X1 , ..., Xn ) un vecteur aléatoire n-dimensionnel. On dit que X est distribué
elliptiquement (ou simplement elliptique) si et seulement si pour tout vecteur µ ∈ Rn ,
toute matrice symétrique définie positive Σ de taille n × n et toute fonction φ : R+ → R,

la fonction caractéristique ϕX−µ de X − µ est de la forme ϕX−µ (t) = φ tT Σt et on écrit
X En (µ, Σ, φ) .

Plus précisément, la fonction de densité ϕ d’un vecteur aléatoire elliptique X de di-


mensions n de paramètre µ = (µ1 , ..., µn ) ∈ Rn et de matrice de corrélation Σ, s’écrit (s’il
existe) sous la forme

 
cn 1
ϕ (x) = p gn (x − µ)t Σ−1 (x − µ) pour tout x = (x1 , ..., xn ) ∈ Rn ; (2.9)
det (Σ) 2

où gn est le générateur de la fonction de densité,


cn le coefficient de normalisation défini par

n
 Z +∞ −1
Γ 2 n
−1
cn = n x 2 gn (x) dx ; (2.10)
(2π) 2 0

R +∞ n
vérifie la contrainte 0
x 2 −1 gn (x) dx < +∞.
La forme du générateur donne généralement la famille normale multivariée ou la famille
t-Student. Le cas particulier où n = 1 fournit la classe des distributions symétriques. Le

53
2.1 Copule dans la modélisation stochastique

résultat suivant fournit une représentation stochastique de vecteurs aléatoires elliptiques


lorsque la matrice de dispersion a un rang complet.

Théorème 2.1.7 (voir [33]) Le vecteur aléatoire X v En (µ, Σ, φ) avec r (Σ) = k si et


seulement si
d
X = µ + RAU (k) ; (2.11)

où U(k) est un vecteur aléatoire n-dimensionnel uniformément distribué sur Sk−1 , R est
un vecteur aléatoire non négatif indépendant à U (k) , où µ ∈ Rn . Ainsi, A ∈ Rn×k avec
r(A) = k et satisfait la décomposition de Choleski Σ = AT A.

Les copules elliptiques sont généralement définies comme des copules de distribution
elliptiques. En particulier, si ΨΣ est la distribution elliptique multivariée de marginale
commune Ψ et de matrice de corrélation Σ, alors la copule elliptique provient de la relation
(2.9) par

1 n  o
ΨΣ Ψ−1 −1 1 T −1

CΣθ (u1 , . . . , un ) = 1 (u1 ), . . . , Ψn (un ) =√ exp − 2 Ũ Σ Ũ ; (2.12)
det Σ

où Ũ = (Ψ−1 (u1 ), . . . , Ψ−1 (un )) est le vecteur quantile de la distribution marginale.
Bien qu’elles ne puissent pas être exprimées par une forme explicite, les structures ellip-
tiques mettent en place différents degrés de corrélation et fournissent une riche source de
distributions avec de nombreuses propriétés exploitables des distributions normales mul-
tivariées. En outre, ils héritent d’une extrême dépendance multivariée et de nombreuses
propriétés gaussiennes. Deux familles de structures (distributions et copules) elliptiques
les plus connues sont la famille gaussienne et la famille t de Student.

b) La copule Gaussienne

Dans la propriété (2.9) associée à la définition 2.1.6, pour un générateur elliptique


u

g(u) = e 2 , on obtient le vecteur

q
X =µ+ Xk2 Au(k) et X Nn (µ, Σ);

54
2.1 Copule dans la modélisation stochastique

i.e loi gaussienne multivariée de matrice de covariance


 
V ar(X1 ) ... Cov(X1 , X2 )
 
..
.
 
 
.. ..
 
Σ= ...
.
 
. Cov(Xj , Xi ) .
 
 ... 
 Cov(Xi , Xj ) 
 
Cov(Xn , X1 ) ... V ar(Xn )

La copule Gaussienne est beaucoup utilisée dans la modélisation financière. Soit R la


matrice de corrélation d’un vecteur gaussien standard N(0, R) (de moyennes nulles et de
variance 1). Notons ΦR,n la distribution conjointe de cette loi i.e
Z x1 Z xn  
1 1 t −1
ΦR,n (x1 , . . . , xn ) = ... exp − Y R Y dy1 . . . dyn ;
(2π)n det R
p
−∞ −∞ 2

alors la copule Gaussienne associée à la loi N(0,R) est donnée par :

CR,n (u1 , . . . , un ) = ΦR,n Φ−1 (u1 ), . . . , Φ−1 (un ) ; (u1 , . . . , un ) ∈ I n




où Φ−1 est la fonction inverse de la loi normale standard N(0,1).

En particulier, la copule associée à deux variables aléatoires normales standard X1 et


X2 de corrélation ρ est donnée, pour tout (u1 , u2 ) ∈ I 2 par :

Φ−1 (u1 ) Φ−1 (u2 )  2


x1 − 2ρx1 x2 + x22
Z Z 
1
Cρ (u1 , u2 ) = p exp − dx1 dx2 .
2π 1 − ρ2 −∞ −∞ 2(1 − ρ2 )

De la relation (2.1.5), on déduit la densité de cette copule, pour tous x1 , x2 ∈ R, par :


 2
x1 − 2ρx1 x2 + x22 x21 + x22

1
c(H1 (x1 ), H2 (x2 )) = p exp − + ,
1 − ρ2 2(1 − ρ2 ) 2

i.e pour tout (u1 , u2 ) ∈ I 2 ,

2 2 2 2
 
√1 (Φ−1 (u1 )) −2ρΦ−1 (u1 )Φ−1 (u2 )+(Φ−1 (u2 )) (Φ−1 (u1 )) +(Φ−1 (u1 ))
c(u1 , u2 ) = exp − 2(1−ρ2 )
+ 2
.
1−ρ2

55
2.1 Copule dans la modélisation stochastique

c) La copule de Student ou t-copule

Dans la relation (2.9) associée à la définition (2.1.6), en considérant le générateur


1+γ
t −
elliptique gn (t) = (1 + ) 2 , alors le vecteur elliptique X est de loi de Student de
γ
degré de liberté γ. Dans ce cas la relation (2.11) équivaut à :

loi p
X →µ+ nTn,ν Au(k) TΣ,n (µ, Σ, n)

p
avec R = nTn,ν . Comme la copule Gaussienne, la copule de Student ou t-copule est
paramétrée par une matrice R décrivant la dépendance deux à deux entre les variables.
Soit TR,ν,n la distribution de Student multivariée de dimension n, à n degrés de liberté, et
de matrice de corrélation R. La copule de Student CR,v associée à cette distribution est
définie telle que :

CR,v (u1 , . . . , un ) = TR,v Tv −1 (u1 ), . . . , Tv −1 (un ) ;




où  
v+1
Z x Γ
2 1 dt
Tν (x) = v  √ ,
vΠ   v+1
−∞ Γ t2 2
2 1+
v
et  
v+n
Z x1 Z xn Γ
2 1 dt1 . . . dtn
TR,v (x1 , . . . , xn ) = ... v  n √  v+n
.
−∞ −∞ Γ (vΠ) 2 det R  T
t Rt 2
2 1+
v
On déduit de (2.12) la densité de la t-copule par :

 − v+n
Y T RY 2
1+
v+n v n−1
 
2
Γ 2
Γ v
c (u1 , . . . , un ) = √
Γ v+1
n
det R n  − v+1 ;
2 Yi2 2
Π 1+ v
i=1

où Y = (Yi ) , i = 1, . . . , n avec Yi = Tν−1 (ui ) .

Remarque 2.1.2 Comparativement à la copule Gaussienne, la t-copule permet, grâce à


son degré de liberté, de mieux tenir compte des queues de distributions épaisses. En outre,
la copule de Gauss est une copule asymptotique de la t-copule lorsque v tend vers l’infini.

56
2.2 Modélisation des outils géostatistiques par les copules

2.2 Modélisation des outils géostatistiques par les co-


pules
Dans cette section, nous utilisons la paramétrisation canonique (copule) pour modéliser
les principaux outils geostatistiques. Les résultats de cette section ont fait l’objet d’une
publication dans la revue scientifique EJPAM. Cet article apporte une contribution en
analyse spatiale. En effet, le variogramme et ses dérivés sont des outils techniques fon-
damentaux de l’analyse géostatistique (cf. chap1 section 1.2.2). Plus précisément le va-
riogramme tout comme le corrélogramme, permet de mesurer la dépendance linéaire des
phénomènes spatiaux. Quant au madogramme, il étudie la dépendance des phénomènes
dans le contexte des valeurs extrêmes multivariées.

2.2.1 Modélisation des madogrammes par les copules

Soit Z un processus stochastique en n sites Z = {Z(s1 ), . . . , Z(sn )}. Supposons que


H(si , sj ) et h(si , sj ) sont les fonctions de distribution et de densité jointe de Z(.) de
distribution marginale FZ (si ) au site si . La sous-section suivante modélise le madogramme
et le F-madogramme à partir la fonction copule.
Le résultat suivant fournit une relation entre le F-madogramme et la fonction copule
sous-jacente.

Théorème 2.2.1 Soit CF la copule jointe d’un processus stochastique Z = {Z(s1 ), . . . , Z(sn )} .
Alors, le F-madogramme généralisé est tel que :

Z 1  1  1
1
γF (h) = udCF,h u λ , u 1−λ − [C(λ) − Dh (λ)] , (2.13)
0 2
où
σZ2 s
 
1
C(λ) = ,
2 1 + λσZ2 s
et !
1 σZ2 s+h
Dh (λ) = ,
2 1 + (1 − λ)σZ2 s+h

pour λ ∈]0; 1[, h étant la distance entre deux points de mesure.

Ce résultat est une généralisation des travaux de D. Barro et al.[26] qui ont utilisé une
mesure spatiale conditionnelle convexe D définie sur l’unité simplexe de R2 . Sa preuve est

57
2.2 Modélisation des outils géostatistiques par les copules

donnée sous dessous.

Preuve 2.2.1 Considérons une distribution bivariée F, satisfaisant la définition (Définition


2.1.2). En remarquant que

|a − b| = 2 max {a, b} − (a + b),

et en utilisant cette relation dans (1.9), il s’en suit que :


 
E 2 max [F (Z(s))]λ , [F (Z(s + h))]1−λ − [F (Z(s))]λ − [F (Z(s + h))]1−λ
γF (h) = .
2

Ainsi,

γF (h) = E max [F (Z(s))]λ , [F (Z(s + h))]1−λ ]




− 12 E [F (Z(s))]λ − E [F (Z(s + h))]1−λ


  
(2.14)

De plus,
FZs ,Zs+h ,λ (u) = P max [F (Z(s))]λ , [F (Z(s + h))]1−λ ≤ u .
 

On a alors,

FZs ,Zs+h ,λ (u) = P [F (Z(s))]λ ≤ u, [F (Z(s + h))]1−λ ≤ u ,




par conséquent

 1 1

FZs ,Zs+h ,λ (u) = P F (Z(s)) ≤ u , F (Z(s + h)) ≤ u
λ 1−λ ,

En outre, il vient que

 1 1

FZs ,Zs+h ,λ (u) = CF,h u , u
λ 1−λ pour tout λ ∈]0; 1[.

Cela est équivalent à,


Z 1
λ 1−λ

E max [F (Z(s))] , [F (Z(s + h))] = udFZs ,Zs+h ,λ (u).
0

58
2.2 Modélisation des outils géostatistiques par les copules

Il s’en suit que, pour tout λ ∈]0; 1[,


Z 1  1 
1
λ 1−λ

E max [F (Z(s))] , [F (Z(s + h))] = udCF,h u λ , u 1−λ . (2.15)
0

Or
σZ2 s
E max [F (Z(s))]λ

= , (2.16)
1 + λσZ2 s
et
1−λ
 σZ2 s+h
E max [F (Z(s + h))] = ∀λ ∈]0; 1[. (2.17)
1 + (1 − λ)σZ2 s+h

Ainsi, en utilisant les relations (2.15), (2.16) et (2.17) dans (2.14), il s’en suit que
" #
1
σZ2 s σZ2 s+h
Z  1 1
 1
γF (h) = udCF,h u , u
λ 1−λ − + .
0 2 1 + λσZ2 s 1 + (1 − λ)σZ2 s+h

Ce qui satisfait la relation (2.13) telle que stipulée.

Tout comme le F-madogramme, le madogramme peut aussi être modélisé par la fonction

copule. Considérons Z = Z(x), x ∈ Rd un champ aléatoire régulier défini sur Rd . Il est
bien connu que le madogramme associé au champ aléatoire Z est une fonction M , définie
de Rd dans R+ tel que :

E(|Z(x + h) − Z(x)|)
∀h ∈ Rd , M (h) = , x ∈ Rd . (2.18)
2

La proposition suivante permet de modéliser le madogramme en utilisant la fonction


copule.

Proposition 2.2.1 Si Z(.) est un champ aléatoire stationnaire d’ordre deux. Alors, la
relation entre son madogramme et la fonction copule bivariée est donnée par :
Z 1
M (h) = FZ−1 (u)dCh (u, u) − µ,
0

où µ = E(Z(x + h)) = E(Z(x)), Ch (., .) étant la fonction de copule jointe qui décrit la
structure de dépendance entre deux sites distants de h.

La figure suivante (Figure 2.5) fournit une représentation de la copule jointe de ces
deux variables.

59
2.2 Modélisation des outils géostatistiques par les copules

Figure 2.5 – Représentation graphique d’une distribution jointe de copule

Preuve 2.2.2 Rappelons que |a − b| = 2 max {a, b} − (a + b). En utilisant cette relation
dans (2.18), il vient que pour tout h, x ∈ Rd

E (2 max[Z(x + h), Z(x)] − Z(x + h) − Z(x))


M (h) = . (2.19)
2

Comme E(.) est une application linéaire, la relation (2.19) donne

E (2 max[Z(x + h), Z(x)]) − E (Z(x + h)) − E (Z(x))


M (h) = .
2

Ainsi,
M (h) = E (max[Z(x + h), Z(x)]) − µ. (2.20)

De plus,
P (max[Z(x + h), Z(x)] ≤ z) = P (Z(x + h) ≤ z, Z(x) ≤ z) ,

Ce qui est équivalent à :

P (max[Z(x + h), Z(x)] ≤ z) = Ch (P (Z(x + h) ≤ z) , P (Z(x) ≤ z))

on a alors,
P (max[Z(x + h), Z(x)] ≤ z) = Ch (FZ (z), FZ (z)) ,

60
2.2 Modélisation des outils géostatistiques par les copules

d’où, Z 1
E (max[Z(x + h), Z(x)]) = FZ−1 (u)dCh (u, u).
0

En remplaçant ces expressions dans l’équation (2.20) et en prenant en compte que z =


FZ−1 (u), nous obtenons le résultat :
Z 1
M (h) = FZ−1 (u)dCh (u, u) − µ.
0

D’où le résultat.

Ces résultats sont très utiles car, ils permettent de mesurer la dépendance linéaire et non
linéaire des phénomènes spatiaux ou spatio-temporels.
La section suivante modélise les outils géostatistique de base (covariogramme et vario-
gramme) en utilisant les copules.

2.2.2 Modélisation de covariogramme à partir des copules

Le variogramme permet de mesurer la dépendance linéaire entre les variables aléatoires


d’un champ. Pour deux sites donnés, le variogramme associé est donné par

ϑ(si , sj ) = V ar(Z(si ) − Z(sj )) = V ar(Z(si )) + V ar(Z(sj )) − 2ĉ(si , sj ). (2.21)

Ces outils ne prennent pas en compte les données extrêmes observées dans les différents
sites d’observation. Cependant, la fonction copule permet de modéliser les données extrêmes
et de détecter tout lien non linéaire entre différents sites d’observation. Ainsi, il est
nécessaire d’exprimer le variogramme et le covariogramme via la copule pour permettre au
modèle de prendre en compte la structure spatiale même en présence de données extrêmes.
Le modèle pourrait également détecter la présence d’une certaine dépendance non linéaire.
Le résultat suivant modélise le covariogramme et le variogramme en utilisant la fonction
copule.

Théorème 2.2.2 Soit Z = {Z(s1 ), . . . , Z(sn )} un processus stochastique de variogramme


définie par la relation 2.21. Alors, le covariogramme ĉ(si , sj ) et la fonction copule sont
liés par la relation.
ϑ(si , sj ) = σZ2 (si ) + σZ2 (sj ) − 2ĉ(si , sj ) (2.22)

61
2.2 Modélisation des outils géostatistiques par les copules

où Z 1 Z 1
ĉ(si , sj ) = FZ−1 (u)FZ−1 (v)c(u, v)dudv − mi mj .
0 0

Les quantités mi étant la moyenne de Z(si ) ; c(u, v) la fonction densité de copule associée
à Z(si ) et à Z(sj ).

Preuve 2.2.3 Soit ui = F (Z(si )) = FZ (si ). Il vient que :

zi = FZ−1 (ui ) =⇒ dui = fZ (zi )dzi ,

où fZ (si ) est la fonction densité de Z(si ).


Par conséquent, on peut écrire que :

1
dzi dzj = dui duj .
fZ (zi )fZ (zj )

De façon similaire au théorème de Sklar [10], il vient que, pour toutes paires de sites
(si , sj ) ∈ S 2
H(si , sj ) = C(FZ (si ), FZ (sj )).

De plus,
f H1−1 (u), Hn−1 (un )
 
c(u, v) =  −1  . (2.23)
f1 F1 (u1 ) × ... × Fn [Fn−1 (un )]
La relation entre la fonction densité h(si , sj ) et la fonction densité jointe des copules
c(u, v) est donnée par :

h(si , sj ) = c(Fi∗ (si ), Fi∗ (si ))fZ (zi )fZ (zj ).

En utilisant ces relations dans l’expression du covariogramme, il vient que


Z 1 Z 1
ĉ(si , sj ) = FZ−1 (u)FZ−1 (v)c(u, v)dudv − mi mj .
0 0

En utilisant cette dernière relation dans l’expression du variogramme, on obtient


Z 1 Z 1
ϑ(si , sj ) = σZ2 (si ) + σZ2 (sj ) −2 FZ−1 (u)FZ−1 (v)c(u, v)dudv − 2mi mj .
0 0

D’où le résultat.

62
2.2 Modélisation des outils géostatistiques par les copules

La figure précédente donne une représentation du variogramme théorique.

Figure 2.6 – Représentation de quelques modèles de variogramme

La sous-section suivante nous permet d’obtenir un résultat précieux : la modélisation du


corrélogramme à partir de la fonction copule.

2.2.3 Modélisation du corrélogramme par les copules

Le corrélogramme mesure la dépendance spatiale entre deux sites si et sj pour tout i


et j. Le résultat suivant modélise le corrélogramme via la fonction copule.

Théorème 2.2.3 Soit Z = {Z(si ), . . . , Z(sj )} un processus stochastique d’un domaine


géostatistique S. Pour deux sites de mesure si , sj ∈ S, le corrélogramme se modélise via
la copule par,

1 1
FZ−1 (u) FZ−1 (v)
Z Z
mi mj
ρ(si , sj ) = c(u, v)dudv − ; (2.24)
0 0 σZ (si ) σZ (sj ) σZ (si ) σZ (sj )

∂ 2 C(u,v)
où mi désigne la moyenne de Z(si ), c(u, v) = ∂u∂v
la fonction densité de copule C et
σZ (si ) l’erreur standard de Z(si ).

Preuve 2.2.4 Par définition, le corrélogramme d’un champ en deux sites d’observation
est donné par :

ĉ(si , sj ) 1
ρ(si , sj ) = = × ĉ(si , sj ).
σZ (si )σZ (sj ) σZ (si )σZ (sj )

63
2.2 Modélisation des outils géostatistiques par les copules

En utilisant le résultat du théorème précédent (theoreme 3), nous obtenons(2.24).

La section suivante modélise les outils géostatistique de base en utilisant une hypothèse
géostatistique : la stationnarité (voir chapitre 1, section 2).

2.2.4 Cadre stationnaire pour la modélisation de la covariance

Dans un contexte spatial, la stationnarité décrit en quelque sorte une forme d’ho-
mogénéité spatiale de la régionalisation. D’un point de vue mathématique, les hypothèses
de stationnarité consistent à supposer que les propriétés probabilistes d’un ensemble de
valeurs ne dépendent pas de la position absolue des sites associés, mais uniquement de
leur séparation.
Sous l’hypothèse de la stationnarité au second ordre du champ aléatoire Z(.), la fonc-
tion moyenne dévient une constante et la covariance ne dépend que de la distance séparant
les sites. Par conséquent, on peut écrire que :

E(Z(si )) = µ ∀i = 1, n and ĉ(si , sj ) = ĉ(si − sj ) = ĉ(hij ).

Les relations précédentes peuvent être écrites différemment. En particulier, le résultat


suivant donne une relation entre le covariogramme et la fonction de copule dans le cas de
la stationnarité au second ordre.

Corollaire 2.2.1 Dans un contexte de stationnarité au second ordre, le covariogramme


est donné par :

Z 1 Z 1
ĉ(si , sj ) = ĉ(hij ) = FZ−1 (u)FZ−1 (v)chij (u, v)dudv − µ2 , (2.25)
0 0

où hij = |si − sj | et chij (u, v) la fonction densité de copule jointe des deux variables
localisées sur deux sites distants de hij .

Preuve 2.2.5 Sous l’hypothèse de la stationnarité d’ordre deux, le résultat du théorème


(Théorème 2.2.2) donne la relation (2.25).

64
2.2 Modélisation des outils géostatistiques par les copules

Dans le même ordre d’idée, sous l’hypothèse de la stationnarité au second ordre, le


corrélogramme et le variogramme sont exprimés en fonction de la copule par les rela-
tions suivantes.

Proposition 2.2.2 En admettant que hij = si −sj est la distance moyenne et en utilisant
la relation (2.25), alors, le corrélogramme est tel que

1 1
FZ−1 (u)FZ−1 (v) µ2
Z Z
ρ(hij ) = chij (u, v)dudv − . (2.26)
0 0 ĉ(0Rd ) ĉ(0Rd )

et  Z 1 Z 1 
ϑ(hij ) = 2 ĉ(0Rd ) + µ − 2
FZ−1 (u)FZ−1 (v)chij (u, v)dudv . (2.27)
0 0

Preuve 2.2.6 Sous l’hypothèse de la stationnarité d’ordre deux et en utilisant la relation


(2.25), le résultat du théorème(Théorème 2.2.2) donne les résultats (2.26) et (2.27).

La proposition suivante permet d’avoir une relation entre le variogramme et le covario-


gramme dans le contexte de la stationnarité au second ordre.

Proposition 2.2.3 La relation entre le variogramme et le covariogramme est telle que,

1
ĉ(hij ) = ĉ(0Rd ) − ϑ(hij ).
2

Preuve 2.2.7 Considérons les relations (2.25) et (2.27). Il est bien connu que :
Z 1 Z 1
ĉ(si , sj ) = ĉ(hij ) = FZ−1 (u)FZ−1 (v)chij (u, v)dudv − µ2 ,
0 0

et  Z 1 Z 1 
ϑ(hij ) = 2 ĉ(0Rd ) + µ − 2
FZ−1 (u)FZ−1 (v)chij (u, v)dudv .
0 0

En ajoutant les deux relations ci-dessus, nous obtenons :

2ĉ(hij ) + ϑ(hij ) = 2ĉ(0Rd ).

Donc
1
ĉ(hij ) = ĉ(0Rd ) − ϑ(hij ).
2

65
2.2 Modélisation des outils géostatistiques par les copules

La sous-section suivante permet de modéliser les outils géostatistique de base dans un


contexte de la stationnarité intrinsèque pour un champ aléatoire sans dérive.

2.2.5 Covariogramme dans un cadre de la stationnarité intrinsèque

Considérons un champ aléatoire intrinsèque Z(.) Sans dérive, c’est-à-dire la moyenne


des incréments est nulle et la variance des incréments est le variogramme. L’hypothèse
intrinsèque s’écrit :
E[Z(x + h) − Z(x)] = 0,

et
V ar[Z(x + h) − Z(x)] = E [Z(x + h) − Z(x)]2 = 2γ(h).

(2.28)

En intégrant l’hypothèse intrinsèque, nous obtenons le résultat suivant.

Théorème 2.2.4 Soit Z(.) Un champ aléatoire intrinsèque sans dérive. Il s’ensuit que
la covariance est telle que
Z 1 Z 1
ĉ(si , sj ) = ĉ(hij ) = FZ−1 (u)FZ−1 (v)chij (u, v)dudv − µ2 , (2.29)
0 0

tandis que le corrélogramme est :

1 1
FZ−1 (u)FZ−1 (v) µ2
Z Z
ρ(hij ) = chij (u, v)dudv − .
0 0 ĉ(0Rd ) ĉ(0Rd )

Et le variogramme
 Z 1 Z 1 
2
ϑ(hij ) = 2 ĉ(0Rd ) + µ − FZ−1 (u)FZ−1 (v)chij (u, v)dudv .
0 0

Où µ désigne la moyenne, ĉ(0Rd ) la variance et chij (u, v) la fonction densité de copule.

Preuve 2.2.8 En considérant encore la relation (2.28) nous obtenons :

1 
γ(h) = E [Z(x + h) − Z(x)]2 . (2.30)
2

66
2.2 Modélisation des outils géostatistiques par les copules

Maintenant, il vient que

E [Z(x + h) − Z(x)]2 = E([Z(x + h)]2 ) − 2E(Z(x + h)Z(x)) + E([Z(x)]2 ).




D’où, en tenant compte de la densité de la copule,


Z 1 Z 1
2 2
FZ−1 (u)FZ−1 (v)chij (u, v)dudv + ĉ(0Rd ) + µ2 .

E [Z(x + h) − Z(x)] = ĉ(0Rd ) + µ − 2
0 0

De plus, nous avons,


Z 1 Z 1
2 2
FZ−1 (u)FZ−1 (v)chij (u, v)dudv.

E [Z(x + h) − Z(x)] = 2ĉ(0Rd ) + 2µ + −2
0 0

En utilisant cette dernière relation dans l’équation (2.30), on obtient finalement,


 Z 1 Z 1 
ϑ(h) = 2 ĉ(0Rd ) + µ − 2
FZ−1 (u)FZ−1 (v)chij (u, v)dudv . (2.31)
0 0

L’expression du variogramme est similaire dans le cadre intrinsèque qu’au second ordre,
nous en déduisons que les expressions de la covariance et du corrélogramme restent in-
changées.

Remarque 2.2.1 Le variogramme est lié au covariogramme par la relation :

Z 1 Z 1
ĉ(si , sj ) = ĉ(hij ) = FZ−1 (u)FZ−1 (v)chij (u, v)dudv − µ2 . (2.32)
0 0

et  Z 1 Z 1 
ϑ(hij ) = 2 ĉ(0Rd ) + µ − 2
FZ−1 (u)FZ−1 (v)chij (u, v)dudv . (2.33)
0 0

En ajoutant les deux relations ci-dessus, nous obtenons finalement,

2ĉ(hij ) + ϑ(hij ) = 2ĉ(0Rd )

et
1
ĉ(hij ) = ĉ(0Rd ) − ϑ(hij ).
2

67
2.2 Modélisation des outils géostatistiques par les copules

2.2.6 Principales familles de modèles de variogrammes

Dans cette section, nous donnons certains modèles de variagramme les plus couram-
ment utilisés en modélisation spatiale.

a) Familles de modèle avec pallier ou modèle de transition

Familles de Modèles de variogramme Paramètre


· Modèle effet pépite pur

 0 pour i = j
γ(hij ) =
1  ĉ ∀i 6= j

Ce modèle reflète une absence de structuration spatiale, due à la présence


d’une micro structure indétectable expérimentalement.
· Modèle sphérique de portée a et pallier ĉ (valide dans Rd , d 6 3)
 ĉ(7 khij2k2 − 35 khij3k3 + 7 khij5k5 − 3 khij7k7 ) pour 0 6k hij k6 a

2 a
a
γ(k hij k) = 4 a 2 a 4 a
 ĉ pour k h k> a
ij

Modèle gaussien de paramètre a et seuil ĉ


k hij k2
γ(k hij k) = ĉ(1 − exp(− )) √
3 a2 a 3
Le seuil est atteint de manière asymptotique et la portée pratique peut être

pris égal à a 3

b) Modèles de Bessel et polynomiaux du variogramme

Ces modèles regroupent principalement le modèle de Bessel modifié, Le modèle de


Bessel et le modèle polynômiale.

68
2.2 Modélisation des outils géostatistiques par les copules

· Modèle de Bessel modifié


 
1 k hij k α khij k
γ(k hij k) = ĉ 1 − α−1 ( ) Kα ( a )
2 Γ(α) a
caractérisé par le pallier ĉ, la portée a et de paramètre α, et avec
1
Γ étant la fonction d’Euler interpolant la factorielle K(α) . α>0
 
∞ 1 u 2k−α ∞ 1 u 2k+α
π Σk=0 ( ) − Σk=0 ( )
k!Γ(−α + k + 1) 2 k!Γ(α + k + 1) 2
Kα (u) =
2 sin(απ)
· α = − 12

· Le modèle Bessel J pour le


 
k hij k −α k hij k modèle
γ(k hij k) = ĉ 1 − ( ) Γ(α + 1)Jα ( ) ;
2a a
cosinus
2 caractérisé par un seuil ĉ, une portée a et un paramètre α, et
1
·α= 2
Jα étant la fonction de Bessel du premier type d’ordre α,
u (−1)k u pour le
Jα (u) = ( )α Σ∞k=0 ( )2k ..
2 k!Γ(α + k + 1) 2 modèle
sinus
· Modèle polynômiale de portée a et de pallier ĉ sur Rd
5
  
3  ĉ 35 khij k − 35 khij3k3 + 7 k hij k − 25 khij7k7 ∀ 0 6k hij k6 a

pour
12 a
γ(k hij k)= 8 a 2 a5 24 a

 ĉ pour k hij k> a d63

· Autre modèle polynômiale de portée a et de pallier ĉ


3 5
  
4  ĉ 5 k hij k − 5 k hij k + k hij k pour 0 6k hij k6 a

γ(k hij k) = 2 a 2 a3 a5
pour k hij k> a

 ĉ

Conclusion
La modélisation géstatistique des phénomènes spatiaux à partir des copules est nécessaire
car elle présente plusieurs atouts. Dans un premier temps, elle permet de réduire, voire an-
nuler l’effet de la présence des valeurs abérantes dans les données. En effet, par le théorème
de Sklar, la copule transforme toute distribution en une loi uniforme marginale, permet-
tant ainsi d’harmoniser les comportements aléatoires des modèles. Ensuite, elle permet

69
2.2 Modélisation des outils géostatistiques par les copules

Figure 2.7 – Représentation du coefficient extrémal

de déterminer la dépendance spatiale dans sa globalité (linéaire et non linéaire) puisque,


basé sur la fonction de répartitions. Enfin, elle permet de donner une bonne prédiction,
car le modèle de prédiction : le krigeage se base sur l’outil de dépendance spatiale : le
variogramme.

70
Chapitre 3

Modèles géostatistiques et
Estimation

Nous présentons dans ce chapitre les estimations des outils d’analyse structurale et
d’interpolation spatiale. Pour un échantillon prélevé sur un domaine bien précis, ces ou-
tils d’analyses et d’interpolation permettent d’avoir non seulement une idée de la bonne
répartition spatiale du phénomène, mais aussi et surtout, les valeurs prédites dans les sites
non encore échantillonné.

Dans la première section nous présentons les estimateurs classiques de l’inférence sta-
tistique dans un contexte d’utilisation des copules. Plus précisément, nous rappelons la
méthode des moments, la méthode IFM (Fonctions d’inférence pour les marges) et la
vraisemblance canonique.

Dans la deuxième section, nous restreignons l’estimation au contexte géostatistique. Ainsi,


nous passons en revue l’estimation des outils techniques de la géostatistique : le vario-
gramme et ses dérivés, le covariogramme, le corrélogramme, le madogramme et le coeffi-
cient extrémal.

Une troisième section porte sur l’application de nos résultats à l’estimation dans le do-
maine minier.

71
3.1 Rappels sur les méthodes classiques d’estimation

3.1 Rappels sur les méthodes classiques d’estimation


Avant d’aborder les techniques d’estimation géostatistique, il nous est apparu nécessaire
de passer en revue quelques méthodes classiques d’estimation statistiques appliquées aux
copules.

3.1.1 Méthode du maximum de vraisemblance

Méthode développée par le statisticien Ronald Aylmer Fisher [51], la méthode du


maximum de vraisemblance est la méthode d’estimation classique dont le principe est de
maximiser une fonction dite de vraissemblance.
Soit l’échantillon {(xt1 , · · · , xtn )}Tt=1 un vecteur d’observation où xti représente la mesure de
la variable x au site n et à la date t.Notons θ = (θ1 , · · · , θn , α) le vecteur de paramètres à
estimer avec θi le paramètre de la distribution marginale Fi et α le vecteur de paramètres
de copule C. La fonction de vraisemblance de θ associée à la réalisation x est :

T
X
L(x, θ) = ln f (xt1 , · · · , xtn ).
t=1

Et sous l’hypothèse d’indépendance des variables, il vient que :

T
X n X
X T
L(x, θ) = ln c(F1 (xt1 ), · · · , Fn (xtn ); α) + ln fi (xti , θi ). (3.1)
t=1 i=1 t=1

Cette expression de la vraisemblance peut être utilisée dans l’estimation des paramètres
des lois marginales et ceux de copules en une seule étape. L’estimateur de maximum de
vraisemblance s’écrit alors :

θ̂M L = arg max L(x, θ); (3.2)


θ∈Θ

Θ étant l’espace des paramètres. On peut vérifier dans les conditions de régularité que
l’estimateur θ̂M L existe, qu’il est sans biais, convergent, asymptotiquement efficace et
vérifie la propriété de la normalité asymptotique. Ainsi


T (θ̂M L − θ0 ) → N (0, I −1 (θ0 )); (3.3)

72
3.1 Rappels sur les méthodes classiques d’estimation

avec I(θ0 ) la matrice d’information de Fisher et θ0 la vraie valeur.

3.1.2 Méthode de l’inférence marginale

La méthode IFM (inference functions for margins) ou méthode des fonctions d’inférence
des marginales consiste à estimer séparément les paramètres des lois marginales et ceux de
la copule. Ainsi, la log-vraisemblance globale peut être exprimée de la manière suivante :

T
X T X
X n
L(x, θ) = ln c(F1 (xt1 , θ1 ), · · · , Fn (xtn , θn ); α) + ln fi (xti , θi ); (3.4)
t=1 t=1 i=1

où θ = (θ1 , · · · , θn ; α) est le vecteur des paramètres contenant les paramètres θi de chaque
marginale Fi et les paramètres α de la copule. Les auteurs Joe et Xu [49] proposent
d’estimer θ en deux étapes.
Dans une première étape, on estime les paramètres de chaque marginale indépendamment
par la méthode de maximum de vraisemblance :

T
X
θˆi = arg max ln fi (xti , θi ). (3.5)
i=1

Puis dans la seconde étape, on estime α en tenant compte des estimations obtenues. On
a donc
T
X
α̂ = arg max ln c(F1 (xt1 , θˆ1 ), · · · , Fn (xtn , θˆn ); α). (3.6)
i=1

Cet estimateur θ̂IF M = (θˆ1 , · · · , θˆn ; α̂) présente des propriétés statistiques légèrement
différentes de l’estimateur du maximum de vraisemblance mais il est également convergent,
sans biais et vérifie la propriété de la normalité asymptotique. On a alors


T (θ̂IF M − θ0 ) → N (0, v −1 (θ0 ))

avec v(θ0 ) la matrice d’information de Godambé selon Joe (1997), cette matrice s’écrit de
la manière suivante
v(θ0 ) = D−1 M (D−1 )0

73
3.1 Rappels sur les méthodes classiques d’estimation


avec D = E[ ∂θ (g(θ)T )] ; M = E[g(θ)T g(θ)]
 
∂L1 ∂Ln ∂L
g(θ) = ,··· , ; .
∂θ1 ∂θn ∂α

où
T
X
Lj = ln f (xi , θj ).
i=1

Cette méthode présente l’avantage de se reposer sur les calculs légers que ceux générés
par la méthode de maximum de vraisemblance. Mais la détermination de la matrice de
Godambé pourrait s’avérer très délicat en raison des multiples calculs de dérivées.

3.1.3 Méthode de vraisemblance canonique

La méthode de maximum de vraisemblance canonique où méthode CML (canonical


maximum likelihood) est voisine de la méthode IFM. La particularité de cette méthode
est qu’elle ne nécessite pas d’avoir recours à l’estimation des paramètres marginales. Elle
transforme d’abord l’échantillon {(xt1 , · · · , xtn )}Tt=1 en des v.a uniformes {ût1 , · · · , ûtn }, puis
elle utilise les fonctions de répartition empiriques univariées :

T
1X
F̂Xi (x) = 1 t ; (3.7)
T t=1 {Xi ≤xi }

où 1{Xi ≤xti } est la fonction indicatrice. On peut estimer le paramètre α de la manière
suivante
T
X
α̂ = arg max ln c(ût1 , · · · , ûtn ; α); (3.8)
t=1

avec ûti = F̂Xi (xti ).

Cette méthode présente, non seulement l’avantage de procéder à une estimation pa-
ramétrique de la copule indépendamment de la forme paramétrique des lois marginales,
mais aussi génère un temps de calcul limité.

3.1.4 Méthode de moment

La méthode d’estimation des moments des copules consiste à estimer les paramètres
θi , i = 1, · · · , n des lois marginales et le paramètre α de la copule à partir des moments.

74
3.2 Éléments d’estimation géostatistique

En effet, la première étape revient à résoudre le système des n equations à n inconnues





 X̄t = f (θ1 , · · · , θn )


St2 = g(θ1 , · · · , θn )


;


 µ3,t = h(θ1 , · · · , θn )
..



 .

où n désigne la dimension de α ; f, g et h sont les expressions des moments d’ordre 1 ;


2 et 3 en fonction des paramètres θi . Répéter cette étape pour toutes les marginales. La
deuxième étape consiste à manier le tau de Kendall ou le rho de Spearman pour obtenir
le paramètre α de la copule.

Cette méthode n’assure aucune robustesse de l’estimateur. Dans la pratique, l’estimateur


empirique du tau de Kendall est le plus souvent utilisé comme mesure de concordance en
raison de sa simplicité de calcul.
1
Par exemple pour la copule de Gumbel de paramètre θ, on a τ = 1 − θ
on en déduit que

1
θ= (3.9)
1−τ

connaissant l’estimateur τ̂ du tau de Kendall. Nous pouvons estimer le paramètre de la


copule en posant
1
θ̂ = (3.10)
1 − τ̂

3.2 Éléments d’estimation géostatistique

3.2.1 Notion d’estimation géostatistique

Le concept de fonction aléatoire est un outil nécessaire à l’étude géostatistique d’une


variable régionalisée. Nous verrons dans la suite comment rattacher la mesure d’une va-
riable régionalisée au concept de fonction aléatoire pour pouvoir exploiter ses propriétés.

Notons que la notion d’inférence statistique dans un cadre géostatistique consiste à re-
constituer les caractéristiques de la fonction aléatoire (en l’occurrence ses deux premiers

75
3.2 Éléments d’estimation géostatistique

moments) à partir d’une réalisation de la variable régionalisée (soit un ensemble de données


expérimentales). La variable régionalisée constitue une unique réalisation de la fonction
aléatoire : il n’existe pas de bijection entre cette fonction et une réalisation. La fonction
aléatoire ne peut donc être définie sans ambiguı̈té à partir de la seule variable régionalisée.

Pour permettre l’inférence, deux hypothèses supplémentaires doivent être réalisées :

− l’ergodicité de la fonction

− la stationnarité du processus

a) Hypothèse d’ergodicité

L’hypothèse d’ergodicité suppose que l’information statistique peut être obtenue à


partir d’une seule réalisation quelconque de la fonction aléatoire définie sur un domaine
spatial infiniment grand. En d’autres termes, une réalisation de la fonction aléatoire sur
un grand domaine (pour un grand nombre de variables aléatoires) apporte la même in-
formation qu’un grand nombre de réalisations de la fonction aléatoire.

En particulier, dans notre cas, la connaissance d’un grand nombre de valeurs de la variable
régionalisée (une réalisation de la fonction aléatoire) est suffisante pour la description de
la fonction aléatoire. Dans ce cas, la moyenne spatiale réalisée sur la variable régionalisée
est alors supposée égale à l’espérance mathématique de la fonction aléatoire :

Z Z Z
1
m = E[Z(s)] = lim z(s)ds (3.11)
D→+∞ D D

L’étude des moments de la fonction aléatoire à partir d’une réalisation est alors possible.

b) Hypothèse de stationnarité

Trois assertions de la stationnarité sont généralement utilisées en géostatistique : la


stationnarité stricte, la stationnarité au second ordre et la stationnarité intrinsèque (voir
section 1.2.1.3).

76
3.2 Éléments d’estimation géostatistique

Les principaux outils d’estimation de la structure spatiale d’un phénomème sont : le


variogramme expérimental et le covariogramme expérimental.

3.2.2 Estimation du variogramme et ses dérivés

a) Estimation du variogramme expérimental

Le variogramme expérimental est l’estimation du variogramme à partir des données


collectées sur un domaine bien déterminé.

Soit z(s1 ), . . . z(sn )|si ∈ Rd des données expérimentales d’un échantillon telles que la
variable régionalisée z(s) est une réalisation du champ aléatoire intrinsèque sans dérive
Z(s). Le variogramme expérimental ou empirique γe (h) est donné par la formule :

N (h)
1 X
γe (h) = [Z(si + h) − Z(si )]2 (3.12)
2N (h) i=1

où N (h) est le nombre de paires de localités distantes de h. En appliquant une certaine
1
tolérance δh sur la distance (avec δh = d, d étant le pas considéré), le variogramme
2
expérimental peut être réécrit sous la forme

1 X
γe (h) = [Z(si + h) − Z(si )]2 , (3.13)
2n(h)
h−δh<|x−y|<h+δh

où n(h) est le nombre de paires de point dont l’inter-distance est comprise entre h − δh
et h + δh.
La figure ci-dessous donne une illustration sur son calcul.

b) Estimation du madogramme

Le madogramme est défini comme étant le variogramme d’ordre 1. Son estimateur se


déduit de celui du variogramme par la formule :

1 X
M̂ (h) = |Z(si + h) − Z(si )|, (3.14)
2n(h)
h−δh<|x−y|<h+δh

où n(h) est le nombre de paires de point dont l’inter-distance est comprise entre h − δh
et h + δh.

77
3.2 Éléments d’estimation géostatistique

Figure 3.1 – Schéma de calcul du semi-variogramme

c) Estimation du rodogramme

Tout comme le madogramme, le rodogramme dérive du variogramme. C’est le ”vario-


1
gramme d’ordre ” et son estimateur est donné par la relation :
2

1 X p
R̂(h) = |Z(si + h) − Z(si )|; (3.15)
2n(h)
h−δh<|x−y|<h+δh

où n(h) est le nombre de paires de point dont l’inter-distance est comprise entre h − δh
et h + δh.
Ces deux dérivés du variogramme sont souvent utilisées dans le cadre de la max-stabilité
ou dans le contexte des données spatio-temporelles.

3.2.3 Estimation du covariogramme et du corrélogramme

a) Estimation du covariogramme

Dans le cas stationnaire, en utilisant la méthode des moments (qui consiste à remplacer
les moments de la loi spatiale par les moments empiriques correspondants), l’estimateur

78
3.2 Éléments d’estimation géostatistique

de la covariance s’écrit de la manière suivante :

N (h)
1 X
Ĉ(h) = [Z(si ) − msi ][Z(si + h)) − msi +h ]; (3.16)
N (h) i=1

N (h)
1X
où msi = Z(si ).
n i=1

Le calcul du covariogramme expérimentale nécessite la présence des données dans les


différents sites échantillonnés. Par conséquent, dans la pratique, le variogramme expérimental
est plus approprié que le covariogramme expérimental car insensible aux données man-
quantes.

b) Estimation du corrélogramme

Comme pour les estimateurs des dérivés du variogramme, l’estimateur du corrélogramme


se déduit de celui du covariogramme par la relation :

N (h)
1 X [Z(si ) − msi ][Z(si + h)) − msi +h ]
ρ̂(h) = (3.17)
N (h) i=1 σ2

N (h)
1X
où msi = Z(si ).
n i=1

Dans la modélisation géostatistique les estimateurs de tous ces outils (variogramme,


corrélogramme et covariogamme) peuvent être utilisés dans le système de krigeage afin de
prédire les réalisations d’un phénomène aléatoire dans un domaine de l’espace.

3.2.4 Estimation du coefficient extrémal

Dans cette sous section, nous donnons quelques méthodes d’estimations du coefficient
extrémal bivarié d’un champ aléatoire max-stable ainsi que les paramètres de sa loi de
probabilité marginale bivariée.
Nous avons plusieurs approches pour estimer le coefficient extrémal.

79
3.2 Éléments d’estimation géostatistique

a) Approche de Smith

Soit Z = Z(x), x ∈ Rd un champ aléatoire max-stable simple et soient Z1 , . . . , Zn , n
réalisations indépendantes de Z. Alors, pour tout x ∈ Rd , la variable aléatoire 1/Z(x) suit
une loi de probabilité exponentielle standard ε(1). Et, pour tout x1 , x2 ∈ Rd , la variable
aléatoire min[1/Z(x1 ), 1/Z(x2 )] suit une loi de probabilité exponentielle de paramètre
θ(x2 − x1 ), où θ(x2 − x1 ) est le coefficient extrémal bivarié du champ aléatoire max-stable
Z entre les deux sites d’observation.
Richard L.Smith (2008) a proposé un estimateur

n
θ̂(x2 − x1 ) = n .
X
min[1/Zi (x1 ), 1/Zi (x2 )]
i=1

b) Approche du F-madogramme

L’estimation du coefficient extrémal par l’approche F-madogramme est une méthode


proposée par Dan Coley et al. (2006). Cette méthode est basée sur le résultat [1] (voir
chapitre 2, section2) et elle sert à estimer le coefficient extrémal bivarié d’un champ
aléatoire max-stable ayant des lois de probabilité marginales univariées identiques. Il a
pour expression :

1 + 2MˆF (x2 − x1 )
θ̂(x2 − x1 ) = ; (3.18)
1 − 2MˆF (x2 − x1 )

avec
n
1 X
MˆF (x2 − x1 ) = |F̂ [Zi (x2 )] − F̂ [Zi (x1 )]|;
2n i=1

où F̂ [Z(xj )] est la fonction de répartition empirique associée à la variable aléatoire Z(xj )
basée sur l’échantillon Z1 (xj ), Z2 (xj ), . . . , Zn (xj ).

c) Approche madogramme

L’estimation du coefficient extrémal par l’approche madogramme est aussi une méthode
proposée par Dan Coley et al. (2006). Cette méthode sert à estimer le coefficient extrémal
bivarié d’un champ aléatoire max-stable ayant des lois de probabilité marginales univariées

80
3.2 Éléments d’estimation géostatistique

identiques dont le paramètre de forme ξ < 1. Ainsi on a :


 h i
 uβ (.) µ + M̂ (x2 −x1 ) si ξ 6= 0
Γ(1−ξ)
θ̂(x2 − x1 ) = n o . (3.19)
 exp M̂ (x2 −x1 ) si ξ = 0
σ

Pour un modèle de Brown-Resnick, on a :

θ̂(x2 − x1 ) = exp[M̂ (x2 − x1 )];

avec
n
1 X
M̂ (x2 − x1 ) = |Zi (x2 ) − Zi (x1 )|.
2n i=1

3.2.5 La vraisemblance composite

La méthode du vraisemblance composite est utilisée pour l’estimation des paramètres


d’un champ aléatoire max-stable. Introduite en 1922 par Ronald A.Fisher, cette méthode
est proche de  la méthode du maximum de vraisemblance .

Soit Y un vecteur aléatoire de Rm (m ∈ N∗ ) de fonction de densité fY (., ψ) avec ψ ∈


Ψ ⊆ Rp (p ∈ N∗ ) le paramètre inconnu qu’on veut estimer et soient Y1 , Y2 , . . . , Yn n copies
indépendantes du vecteur aléatoire Y . Notons fi1 ,...,ir (., ψ), (r = 1, . . . , m) la fonction de
densité marginale r−dimensionnelle du vecteur Y .

Définition 3.2.1 (Voir [67])


On appelle vraisemblance composite d’ordre r ∈ {1, 2, . . . , m} du modèle statistique

{fY (y, Ψ), x ∈ Rm et ψ ∈ Ψ ⊆ Rp }

la fonction V Cr définie sur Rp , pour tout ψ ∈ Ψ par :

n
Y Y
V Cr (ψ) = fi1 <i2 <···<ir (yi1 ,k , . . . , yir ,k , ψ), (yi1 ,k , . . . , yir ,k , ψ) ∈ Rr
k=1 i1 <i2 <···<ir

avec ij ∈ {1, . . . , m} où j ∈ {1, . . . , r}.

81
3.2 Éléments d’estimation géostatistique

La fonction Log-vraisemblance composite d’ordre r est définie par :

n
X X
∀ψ ∈ Ψ, lr (ψ) = log[V Cr (ψ)] = log[fi1 <i2 <···<ir (yi1 ,k , . . . , yir ,k , ψ)].
k=1 i1 <i2 <···<ir

Définition 3.2.2 (voir Ribatet)


On appelle fonction de score composite d’ordre r, notée Dr , le gradient de sa fonction
log-vraisemblance composite d’ordre r définie par :

 T
∂ ∂ ∂
Dr (ψ) = 5lr (ψ) = lr (ψ), lr (ψ), . . . , lr (ψ)
∂ψ1 ∂ψ2 ∂ψp

avec
n
∂ X X ∂
lr (ψ) = log[fi1 <i2 <···<ir (yi1 ,k , . . . , yir ,k , ψ)].
∂ψi k=1 i
∂ψi
1 <i2 <···<ir

Remarque 3.2.1 Pour r = 2, on a :


la Vraisemblance par paires définie par

n m−1
Y Y Y m
∀ψ ∈ Ψ, V P (ψ) = V C2 (ψ) = fi,j (yi,k , yj,k , ψ), (yi,k , xj,k ) ∈ R2
k=1 i=1 j=i+1

et sa Log-vraisemblance par paires par

n m−1
X X X m
l2 (ψ) = log[V P (ψ)] = log[fi,j (yi,k , yj,k , ψ)], (yi,k , yj,k ) ∈ R2 .
k=1 i=1 j=i+1

La fonction de score par paires définie par

 T
∂ ∂ ∂
D2 (ψ) = 5l2 (ψ) = l2 (ψ), l2 (ψ), . . . , l2 (ψ) (3.20)
∂ψ1 ∂ψ2 ∂ψp

n m−1 m

X X X ∂
avec l (ψ)
∂ψi 2
= log[fi,j (yi,k , yj,k , ψ)].
k=1 i=1 j=i+1
∂ψ i

a) Estimateur du maximum de vraisemblance composite

Considérons le modèle statistique {fY (yΨ), y ∈ Rm et ψ ∈ Ψ ⊆ Rp }.


Définition 3.2.3 On appelle estimateur du maximum de vraisemblance composite

82
3.2 Éléments d’estimation géostatistique

(EMVC) de ce modèle, le vecteur ψ̂M V C ∈ Ψ ⊆ Rp défini par

ψ̂M V C = arg max V Cr (ψ) = arg max lr (ψ).


ψ∈Ψ ψ∈Ψ

On appelle estimateur du maximum de vraisemblance par paires(EMVP) de ce modèle,


le vecteur ψ̂M V P ∈ Ψ ⊆ Rp défini par

ψ̂M V P = arg max V C2 (ψ) = arg max l2 (ψ).


ψ∈Ψ ψ∈Ψ

Remarque : Généralement l’EMVC ψ̂M V C est unique, il est la racine de la fonction


score composite de notre modèle, c’est-à-dire Dr (ψ̂M V C ) = 0Rp . De manière ana-
logue, D2 (ψ̂M V P ) = 0Rp

b) Propriétés de l’EMVC

La méthode de vraisemblance composite a un intérêt capital dans l’estimation des


paramètres marginaux d’un modèle statistique très complexe, tels les modèles des
champs aléatoires max-stables où la détermination de la fonction de vraisemblance
totale est difficile. Sous certaine condition de régularité (voir [57] et [20]), cet estima-
teur est sans biais, consistent et suit asymptotiquement une loi de probabilité nor-
male p-dimensionnelle d’espérance ψ et de matrice de covariance H(ψ)J(ψ)−1 H(ψ) :

ψ̂M V C ∼ N ψ, H(ψ)J(ψ)−1 H(ψ) ;




avec :

n o n o
T T
H(ψ) = E − 5 [5lr (ψ)] et J(ψ) = E [5lr (ψ)] [5lr (ψ)] ;

où

∂2
    
T T ∂ ∂
5 [5lr (ψ)] = lr (ψ) et [5lr (ψ)] [5lr (ψ)] = lr (ψ) lr (ψ) .
∂ψi ∂ψj ∂ψi ∂ψj

H(ψ) et J(ψ) sont des matrices carrées d’ordre p dont les composantes respectives de
leurs iıème lignes et jıème colonnes Aij (ψ) et Bij (ψ) (i = 1, . . . , p et j = 1, . . . , p)

83
3.2 Éléments d’estimation géostatistique

sont données par :

∂2
    
∂ ∂
Aij (ψ) = −E lr (ψ) et Bij (ψ) = lr (ψ) lr (ψ) .
∂ψi ∂ψi ∂ψi ∂ψj

Pour l’application, les estimations de H(ψ) et J(ψ) sont capitales et sont données
respectivement par :

ˆ ψ̂M V C ) = [B̂ij (ψ̂M V C )].


Ĥ(ψ̂M V C ) = [Âij (ψ̂M V C )] et J(

Et comme Y1 , Y2 , . . . , Yn sont n réalisations indépendantes du vecteur aléatoire Y ,


on obtient les expression suivantes

n
1 X ∂2
Âij (ψ̂M V C ) = − lr (ψ̂M V C )
n k=1 ∂ψi ∂ψi

et
n   
1X ∂ ∂
B̂ij (ψ̂M V C ) = − lr (ψ̂M V C ) lr (ψ̂M V C )
n k=1 ∂ψi ∂ψj
avec
n
X X
lr (ψ̂M V C ) = log[fi1 ,...,ir (Yi1 ,k , . . . , Yir ,k , ψ̂M V C )].
k=1 i1 <···<ir

La section suivante présente les outils de prédiction spatiale.

3.2.6 Validation croisée

La validation croisée la plus utilisé en géostatistique est celle de  leave-one-out (voir


[24], [46] et [47]). Elle permet non seulement de sélectionner le modèle de variogramme
théorique adapté à l’analyse de la dépendance spatiale mais aussi le modèle de krigeage
qui sied. Sa technique consiste à retirer une à une les observations pour ensuite les prévoir
par krigeage à partir des autres données. En notant Ẑ−1 (xi ) la prévision par validation
croisée de la variable Z(xi ), i = 1, . . . , n, les erreurs de validation croisée sont calculées en
soustrayant la valeur observée à la valeur estimée : e−i (xi ) = Ẑ−1 (xi ) − Z(xi ). La moyenne
des erreurs notée EQM(erreur quadratique moyenne) est donnée par :

n
1X
EQM = e−i (xi ).
n i=1

84
3.2 Éléments d’estimation géostatistique

Les avantages de EQM résident dans le fait qu’il incorpore le biais et la variance de la
distribution des erreurs et que l’absence de division par l’écart type de krigeage évite la
dépendance des résultats par rapport au type de krigeage effectué. Le meilleur modèle est
celui qui présente la plus petite valeur de EQM.

3.2.7 Estimation géostatistique ou krigeage

Le krigeage est une méthode d’interpolation applicable à des données réparties dans
l’espace. Elle s’appuie sur les outils géostatistiques linéaires, notamment le variogramme.
La théorie du krigeage a été initialement développée par un mathématicien français (G.
Matheron) à partir des travaux de D.G.Krige (l’ingénieur minier sud-africain)[4]. Dans les
années 50, Krige a développé une série de méthodes statistiques empiriques permettant
de déterminer la distribution de minerais à partir d’un ensemble de forages. Il existe plu-
sieurs types de krigeage : le krigeage simple, le krigeage ordinaire, le krigeage universel,
le cokrigeage (voir [87] ; [83] ; [86]).

Nous nous limitons ici à la présentation des objectifs et principes du krigeage ; le kri-
geage simple et le krigeage ordinaire.

3.2.7.1 Présentation du krigeage

a) Objectifs

Le krigeage a pour objectif de prédire et sans biais une grandeur recherchée par une
combinaison linéaire pondérée des observations en prenant en compte non seulement les
informations de nature géométrique (nombre de sites de données) mais également les
informations structurales contenues dans le modèle variographique. De plus, il permet
d’apprécier quantitativement la précision de l’estimation, à l’aide d’une variance d’esti-
mation, ce qui est impossible sans le recourt à un modèle stochastique.

b) Différentes étapes du krigeage

La résolution d’un problème d’estimation locale ou globale par krigeage s’articule tou-
jours autour des étapes suivantes :

85
3.2 Éléments d’estimation géostatistique

• recueil et pré-traitement des données : il s’agit de nettoyer la variable régionalisée


z de ses valeurs aberrantes, valeurs mal codées... La donnée peut être transformée
(par bijection) en un paramètre qui sera estimé à sa place, avant transformation
réciproque.

• décision de l’estimation attendue : généralement, il est cherché une estimation en


chaque point d’une grille, parfois en chaque volume élémentaire.

• choix d’un modèle : un modèle de fonction aléatoire Z associée à z est proposé,


selon les hypothèses faites sur sa stationnarité, sa valeur moyenne, les éventuels
paramètres auxiliaires.

• calage d’un variogramme : sur la considération du variogramme expérimental, un


modèle de variogramme γ est choisi, respectant les conditions découlant du choix
du modèle.

• krigeage proprement dit : le type de krigeage dépend du choix du modèle, et du


type de résultat attendu. Il varie selon le choix du voisinage.

• post-traitement : une éventuelle transformation réciproque est appliquée ; le résultat


est commenté.

c) Les contraintes du krigeage

Le fait que le krigeage est l’estimateur linéaire de variance minimale se traduit par
quatre contraintes successives, qui permettent d’écrire le système de krigeage pour toutes
les variantes de la méthode.

• linéarité
Dans un souci de réalisme, on pose que la quantité à estimer est une fonctionnelle
linéaire de la fonction aléatoire étudiée. L’estimateur est posé comme combinaison
linéaire des données, de poids inconnus pour l’instant :

• autorisation
L’erreur d’estimation doit être une combinaison linéaire autorisée, c’est-à-dire que
son espérance et sa variance doivent être définies. La condition d’autorisation s’écrit
différemment selon le modèle sous-jacent supposé (on supposera toujours le support
borné). Dans le modèle stationnaire d’ordre 2, toutes les combinaisons linéaires sont
autorisées, et il n’y a pas de contrainte. Par contre, dans le modèle intrinsèque,

86
3.2 Éléments d’estimation géostatistique

une combinaison linéaire est autorisée si et seulement si son poids total est nul :
P
λi = 0

• universalité
On exige de l’estimateur qu’il ne présente pas de biais statistique par rapport à la
quantité à estimer. Cette contrainte peut être nommée contrainte de non-biais ou
d’espérance nulle.

d) Calcul des poids de krigeage

Le krigeage étant un interpolateur linéaire, un estimateur de Z(s0 ) s’écrit comme étant


la combinaison pondérée de ces voisins de la manière suivante :

n
X
Z(s
b 0) = λi Z(si ). (3.21)
i=1

Un tel estimateur est statistiquement satisfaisant s’il est sans biais et si la variance de
l’erreur commise est faible. Cela nous amène à chercher des poids λi qui assurent un biais
nul et qui minimisent la variance. Sous forme mathématique, ceci se traduit par :

h i
b 0 ) − Z(s0 ) = 0
E Z(s (3.22)

et
( " n # )
h i X
b 0 ) − Z(s0 ) = min V ar
V ar Z(s λi Z(si ) − Z(s0 ) , λ ∈ Rn . (3.23)
i=1

3.2.7.2 Le krigeage simple



Soit Z = Z(u), u ∈ Rd un champ aléatoire où Z(ui ) représente la valeur de la
variable au point ui , i = 1, . . . , n.
Pour le krigeage simple, la moyenne est connue. L’estimateur prend la forme :

n
X
Zv∗ =m+ λi (Zi − m)
i=1

87
3.2 Éléments d’estimation géostatistique

Figure 3.2 – Représentation d’un domaine d’échantillonnage.

où m = E(Z(u)). La variance d’estimation est :

n X
X n n
X
δe2 = V ar(Zv ) + λi λj Cov(Zi , Zj ) − 2 λi Cov(Zv , Zi ).
i=1 j=1 i=1

Le principe consiste à choisir les λi de façon à minimiser la variance d’estimation.


Ainsi, pour trouver le minimum, on dérive δe2 par rapport à chacun des λi et l’on pose ces
dérivées partielles égales à zéro (condition nécessaire d’un extrémum). On obtient alors
le système linéaire suivant comportant n équations à n inconnues (les n λi ) tels que :

n
X
λj Cov(Zi , Zj ) = Cov(Zv , Zi ) ∀i = 1, . . . , n. (3.24)
j=1

A l’optimum, la variance d’estimation s’écrit, tenant compte des équations précédentes :

n
X
2
δks = V ar(Zv ) − λi Cov(Zv , Zi ) (3.25)
i=1

Ces équations s’écrivent sous la forme suivante :

Ks λs = ks =⇒ λs = Ks−1 ks

et
2 0
δks = δv2 − λs Ks .

88
3.2 Éléments d’estimation géostatistique

Une écriture matricielle de ces équations donne :


    
δ2 Cov(Z1 , Z2 ) • Cov(Z1 , Zn ) λ1 Cov(Z1 , Zv )
    
δ2 • Cov(Z2 , Zn )  •   •
    
 Cov(Z2 , Z1 ) 
  =  (3.26)
• • • •  •   •
    
 
    
Cov(Zn , Z1 ) Cov(Zn , Z2 ) • δ2 λn Cov(Zn , Zv )
| {z } | {z } | {z }
Ks λs ks

3.2.7.3 Le Krigeage ordinaire

Dans le krigeage ordinaire, la moyenne n’est pas connue. L’estimateur prend alors la
forme :
n
X
Zv∗ = λi Zi .
i=1
Pn
Pour que l’estimateur soit sans biais, il faut imposer la contrainte habituelle : i=1 λi = 1.
On a un problème de minimisation sous contrainte. Ceci entraine l’utilisation de la
méthode de Lagrange, i.e. on forme le lagrangien.

n
!
X
L(λ, µ) = δe2 + 2µ λi − 1 . (3.27)
i=1

Soit

n X
X n n
X Xn
L(λ, µ) = V ar(Zv ) + λi λj Cov(Zi , Zj ) − 2 λi Cov(Zv , Zi ) − 2µ( λi − 1).
i=1 j=1 i=1 i=1

En posant les dérivées partielles par rapport à λ et µ égales à zéro, il vient alors ce système
linéaire de n + 1 équations à n + 1 inconnues suivant, pour i = 1, 2, . . . , n.

n
X
λj Cov(Zi , Zj ) + µ = Cov(Zv , Zi ) (3.28)
j=1

où
n
X
λj = 1.
j=1

A l’optimum, la variance d’estimation est :

n
X
2
δko = V ar(Zv ) − λi Cov(Zv , Zi ) − µ. (3.29)
i=1

89
3.3 Applications à l’estimation dans le domaine minier

Ces équations s’écrivent sous la forme matricielle :



 K λ = Ko
 o o



 δ 2 = δ 2 − λ0 K

ko v o o

Soit matriciellement
    
δ2 Cov(Z1 , Z2 ) . . . Cov(Z1 , Zn ) 1 λ1 Cov(Z1 , Zv )
    
 Cov(Z2 , Z1 ) δ2 . . . Cov(Z2 , Zn ) 1 ···   ···
    
  
    
··· ··· ··· ···  ···  =  ··· (3.30)
    
 ... 
    
δ2
     
 Cov(Zn , Z1 ) Cov(Zn , Z2 ) ... 1   λn   Cov(Zn , Zv ) 
    
1 1 ... 1 0 µ 1
| {z } | {z } | {z }
Ko λo Ko

Remarque 3.2.2 Le krigeage permet d’estimer directement un bloc (Zv ) ou un point


(Z0 ). Tout ce qui change c’est le membre de droite k0 .
Le krigeage d’un bloc est égal à la moyenne des krigeages ponctuels dans le bloc.

3.3 Applications à l’estimation dans le domaine mi-


nier
Cette section est consacrée à l’application des résultats des sections précédentes à
des données minières. Les jeux de données minières que nous avons pu obtenir dans les
packages du logiciel R et qui vérifiaient les conditions optimales d’utilisation portent
sur des mines de Suisse. C’est ainsi que nous avons, dans une première sous-section,
décrit succinctement la région de l’étude (vu le fait que nous ne nous sommes pas allés
nous-même recueillir les dites données). Aussi, cette présentation se limite t-elle à la
description du cadre géologique, aux modèles de ressources et à la statistique descriptive
de la base. Dans une deuxième sous-section, nous présentons l’estimation géostatistique
des concentrations de cobalt à travers la distribution des concentrations de cobalt, la
nuée variographique, l’analyse du variogramme expérimental, Ajustement du variogramme
expérimental et l’interpolation spatiale de la variable d’intérêt par Krigeage ordinaire.

90
3.3 Applications à l’estimation dans le domaine minier

3.3.1 Cadres géographique et géologique

3.3.1.1 Cadre géographique

Le canton du Jura se situe dans le massif du Jura au nord-ouest de la Suisse et fait


partie de l’espace Mittelland. Au sud-ouest se trouve le canton de Neuchâtel, au sud celui
de Berne, à l’est ceux de Soleure et de Bâle-Campagne. À l’ouest et au nord, se trouve la
frontière française et les départements français du Doubs, du Territoire de Belfort (région
Bourgogne-Franche-Comté) et du Haut-Rhin (région Grand Est). Le point le plus élevé
du canton du Jura se trouve juste en dessous du mont Raimeux, culminant à 1302 m
dans le canton de Berne ; son point le plus bas est l’Allaine à 364m ; sa superficie est de
838,55km2 . Le canton fait partie de la région touristique Jura et Trois-Lacs et une partie
du parc naturel régional du Doubs se trouve son territoire.
Nous présentons la carte d’étude, pour illustrer la zone d’échantillonnage des données et
la carte de jura.

Figure 3.3 – Carte de jura à gauche et Carte de la France à droite

Le relief est orienté du sud-ouest au nord-est. Les roches du pays sont des calcaires
jurassiques d’âge argovien a portlandien, avec quelques sédiments quaternaires sur le sub-
strat inférieur. De minces manteaux de lœss couvrent une grande partie du territoire.
La terre est occupée depuis de nombreux siècles, et la plus grande partie est aujourd’hui
utilisée pour l’élevage du bétail. Environ 80% sont recouverts d’herbe permanente, qui

91
3.3 Applications à l’estimation dans le domaine minier

est soit de pâturage, soit de prairie. On ne cultive que 3% de la superficie et on y cultive


de l’orge. Les agriculteurs épandent, en matière de culture, le fumier des animaux élevés
en hiver et utilisent également des engrais artificiels. Le reste de la région, soit 17%, est
constitué de forêts, principalement de sapins (Piceahies). C’est une région où les concen-
trations de plusieurs métaux dépassent les seuils donnés par les autorités fédérales de
sécurité (OFPE , 1987).

La région choisie pour l’étude couvre 14.5km2 dans le Jura du canton de Neuchâtel en
Suisse. Elle est délimitée au nord par les gorges du Doubs le long de la frontière française
et a l’est par celles de la Ronde. Elle fait partie d’un vaste plateau calcaire de haute alti-
tude. Le plateau lui-même est ondulé avec des pentes allant jusqu’à 10% et une altitude
allant d’environ 950m a 1070m au-dessus du niveau de la mer, et il est découpe a 870m
par les gorges a forte pente de la Ronde et du Doubs. Nous présentons la carte d’étude,
pour illustrer la zone d’échantillonnage des données et la carte de jura. Le relief est oriente
du sud-ouest au nord-est. Les roches du pays sont des calcaires jurassiques d’âge argovien
a portlandien, avec quelques sédiments quaternaires sur le substrat inférieur. De minces
manteaux de lœss couvrent une grande partie du territoire.

La Chaux de Fonds est un pôle d’excellence en matière d’industrie, le cadmium, le cuivre


et le zinc, et peut-être même d’autres métaux lourds, ont pu être dispersés.

3.3.1.2 Cadre géologique

a) La lithologie

Le cobalt a d’abord été extrait de minerais arséniés avec une production de fumées
d’oxyde d’arsenic, toxique. C’est d’ailleurs de là que provient son nom, de l’allemand
Kobol signifiant lutin, car les premiers mineurs à avoir tenté de l’extraire pensaient que
cette réaction était le fruit d’un esprit maléfique (voir [50]). Il est aujourd’hui l’un des
métaux dont les réserves sont les plus critiques. De symbole Co, de numéro atomique 27,
de masse atomique 59 et de configuration électronique [Ar] 3d7 4s2 , le cobalt est un métal
de transition proche du fer, de couleur gris argenté lorsqu’il est pur (voir Figure 3.4).

92
3.3 Applications à l’estimation dans le domaine minier

Figure 3.4 – Image du cobalt(source : Futura Sciences

Dans les gisements exploités, le cobalt est, en général, associé au cuivre ou au nickel et
est co-produit lors des opérations métallurgiques d’obtention des éléments. En 2018 72%
du cobalt extrait provient de mines de cuivre, 26% de mines de nickel et 1% et la mine
de la mine de cobalt de Bou Azzer.

b) La minéralisation

La majeure partie des gı̂tes minéraux de Suisse se résident dans les Alpes. Plus
précisément dans les roches de composition granitique et dans celles qui ont subi le
métamorphisme alpin. Les calcaires de la bordure nord des Alpes, le Moyen-Pays et le
Jura sont relativement pauvres en beaux minéraux. Le cœur des Alpes est marqué par
de grands ensembles de roches cristallines anciennes, granites, syénites, gneiss, schistes
et amphibolites qui constituent les massifs de l’Aar, du Gothard et du Tavetsch, séparés
les uns des autres par de minces zones de roches sédimentaires plus jeunes (voir [50]).
Dans la partie franco-italienne des Alpes, plus à l’ouest, les massifs du Mont-Blanc et des
Aiguilles-Rouges présentent les mêmes particularités.

La Suisse est pauvre en gı̂tes métallifères. Quelques galeries abandonnées témoignent


encore de petites installations minières temporaires. Ce sont pour l’essentiel de petits fi-
lons ou des lentilles de sulfures de cuivre, plomb, zinc, cobalt, nickel, molybdène, arsenic
ou des oxydes de fer et de manganèse. Plus rarement on trouve aussi de l’or.

93
3.3 Applications à l’estimation dans le domaine minier

3.3.2 Représentation des données et analyse descriptive

3.3.2.1 Présentation de la base de données

La base de données provient d’une étude menée par l’école Polytechnique Fédérale
de Lausanne au printemps 1992 dans le Jura suisse, plus précisément autour de la ville
de La Chaux-de-Fonds. Elle se compose de 259 observations et de 11 colonnes. Les 11
colonnes sont constituées d’une part des coordonnées (x et y) des lieux où ont eu lieu
les prélèvements de concentrations ; et d’autre part par 9 variables. Les variables sont de
deux (02) types :

− Variables catégorielles :  lu  qui matérialise l’activité humaine à travers l’utili-


sation des terres et  rt  pour le type de roches. Types de roches : 1 : Argovien,
2 : Kimméridgien, 3 : Séquanien, 4 : Portlandien, 5 : Quaternaire. L’utilisation des
terres : 1 : Forêt, 2 : Pâturages, 3 : Prairies, 4 : Culture.

− Variables continues : il s’agit des différentes concentrations de 7 métaux lourds, Cd :


Cadmium , Co : Cobalt, Cr : Chrome, Cu : Cuivre, Ni : Nickel, Pb : Plomb, Zn : Zinc.

La représentation suivante indique le domaine d’échantillonnage (voir figure 3.32).

Figure 3.5 – Représentation du domaine d’échantillonnage

Dans cette représentation, les points bleu correspondent aux endroits où il y a eu
prélèvement. La section suivante, donne les caractéristiques de ces variables.

94
3.3 Applications à l’estimation dans le domaine minier

3.3.2.2 Analyse descriptive

Avant de passer à l’analyse exploratoire des données en résumant les corrélations


linéaires entre les variables, il y a des étapes à suivre. Dans un premier temps, il est ju-
dicieux de faire une analyse descriptive afin de mettre en exergue les formes prises par
les différentes distributions liées à chacune des variables d’intérêt. En second lieu, sur la
base des différentes conclusions qui résultent de l’analyse descriptive, l’on pourra faire
des transformations au niveau des variables qui ont des observations extrêmes. La visua-
lisation graphique des différentes distributions de concentrations des métaux lourds, à
travers les histogrammes et les densités, a pour but de mettre en exergue les différences
entre lesdites distributions.

Figure 3.6 – Histogrammes des variables de la base.

L’observation de la figure 3.6 montre que les distributions de cobalt(Co) et du nickel(Ni)


semblent bi-modales, alors que les autres sont unimodales. On remarque également qu’en
termes de symétrie, les distributions du cadmium(Cd), du cuivre(Cu), du plomb(Pb) et
du zinc(Zn) semblent ne pas être symétriques et ont des queues tirées vers la droite ; ce qui
laissent présumer qu’il y a un impact des valeurs extrêmes au niveau de ces distributions.

95
3.3 Applications à l’estimation dans le domaine minier

Après avoir étudier la distribution de chaque variable, on peut chercher à vérifier la


dépendance linéaire entre ses variables. La figure suivante donne le graphe des corrélations
entre les divers variables.

Cette représentation indique les variables qui présentent un lien linéaire. Plus précisément,

Figure 3.7 – Matrice de corrélation linéaire

la coloration rouge indique une absence de corrélation, la coloration jaune indique une
corrélation moyenne entre les variables et celle verte indique une dépendance forte entre
ses variables. Ainsi, les variables fortements corrélées entre elles sont : Le Co et le Ni, le
Cr avec log(Cd) ou log(Zn) ou le Ni.
Dans la suite nous considérons pour notre étude la variable cobalt.

3.3.3 Estimation géostatistique

3.3.3.1 Choix et distribution de la variable d’étude

Dans cette base, nous choisissons un métal d’alliage pour la suite de l’étude. Il s’agit du
cobalt (Co). En effet, ce métal permet de former des alliages durs résistant à la corrosion.
On l’emploie également dans certains accumulateurs, particulièrement dans les électrodes.
Il est la source de fonctionnement des véhicules des portables, des ordinateurs... C’est ce
qui justifie notre choix pour cette étude.

96
3.3 Applications à l’estimation dans le domaine minier

La concentration du cobalt a été prélevé dans 259 sites. En somme la plus petite concen-
tration est de 1, 55 et la plus grande 17, 72. La concentration moyenne est de 9, 30 et 50%
des échantillons ont une valeur approximative de 9, 76 (voir 3.8).

Figure 3.8 – Résumé des données

Figure 3.9 – Représentation de la variable cobalt(Co)

Cette variable est normalement répartie dans le domaine d’échantillonnage(voir 3.9).


On remarque aussi qu’il n’y a pas de tendance significative du point de vue coordonnées.
Dans la suite, nous modélisons ces concentrations en admettant qu’il n’y a pas de tendance.

97
3.3 Applications à l’estimation dans le domaine minier

3.3.1.2 Estimation du modèle de variogramme

a) Nuée variographique associée

Soient Zi et Zi les concentrations de Cobalt sur les sites xi , et xj respectivement. La


nuée variographique représente les points ayant pour abscisses la distance entre les points
de prélèvement et pour ordonnées 12 [Zj − Zi ]2 . Dans notre cas, considérons la variable
Cobalt (Co) dont la concentration est mesurée en 259 points de la zone d’étude. En
faisant l’hypothèse qu’elle est sans drive et en la régressant à l’unité, nous obtenons sa
nuée variographique qui se présente comme suit :

Figure 3.10 – Représentation de la nuée variographique

: Cette nuée variographique illustre la présence de structuration spatiale car la plus part
des paires de point sont condensés vers le bas, mais aussi la présence de quelque valeurs
extrêmes dans les données de l’étude. Cela est matérialisé par la présence de quelques
points de la nuée situé vers le haut.

b) Le variogramme expérimental

Dans la démarche géostatistique, une des étapes primordiales est celle du calcul du
variogramme expérimental obtenu par la relation :

1 N (h)
γe (h) = Σi=1 [Z(si + h) − Z(si )]2 . (3.31)
2N (h)

98
3.3 Applications à l’estimation dans le domaine minier

où N (h) est le nombre de paires de localités distantes de h.

En appliquant cette relation à notre jeu de donnée, on obtient le tableau suivant :

Figure 3.11 – Tableau résumant les valeurs du variogramme expérimental

np : désigne le nombre de paire de sites.


gamma : désigne le variogramme expérimental.
dist : correspond à la distance inter-site.
dir.hor et: dir.verreprésentent respectivement les directions horizontales et verticale.

Ainsi pour la première ligne on dira que : En considérant que le champ est isotrope,
il y a 342 pairs de sites qui sont distant de 0, 05811439 et la valeur du variogramme
expérimental vaut 2, 236511.

Dans la figure suivante, nous représentons ce variogramme expérimental en fonction de la


distance inter-sites( ”dist”).
La forme du variogramme expérimental montre qu’il y a présence de structuration
spatiale mais ne nous précise pas à partir de quelle distance la valeur en un site peut être
expliqué par son voisin. Afin d’avoir une idée sur la distance de dépendance, il est impératif

99
3.3 Applications à l’estimation dans le domaine minier

Figure 3.12 – Représentation du variogramme expérimental du cobalt

de d’ajuster ce variogramme expérimental avec le modèle de variogramme théorique le


mieux adapté.

Dans la section suivante, nous ajustons le variogramme expérimental par les variogrammes
théoriques afin de choisir le meilleur modèle.

c) Ajustement du variogramme expérimental

Ajuster un modèle de variogramme expérimental consiste à trouver une fonction qui


puisse passer par le maximum de points en minimisant les écarts entre le nuage et la
droite. Cette fonction doit vérifier un certain nombre de propriétés. En particulier, elle
doit être conditionnellement définie négative et doit permettre la combinaison linéaire
autorisée. Nous proposons trois ajustements du variogramme expérimental à savoir : le
modèle sphérique, le modèle exponentiel et le modèle de materne (voir figures suivantes).

En ajustant le nuage de points par le modèle sphérique, on remarque que les divers points
sont réparties de part et d’autre de la droite d’ajustement. On peut conclure que cet
ajustement est meilleur.

100
3.3 Applications à l’estimation dans le domaine minier

Figure 3.13 – Le variogramme expérimental ajusté par le modèle Sphérique

Figure 3.14 – Variogramme expérimental ajusté par le modèle Exponentiel

101
3.3 Applications à l’estimation dans le domaine minier

Pour l’ajustement du modèle Exponentiel, on remarque qu’à partir d’une certaine dis-
tance d ∈ [0, 8; 2, 5], les points sont ne sont pas répartis de part et d’autre du nuage. Plus
précisément pour d ∈ [0, 8; 1, 8] les points sont situés au dessus de l’ajustement et pour
d ∈ [1, 8; 2, 5] ils sont situés en bas. On peut ainsi conclure que le modèle Exponentiel
n’ajuste pas très bien le nuage de points.

Figure 3.15 – Variogramme expérimental ajusté par le modèle de Matern

L’ajustement du nuage par le modèle de Matern est presque similaire à celui du modèle
Exponentiel.De façon analogue, on conclut que ce modèle n’ajuste pas très bien le nuage
de points.

d) Estimation des paramètres

Après l’ajustement du nuage de point, les paramètres de chaque modèle de vario-


gramme théorique sont fournis par la méthode des moindres carrées pondérées. Le tableau
suivant résume les paramètres des quatre modèles cités ci-dessus.

Ce tableau montre que le modèle sphérique présente la plus grande valeur de l’effet pépite
et la plus grande valeur de la portée. Les modèles, exponentiel et Materne, quant à eux,
présentent la plus grande valeur du pallier.

102
3.3 Applications à l’estimation dans le domaine minier

Paramètres / Modèles Sphérique Exponentiel Matern


Nugget 1,305 0,92 0,92
Portée 1,184 0,63 0,63
Pallier 12,53 14,52 14,52

Table 3.1 – Les paramètres des modèles de variogrammes théoriques

Le modèle sphérique semble être le modèle adéquat qu’en à l’ajustement du variogramme


expérimental. Nous procédons donc à la méthode de la validation croisée.

e) Validation croisée

La validation croisée est une méthode qui permet de sélectionner le meilleur modèle
(plus précisément entre le modèle sphérique, le modèle exponentiel et le modèle de ma-
tern) de variogramme en géostatistique. En utilisant cette méthode, le meilleur modèle
est celui qui présente la plus petite valeur de la variance des écarts. La figure suivante
donne un résumé de ses variances :

Sphériques Exponentielle Matern


EQM -0,077 -0,084 -0,084

Table 3.2 – Résultat de la validation croisée.

Ce tableau montre que le modèle qui présente la plus petite valeur de la variance des
erreurs est le modèle sphérique. Ainsi, on peut conclure que le meilleur modèle c-à-d, qui
ajuste mieux le variogramme expérimental, est le modèle sphérique. Ses caractéristiques
sont :

Par conséquent, le modèle théorique s’écrit :

103
3.3 Applications à l’estimation dans le domaine minier




 1,305 pour h=0







γ(h) = 12,525 (0,82 h - 0,08 h3 ) pour 0 < h ≤ 1,1835 . (3.32)









 12,525 pour h > 1,1835

La figure suivante illustre bien le résultat de la validation croisée.

Figure 3.16 – Résultat de la validation croisée

La première et la dernière figures(”Residual” et ”residual distribution”) montrent que


les erreurs sont normalement distribuées. la troisième figure(zscore2 ) montre aussi que la
moyenne des carrées des erreurs est presque nulle. Quand à la troisième représentation, on
constate que le nuage des valeurs prédites et celles observées s’allonge suivant une droite.
Ce qui confirme la présence d’une dépendance linéaire forte entre ces variables. En somme,
nous pouvons dire que le modèle sphérique ajuste mieux le variogramme expérimentale.

Dans la suite, le modèle de variogramme [3.32] sera utilisé pour l’interpolation spatiale
de nos données.

104
3.3 Applications à l’estimation dans le domaine minier

3.3.1.3 Estimation des concentrations de Cobalt par krigeage

L’outil d’estimation géostatistique utilisé pour la prédiction des concentrations du


cobalt (Co) est le krigeage. Nous choisissons le krigeage ordinaire car nous ne disposons
d’aucune information sur la moyenne de la variable régionalisée. Ainsi , avant de kriger
les données sur l’ensemble du domaine, il est impérative de créer une nouvelle grille. Pour
la création de la grille, nous avons considéré les valeurs des coordonnées du domaine de
départ. Nous avons d’emblée considéré les limites en longitude et en latitude c-à-d, la
plus petite et la plus grande valeur des coordonnées. Ensuite, nous avons créer la grille
de façon rectangulaire pour se rassurer que la prédiction se ferra dans un domaine qui
contient le domaine de départ.
Ainsi, en effectuant le krigeage ordinaire avec le modèle de variogramme définie en [3.32],
nous obtenons la figure suivante qui donne la cartographie des valeurs prédites mais aussi
et surtout la carte des erreurs de prédiction.

Figure 3.17 – Krigeage des concentrations de cobalt

Nous remarquons que les points de couleurs jaunes représentent les lieux où la concen-
tration est élevée contrairement aux points de couleurs noires. Pour plus de détail voir le
tableau de prédiction (voir le Table3.3).

105
3.3 Applications à l’estimation dans le domaine minier

Table 3.3 – Tableau de prédiction

Ce tableau résume les valeurs obtenues par krigeage. En particulier il donne pour chaque
coordonnée la valeur prédite et l’erreur de prédiction. La lecture se fait par ligne. Pour
la première ligne, on dira simplement que la valeur prédite au point de coordonnée
longitude = 4, 166 et latitude = 5, 66 est 10, 3803 et que l’erreur de prédiction est
3, 411836.

On peut toujours améliorer cette représentation en ajoutant des contours afin d’avoir un
regroupement des milieux de même concentrations. Nous obtenons ainsi la représentation
suivante :

106
3.3 Applications à l’estimation dans le domaine minier

Figure 3.18 – Représentation du krigeage avec contour

De façon visuelle pour reconnaitre les zones prédites avec beaucoup d’erreur, il est nécessaire
de représenter la carte des erreurs de prédiction. Ainsi, en utilisant notre jeu de donné,
nous obtenons la carte des erreurs suivantes :
Cette représentation nous montre que la partie jaune est entassée de grande erreur
car cette partie n’a pas été échantillonnée. C’est l’erreur que l’on peut commettre en
considérant un domaine qui n’a pas exactement les mêmes dimensions que le domaine de
départ. C’est ce qu’on appelle en géostatistique les erreurs de bord.

Conclusion
Ce chapitre présente les outils d’estimation et d’interpolation géostatistique et une
application de ces outils aux jeux de données. Pour un échantillon prélevé sur un domaine
bien précis, ces outils d’analyses et d’interpolation ont permis d’avoir non seulement une
idée de la bonne répartition spatiale du phénomène, mais aussi et surtout, les valeurs

107
3.3 Applications à l’estimation dans le domaine minier

Figure 3.19 – Représentation de la variance des erreurs de concentration de Co

prédites dans les sites non encore échantillonnés. Dans la première section nous avons
présenté les estimateurs classiques de l’inférence statistique. En particulier, nous avons
rappelé la méthode des moments, la méthode IFM et la vraisemblance canonique. Dans
la deuxième section nous avons restreint l’estimation au contexte géostatistique. Ainsi, à
travers un travail original, nous modélisons les outils techniques (variogramme et dérivées)
de la géostatistique en utilisant la copule associée. Une troisième section a porté sur
l’application de ces outils d’estimation et de prédiction à un jeu de donnée du package R(
jeu de donnée jura).

108
Chapitre 4

Approche stochastique du modèle


SEIRS

Ce chapitre est une contribution significative à l’analyse compartimentale appliquée


à des phénomènes épidémiologiques à travers une approche aléatoire. Plus précisément,
après une revue de succincte des outils et concepts des processus stochastiques, nous
proposons dans les sections 2 et 3 respectivement une paramétrisation stochastique et la
probabilité d’extinction du modèle SEIRS.

4.1 Éléments de rappels sur les processus stochas-


tiques
Cette section est une synthèse d’éléments de processus stochastiques. Elle rappelle la
caractérisation de cette famille de variables aléatoires et donne les familles principales.

4.1.1 Présentation des processus stochastiques

L’origine des processus stochastiques remonte aux progrès réalisés au début du 20e
siècle dans certaines branches appliquées, telles que la mécanique statistique. Les bases
théoriques ont été formulées plus tard. C’est durant cette période que le mot ”stochas-
tique”, qui provient du grec stokhastikos ”conjectural”, a commencé à être employé.
D’autres progrès ont été faits aussi à partir du mouvement brownien en physique (par Ein-
stein, Lévy et Wiener). Les processus stochastiques décrivent l’évolution d’une grandeur
aléatoire en fonction du temps ou de l’espace. Il existe de nombreuses applications des pro-
cessus aléatoires notamment en biologie (génétique des populations), en médecine (crois-

109
4.1 Éléments de rappels sur les processus stochastiques

sance d’une tumeur), les sciences de l’ingénieur (économie, finance, télécommunications)


etc.

Définition 4.1.1 Un processus stochastique ou aléatoire X = (Xt )t∈T représente une fa-
mille de variables aléatoires indexées par un paramètre 1 . C’est une application de l’espace
probabilisé (Ω, F, P ) dans un espace probabilisable de fonctions (E, E), qui associe à tout
élément ω de Ω une fonction de la variable t ∈ T telle que :

ω 7−→ Xt (ω); Xt (ω)est mesurable.

La fonction, pour ω ∈ Ω fixé : t 7−→ Xt (ω)(t) = X(ω, t). est appelée trajectoire du
processus stochastique. On écrit Xt , t ∈ T ou plus simplement Xt .

Dans les sciences biomédicales ainsi que dans de nombreux autres domaines, le pa-
ramètre t est généralement lié au temps mais elle peut être de dimension multiple et
l’ensemble T est appelé espace de paramètres. En particulier, pour t ∈ T fixé, ω ∈ Ω −→

Xt (ω) est une variable aléatoire sur l’espace de probabilité Ω, A, P .

La famille de toutes les distributions finies-dimensionnelles de X s’appelle la loi spa-


tiale du processus.
• E est l’espace des états du processus. Il peut être continu ou discret ;
• T est l’espace des temps. Il peut être continu ou discret.

Plus précisément le tableau (4.1) donne les différents types de processus stochastiques
possibles.

E ↓ T −→ Discret Continu
Suite stochastique à espace Processus permanent
Discret
d’état discret à espace d’état discret
Suite stochastique à Processus permanent à
Continu
espace d’état continu espace d’état continu

Table 4.1 – Tableau récapitulatif des processus et leurs états

1. Un processus stochastique peut décrire aussi l’évolution d’une grandeur aléatoire en fonction de
l’espace (statistique spatiale)

110
4.1 Éléments de rappels sur les processus stochastiques

4.1.2 Quelques familles usuelles de processus stochastiques

Dans la modélisation des phénomènes par les processus stochastiques, les pas (accrois-
sements) de l’évolution du processus joue un très grand rôle. Ainsi, plusieurs processus
stochastiques sont caractérisés à partir de ce taux d’accroissements.

• Séries temporelles ou chronologiques

Une série temporelle ou série chronologique est une suite des variables aléatoires
représentant l’évolution d’une quantité spécifique au cours du temps. Une série chro-
nologique est donc la réalisation d’un processus aléatoire indexé par le temps et noté
{Xt , t ∈ R+ }. Pour chaque t, Xt est une variable aléatoire dont sa réalisation est Yt .

• Processus de Markov

La famille des processus markoviens occupe une place de choix dans la modélisation
stochastique.

Définition 4.1.2 Soit {X(t), t ∈ T} un processus stochastique avec un espace de pa-


ramètres T et un espace d’état S. Ensuite, X(t) est appelé un processus de Markov si
et seulement si pour chaque n et pour chaque t1 ≤, ..., tn ≤ t dans T et pour chaque
événement A inclus dans S,

P (X(t) ∈ A/X(t1 ) = x1 , ..., X(tn ) = xn ) = P (X(t) ∈ A/X(tn ) = xn ) (4.1)

où P (X(t) ∈ A/X(t1 ) = x1 , ..., X(tn ) = xn ) est une probabilité conditionnelle de


X(t) ∈ A étant donné {X(t1 ) = x1 , ..., X(tn ) = xn } et P (X(t) ∈ A/X(tn ) = xn ) la
probabilité conditionnelle de X(t) ∈ A tel que X(tn ) = xn .

En particulier on a les chaı̂nes de Markov (cas discret) et les processus markoviens


continus.

• Processus de comptage

Les sauts du processus correspondent à des instants aléatoires où se produisent certains
événements spécifiques qui sont, dans les exemples précédents, la réception d’un appel dans
le central téléphonique, l’émission d’une particule radioactive ou bien l’arrivée d’un client
devant un guichet. Le modèle adapté est celui de processus de comptage.

111
4.1 Éléments de rappels sur les processus stochastiques

Définition 4.1.3 Désignons par {N (t), t > 0} le nombre des événements se produisant
dans l’intervalle de temps [0, t] et supposons que N (0) = 0. Le processus {N (t), t > 0} est
appelé processus de comptage.

En particulier, tout processus de comptage vérifie les propriétés suivantes.

Propriété 4.1.1 (Processus de comptage)

i) Pour tout t > 0 le nombre N (t) est à valeurs entières positives.

ii) La fonction t −→ N (t) est croissante (au sens large).

iii) Pour tout couple (a, b)(0 < a < b), la différence N (b) − N (a) représente le nombre
des événements se produisant dans l’intervalle de temps ]a, b].

• Processus de Poisson

Le processus de Poisson est un outil extrêmement utilisé dans les phénomènes de


comptage.

Définition 4.1.4 (Processus de Poisson)


Un processus de comptage {N (t), t > 0} est appelé processus de Poisson, de densité λ > 0,
s’il vérifie les propriétés suivantes :

i) N(0)=0 ;

ii) le processus est à accroissements indépendants ;

iii) le nombre des événements se produisant dans un intervalle de temps de longueur


t ≥ 0 suit la loi de Poisson de paramètre λt, c’est-à-dire, pour tout s ≥ 0 et t ≥ 0,
on a :
(λt)n
P {N (s + t) − N (s) = n} = e−λt (n ≥ 0) (4.2)
n!

Voici quelques propriétés que vérifie un processus de Poisson.

• Processus de renouvellement

Le processus de renouvellement est un processus ponctuel où l’intervalle entre deux


occurrences (réalisations) consécutives de l’événement considéré est une variable aléatoire
Ti dont la loi de probabilité est commune (sauf peut être pour le premier événement),

112
4.1 Éléments de rappels sur les processus stochastiques

mais quelconque : c’est à dire Ti f (t) ∀ i ≥ 2 et T1 f1 (t).

Pour que N(t) soit un processus de renouvellement il faut que :

• T1 , T2 , ...., Tn soient des événements indépendants

• fi (t) = f (t); ∀ i ≥ 2

Dans l’analyse d’un processus de renouvellement, on s’intéresse aux grandeurs suivantes :

i) N(t) le nombre de renouvellement dans l’intervalle [0, t] ;

ii) Sn Le temps d’occurrences du n ieme renouvellement ie Sn t=T1 + T2 + ..... + Tn ;

iii) H(t) = E(N (t)) Le nombre moyen de renouvellement dans [0, t] ;


dH(t)
iv) h(t) a densité de H(t), h(t)= ;
dt
v) VT Le temps entre t et le prochain renouvellement après t (temps résiduel) ;

vi) Ut Le temps écoule depuis le dernier renouvellement avant T.

• Les processus gaussiens

Les processus gaussiens appartiennent à la grande famille des processus elliptiques.

Définition 4.1.5 Soit Xt = (Xt1 , ..., Xtn ) une famille de variables aléatoires. Xt est un
processus gaussien sur S, si pour toute partie finie Λ ⊂ S et pour tout n-uplet de nombres
réels (λ1 , ..., λn ) ∈ Rn , la combinaison linéaire ni=1 λi Xti est une variable aléatoire gaus-
P

sienne.

P
En notant mΛ = E(XΛ ) la moyenne de XΛ = (Xs , s ∈ Λ) et Λ sa covariance, alors,
P
si Λ est inversible alors XΛ admet pour densité (on dit aussi pour vraisemblance) par
rapport à la mesure de Lebesgue sur RCard(A) . La fonction densité de XΛ est alors donnée
par :

X − 1 h −1
X i
−CardΛ/2 t
fΛ (xΛ ) = (2π) det 2
exp − 1/2 (xΛ − mΛ ) (xΛ − mΛ ) , (4.3)
Λ Λ

où Card(U ) est le cardinal de U et xΛ la réalisation de XΛ .


On distingue essentiellement deux familles de processus gaussiens : le bruit blanc et le

113
4.2 Propriétés stochastiques du modèle SEIRS

mouvement brownien.

En particulier, le mouvement brownien est le nom donné aux trajectoires irrégulières


du pollen en suspension dans l’eau, observé par le botaniste R. Brown en 1828 [42]. Ce
mouvement ”aléatoire”, dû aux chocs successifs entre le pollen et les molécules d’eau,
entraine la dispersion ou diffusion du pollen dans l’eau. Le champ d’application du mou-
vement brownien est beaucoup plus vaste que l’étude des particules microscopiques en sus-
pension et inclut la modélisation du prix des actions, du bruit thermique dans les circuits
électriques, du comportement limite des problèmes de files d’attente et des perturbations
aléatoires dans un grand nombre de systèmes physiques, biologiques ou économiques. Il
se définit comme suit.

Définition 4.1.6 Un mouvement brownien de dimension k,{Bt , Ft ; 0 6 t < +∞} est la


donnée d’un processus mesurable B à valeurs dans Rk , et d’une filtration, tels que B est
adapté à (Ft )t>0 est continu, et vérifie :
i) B0 = 0 presque surement ;
ii) Pour 0 6 s < t, l’accroissement Bt − Bs est indépendant de (Ft )t ;
iii) Pour 0 6 s < t, l’accroissement Bt − Bs suit une loi normale centrée, de matrice de
p
covariance (t − s)Idk où Idk désigne la matrice identité de dimension k.

4.2 Propriétés stochastiques du modèle SEIRS


L’étude des maladies infectieuses représente l’un des secteurs les plus anciens et les
plus riches de la biomathématique. La dynamique de transmission de ces maladies reste
un problème majeur en épidémiologie mathématique.

Dans ce travail, nous proposons une version stochastique d’un modèle SEIRS (susceptibles-
exposés-infectés-retirés-susceptibles) pour les maladies infectieuses évoluant dans un en-
vironnement aléatoire pour la propagation des maladies infectieuses. Ce modèle aléatoire
prend en compte les taux d’immigration et de mortalité dans chaque compartiment et la
propagation de ces maladies suit un processus markovien à quatre états. Nous étudions
d’abord la stabilité du modèle puis estimons les paramètres marginaux (moyennes, va-

114
4.2 Propriétés stochastiques du modèle SEIRS

riances et covariance) de chaque état pathologique dans le temps. Des données réelles sur
la rougeole sont appliquées au modèle.

4.2.1 Présentation du modèle SEIRS

Dans cette section, nous proposons une version stochastique du modèle SEIRS. Nous
considérons le modèle stochastique SEIRS [39] dont le diagramme de la dynamique de la
propagation de la maladie est décrit dans par la figure 4.2. Le modèle basé sur la chaine de
Markov en temps et à espace d’états discret via les processus de naissance et de mort pour
décrit la propagation des maladies infectieuses évoluant dans un environnement aléatoire.

Le modèle est réparti en quatre compartiments où chaque compartiment représente


une étape spécifique de l’épidémie : X1 pour les individus susceptibles ou saints, X2
pour les exposées, X3 pour les infectées et X4 les guéris. A ce modèle, s’ajoute les taux
d’apparitions σi , i=1 à 4 indépendamment de λ et les taux des morts naturelles µi , i=1
à 4 indépendants de la maladie dans les classes des personnes susceptibles X1 (t), exposés
X2 (t), infectés X3 (t) et guéries X4 (t) respectivement à l’instant t. Alors, la taille de la
population à l’instant t est donnée par :

Z(t) = X1 (t) + X2 (t) + X3 (t) + X4 (t). (4.4)

Les taux sont supposés constants au cours du temps et la transmission de la maladie se


fait que par contact entre les individus susceptibles et infectieux dans un intervalle de
temps relativement petit dt.

Après l’administration de la vaccination à la population, les sujets immunisés contre


la maladie et les sujets guéris entrent dans le compartiment X4 et perdent leur immunité
contre cette maladie après une période de latente donnée pour redevenir susceptibles [42].
Les nouveaux nés non vaccinés entrent dans le compartiment des susceptibles X1 avec un
taux Θ et après un contact avec un sujet infecté s’exposent d’abord à la maladie et de-
viennent infectés, guéris et redeviennent de nouveaux susceptibles . Les sujets susceptibles
du compartiment X1 reçoivent les vaccins et se rendent directement au compartiment X4
des personnes guéries [39, 89].

115
4.2 Propriétés stochastiques du modèle SEIRS

En fournissant les vaccins appropriés au public, le programme d’immunisation de masse


sert à réduire la valeur du tau de reproduction de base R0 , ce qui permet l’extinction la
maladie. Pour un R0 supérieur à l’unité, la maladie infectieuse ne finit pas par disparaitre
et provoque en fait l’apparition d’une épidémie. En raison des programmes d’immunisa-
tion réussis qui causent parfois des problèmes de santé aux individus, car les vaccinations
présentent des risques associés, les personnes infectées peuvent devenir trop méfiant à
l’égard des risques et ne pas recevoir les vaccins nécessaires tant qu’elles n’ont pas trans-
mis la maladie infectieuse à beaucoup d’autres personnes sensibles [60]. Avant d’atteindre
une épidémie, des lois sont parfois adoptées pour faire appliquer les vaccinations.

Nous résumons dans le tableau (4.2), l’ensemble des paramètres qui seront décrits dans
le modèle.

Figure 4.1 – Cycle de propagation du modèle épidémique SEIRS

taux et signification
λ le taux de nouveau-nés
α le taux d’attaques de la maladie
β Le taux d’infection
γ taux de récupération
θλ le taux de nouveau-nés vaccinés et immunisés contre la maladie
τ le tau des individus guéris mais ayant perdu leur immunité temporaire
η le tau des individus saints vaccinés et immunisés contre la maladie
θ le tau des nouveau-nés non vaccinés
σi , i = 1.4 taux d’immigrants dans différents compartiments
µi , i = 1.4 taux de mortalité des compartiments indépendamment de la maladie
Xi, i = 1, 4 Les étapes du processus

116
4.2 Propriétés stochastiques du modèle SEIRS

4.2.2 Probabilités de naissance et de mortalité

Les intensités des transitions sont définies comme une limite de probabilité des tran-
sitions entre les instants t et t+dt, lorsque dt tend vers zéro [32]. Sous l’hypothèse de
l’existence de ces limites, déterminons les lois de probabilité infinitésimales de chaque
processus sur un petit intervalle de temps dt.

• Naissance et émigration de S

Une fois la population vaccinée, le compartiment S contient des individus non immu-
nisés qui sont donc sensibles à la maladie. Parmi ces individus se trouvent des immigrés
avec un taux σ1 d’une autre localité et des nouveau-nés non immunisés contre la maladie
avec un taux λ. La probabilité qu’il y aura une naissance puis une immigration d’une
personne sensible dans l’état de processus n est donnée par :
 
S(t + dt) = n/S(t) = n − 1
 
 
 E(t + dt) = m/E(t) = m 
P  = [λ(1 − θ)(n − 1) + σ1 ]dt + 0(dt).
 0 0 
 I(t + dt) = n /S(t) = n 
 
0 0
R(t + dt) = m /S(t) = m

• Mortalité de S

Le taux de mortalité du compartiment S, indépendamment de la cause du maladie,


est µ1 . La probabilité de décès dans l’état n du processus est donnée par :
 
S(t + dt) = n/S(t) = n + 1
 
 
 E(t + dt) = m/E(t) = m 
P
 0 0
 = µ1 dt + 0(dt).

 I(t + dt) = n /S(t) = n 
 
0 0
R(t + dt) = m /S(t) = m

• Transition de S à E

Les individus du compartiment S entrent en contact avec des personnes infectées avec
un taux α et s’exposent à la maladie. La probabilité de passage de l’état n à l’état m est
donné par :

117
4.2 Propriétés stochastiques du modèle SEIRS

 
S(t + dt) = n/S(t) = n + 1
 
 E(t + dt) = m/E(t) = m − 1
 

P
 0 0
 = α(n + 1)dt + 0(dt)

 I(t + dt) = n /S(t) = n 
 
0 0
R(t + dt) = m /S(t) = m

• Mortalité de E
La probabilité de décès dans l’état m du processus est donnée par :
 
S(t + dt) = n/S(t) = n
 
 E(t + dt) = m/E(t) = m − 1
 

P
 0 0
 = µ2 dt + 0(dt)

 I(t + dt) = n /S(t) = n 
 
0 0
R(t + dt) = m /S(t) = m

• Mortalité de I

La probabilité qu’il y aura des décès quelle que soit la cause de la maladie parmi les
0
personnes infectées dans l’état n du processus est donnée par :

 
S(t + dt) = n/S(t) = n
 
 
 E(t + dt) = m/E(t) = m + 1 
P
 0 0
 = µ3 dt + 0(dt).

 I(t + dt) = n /S(t) = n 
 
0 0
R(t + dt) = m /S(t) = m

• Mortalité de R

0
La probabilité de décès parmi les personnes rétablies à l’état m du processus est
donnée par :
 
S(t + dt) = n/S(t) = n
 
 
 E(t + dt) = m/E(t) = m 
P
 0 0
 = µ4 dt + 0(dt).

 I(t + dt) = n /S(t) = n 
 
0 0
R(t + dt) = m /S(t) = m + 1

118
4.2 Propriétés stochastiques du modèle SEIRS

4.2.3 Probabilités de migration et de transition du modèle

• Immigration de E

Le compartiment E contient des personnes exposées à la maladie après contact avec


les patients. La probabilité d’immigration à l’état m du processus est donc :
 
S(t + dt) = n/S(t) = n
 
 E(t + dt) = m/E(t) = m − 1
 

P
 0 0
 = σ2 dt + 0(dt)

 I(t + dt) = n /S(t) = n 
 
0 0
R(t + dt) = m /S(t) = m

• Transition de E à I

Les individus exposés E, deviennent contagieux avec un taux β et la probabilité de


0
passer de l’état m à l’état n est donné par :
 
S(t + dt) = n/S(t) = n
 
 
 E(t + dt) = m/E(t) = m + 1 
P 0 0
 = β(m + 1)dt + 0(dt)
 I(t + dt) = n /S(t) = n − 1
 

 
0 0
R(t + dt) = m /S(t) = m

• Immigration de I

0
La probabilité d’immigration vers l’état n du processus dans le compartiment I est :
 
S(t + dt) = n/S(t) = n
 
 
 E(t + dt) = m/E(t) = m 
P 0 0
 = σ3 dt + 0(dt)
 I(t + dt) = n /S(t) = n − 1
 

 
0 0
R(t + dt) = m /S(t) = m

• Transition de I à R

0
Individus infectés I guéris avec un taux γ. La probabilité de passage de l’état n à
0
l’état m est donné par :

119
4.2 Propriétés stochastiques du modèle SEIRS

 
S(t + dt) = n/S(t) = n
 
 
 E(t + dt) = m/E(t) = m 
P
 0 0
 = γ(n3 + 1)dt + 0(dt)

 I(t + dt) = n /S(t) = n + 1 
 
0 0
R(t + dt) = m /S(t) = m − 1

• Immigration de R

0
La probabilité d’immigration dans le compartiment R dans un état m du processus
est :
 
S(t + dt) = n/S(t) = n
 
 
 E(t + dt) = m/E(t) = m 
P
 0 0
 = [σ4 + θλ]dt + 0(dt)

 I(t + dt) = n /S(t) = n 
 
0 0
R(t + dt) = m /S(t) = m − 1

• Transition de R à S

Les personnes rétablies redeviennent sensibles avec un taux τ . le probabilité de bas-


0 0
culer de l’état m à l’état n est donc :
 
S(t + dt) = n/S(t) = n − 1
 
 
 E(t + dt) = m/E(t) = m 
P
 0 0
 = τ (n4 + 1)dt + 0(dt).

 I(t + dt) = n /S(t) = n 
 
0 0
R(t + dt) = m /R(t) = m + 1

• Transition de S à R

Les individus immunisés contre la maladie avec un taux τ après la couverture vaccinale
0
directe intègre les compartiments R. La probabilité de la transition de l’état n à l’état m
est donc :  
S(t + dt) = n/S(t) = n + 1
 
 
 E(t + dt) = m/E(t) = m 
P
 0 0
 = η(n + 3)dt + 0(dt).

 I(t + dt) = n /S(t) = n 
 
0 0
R(t + dt) = m /S(t) = m − 1

120
4.2 Propriétés stochastiques du modèle SEIRS

4.2.4 Propriétés stochastiques et linéaires de la transition

La propriété de Markov pour la loi d’un processus multi-états est que les événements
{X(t) = j}, j = 0, ..., n sont indépendants du passé Xn−1 étant donné X (s). Pour les
processus de Markov, les matrices de probabilité de transition satisfont à la propriété
de Chapman-Kolmogorov [1]. L’ensemble des intensités de transition forme la matrice
d’intensité de transition Q. La somme des termes de chaque ligne de ces matrices est
égale à zéro. Nous avons la matrice des probabilités de transmission Q donnée par :

 
−M1 + µ1 + α α 0 η
 
 
 
 
0 −M2 + µ2 β 0
 
 
 
Q=
 

 
−M3 + µ3
 
 0 0 γ 
 
 
 
 
τ 0 0 −M4 + τ + µ4

Où



 M1 = λ(1 − θ) + σ1 + η








M = α + β + σ2


 2


⇒ (4.5)





 M3 = β + γ + σ3









 M = γ + η + θλ + σ
4 4

M1 , M2 , M3 et M4 sont des quantités positives.

L’équation de Kolmogorov donne la matrice des probabilités de transition Q(t) en


fonction de l’exponentielle de la matrice :

P (t) = exp {Qt} .

121
4.2 Propriétés stochastiques du modèle SEIRS

Rappelons que l’exponentielle d’une matrice se calcule relativement simple, en parti-


culier lorsque la matrice peut être diagonalisée [32]. Si Q a des valeurs propres qui sont
toutes différentes, on peut l’écrire comme Q = P DP −1 où D est la matrice diagonale des
valeurs propres, et P est la matrice des vecteurs propres. Dans ce cas, la probabilité P (t)
à condition stable donne P (t) = P etD P −1 où l’exponentielle d’une matrice diagonale D
est une matrice diagonale dont les termes diagonaux sont l’exponentielle des termes de D.

En utilisant la fonction génératrice des cumulants [53], nous calculons ensuite les
moyennes, les variances et les covariances des états pathologiques en fonction du temps.
À cette fin, la fonction génératrice de probabilité est définie par :

X 0 0 0 0
Φ(x1 , x2 , x3 , x4 , t) = p(n, m, n , m , t)xn1 xm n m
2 x 3 x4 .
n,n0 ,m,m0 >0

En prenant A(t) = (Ai,j (t))16i,j64 = (tAi,j ) [i 6, 4j 6], la matrice des naissances à


coefficients positifs ou nuls, tels que :
 
λ(1 − θ) + σ1 0 0 0
 
 
 
 
0 σ2 0 0 
 

 
 
 
Aij = 

;

 0 0 σ3 0 
 
 
 
 
 
 0 0 0 σ4 
 

122
4.2 Propriétés stochastiques du modèle SEIRS

et B(t) = (Bi,j (t)) la matrice des décès, donnée par :


 
µ1 + α + η −α 0 −η
 
 
 
 
0 µ2 + β −β 0
 
 
 
Bij =  ;
 
 
−γ
 
 0 0 µ3 + γ 
 
 
 
 
−τ 0 0 µ4 + τ

alors, la fonction génératrice conjointe des moments est définie par :


X 0 0 0 0
M (a1 , a2 , a3 , a4 , t) = p(n, n , m, m , t)ea1 n ea2 n ea3 m ea4 m . (4.6)
0 0
n,n ,m,m =0

En définissant xk = eak , on obtient ∂xk = eak ∂ak pour tout k = 1, 2, 3, 4.

Définissons la fonction génératrice des cumulants par :

∞ 0 0
X an1 an2 am m
3 a4
K(a1 , a2 , a3 , a4 , t) = k 0 0 (a1 , a2 , a3 , a4 , t) (4.7)
0 0
n! n ! m! m0 ! nn mm
0

n,n ,m,m =1

où knn0 mm0 (a1 , a2 , a3 , a4 , t) sont des cumulants :

dr K(a1 , a2 , a3 , a4 , t)
knn0 mm0 (a1 , a2 , a3 , a4 , t) = |t=0 . (4.8)
dtr
De plus, la fonction génératrice des cumulants est calculée comme suit :

K(a1 , a2 , a3 , a4 , t) = logM (a1 , a2 , a3 , a4 , t) (4.9)

Et
∂M (a1 , a2 , a3 , a4 , t) = eK ∂K(a1 , a2 , a3 , a4 , t). (4.10)
P ∞ ai
En remplaçant ea = i=0 dans (4.7) puis, en dérivant les fonctions K(a1 , a2 , a3 , a4 , t),
i!
il s’en suit que :

123
4.2 Propriétés stochastiques du modèle SEIRS

∞ ∞
∂K(a1 , a2 , a3 , a4 , t) h X an1 X (−a1 )n i ∂k 0 0 (a , a , a , a , t)
nn mm 1 2 3 4
= 1 + 3 − 2 (4.11)
∂t n=0
n! n=0
n! ∂a 1
∞ 0 ∞ ∞ 0
h X an2 X an1 X (−a2 )n
+ σ2 +α − 4
0
n0 ! n=0
n! 0
n 0
!
n =0 n =0
i ∂k 0 0 (a , a , a , a , t)
nn mm 1 2 3 4
− 5
∂a2
∞ ∞ 0 ∞
h X am
3
X an2 X (−a3 )m
+ σ3 +β
m=0
m! 0
n0 ! m=0 m!
n =0
∞ m
(−a3 )
X i ∂k 0 0 (a , a , a , a , t)
nn mm 1 2 3 4
− 7 − 6
m=0
m! ∂a3
∞ ∞ 0 ∞ ∞ ∞ 0 0
h X a4m X an1 X (−a4 )m X am
3
X (−a4 )m
+ σ4 +η +γ
0
m0 ! n=0
n! m=0 m0 ! m=0
m! 0 m0 !
m =0 m =0
∞ 0
X (−a4 )m i ∂k 0 0 (a , a , a , a , t)
nn mm 1 2 3 4
− 9 0 − 8 .
0
m ! ∂a 4
m =0

En outre, sachant que :





 E(X) = ∂knn0 mm0 (a1 , a2 , a3 , a4 , t)

. (4.12)


 V (X) = ∂ 2 k 0 0 (a , a , a , a , t).

nn mm 1 2 3 4

Alors, il vient que :



dk 0 0 (a1 , a2 , a3 , a4 , t)
E(Xi (t)) = nn mm |t=0





 dai
(4.13)
d2 knn0 mm0 (a1 , a2 , a3 , a4 , t)



V (X (t)) = |t=0 pour i = 1, 2, 3, 4

i

da2i

En utilisant la fonction génératrice de moment (4.7), nous pouvons déterminer la


moyenne et la variance de chaque état. La dérivée de 4.7 donne :

∞ 0 0
∂K(a1 , a2 , a3 , a4 , t) X an1 an2 am m
3 a4 0
= 0 0 kn,n0 ,m,m0 (a1 , a2 , a3 , a4 , t). (4.14)
∂t 0 0
n! n ! m! m !
n,n ,m,m =0

124
4.2 Propriétés stochastiques du modèle SEIRS

En égalisant les deux expressions précédentes (4.14) et (4.7) et en utilisant la relation


(4.13), on obtient un système d’équations différentielles linéaires du premier degré dont
les variables sont des moyennes de chaque état du processus défini par la relation (4.15).

dE(X1 )

 = ρ1 E(X1 )
dt










 dE(X2 )
= ρ2 E(X2 )


dt



. (4.15)


 dE(X3 )
= ρ3 E(X3 ) + σ4 E(X2 X3 ) + ρ5 E(X2 )


dt









 dE(X4 ) = ρ6 E(X4 ) + ρ7 E(X2 X4 ) − 5 E(X3 )



dt
Avec ρi , i = 1, ..., 8, des constantes strictement positives définies par le système (4.16) :




 ρ1 = σ4 + σ2 + η + 8 − 5 − 4 + 3 − 2 + γ + α








ρ2 = σ4 + η + 8 − 4 + 3 − 2 + γ + α + β












ρ3 = σ4 + σ3 + σ2 + η − 9 + 8 − 7 + 6 − −5 − 4 + 3 − 2 + γ + α + β











ρ4 = σ3 − 7 + 6 − β (4.16)








ρ5 = σ3 + σ7 − β
















 ρ6 = σ4 + σ3 + σ2 + η − 9 + 8 − σ7 + 6 − 5 − 4 + 3 − 2 + γ + α + β








 ρ = σ + − +  + β
7 3 7 6

La dispersion au tour de la moyenne de chaque état du processus est donnée par la


relation (4.17). Pour une statistique peu dispersée, les observations sont proches les unes
des autres, et donc de leur moyenne.

125
4.2 Propriétés stochastiques du modèle SEIRS


dV (X1 )

 = 12 (σ2 + η + 2 + 3 + γ + α)V (X1 )
dt









 dV (X2 )
= 12 (σ4 + σ2 + η + 6 + 3 + 2 + γ + β)V (X2 )



dt



. (4.17)


 dV (X3 )
= 12 (σ4 + σ3 + σ2 + η + 9 + 3 + 2 + γ + β)V (X3 )


dt









 dV (X4 ) = 1 (σ4 + σ3 + σ2 + η + 9 + 8 + 7 + +6 + +5 + 3 + α)V (X4 )



2
dt

Le degré des liens entre les différents états du processus peut être estimé à partir des
covariables en résolvant les équations différentielles de la relation (4.18).


dCOV (X1 X2 )

 = (σ4 + σ2 + η − 9 + 8 + 3 − 2 + γ + α)COV (X1 X2 )
dt










 dCOV (X1 X3 )

 = (σ4 + σ3 + σ2 + η − 9 + 8 − 7 + 6 − 5 − 4 + 3 − 2 + γ + α + β)COV (X1 X3 )
dt










 dCOV (X2 X3 )
= (σ4 + σ3 + σ2 + η − 9 + 8 − 5 − 4 + 3 − 2 + γ + α + β)COV (X2 X3 )


dt





 dCOV (X2 X4 )
= (σ4 + σ2 + η − 9 − 5 − 4 + 3 − 2 + γ + α + β)COV (X2 X4 )


dt










 dCOV (X3 X4 )
= (σ4 + σ3 + σ2 − 9 + 8 + 7 + 6 − 5 − 3 − 2 + α + β)COV (X3 X4 )


dt









 dCOV (X1 X4 ) = (σ4 + σ2 + η − 9 − 5 − 4 + 3 − 2 + γ + α)COV (X1 X4 )



dt
(4.18)
La résolution du système d’équations écrites par les relations (4.15), (4.17) et (4.18)
ont pour conditions initiales :

126
4.3 Probabilité d’extinction du modèle SEIRS




 S(0) = S0 > 0, E(0) = E0 ≥ 0, I(0) = I0 > 0, R(0) = R0 ≥ 0








Φ(x1 , x2 , x3 , x4 , 0) = xS1 0 xE0 I0 R 0
2 x3 x4 , M (a1 , a2 , a3 , a4 , 0) = e
a1 S0 a2 E0 a3 I0 a4 R0
e e e





. (4.19)





 K(a1 , a2 , a3 , a4 , 0) = a1 S0 + a2 E0 + a3 I0 + a4 R0









 E(X (0)) = S , E(X (0)) = E , E(X (0)) = I , E(X (0)) = R .
1 0 2 0 3 0 4 0

4.3 Probabilité d’extinction du modèle SEIRS


Face à l’augmentation de la résistance bactérienne, l’émergence de nouveaux agents
pathogènes et la propagation rapide de l’épidémie, la surveillance et la prévention de
la transmission des maladies deviennent particulièrement importantes et indispensables.
Malgré une surveillance permanente et continue des maladies infectieuses, leurs étiologies
sont encore largement inconnues. Les modèles stochastiques et déterministes d’épidémies
ont été proposé (voir [40],[71],[3] ) pour acquérir de précieuses connaissances sur de nom-
breuses maladies infectieuses et d’étudier des stratégies de leur lutte.

Dans cette sous-section, nous proposons une approche probabiliste pour étudier l’ex-
tinction d’un processus de contamination d’une maladie transmissible dans une population
donnée assimilant un modèle stochastique de type SEIRS évoluant dans un environne-
ment aléatoire, et dont la version stochastique a été proposée (voir la section précédente)
pour les maladies infectieuses. On détermine d’abord la reproduction tau R0 du modèle
déterministe du phénomène et on détermine la probabilité d’extinction du processus en
étudiant la stabilité du système stochastique puis par simulation on fait une comparaison
des résultats obtenus.

4.3.1 Nouvelle approche stochastique du modèle SEIRS

127
4.3 Probabilité d’extinction du modèle SEIRS

Paramètres Description Biologique


λ Taux de nouveaux-nés.
θ Taux des nouveaux-nés immunisées contre la maladie après le vaccin
ρ Taux des nouveaux-nés immunisés contre la maladies
Θ Taux des nouveaux-nés non immunisées contre la maladie après le vaccin
α Taux de contact entre les individus infectés et les susceptibles.
σi Taux des immigrés susceptibles, exposés, infectés et guéris respectivement dans
les compartiments Xi ayant immunité contre la maladie après la vaccination..
τ Taux des personnes guéries ayant perdue l’immunité contre la maladies.
η Taux des susceptibles immunisés contre la maladie après le vaccins.
µi Taux des mortalités indépendants de la maladie
respectivement dans les compartiments Xi .
β Taux d’infection.
γ Taux de guérison ou des personnes retirées

Table 4.2 – L’ensemble des paramètres du modèle

Figure 4.2 – Cycle de propagation du modèle épidémique SEIRS

La section suivante résume les résultats clés de notre article.

4.3.2 Taux de reproduction de base R0

En épidémiologie, R0 est le nombre moyen d’individus infectés par un seul individu


infecté, dans une population complètement sensible, durant sa période entière d’infection.
Il fournit des conditions critiques pour lesquelles une épidémie se développe ou disparaı̂t
RB15,B13,B16 . Les épidémiologistes classent le potentiel infectieux des maladies transmis-
sibles selon ce paramètre R0 . Cette quantité est un seuil qui peut apporter une idée sur
la dynamique de transmission d’une maladie et peut également orienter les stratégies vi-
sant à contrôler sa propagation. Elle est généralement appelée nombre de reproduction

128
4.3 Probabilité d’extinction du modèle SEIRS

de base. R0 est l’un des concepts clés que les mathématiques ont apporté dans la théorie
des épidémies. Calculer la quantité R0 , nécessite au préalable la détermination des points
d’équilibres de la maladie.

Le bilan de masse à travers les compartiments (fig 4.2) nous donne les équations
décrivant la propagation de la maladie comme suit :


dX1 (t)

 = (λ − θ) − (µ1 + η)X1 (t) + αX3 (t)X1 (t) + τ X4 (t) + σ1
dt










 dX2 (t)

 = αX3 (t)X1 (t) − (µ2 + β)X2 (t) + σ2
dt









dX3 (t) (4.20)
= βX2 (t) − (µ3 + γ)X3 (t) + σ3


 dt






 dX4 (t)
= γX3 (t) + ηX1 (t) − (τ + µ3 )X4 (t) + θ + σ4


dt










 X (0) = x0 , X (0) = x0 , X (0) = x0 , X (0) = x0

1 1 2 2 3 3 4 4

ce qui est équivalent à



dX1 (t)

 = π + αX3 (t)X1 (t) − εX1 (t) + τ X4 (t) − θ
dt










 dX2 (t)

 = αX3 (t)X1 (t) − ΩX2 (t) + σ2
dt









dX3 (t) (4.21)
= βX2 (t) − ΓX3 (t) + σ3


 dt






 dX4 (t)
= γX3 (t) + ηX1 (t) − KX4 (t) + φ


dt










 X (0) = X 0 , X (0) = X 0 , X (0) = X 0 , X (0) = X 0

1 1 2 2 3 3 4 4

où , les différents paramètres sont donnés par :

129
4.3 Probabilité d’extinction du modèle SEIRS




 π = λ + σ1








ε = µ1 + η












Ω = µ2 + β





(4.22)





 Γ = µ3 + γ











 K = τ + µ3









 φ=θ+σ
4

En absence de maladie, X4 =0 et on obtient le point d’équilibre défini par :

π−θ T
w= , 0, 0 . (4.23)
ε

Proposition 4.3.1 En utilisant la relation (4.21), le paramètre de reproduction de base


est donnée par :
αβ(λ + σ1 − θ)
R0 = . (4.24)
(µ1 + η)(µ2 + β)(µ3 + γ)
Preuve 4.3.1 On cherche ensuite la matrice K de Van Den Driessche dite matrice de la
nouvelle génération.

   
αX1 (t)X3 (t) + σ2 ΩX2 (t)
   
F(X2 (t), X3 (t)) =   ; V(X2 (t), X3 (t)) =  (4.25)
   

   
0 −βX2 (t) + ΓX3 (t) − σ3

Ainsi, il s’en suit que

∂F1 ∂F1 ∂V1 ∂V1


   
 ∂X2 ∂X3   ∂X2 ∂X3 
∂Fi 
 ; V = ∂Vi = 
  
F = =  (4.26)
∂Xj  ∂F
 ∂Xj  
2 ∂F2   ∂V
2 ∂V 
2
∂X2 ∂X3 ∂X2 ∂X3

130
4.3 Probabilité d’extinction du modèle SEIRS

Figure 4.3 – Simulation de la solution du modèle et du taux de reproduction de base.

Alors, il vient que :

α(π − θ)
   
0 Ω 0
 ε   
F (w) =  ; V (w) = (4.27)
   
  
   
0 0 −β Γ

 1 
α(π − θ) αβ(π − θ) α(π − θ)
  
0 0 
 ε  Γ  εΩΓ εΓ 
  
K = F V −1 = =
  
   
β 1 
  
0 0 0 0
ΩΓ Γ

αβ(λ + σ1 − θ)
R0 = . (4.28)
(µ1 + η)(µ2 + β)(µ3 + γ)

En particulier, si R0 < 1, la maladie est asymptotiquement stable. Mais si, R0 > 1, la


maladie est asymptotiquement instable.

131
4.3 Probabilité d’extinction du modèle SEIRS

4.3.3 Probabilité d’extinction de la maladie

En cas d’épidémie, l’objectif idéal est d’éradiquer complètement ce phénomène par


des mesures préventives ou par la mise en place d’un programme de vaccination de masse
plus efficace. Nous nous intéressons ici à la détermination d’une probabilité d’extinction
[61] w de la maladie en fonction du temps.

w = lim G(t, 0, 0, 0, 0) (4.29)


t→∞

où

X 0 0 0 0
G(t, x1 , x2 , x3 , x4 ) = p(t, n, m, n , m )xn1 xn2 xm m
3 x4 ; (4.30)

avec la condition initiale G(t0 , x1 , x2 , x3 , x4 ) = xn1 1 xn2 2 xn3 3 xn4 4 .

La fonction génératrice cumulatrice des probabilités (4.45) [61] satisfait l’équation de


Kolmogorov progressive suivante :

(t)
dGj Xh 
(t)
 i
(t)
(s) = aij (−s) 1 − Gj (s) − bij (−s) Gi (s). (4.31)
ds i

où aij (t) et bij (t), ∀ 1 ≤ i, j ≤ 4 sont respectivement les composantes des matrices des
taux de naissances A(t) et de mortalité B(t) obtenues dans les travaux de Barro et all
[39], où

 
λ(1 − θ) + σ1 0 0 0  
  µ +α+η −α 0 −η



  1 
   
 
0 σ2 0 0 
   

0 µ2 + β −β 0
   
   
   
A(t) =   ; B(t) =  (4.32)

   
 0 0 σ3 0   
−γ
 



  0 0 µ3 + γ 
   
   
   
 0 0 0 σ4   
  −τ 0 0 µ4 + τ

132
4.3 Probabilité d’extinction du modèle SEIRS

La probabilité d’extinction du processus de contamination d’une maladie dans une


population est donc définie par l’expression :

0 0
w = w1n w2n w3m w4m (4.33)

où chaque wi s’obtient de la manière suivante :

(t)
wj = 1 − lim Gi (0); (4.34)
t→∞

(t)
et Gi (s), pour t > 0 sont des solutions obtenues de la résolution du système suivant :
 (t)
 dG1 h 
(t)
 i
(t)

 (s) = τ + p 1 − G1 (s) − q G1 (s)
ds









 (t)

 dG2 h 
(t)
 i
(t)

 (s) = α + σ2 1 − G2 (s) − (µ2 + β) G2 (s)
ds









 (t)

 dG3 h 
(t)
 i
(t)

 (s) = β + σ 3 1 − G 3 (s) − (µ 3 + γ) G3 (s)
ds







dG4
(t) h   i (4.35)
(t) (t)

 (s) = η + γ + σ4 1 − G4 (s) − (µ4 + γ) G4 (s)
ds









(t)

Gj (−t) = 1












p = λ(1 − θ) + σ1













 q =α+η+µ .
1

Nous cherchons donc à savoir si w < 1 ou w > 1 et cela dépend de la résolution du


système non linaire (4.35) qui n’admet pas de solution exacte. On fait alors recourt à
d’autres moyens.

133
4.3 Probabilité d’extinction du modèle SEIRS

D’après les travaux de Arnold (1998), l’étude de la stabilité du système (voir [58]),
peut se ramener à celle du système d’équations différentielles homogènes suivantes :

dX(t)
= HX(t); (4.36)
dt
où X ∈ R4 désigne les différents états du processus et
 
λ + σ1 − ~ α 0 η
 
 
 
 
0 σ 2 − µ2 − β β 0
 
 
 
H= ; (4.37)
 
 
σ3 − µ3 − γ
 
 0 0 γ 
 
 
 
 
0 0 0 σ 4 − µ4 − τ

avec ~ = λθ + µ1 + α + η, la matrice aléatoire, différence de la matrice naissance et


celle de la moralité. Et les auteurs ont montré que cette stabilité dépend du signe de
λ1 (A, B),le plus grand exposant de Lyapunov de (4.36).

Par ailleurs, Bacaer et Khaladi (2012) ont aussi montré que l’étude de la stabilité de
[61] peut être alternativement formulée en termes de réproductivité nette R0 .

On supposera par la suite que la matrice H est irréductible c’est-à-dire que le graphe
G(H) est fortement connexe. Soit f (x) le polynôme caractéristique de la matrice H, défini
par f (x) = det(H −xI), Les valeurs propres, composantes du vecteur U suivants, associées
à la matrice H sont les solutions de l’équation f (x) = 0 :
 
λ + σ1 − ~
 
 σ 2 − µ2 − β
 

U = . (4.38)
 σ3 − µ3 − γ
 

 
σ4 − µ4 − τ

Comme dans [59, 58], toutes les valeurs propres de la matrice H, ayant une partie
réelle strictement négative, c’est à dire Re(Ui ) < 0, 1 ≤ i ≤ 4, alors la solution nulle du

134
4.3 Probabilité d’extinction du modèle SEIRS

système (4.36) est asymptotiquement stable.

La matrice de passage P associée au vecteur U est analytiquement donnée par l’ex-


pression suivante :
 
1 P2 P 4 P9
 
 
 
 
 0 1 1 0 
 
 
P (t) =  (4.39)
 

 
 
 0 0 P6 0 
 
 
 
 
0 0 0 1

si la relation 4.40 suivante est vérifiée :

3(σ4 − µ4 − τ ) + µ2 + β + µ3 + γ − σ1 − σ2 − σ3 − λ − ~ = 0. (4.40)

les constantes P2 , P4 , P6 et P9 sont tels que :

 α
 P2 =
~ + σ2 − λ − σ1 − µ2 − β










 α
P4 =


~ + σ3 − λ − σ1 − µ3 − γ




. (4.41)
µ2 + β + σ 3 − µ3 − σ 2 − γ




 P6 =
β











 P9 =
 η
λ + σ 1 + τ + µ4 − ~ − σ 4
La matrice H(t) peut donc se mettre sous la forme :

H = P DP −1 . (4.42)

Cela se traduit plus explicitement

135
4.3 Probabilité d’extinction du modèle SEIRS

   
1 P 2 P4 P9 B 0 0 0 P −P2 P6 P2 0
  1  6 
   
   
   
 0 1 1 0   0 B2 0 0   −P6 P2 −1 1
   

   
(4.43)
   
   
   
   
 0 0 P6 0   0 0 B3 0  0 0 1 0 
   
   
   
   
0 0 0 1 0 0 0 B4 0 0 0 P6

où



 B1 = λ + σ1 − ~








B = σ 2 − µ2 − β


 2


(4.44)


B3 = σ3 − µ3 − γ












 B =σ −µ −τ

3 4 4

Dans la relation (4.43), on pose les expressions suivantes :




 ζ = λ + σ1 − ~






 

U = P −1 X(t) ∆ = σ2 − µ2 − β
 


 

 
and . (4.45)

 

 U 0 = P −1 X 0 (t)
 

 $ = σ 3 − µ3 − γ









 κ = σ − µ − τ.

4 4

La solution du système (4.36) s’obtient en résolvant le problème (4.36) et l’expression


analytique de cette solution est donnée par la relation suivantes qui définit les états finaux
du processus au cours du temps .

136
4.3 Probabilité d’extinction du modèle SEIRS


(1 − P6 )P2 x02 e∆t + (1 − P6 )x01 eζt + P6 x02 e∆t + P6 x01 eζt − P6 P2 x03 e$t − x04 eκt
X (t) =

 1
P6 (1 − P6 )










P6 x02 e∆t + P6 x01 eζt − P6 P2 x03 e$t − x04 eκt


X (t) =


 2

 P P (1 − P )
6 2 6




X3 (t) = x03 e$t











x0


 X4 (t) = 4 eκt .


P6
(4.46)

Figure 4.4 – Simulation de l’évolution du processus, solution (4.44) du problème (4.46)


au cours du temps.

Conclusion
Ce chapitre est une contribution au modèle stochastique SEIRS et sa probabilité d’ex-
tinction. Plus précisément, dans la première section nous avons présenté le cadre stochas-

137
4.3 Probabilité d’extinction du modèle SEIRS

tique à travers un rappel des principaux outils sur les processus aléatoires nécessaires à la
modélisation, objet du présent travail. Dans les deux dernières sections, nous avons donné
une approche stochastique du modèle SEIRS et sa probabilité d’extinction à travers des
concepts de bases et des notions fondamentales.

138
Conclusion générale

Notre thèse avait pour objectif de contribuer à la modélisation en utilisant des outils
géostatistiques et leur utilisation dans l’estimation dans le domaine des mines. Nous avons
ainsi exploré les outils géostatistique d’analyse structurale et de prédiction.
Dans un premier temps, nous avons présenté les outils géostatistiques nécessaire pour
notre étude. Plus précisement, il s’est agit de rappeler les outils d’analyse structurale et
les concepts fondamentaux du contexte minier. Nous y avons exposé les modèles théoriques
de variogramme pour la modélisation de la structure de dépendance.

Ensuite, après avoir rappelé les généralités des copules multivariées et leurs propriétés, un
premier résultat nous a permis de modéliser les outils techniques géostatistiques tels que
le variogramme, le corrélogramme et le madogramme. En particulier, cette étude montre
que les outils de dépendance géostatistique linéaire modélisés peuvent être utilisés pour
caractériser les dépendances linéaires et non linéaires d’une part, et analyser des données
extrêmes d’autre part.

Par ailleurs, nous avons présenté à travers le troisième chapitre, les modèles géostatistiques
et estimation. Plus précisément, du coté théorique, nous avons estimé les modèles de va-
riogramme et présenté les méthodes de prédiction. En termes d’application, nous avons
analysé la dépendance spatiale des concentration de cobalt, estimé ces concentrations dans
les zones non échantillonnées et dressé la carte des erreurs de prédiction en utilisant les
outils géostatistiques.

Enfin, les méthodes spatiales étant le fondement de l’épidémie spatiale à travers les pro-
babilité d’extinction nous avons établi le liens entre l’épidémiologie et la géostatistique.
Ainsi, grâce aux outils géostaistiques, nous avons pu déterminer les probabilités de pas-
sage d’un état à un autre dans le modèle SEIRS.

139
Les perspectives de cette étude sont nombreuses et de divers domaine. A cours terme, nous
comptons estimer les outils modélisés à partir des copules afin de les appliquées dans un
contexte minier. Plus précisément, il sera question de trouver un algorithme permettant
d’analyser la répartition des métaux à partir des échantillons prélevés sur un domaine
donné. De même, dans le domaine minier, les variations des teneurs des minerais sont
brusques d’un milieu à un autre (cas de l’or). Ainsi, l’estimation et l’application des ou-
tils de dépendances extrêmes à partir des copules (extrémogramme, coefficient extrémal)
peuvent permettre d’étudier la dépendance spatiale asymptotique de la distribution de
ces teneurs. A long terme, nous avons pour projet, d’utiliser les outils géostatistiques dans
un contexte épidémiologique. Plus précisément, il s’agira pour nous en cas d’épidémie, de
donner la carte de probabilité de contraction de la maladie, ou la carte d’extinction de
cette épidémie en se basant sur la proximité (dépendance des voisins) des zones.

140
Annexe

Annexe 1 : Preuve du théorème des trois types extrêmes


Les processus max-stables constituent le fondement de la théorie des valeurs extrêmes.
Cette théorie est basée sur l’extrapolation, l’ajustement asymptotique des lois des statis-
tiques avec des coefficients de normalisation convenables. Le théorème des trois types
permet, en dimension 1, de faire la synthèse des lois asymptotiques possibles associées
aux variables aléatoires. Vu l’importance de ce résultat, nous avons jugé nécessaire de le
rappeler dans cette thèse.

Enoncé du théorème
Preuve .0.2 Supposons qu’il existe une suite de normalisation {(δn , λn ) , n ≥ 1} telle que
δn > 0 et la suite de terme δn−1 (Mn − λn ) converge en loi vers une loi limite G non
constante. Pour toute fonction g continue et bornée, on a :

lim E g δn−1 (Mn − λn ) = E {g (G)}


  
n→+∞

Supposons par simplicité que la loi X1 possède la densité f > 0. Alors, la loi de Mn
possède la densité nF (x)n−1 f (x) d’après (2.3). On a donc :
Z  
x − λn
nF (x)n−1 f (x) dx
  −1 
In = E g δn (Mn − λn ) = g
R δn

Comme f > 0, la fonction F est inversible et d’inverse connue. On pose pour t > 1
 
−1 1
U (t) = F 1− .
t

En particulier, on a
1 1
U (t) = x ⇐⇒ 1 − = F (x) ⇐⇒ P (X > x) = .
t t
On effectue le changement de variable
v n
F (x) = 1 − , i.e x = U .
n v
On obtient  n 
Z U − λn
 1− v
 n−1
In = g v 1]0,n] (v) dv.
R δn n

141
 v n−1
Remarquons que 1 − 1]0,n] (v) converge en croissant vers e−v 1{v>0} .
n
Comme par hypothèse In converge pour tout g, il est naturel, mais erroné à priori, de
penser que pour tout v > 0, la suite de terme
n
U − λn
Jn (v) = v
δn

converge.
 Supposons malgré tout que cette convergence ait lieu. On déduit en considérant
1
Jn − Jn (1) que pour tout w > 0,
w
U (wn) − U (n)
−→ h (w) .
δn n→+∞

Comme la variable W est non triviale cela implique que la fonction h n’est pas égale
à constante. Comme la fonction U est croissante, la fonction h est également croissante.
Supposons que plus généralement, on ait pour tout w > 0,
U (wx) − U (x)
−→ h (w) ,
δ (x) n→+∞

où δ (x) = δdxe pour x ≥ 1, dxe désignant la partie entière de x. Soit w1 , w2 > 0, on a
U (w1 w2 x) − U (x) U (w1 w2 x) − U (xw1 ) δ (xw1 ) U (w1 x) − U (x)
= + .
δ (x) δ (xw1 ) δ (x) δ (x)
δ (xw1 )
En faisant tendre x vers l’infini dans l’égalité ci-dessous, on obtient que
δ (x)
converge pour tout w1 > 0. En notant l (w1 ) la limite, il vient que

h (w1 w2 ) = h (w2 ) l (w1 ) + h (w1 ) (∗)

Par ailleurs, la fonction l est mesurable et localement bornée. Comme la fonction h est
croissante et non constante, on en déduit que l est strictement positive. De plus yw0 = x,
on a pour w0 > 0
δ (xw) δ (yw0 w) δ (y) l (w0 w)
l (w) = lim = lim = .
x→+∞ δ (x) y→+∞ δ (y) δ (yw0 ) l (w0 )
Ainsi pour tous w, w0 > 0, on a

l (w0 w) = l (w) l (w0 )

où l est une fonction strictement positive mesurable localement bornée.


Il existe ξ ∈ R tel que l (w) = wξ , et donc de (∗) on a

h (w1 w2 ) = h (w2 ) w1ξ + h (w1 ) pour tous w1 , w2 > 0.

On peut alors distinguer les cas suivants :


. Si ξ = 0 on obtient l’équation fonctionnelle

h (w1 w2 ) = h (w2 ) + h (w1 )

Et donc h (w) = c log (w) , c > 0.

142
. Si ξ 6= 0, par symétrie, on a

h (w1 w2 ) = h (w2 ) w1ξ + h (w1 ) = h (w1 ) w2ξ + h (w2 ) .

En particulier, on a
   
h (w1 ) 1 − w2ξ = h (w2 ) 1 − w1ξ

h (w)
Cela implique que h (w) = 0 et w = 1, et sinon est constant.
 1 − wξ
Par conséquent, on obtient h (w) = c wξ − 1 . A un changement d’échelle près, on
1
peut choisir c = et à une translation près, on peut choisir U (n) = bn
ξ
En définitive, il vient que
n
   v −ξ − 1

U − λn 1 si ξ 6= 0
lim v =h = ξ
n→+∞ δn v
−log (v) si ξ = 0

On peut maintenant calculer la limite de In = E {g [δn−1 (Mn − λn )]} . D’après le


théorème de convergence dominée
Z  −ξ 
v − 1 −v
Z  
−1/ξ
lim In = g e 1{v>0} dv = g (y) 1{1+ξy>0} d e−(1+ξy) ,
n→+∞ ξ

v −ξ − 1
où on a posé y = si ξ 6= 0 et y = log (v) si ξ = 0
ξ
−1/ξ
Ainsi, la distribution de la loi limite est Hξ (x) = e−(1+ξx) .

Annexe 2 : Preuve du théorème de Sklar


Compléments Inverse Généralisée
Nous avons d’abord besoin de quelques compléments aux propriétés de la fonction
inverse généralisée donnée dans Lo et al. 2016.
Commençons par définir des fonctions généralisées. Soit [a, b] et [c, d] des intervalles non
vides de R et soit G : [a, b] → [c, d] une représentation non décroissante telle que :

c = inf G(x), (L11)


x∈[a,b]

d = sup G(x). (L12)


x∈[a,b]

Puisque G est une représentation, cela garantit que :

a = inf {x ∈ R, G(x) > c} , (L13)

b = sup {x ∈ R, G(x) < d} . (L13)

Si x = a ou x = b est infini, la valeur de G à ce point est considérée comme une limite. Si


[a, b] est borné au-dessus ou en-dessous de R, G est extensible sur R en prenant G(x) =

143
G(a+) pour x ≤ a et G(x) = G(b − 0) pour x ≥ b.
En règle générale, on peut considérer G simplement comme défini sur R. Dans ce cas,
a = lep(G) et b = uep(G) sont appelés extrémité inférieure et supérieure du point final
de G.
La fonction inverse généralisée de G est donnée par :

∀u ∈ [lep(G), uep(G)], G−1 (u) = inf {x ∈ R, G(x) ≥ u} .

Les propriétés de G−1 ont été minutieusement étudiées, notamment dans Billinsgley
(1968), Resnick (1987). Les résultats dont nous avons besoin dans cet article sont ras-
semblés et prouvés dans wcrv ou dans Lo et al. (2016b) (Chapitre 4, Section 1) et rappelé
ci-dessous.

Lemme .0.1 Soit G une fonction continue à droite non décroissante avec la notation
ci-dessus. Alors G−1 est continu à gauche et on a

∀u ∈ [c, d], G(G−1 (u) ≥ u (A) ∀x ∈ [a, b], G−1 (G(x)) ≤ x (B)

and

∀x ∈ [lep(G), uep(G)], G−1 (G(x) + 0) = x. (47)

Preuve .0.3 Les preuves des formules (A) et (B) sont bien connues et peuvent être trouvé
dans les livres cités ci-dessus. Prouvons la formule (47) pour tout x ∈ [a, b].
D’une part, nous commençons par la remarque que G−1 (G(x)+0) est la limite de G−1 (G(x)+
h) quand h & 0. Mais pour tout h > 0, G−1 (G(x) + h) est le minimum de l’ensemble
de y ∈ [a, b] tel que G(y) ≥ G(x) + h. N’importe lequel de ces y satisfait y ≥ x. D’où
G−1 (G(x) + 0) ≥ x.
D’autre part, G(x + h) & G(x) par continuité à droite de G, et par l’existence de la limite
droite de la fonction non décroissante G−1 (◦), G−1 (G(x + h)) & G−1 (G(x) + 0). Puisque
G−1 (G(x + h)) 6 x + h par la Formule (B), nous obtenons que G−1 (G(x) + 0) 6 x quand
h & 0. D’où le résultat.

Preuve du théorème de Sklar.


Définissons pour s = (s1 , s2 , . . . , sd ) ∈ [0, 1]d ,

C(s) = F (F1−1 (s1 + 0), F2−1 (s2 + 0), . . . , Fd−1 (sd + 0)). (48)

Il est immédiat que C assigne des volumes non négatifs aux cuboı̈des de [0, 1]d , puisque
selon la condition (DF2 2 ), la formule (48) pour C dérive de la même chose que pour F où
les arguments sont de la forme Fi−1 (◦ + 0), 1 6 i 6 d.
De plus, C est continu à droite puisque F est continu à droite ainsi que chaque Fi−1 (◦ +
0), 1 6 i 6 d. En passant, cela explique pourquoi nous avons pris les limites à droite parce
que les Fi−1 (◦) sont continus à gauche.
Enfin, en combinant les formules (47) et (48), on obtient la conclusion de Sklar dans la
formule (2.1). D’où le résultat.
X X
2. −1 + n ∈ [0, [uep(X)]+ ]P (|X| > n) 6 E |X| 6 P (|X| > n)
n∈[0,[uep(X)]+ ]

144
Annexe 3 : Estimation et sélection des copules
Dans la pratique lors de la mise en œuvre d’un modèle intégrant les copules, il convient
d’être capable d’estimer la structure de dépendance à partir des données disponibles. Il
existe dans la littérature plusieurs méthodes pour l’estimation et sélection d’une copule,
nous essayons d’exposer certaines d’entre elles. Les méthodes d’estimation sont divisées
en trois approches non-paramétriques, paramétriques et semi-paramétriques. Dans cette
sous-section, nous donnons l’approche non paramétrique d’estimation d’une copule.

A. Estimation de la copule empirique


La copule empirique est principalement utilisée pour étudier les processus empiriques
et les tests d’indépendance. Cette approche se base sur les rangs des observations pour
extraire ensuite la structure de dépendance.

Définition .0.1 Soit {(x1t , · · · , xnt )}Tt un échantillon d’un vecteur aléatoire X de dimen-
sion n, la fonction de répartition empirique est donnée par :
T
1X
Fn (x1 , · · · , xn ) = 1 1 1 n n , (49)
T i=1 (Xi <x ,··· ,Xi <x )

où 1(Xi1 <x1 ,··· ,Xin <xn ) est la fonction indicatrice.

La notion de la copule empirique a été introduite pour la première fois par Deheuvels
en (1979), qui est connue sous le non ” fonction de dépendance empirique ”.

a. Cas des copules bivariées


En dimension deux d’espace, la définition suivante donne une méthode d’estimation
de la copule.
Définition .0.2 Soit {(xk , yk )}nk=1 un échantillon de taille n d’un couple de variables
aléatoires. La copule empirique est la fonction Ĉ donnée par :
i j N ombre des paires (x, y) dans l0 echantillon tels que x ≤ x(i) et y ≤ y(j)
Ĉ( , ) = ,
n n n
(50)
où x(i) et y(j) représentent des statistiques d’ordre associées à l’échantillon.

La fonction densité empirique de la copule C notée ĉ est donnée par :


si (x(i) , y(j) ) est element de l0 echantillon;
   1
i j n
ĉ , = (51)
n n 0 si non.
Elle est parfois appelée ” fréquence de la copule empirique ” ; il existe une relation entre
Ĉ et ĉ donnée par :
  X i X j
i j p q
Ĉ , = ĉ( , ) (52)
n n p=1 q=1
n n
et
i j i j i−1 j i j−1 i−1 j−1
ĉ( , ) = Ĉ( , ) − Ĉ( , ) − Ĉ( , ) + Ĉ( , ). (53)
n n n n n n n n n n

145
b. Généralisation à des copules multivariées
En dimension T, {(x1t , · · · , xnt )}Tt=1 un échantillon de taille n, la copule empirique
multivariée est définie de façon analogue au cas bivarié. Ĉ est donnée comme suit :
 1
t1 tn T
si (x1t ≤ x1(t1 ) , · · · , xnt ≤ xn(tn ) );
Ĉ( , · · · , ) = (54)
T T 0 si non.
Les copules empiriques peuvent être exploitées pour estimer les mesures de dépendance
tels que rho(ρ) de Spearman et le tau(τ ) de Kendall.
Théorème .0.1 Soient Ĉ et ĉ la copule empirique et sa fonction de densité respective-
ment de l’échantillon {(xk , yk )}nk=1 . Le tau de Kendall et le rho de Spearman sont estimés
par les formules suivantes :
n n i−1 j−1
2n X X X X i j p q i q p j
τ̂ = [ĉ( , )ĉ( , ) − ĉ( , )ĉ( , )]; (55)
n − 1 i=2 j=2 p=1 q=1 n n n n n n n n
n n
12 XX i j ij
ρ̂ = ( 2 ) [Ĉ( , ) − 2 ]. (56)
n − 1 i=1 j=1 n n n

Nous trouvons la démonstration de ce théorème dans Nelsen (2006) ou Deheubels (1979)


ou (Fadhila,2011).

B. Procédure de Genest et Rivest


Cette méthode a été proposée par Christian Genest et Louis-Paul Rivest (1993), pour
sélectionner une copule appartenant à la famille archimedienne. Cette approche se base
principalement sur le générateur de la copule.
Soit X un vecteur de n v.a, C la copule associée au générateur ϕ et K la fonction définie
par :
K(u) = P(C(u, v) ≤ u) (57)
On peut calculer pour une copule Archimedienne la quantité suivante :
ϕ(u)
K(u) = u − (58)
ϕ0 (u)
Un estimateur non paramétrique de K est donné par :
T
1X
K̂(u) = 1v ≤u , (59)
T t=1 t

où
T
1 X
vt = 1 1 1 2 2 . (60)
T − 1 j=1 {xj ≤xt ,xj ≤xt }

Remarque .0.1 La fonction K est liée au tau de Kendall par la relation :


Z 1
τ =4 (1 − K(u))du; (61)
0

pour plus de precision consulter Genest (1993) ou Denuit (2005).

146
Bibliographie

[1] Abdelkarim Ed-Darraz Nicolas Bacaer ¡¡ un environnement alatoire¿¿. Journal of


Mathematical Biology, Springer Verlag (Germany), 2014.

[2] Abdelmajid Ben HADJ SALEM,  Eléments de la géostatistique  , Version 3.3


septembre 2012, office de la topographie et du cadastre.

[3] Abdoulaye Diamoutene, Farid Noureddine, Bernard KamsuFoguem, Diakarya Barro.


 Quality control in machining using order statistics. Measurement-Journal of the

International Measurement Confederation (IMEKO). Elsevier, 2018, 116, pp.596-601.


10.1016/j.measurement.2017.11.036. hal02053206.

[4] Abdoulaye Diamoutene, Farid Noureddine, Bernard Kamsu-Foguem, Diakarya Barro.


Quality control in machining using order statistics. Measurement-Journal of the
International Measurement Confederation (IMEKO), Elsevier, 2018, 116, pp.596-601.
10.1016/j.measurement.2017.11.036. hal02053206

[5] A.C.Davison .R.Huser.E.Thibaud,  Geostatistics of Dependence and Asymptotically


Independent Extremes , Math Geosci(2013) 45 :511-529, DOI 10.1007/s11004-013-
9469-y.

[6] A. Gray, D. Greenhalgh, X. Mao, J. Pan, The SIS epidemic model with Markovian
switching, J. Math. Anal. Appl. 394 (2012) 496-516.

[7] A.L. Fougères & P. Soulier,  Limit Conditional Distributions for Bivariate Vectors
with Polar Representation . Stochastic Models, 26(1). (2010). 54-77.

[8] Ancona-Navarrete, M.A. and Tawn, J.A.,  A comparison of methods for estimating
the extremal index , Extremes 3,5-38, (2000).

[9] Ancona-Navarrete, M.A.,  Dependence modelling and spatial prediction for extreme
values , PhD Thesis, Lancaster University, Lancaster, 2000.

[10] Bibliothque de l’OMS ¡¡ Modlisation mathmatique pour le contrle et llimination du


paludisme¿¿.novembre 2010.

[11] BELKAI Hadjila et BEN HAMICHE Assia,  Evaluation géostatistique des res-
sources minières  cas de gisement de Kef Es Sennoun  , Université Abderrahmane

147
BIBLIOGRAPHIE

Mira de Bejaia Faculté de Technologie Département des Mines et géologie, 2014-2015.

[12] Basrak, B., Davis, R.A.and Mikosch.T.(2002),  A Characterization of Multivariate


Regular Variation . Ann.Appl.pro.12,908-20.

[13] Bondar, I., McLaughlin, K., & Israelsson, H. (2005),  Improved Event Location
Uncertainty Estimates , 27th Seismic Research Review, 299-307.

[14] Bordossy, A. (2006),  Copula based geostatistical models for groundwater quality
parameters . Water Resources Research 42.

[15] B.V. Gnedenko & A.N.Kolmogorov,  Limit Distributions for Sums of Independent
Random Variables . Addison-Wesley Series in Statistics, Addison-Wesley Publishing
Company, Inc. (1954).

[16] B.V. Gnedenko,  Sur la distribution limite du terme maximum d’une série
aléatoire . Annales de mathématiques, 44. (1943). 423-453.

[17] Barro, D. (2009),  Conditional Dependence of Trivariate Generalized Pareto


Distributions , Asian Journal of Mathematics & Statistics Vol. 2 No.2, 20-32. DOI :
ajms.2009.20.32.

[18] Beirlant J., Goegebeur Y, Segers J. and Teugels,J. (2005).  Statistics of Extremes :
theory and application , Wiley, Chichester, England.

[19] C. Fonseca, L. Pereira, H. Ferreira & A.P. Martins,  Generalized Madogram and
Pairwise Dependence of Maxima over two Regions of a Random Fiel . arXiv :
1104.2637v2 [math.ST] 24 Jan 2012. (2012).

[20] Cox, D.R. F. Reid, N.(2004),  A Note on Pseudolikelihood Constructed from


Marginal Densities. Biometrikra 91, 729-37.

[21] Cooley D. Poncet P. and P. Naveau (2006),  Variograms for max-stable random
fields . In Dependence in 8 Probability and Statistics. Lecture Notes in Statistics 187
373.390. Springer, New York.

[22] C. Chen, Y. Kang, Dynamics of a stochastic multi-strain SIS epidemic model driven
by Levy noise, Comm. Nonl. Sci. Numer. Simul. 42 (2017) 379-395.

[23] C. Dombry,  Théorie spatiale des extrêmes et propriétés des processus max-stables .
Document de synthèse en vue de l’habilitation à diriger des recherches, Université de
Poitiers, UFR Sciences Fondamentales et Appliquées. Novembre (2012).

[24] C. Gaetan & X. Guyon,  Modélisation et statistique spatiales . Mathématiques et


Applications 63, Springer-Verlag. Berlin. (2008).

148
BIBLIOGRAPHIE

[25] Christelle Verg Pierre Del Moral ¡¡ Modeles et methodes stochastiques ¿¿. In Sprin-
ger, editor, Une introduction avec applications. Comit de Lecture 20122015/Editorial
Board 20122015, 2014.

[26] Diakarya Barro, Saliou Diouf et Koté Blami,  Geostatistical Analysis with Condi-
tional Extremal Copulas , International Journal of Statistics and Probability ; Vol. 1,
No. 2 ; 2012ISSN 1927-7032E-ISSN 1927-7040Published by Canadian Center of Science
and Education. http ://dx.doi.org/10.5539/ijsp.v1n2p244.

[27] D. Barro,  Contribution à la modélisation statistique des valeurs extrêmes multi-


variées . Thèse de l’Université de Ouagadougou. Décembre (2010).

[28] D.G. Krige,  Lognormal-de Wijsian Geostatistics for Ore Evaluation . Johannes-
bourg, South African Institute of Mining and Metallurgy - Kelvin House, 2 Hollard
Street, Johannesburg, 1981.

[29] Dimitrios Milios, Guido Sanguinetti, and David Schnoerr Probabilistic Model
Checking for Continuous Time Markov Chains via Sequential Bayesian Inference.
arXiv :1711.01863v1 [cs.LO] 6 Nov 2017

[30] Dossou-Gbete S., B., Somé and Barro, D. (2009),  Modelling the Dependence of
Parametric Bivariate Extreme Value Copulas , Asian Journal of Mathematics &
Statistics, Vol 2, Issue3, 41-54 DOI : .3923/ajms.2009.41.54.

[31] Embrechts, P., A. McNeil, and D. Straumann (1999, May).  Correlation and
Dependence in Risk Management : Properties and Pitfalls.  : RISK, 69–71.

[32] Forrest .W. Crawford Vladimir N. Minin Marc A. Suchard Lam Si Tung Ho, Jasen
Ho ¡¡ Birth/birth-death processes and their cumputable transition probabilities with
biological applications ¿¿. Cornell University Library, 7 Aug 2017.

[33] Frahm et al,  Elliptical copulas : applicability and limitations , Volume 63, Issue
3, 1 July 2003, Pages 275-286.https ://doi.org/10.1016/S0167-7152(03)00092-0.

[34] Gane Samb LO Modou NGOM and Tchilabalo A. KPANZOU,  Weak


Convergence (IA) - Sequences of Random Vectors . Statistics and Proba-
bility African Society (SPAS) Books Series. Calgary, Alberta. 2016. DOI :
http ://dx.doi.org/10.16929/sbs/2016.0001 ISBN 978-2-9559183-1-9.

[35] Gane Samb LO,  Mathematical Foundations of Probability Theory . Statistics and
Probability African Society (SPAS) Books Series. Saint-Louis, Calgary, Alberta. 2018.
DOI : http ://dx.doi.org/10.16929/sbs/2016.0008 ISBN 978-2-9559183-8-8i.

[36] Georges Matheron,  Les concepts de base et l’évolution de la géostatistique


minière . Rome, Guarascio, M., Huybrechts, C.J., David, M. (Eds.), 1976.

149
BIBLIOGRAPHIE

[37] H. Kazianka, J. Pils,  Copula-based geostatistical modeling of Continuous and dis-


crete data including Covariates , Stoch Environ Res Risk Assess (2010) 24 :661-673,
DOI. 101007/s 00477-009-0353-8.

[38] H. Kazianka, J. Pils,  Spatial Interpolation Using Copula-Based Geostatistical


Models , Institute of Statistics, University of Klagenfurt, Universitatsstraße 65-67,
9020 Klagenfurt, Austria.

[39] HY Talkibing, B Diakarya, O Fabrice Stochastic Approach in Epi-


demic Modeling Using the SEIRS, Vol 12, No 3 (2019),DOI :
https ://doi.org/10.29020/nybg.ejpam.v12i3.3400, European Journal of Pure and
Applied Mathematics 2019 ;

[40] H.Y. Talkibing, B Diakarya, O Fabrice,  Stochastic Approach in


Epidemic Modeling Using the SEIRS . Vol 12, No 3 (2019),DOI :
https ://doi.org/10.29020/nybg.ejpam.v12i3.3400, European Journal of Pure and
Applied Mathematics 2019 ;

[41] J.-M. Morel, Cachan F. Takens, Groningen B. Teissier, Paris Lecture Notes in
Mathematics. Mathematical Biosciences Subseries : P.K. Maini, Oxford, 194

[42] J. Gani D. J. Daley ¡¡ Epidemic modelling ¿¿, In Cambridge University Press, editor,
An introduction, page 14, 2001.

[43] J.E.Heffernan & J. Tawn,  A Conditional Approach for Multivariate Extreme


Values . Journal of the Royal Statistical Society Series, B 66(3). (2004). 497-546.

[44] J. Galambos,  The Asymptotic Theory of Extreme Order Statistics . Wiley Series
in Probability and Mathematical Statistics, John Wiley & Sons, Inc.New York. (1987).

[45] J. Wu Fred Brauer, Pauline van den Driessche ¡¡ Lecteure note in mathematics.
In Oxford Mathematical Biosciences Subseries : P.K. Maini ¿¿.Editor, Mathematical
epidemiology, 1945.

[46] JP Chiles, P Delfiner  Geostatistics : modeling spatial uncertainty  . A Wiley-


Interscience Publication, New York- 2009.

[47] JP Chiles,  La modélisation géostatistique de la variabilité spatiale et ses applica-


tions . Mémoires des Sciences de la Terre Numéro 2004.01.

[48] J.Gumbel,  Statistics of extremes . Columbia University Press. New York. (1958).

[49] Joe, Harry, Xu,  The Estimation Method of Inference Functions for Margins for
Multivariate Models , Oct 31, 1996. DOI : 10.14288/1.0225985.

150
BIBLIOGRAPHIE

[50] Jacques Deferne & Nora Engel,  Petite minéralogie de la Suisse  ,


https ://www.google.com/search ?client=firefox-b-d&q=05mineralogie.

[51] John Aldrich,  R.A. Fisher and the making of maximum likelihood 1912 − 1922 .
Statistical science, vol. 12, no 3, 1997, p. 162-176.

[52] Jean Michel Flock,  Géostatistique  .Institut National de la Statistique et des


Études Économiques.

[53] Lam Si Tung Ho, Jasen Ho, Forrest .W. Crawford, Vladimir N. Minin, Marc A.
Suchard ¡¡ Birth/birth-death processes and their cumputable transition probabilities
with biological applications¿¿. arXiv :1603.03819v2 [stat.CO] 7 Aug 2017

[54] Lam Si Tung Ho, Jasen Ho, Forrest .W. Crawford, Vladimir N. Minin, Marc A.
Suchard ¡¡ Birth/birth-death processes and their cumputable transition probabilities
with biological applications. arXiv :1603.03819v2 [stat.CO] 7 Aug 2017

[55] Ledford, A.w.and Tawn, J.A.,  Modelling dependence within joint tail region ,
J.R. Statist. Soc.B 59,475-499, (1997).

[56] Ledford, A.w.and Tawn, J.A.,  Statistics for near independence in multivariate
extreme values , Biometrika 83,16-187,(1996).

[57] Lindsay, B.G (1988),  Composite Likelihood Methods. In : Statistical Inference
from Stochastic Processes, Ed.N.U.Prabhu, pp 221-39. Providence, RI : American
Mathematical Society.

[58] M. Siakalli, Stability properties of stochastic differential equations driven by Levy


noise (Ph.D. thesis), University of Sheffeld, 2009.

[59] M. Slatkin, The dynamics of a population in a Markovian environment, Ecology 59


(1978) 249-256.

[60] Marek B. Trawicki Deterministic Seirs Epidemic Model for Modeling Vi-
tal Dynamics, Vaccinations, and Temporary Immunity.http ://www.mdpi.com/
doi :10.3390/math5010007,January 2017,

[61] Nicolas Bacaër, Abdelkarim Ed-Darraz Sur les processus linéaires de naissance et
de mort dans un environnement aléatoire. Journal of Mathematical Biology, Springer
Verlag (Germany), 2014,

[62] Marek B. Trawicki. C ¡¡ deterministic seirs epidemic model for modeling vital
dynamics, vaccinations, and temporary immunity ¿¿. Molecular Diversity Preservation
International, January 2017.

151
BIBLIOGRAPHIE

[63] Muneya matsui and Thomas Mikosch,  The Extremogram and the Cross-
Extremogram for a bivariate Garch (1,1) process , doi.10.1017/apr.2016.51.

[64] Martin Larsson and Sidney I.Resnick,  Long-Range Tail Dependence : EDM
vs.Extremogram , w 911NF-07-1-0078 at Cornell University.

[65] Martin Larsson and Sidney I.Resnick, Extremal dependence measre and extremo-
gram : the regularly varying case . Extremes (2012) 15 : 231 − 256.DOI10.1007/s
10687 − 011 − 01359 .

[66] Moussaoui Nacera  Etude géostatistique des ressources minières : Cas du gisement
de phosphate sus à Bled El Hadba (w. Tébessa). . Université Abderrahmane Mira de
Bejaia Faculté de Technologie Département desMines et géologie, 2017.

[67] M.Ait Yala Nabil,  Modélisation des extrêmes Spatiaux et Applications . Mémoire
de Magister. (2013).Université Mouloud Mammeri de Tizi Ouzou.

[68] M. Oesting, Z. Kabluchko & M. Schlather,  Simulation of Brown-Resnick Pro-


cesses . Extremes DOI 10.1007/s10687-011-0128-8. (2011).

[69] M. Fréchet,  Sur la loi de probabilité de l’écart maximum . Annales de la société


Polonaise de Mathématiques, 6. (1927). 93-116.

[70] N.A.C. CRESSIE,  Statistics for Spatial Data . John Wiley & Sons, Inc. New
York. (1991).

[71] Nicolas Bacaer, Abdelkarim Ed-Darraz & L.H.C. Tippett,  Sur les processus
linéaires de naissance et de mort dans un environnement aléatoire . Journal of
Mathematical Biology, Springer Verlag (Germany), 2014.

[72] Organisation mondiale de la Santé Modélisation mathématique pour le contrôle


et l’élimination du paludisme. COLLECTION PROGRÈS ET COLLECCTION
IMPACT, ISBN 978 92 4 250041 7, Numéro 5 novembre 2010.

[73] Pierre Del Moral Christelle Vergé Modèles et méthodes stochastiques, Une introduc-
tion avec applications. Springer

[74] P.J.Diggle & P.J.Ribeiro Jr,  Model-based Geostatistics . Springer Series in


Statistics, Springer Science and Business Media, LLC, Springer. New York. (2007).

[75] P.J.Diggle & P.J.Ribeiro Jr,  Model-based Geostatistics . Springer Series in


Statistics, Springer Science and Business Media, LLC, Springer. New York. (2007).

[76] Pickands, J. (1981),  Multivariate extreme value distributions . In Proceedings of


the 43rd session of the International Statistical Institute, Vol. 2 (Buenos Aires, 1981),

152
BIBLIOGRAPHIE

Volume 49, pp. 859–878, 894–902. With a discussion.

[77] P.J. Ribeiro JR,  Model-based Geostatistics . Springer Series in Statistics, Springer
Science and Business Media, LLC, Springer. New York. (2007).

[78] Paul E. Parham Edwin Michael Outbreak properties of epidemic models : The
roles of temporal forcing and stochasticity on pathogen invasion dynamics.ELSEVIER
Journal of theoretical Biology 271 (2011) 1-9.

[79] Roger B. Nelsen,  An Introduction to Copulas  . Springer Science & Business


Media, 10 juin 2007 - 272 pages.

[80] R.Bhattacharya & E.C. Waymire.A,  Basic course in Probability Theory . Sprin-
ger. Science and Business Media, Inc, Springer. (2007).

[81] R.A. Fisher & L.H.C. Tippett,  Limiting Forms of the Frequency of the Largest or
Smallest Member of a Sample . Proceedings of the Cambridge Philosophical Society,
24.(1928). 180-190.

[82] Richard A. Davis and Thomas Mikosch (2009).  The extremogram : A correlogram
for Extreme Events , November 13, 2008.

[83] S. Hengl, C. Kreutz, J. Timmer and T. Maiwald.  Data-based identifiability analysis


of non-linear dynamical models. Physics Institute, University of Freiburg, Hermann
Herder Strasse 3, 79104 Freiburg i.Br., Germany.

[84] Sophie audric, Marie-Pierre de Bellefon, E.D.,  Analyse spatiale descriptive  ,


Insee.

[85] S.I. Resnick,  Extreme Values, Regular Variation, and Point Processes . Applied
Probability Trust, Springer-Verlag. New York, (1987).

[86] Wackernagel, H.(2003).  Multivariate Geostatistics : an introduction with Applica-


tions (3rd ed.). Berlin :Springer-Verlag.12,14.

[87] Xavier Emery,  Géostatistique linéaire , Ecole des Mines de Paris, Centre de
Géostatistique, 35,rue Saint Honoré, 77 305 Fontainebleau Cedex, France.

[88] X. Mao, C. Yuan, Stochastic Differential Equations with Markov Switching, Imperial
College Press, London, 2006.

[89] Y. Zhao, D. Jiang, The threshold of a stochastic SIS epidemic model with vaccina-
tion, Appl. Math. Comput. 243 (2014) 718-727.

153
BIBLIOGRAPHIE

[90] Yong Bum Cho and Richard A. Davis, Department of statistics, Columbia University
Souvik GHOSH,  Asymptotic Properties of the Empirical Spatial Extremogram .
Scandinavian Journal of statistics doi : 10.1111/sjos.12202.

[91] T. Tang, Z. Teng, Z. Li, Threshold behavion in a chass of stochastic SIRS epidemic
models with nonlinear incidence, Stoch. Anal. Appl. 33 (2015) 9940-1019.

[92] Z. Teng, L. Wang, Persistence and extinction for a class of stochastic SIS epidemic
models with nonlinear incidence rate, Physica A 451 (2016) 507-518.

[93] Z. Kabluchko,  Extremes of Independent Gaussian Processes  . Extemes, 14.


(2011). 285-310.

[94] Z. Kabluchko & M. Schlather,  Ergodic Properties of Max-Infinitely Divisible


Processus . Stochastic Processus and their Applications, 120(3). (2010). 281-295.

[95] Z. Kabluchko,  Spectral Representations of Sum-and Max-stable Processus  .


Extemes, 12(4). (2009). 401-424.

[96] Z. Kabluchko, M. Schlather & L. De Haan,  Stationary Max-Stable Fields Associated


to Negative Definite Functions . The Annals of Probability, Volume 37, N ◦ 5. (2009).
2042-2065.

154
Université OUAGA I Pr Joseph KI-ZERBO
Ecole Doctorale Science et Technologie
U.F.R Science Exacte et Appliquée/ LANIBIO
T H ÈSE
pour obtenir le grade de
Docteur
de l’Université OUAGA I Pr Joseph KI-ZERBO

Option: Sciences Appliquées


Spécialité : Modélisation stochastique

? ? ? ? ? ? ? ? ? ? ? ? ? ? ??

Thème: Lp -approximation et modélisation stochastique des


risques classiques de Poisson composé:
Solutions sur de petits supports

?????????????

Presentée par: BÉRÉ Frédéric

Directeur de thèse: Pierre Clovis NITIEMA


Maître de conférences, Université OUAGA 2

06 mai 2017
Remerciements

Au terme de notre projet de thèse, nous sommes heureux de savoir compter


sur le soutien inestimable de ceux qui nous sont chers et de la communauté
scientifique du LANIBIO et d’ailleurs.

Je voudrais, avant tout propos, exprimer ma reconnaissance et ma profonde


gratitude à mon directeur de recherche, le docteur Pierre Clovis NITIEMA,
maître de conférences à l’Université OUAGA II, pour non seulement avoir
accepté de diriger mes travaux, mais aussi pour sa plus grande disponibilité,
son écoute et sa sympathie qui ont brisé toute barrière entre enseignant et
étudiants. Je lui sais gré d’avoir accepté mes lacunes et de s’être engagé ré-
solument à m’accompagner pour relever les difficultés scientifiques et sociales
qui se présentaient à moi

Mes sincères remerciements au Pr. Blaise SOME, Directeur du LANIBIO


(Centre d’excellence de l’UEMOA), pour sa contribution à l’aboutissement de
notre travail et pour tous ses efforts en faveur du rayonnement des mathé-
matiques et de l’émergence des jeunes chercheurs mathématiciens du Burkina
Faso, de la sous-région et de l’Afrique.

Je remercie mes chers maîtres, les professeurs Bisso SALEY du Niger, Ga-
briel BISSANGA du Congo Brazaville, Gabriel KISSITA du Congo Brazaville ,
ainsi que Dr Longin SOMÉ et Dr Djakarya Barro du Burkina Faso, pour avoir
accepté d’apporter des critiques constructives à mon travail afin de l’améliorer
significativement.

Je tiens ici à témoigner ma reconnaissance aux chercheurs et grands frères


du LANIBIO pour leurs encouragements, conseils et pour leurs apports scien-
tifiques à l’amélioration de la qualité de cette thèse.

Je n’oublie pas les enseignants-chercheurs, les encadreurs pédagogiques et

i
l’administration de l’Institut des Sciences avec à leur tête le Directeur Gé-
néral, Pr Adjima THIOMBIANO, le Directeur des Affaires Académiques et
Scientifiques, Dr Ousséni So. Merci pour vos soutiens, encouragements et vos
précieux conseils qui feront de moi un enseignant-chercheur qualifié au service
des élèves professeurs et de l’école burkinabé.
Je ne saurai terminer sans remercier du fond du cœur les membres de ma
famille. Mon papa et ma maman, mes frères et sœurs pour les soins et pour
l’attention soutenue en tout ce que je fais.
Ma chère épouse Mme BERE née NANA Agnès, que puis-je dire sur les sacri-
fices que tu as consentis pour me voir arriver au terme de cette thèse. Merci
pour tes encouragements et ton soutien sincère tout au long de mes travaux
de thèse.

Puisse Dieu bénir chacun de vous et vous combler à la hauteur de vos


attentes.

A mon fils N. N. Fred Aury, en tout et pour tout.

ii
Table des matières

Remerciements i

Résumé 1

Abstract 3

Introduction générale 5

Première partie : Approximation dans les espaces Lp 10


1 Les meilleures formules de quadrature sur des fonctions poids 10
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.1 Notations et définitions . . . . . . . . . . . . . . . . . . . 10
1.2.2 Erreur et meilleure approximation polynômiale . . . . . . 11
1.3 Approximation de la puissance tronquée . . . . . . . . . . . . . 13
1.3.1 Préliminaire . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3.2 Approximation polynômiale de la puissance tronquée et
erreur relative . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

2 Approximation par des polynômes algébriques et trigonomé-


triques de fonctions intégrales d’ordre fractionnaire 20
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2 Généralités et notions utiles . . . . . . . . . . . . . . . . . . . . 20
2.2.1 Notions sur quelques fonctions utiles . . . . . . . . . . . 20
2.2.2 Erreur d’approximation d’une fonction intégrale d’ordre
fractionnaire r ∈]0; 1] . . . . . . . . . . . . . . . . . . . . 21
2.3 Approximation de fonctions intégrales d’ordre fractionnaire . . . 22

iii
2.3.1 Quelques outils et rappels utiles . . . . . . . . . . . . . . 22
2.3.2 Erreur relative à l’approximation d’une fonction inté-
grale d’ordre fractionnaire . . . . . . . . . . . . . . . . . 23
2.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

Deuxième Partie : Modélisation stochastique et appli-


cation 31
3 Lp −approximation et variables stables pour le risque 31
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.2 Généralités sur les lois stables . . . . . . . . . . . . . . . . . . . 32
3.2.1 Caractérisation des lois stables . . . . . . . . . . . . . . . 32
3.2.2 Densité et propriétés d’une distribution p-stable . . . . . 38
3.3 Lp −approximation et modélisation stochastique . . . . . . . . . 40
3.3.1 Risque classique de Poisson composé . . . . . . . . . . . 40
3.3.2 Approximation de la probabilité de ruine . . . . . . . . . 43
3.4 Approximation polynômiale de fonction et mesure α∗ . . . . . . 51
3.4.1 Généralités sur la mesure α∗ . . . . . . . . . . . . . . . 52
3.4.2 Approximation Lp sur de petits supports . . . . . . . . . 53
3.4.3 Application aux calculs de α∗ . . . . . . . . . . . . . . . 56
3.4.4 Interpolation polynômiale sur de petits supports . . . . . 61
3.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70

4 Copules et modèle du risque multivarié 71


4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.2 Généralités sur les copules . . . . . . . . . . . . . . . . . . . . . 71
4.2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.2.2 Propriétés des copules . . . . . . . . . . . . . . . . . . . 72
4.2.3 Quelques exemples de copules et leurs utilités . . . . . . 73
4.3 Dépendance des ruines par les copules . . . . . . . . . . . . . . 75
4.3.1 Dépendance par la copule de Gumbel . . . . . . . . . . . 76
4.3.2 Dépendance par la copule FGM . . . . . . . . . . . . . . 80
4.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82

Conclusion générale 83

Annexe 86
A) Copule et Application . . . . . . . . . . . . . . . . . . . . . . . . . 86
B) Queue de distribution . . . . . . . . . . . . . . . . . . . . . . . . . 87

Bibliographie 93

iv
Liste des tableaux

3.1 Calcul de quelques valeurs de α∗ . . . . . . . . . . . . . . . . . . 64

4.1 Distributions de classe E . . . . . . . . . . . . . . . . . . . . . . 90


4.2 Distributions de classe D . . . . . . . . . . . . . . . . . . . . . . 90
4.3 Distributions de classe C . . . . . . . . . . . . . . . . . . . . . . 90
4.4 Distributions de classe B . . . . . . . . . . . . . . . . . . . . . . 91
4.5 Distributions de classe A . . . . . . . . . . . . . . . . . . . . . . 91

v
Table des figures

3.1 Évolution des processus de réserve au cours du temps . . . . . . 41


3.2 Convergence de la loi symétrique alpha stable . . . . . . . . . . 44
3.3 Inéqualities by Freud-Erdös functions . . . . . . . . . . . . . . . 64

4.1 Copule indépendance . . . . . . . . . . . . . . . . . . . . . . . . 74


4.2 Copule FGM . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.3 Copule de Gumbel . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.4 Différence illustrative entre la loi normale et une loi à queue
lourde (HIB) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
4.5 Classe de distributions . . . . . . . . . . . . . . . . . . . . . . . 89
4.6 Différence illustrative entre les différentes classes de distributions 89

vi
Liste des abreviations

Sigles logiques
P() : Probabilité d’un évènement
E() : Espérance mathématique d’une variable aléatoire
V() : Variance d’une variable aléatoire
f() : Fonction de densité de probabilité
F() : Fonction de répartition
Γ() : Fonction d’Euler-Gamma

Introduction générale
X : Espace normé
Xn Sous espace vectoriel de dimension n de X
W : Classe des fonctions de l’espace X

Espace métrique et approximation Lp


Lp : Espace normé des fonctions f −mesurables muni de la norme k.kp
Br : Spline de Bernoulli
Cr : Constante dépendante de r
Dr : Noyau de Diriclet
En (f ) : Erreur due à une approximation de f par un polynôme algébrique
Kr : Constante de Favard
Een (f ) : Erreur due à une approximation de f par un polynôme trigonomé-
trique
f r KV : Classe des fonction r − 1 fois dérivables et absolument continues
W
Vab (f ) : Ensemble des fonctions f à variations limitées entre a et b
1 R1
Wp : Classe des fonctions r fois dérivables de la forme Γ(r) −1 (x−t)r−1
r
+ φ(t)dt
f r : Classe des fonctions 2π−périodiques absolument continues
W p
x+ = max(x, 0)

vii
Polynômes algébriques et trigonométriques
Pn : Ensemble des polynômes algébriques de degré inférieur ou égal à n
Tn−1/2 : Ensemble des polynômes trigonométriques de degré inférieur ou
égal à n − 1

Variables p-stables
p : Indice de stabilité
δ : Paramètre de position
β : Paramètre d’échelle
γ : Paramètre de dispersion
SpS : Symétrique p-stable
µ : moyenne
σ : écart-type

Processus du risque classique


R(t) : Réserve disponible au temps t
S(t) : Montant excédentaire disponible à la période t
Sn (t) : Montant cumulé de n sinistres suvenus au cours du temps t
u : Réserve initiale disponible
c : Taux périodique de prime
ρ : Chargement de sécurité
dn φ
dun
: Dérivée d’ordre n de φ par rapport à u
ψ(u) : Probabilité de ruine sachant la réserve u
φ(u) : Probabilité de non ruine sachant la réserve u
En (f ) : Erreur de la meilleure approximation
L1 () : Espace linéaire normé
∆ : Sous espace homogène de L1
sn : Estimation de l’écart-type.

Approximation et mesure α∗
ν mesure mono-atomique

viii
Résumé

Ce travail de thèse est une contribution sur l’utilisation des Lp −approximations


à la modélisation stochastique des risques de survenance des sinistres non gaus-
siennes de type infiniment divisibles et stables dans des espaces mesurables à
petits supports.
Cette thèse est composée de deux parties principales.

Dans la première partie, nous avons développé la théorie des approxima-


tions et des résultats concluants ont fait l’objet de deux chapitres.
Dans le premier chapitre de cette partie, il a été question d’étudier et de définir
les meilleures formules de quadrature pour l’erreur commise en approchant par
des polynômes, une fonction intégrable née de la convolution d’une fonction φ
de norme plus petite que 1 et d’une fonction poids dont l’expression non expli-
cite est assez complexe. Nous avons à cet effet considéré les types de fonctions
de la classe Wpr . Le cas où r > 1 a fait l’objet d’étude par d’autres auteurs.
Pour notre part, nous avons traité le cas 0 < r < 1. On a obtenu donc une
meilleure formule quadratique d’approximation puis on a déterminé une limite
exacte de l’erreur sur cette formule.
Dans le chapitre 2 de cette partie, il a été question d’approximation et d’er-
reur sur des fonctions poids de type fractionnelle d’ordre r. Nous nous somme
intéressé à l’approximation des fonctions de la classe W f r , 0 < r < 1. Pour les

fonctions de cette classe, nous avons étudié la meilleure approximation par les
polynômes algébrique ou trigonométrique. Une particularité a été accordée au
comportement asymptotique exact pour cette classe de fonctions.

La deuxième partie de notre thèse est consacrée à la modélisation sto-


chastique et de ses applications sur le modèle du risque classique de poisson
composé. Dans cette partie, nous avons d’abord développé quelques notions
et propriétés des variables stables, ensuite, nous avons revisité la théorie du
risque classique de poisson composé. A la suite de ces rappels, nous avons,
en utilisant la théorie des approximations de la première partie, formuler des

1
types d’approximation sur la distribution du montant total des sinistres mo-
délisé par respectivement des lois gamma, symétrique stable et stable.
Ce modèle nous a conduit à l’élaboration d’une équation différentielle ordinaire
d’ordre n à partir de l’équation de renouvellement née du modèle classique du
risque de poisson composé. Une résolution numérique de cette équation diffé-
rentielle nous a permis de déterminer la probabilité de ruine liée au processus
de Poisson et au montant des sinistres qui est par ailleurs distribuée suivant
une loi α-stable.

Enfin nous avons bouclé nos travaux par une approche de la dépendance des
ruines de deux branches d’activités d’une entreprise. Cette approche a été faite
par les copules qui restent un outil efficace pour l’évaluation de la dépendance
entre deux ou plusieurs variables de marges uniformes.

2
Abstract

This work is a contribution to the use of Lp −approximation for stochastic


modelling of the risks of occurrence of non-Gaussian disasters that are infini-
tely divisible and stable in measurable space with small support.
This thesis is composed of two main parts.

In the first part we have developed the approximation theory and conside-
red some findings in two chapters.
In the first chapter of this section, we analysed and defined the best quadra-
ture formula for error on approximation, using f polynomials, the integrable
function f resulting from the convolution of φ function with a standard less
than 1 and of weight function (kφk ≤ 1). For this purpose, we considered that
f is a Wpr function where 0 < r < 1. The case r > 1 have been studied by
others authors. We got a better quadrature formula and we have defined the
error exact bound on the truncated power function (x − a)r−1+ .
In the second chapter we analysed approximation and error on weight func-
tions of fractional type of order. We focused on approximating the functions.
For the functions of this class, we have studied the best approximation by the
algebraic or trigonometric polynomials. A special feature has been given to the
exact asymptotic bound behavior for this class of functions.

The second part of our thesis focused on stochastic modelling and its prac-
tice on Lp −approximation on classical compound Poisson risk model. In this
part, we first developed some notions and properties of stable variables, and
then we revisited the theory of the compound Poisson risk theory. Then, we
used the theory of the approximations developed in the first part, to formu-
late approximation types on the distribution of the total amount of the claims
developed respectively by gamma, symmetric stability and stable laws. This
approach of compound Poisson risk model lead us to establish ordinary diffe-
rential equation of order from the renewal equation created from the classical
compound Poisson risk model.

3
Thus, a numerical resolution of this equation has allowed us to determine the
probability of ruin related to the Poisson process and to the amount of claims
distribution according to a p-stable law.
Finally, we have completed our work with an approach on the ruin dependen-
cies of two branches of a company’s activities. This approach was made using
the copulas which remain an efficient tool to evaluate two or several uniform
random variable dependency.

4
Introduction générale

La survenance d’un sinistre a pendant longtemps été considérée comme un


phénomène naturel, et relevant d’un mystère de Dieu. A ce titre elle s’illustre
comme un évènement malheureux auquel un individu, un peuple, une entre-
prise, un pays, . . ., redoute en raison de son caractère fortement imprévisible
et de ses conséquences désastreuses. Cet état de faits interpelle les gérants de
sociétés, d’entreprises, les dirigeants d’institutions et du monde sur des inter-
rogations essentielles telles que : Peut-on être à l’abri de la survenance des
sinistres ? Peut-on prévoir avec exactitude la survenance d’un sinistre ?
Dès leurs débuts, les statistiques et les sciences actuarielles ont toujours contri-
bué aux développement des théories et modèles qui permettent de mieux ap-
précier les risques sans cesse grandissants survenants dans les quotidiens des
sociétés, des entreprises, de l’être vivant et de son milieu. Dans ce sens, des
modèles ont été mises en place, non seulement, pour évaluer la probabilité,
mais aussi pour estimer la date probable de survenance d’un sinistre (Mort,
Inondation, Sécheresse, Famine, Epidémie, Faillite d’une entreprise...). Il faut
donc réduire ou même éviter les ruines dans tous les domaines. Il devient donc
nécessaire de déterminer la probabilité de ruine (née de la survenance d’une
ou de plusieurs sinistres dans le même secteur d’activités en une période rela-
tivement courte ou infinie) en tenant compte du caractère aléatoire du nombre
de sinistres qui surviennent au cours du temps t.
L’un des modèles probabilistes le plus utilisé pour compter ce phénomène aléa-
toire est le processus de poisson.
Cette considération oriente la plus part des experts en statistique et les ac-
tuaires vers un modèle de détermination du risque appelé "le modèle classique
du risque de Poisson composé", largement développé depuis le XV III e . Ce
modèle implique la connaissance de la densité de la somme totale (S(t)) des
sinistres qui surviennent au bout d’un temps t donné. Bien qu’efficace pour
l’analyse de la ruine, le modèle classique du risque devient difficilement mani-
pulable lorsque les survenances des sinistres suivent des lois non gaussiennes

5
et différentes.
L’idée de faire suivre la loi de la somme totale des sinistres était de permettre
la détermination d’une formule explicite et fermée de la probabilité de ruine.
Très vite cette considération va s’avérer irrecevable en raison de son caractère
très restrictif qui ne permet pas d’être en phase avec la réalité.
C’est en cela que des travaux très importants ont été réalisés à propos de la
détermination d’une formule plus ou moins fermée de la probabilité ultime de
ruine(ou probabilité de ruine).
On peut se référer aux travaux de Bowers [9] dont l’idée, était d’approcher
la densité de probabilité par une somme de densité gamma. Ces travaux ont
conduit Beekman [5] à émettre l’idée qui consiste à approcher la loi de proba-
bilité de la variable S(t) dont la loi est donnée par une loi gamma Γ(α, β) de
xα−1 −x/β
densité f (x) = e (x ≥ 0). Si α ∈ N, on retrouve la loi de Erlang et
Γ(α)β α
si α = 1 particulièrement, on obtient la loi exponentielle.

L’idée de détermination d’une formule explicite de la probabilité de ruine


ψ(u) a orienté d’autres scientifiques sur les lois phase-types. Les travaux de
ASMUSSEN et ALBRECHER 2010 ont permis de conclure que si le montant
des sinistres suit une loi phase-type, alors la probabilité de ruine est une for-
mule fermée [3].

D’autres travaux ont suivi la détermination de la probabilité ultime de ruine


par diverses méthodes. De VYLDER [10] a entrepris des travaux de recherche
dont l’idée d’approximation consiste en la substitution de la loi du montant
des sinistres par une loi lui permettant le calcul de la probabilité de ruine. Il
fait référence entre autre à un mélange de loi exponentielle et d’Erlang puis
débouche sur une loi phase-type de nature Γ(α, 1) ou Γ(1, β).

Une autre approche de la probabilité de ruine est celle de Avram et al [4].


Leur étude consistait à approcher la loi de probabilité du montant des sinistres
par un mélange fini de lois exponentielles. Les paramètres qui découlent s’ob-
tiennent en résolvant un système d’équations dont la complexité est fonction
du nombre de composantes dans le mélange. Une façon de contourner ce pro-
blème est la méthode de détermination numérique des paramètres à estimer à
travers l’algorithme de Panjer mis en application par DICKSON [11]

En 2015, GOFFARD et al ont proposé l’application de la méthode d’in-


version numérique de la transformation de Fourier (développé en 2010 par
ALBRECHER et al). Cette méthode est basée sur une quadrature fondée sur
l’approximation rationnelle de la fonction exponentielle dans le plan complexe.
Il en résulte une application dont l’essentiel est la représentation polynômiale
à l’approximation de la probabilité de ruine [17]

6
Fort de l’analyse des travaux déjà effectués et des résultats essentiels qui en
résultent, nous pensons qu’il serait intéressant de faire suivre la loi de chaque
sinistre vers une famille de loi non gaussienne et beaucoup plus adaptée à la
modélisation de la survenance des sinistres. C’est la famille des lois infiniment
divisibles et stables. Cette approche nous conduit obligatoirement vers une
expression intégrale complexe au regard de la formule donnée par le modèle
classique du risque. Comment donc apprécier et évaluer cette expression in-
tégrale en tenant compte de la spécificité du modèle classique du risque de
Poisson composé ?
Quelle contribution des approximations Lp pour la modélisation stochastique
du risque de poisson composé dans des espaces à petit supports ? Nous tente-
rons de satisfaire ces interrogations en organisant notre travail en deux parties
Dans la première partie, nous allons examiner et améliorer la théorie d’exis-
tence de polynômes algébriques et trigonométriques, dans un espace Lp à petits
supports , pour l’approximation de certaines expressions intégrales complexes.
Dans la deuxième partie, nous allons appliquer les méthodes d’approximations,
développées, pour la modélisation stochastique du risque dont la survenance
est distribuée suivant les lois stables non gaussiennes.

L’origine et la particularité de notre travail de thèse réside en l’utilisation


des polynômesR algébriques ou trigonométriques pour approcher une expression
intégrale I = 0u φ(u − t)f (t)dt en vue de la résolution des équations différen-
tielles de type
λ λ Z +∞
Dφ(u) = φ(u) − φ(u − t)dF (t)
c c 0
Dans cette équation, nous fondons l’hypothèse selon laquelle le montant total
des sinistres est modélisé par une variable α−stable distribuée suivant F , de
densité f donnée par :
− tan πp
(
1 Z +∞ α α si α 6= 1
f (x) = exp{−t } cos(xt+βt w(t, α)) avec w(t, α) = 2
2
π 0 π
si α = 1
En effet la modélisation du risque par les lois stables non gaussiennes pré-
sente un grand intérêt dans le domaine de la fiabilité et des risques multi-variés.
Les variables stables ont été depuis longtemps utilisés par les chercheurs des
domaines comme l’économie, la télécommunication, la génétique, la météoro-
logie, en ce sens qu’ils sont une généralisation de la loi normale et prennent en
compte les caractéristiques des distributions à queues lourdes non gaussiennes.
La modélisation du risque par une distribution stable rend le calcul de l’inté-
grale I assez complexe. Pour contourner ce problème, nous montrerons d’abord
que l’intégrale peut s’écrire sous la forme
1 Z1 1 Z 1 f (t)
(x − a)φ(t)dt ou ρ(t)dt
Γ(r) −1 Γ(r) −1 t − x
conformément aux théorèmes que nous développerons dans la partie I.R
Ensuite nous développerons de meilleures approximations de l’intégrale 0u φ(u−

7
t)f (t)dt, dans les espaces Lp , sous forme de polynômes algébriques ou trigo-
nométriques. Il en découlera également une évaluation des erreurs dues à ces
approximations. Ces approximations permettront l’estimation de la probabi-
lité de ruine.

En outre il est naturel qu’une compagnie d’assurance ou une grande so-


ciété diversifie généralement ses activités. Elle dispose à cet effet de plusieurs
branches d’activités. Dans ce sens, la ruine d’une branche peut entrainer celle
des autres et partant de toute la compagnie si des études conséquentes ne
sont pas faites dans ce sens. On pourra évaluer la ruine globale d’une entre-
prise ayant plusieurs branches d’activité puis mesurer la dépendance des ruines
entre les différentes branches de cette entreprise. Cette mesure aura pour but
de permettre aux entreprises de prendre des dispositions nécessaires afin d’al-
louer les fonds utiles aux différentes branches évitant ainsi une ruine globale
dans la compagnie.

8
Première partie :
Approximation dans les espaces
Lp

9
Les meilleures formules de quadrature sur des
1
fonctions poids

1.1 Introduction
La nécessité de l’approche d’une fonction f intégrable par un polynôme
algébrique ou trigonométrique se justifie le plus souvent par la complexité de
cette fonction à être manipulée pour des raisons pratiques. En opérant ces ap-
proches combien importantes, de quelques natures que ce soit, l’un des éléments
essentiels résultant est la détermination de l’erreur d’approximation. Elle déter-
mine la qualité du polynôme d’approximation utilisé. Dans cette partie, nous
nous intéressons à la détermination de l’erreur commise en approchant une
fonction intégrale définie avec une fonction poids de type (x − t)r−1 (r ∈]0; 1[)
par une fonction polynômiale. Nous considérons à cet effet les fonctions de la
classe Wpr avec r ∈]0; 1[. Le cas où r > 1 a déjà fait l’objet d’une étude[30],[43].
Pour notre part, nous allons traiter le cas 0 < r < 1 afin d’obtenir une meilleure
formule quadratique d’approximation et une limite exacte de l’erreur commise.

1.2 Généralités
1.2.1 Notations et définitions
Considérons Wp0 (K) la classe des fonctions f données par la convolution

 kφkp ≤ 1 si 0 ≤ p < ∞

f = C + K ? φ avec φ orthogonal à
kφkp ≤ 1 presque partout si p = ∞


une constante C.
Définissons aussi, d’une façon générale, pour tout r > 0, la classe Wpr des
fonctions de la forme
1 Z1
(x − t)r−1
+ φ(t)dt Si x ∈ [−1; 1] (1.1)
Γ(r) −1

10
R +∞ r−1 −x
où Γ(r) = −∞ x e dx et (x − t)r−1
+ est la fonction puissance tronquée
donnée par


 0 si x < t
(x − t)r−1
+ =
(x − t)r−1 si x > t

1.2.2 Erreur et meilleure approximation polynômiale


Considérons une fonction f ∈ Wpr et notons En (f )q l’erreur de la meilleure
approximation de f par un polynôme algébrique de degré n dans un espace
Lp , avec p1 + 1q = 1. Posons

En (Wpr )q := sup kf kq (1.2)


f ∈Wpr

Soit Pn l’ensemble des polynômes algébriques de degré inférieur ou égal à


n − 1. On peut définir deux meilleures fonctions P + et P − qui approchent f .
Les erreurs qui en découlent sont données par :

Z 1
En+ (f ) := inf{ [P + (t) − f (t)]dt; P + ∈ Pn ; P + (t) ≥ f (t); t ∈ [−1; 1]}
−1

qui représente l’erreur due à l’approximation de f par un polynôme plus grand


puis
Z 1
En− (f ) := inf{ [f (t) − P − (t)]dt; P − ∈ Pn ; P − (t) ≤ f (t); t ∈ [−1; 1]}
−1

qui est l’erreur due à l’approximation de f par un polynôme plus petit.

Supposons la fonction f 2π−périodique et désignons par F2n−1 l’ensemble


des fonctions trigonométriques polynômiales T de degré inférieur à n − 1.
Notons Een− (f ) et Een− (f ) les erreurs à l’image de celles définies plus haut. On
définit donc
Z π
Een+ (f ) := inf{ [T + (t) − f (t)]dt; T + ∈ F2n−1 ; T + (t) ≥ f (t); t ∈ [−π; π]}
−π

et
Z π
Een− (f ) := inf{ [f (t) − T − (t)]dt; T − ∈ F2n−1 ; T − (t) ≤ f (t); t ∈ [−π; π]}
−π

Soit Wf r la classe des fonctions f 2π−périodiques absolument continues et r −1


1
fois dérivables telles que
kf r−1 k1 ≤ 1
Posons de même
En± (W
f r ) := sup kf k
1
e 1r
f ∈W

11
Dans le cas périodique et si r ∈ N∗ , les valeurs exactes de En+ (W
f r ) et
1
En− (W
f r ) sont bien connues et sont données par
1

f r ) = E − (W
f r) = Hr
En+ (W1 n 1
nr
Où Hr = supt Br (t) − inf t Br (t) et Br (t) est le spline de Bernoulli. Ces valeurs
exactes ont été déterminées particulièrement dans [16] pour p = 1 et dans [33]
pour p > 1, on pourra aussi voir ce résultat dans [24] où il a été défini

2Ee1 (Br )q
Een± (W
f r) =
p
nr

Ee1 (Br )q est l’erreur de la meilleure approximation de la fonction de Bernoulli


par une constante de l’espace Lp .
Soit Wf r KV la classe des fonctions 2π−périodiques, r − 1 fois dérivables et
absolument continues et soit V02π (f r ) l’ensemble des fonctions à variations
limitées de 0 à 2π telles que

V02π (f r ) ≤ K

Le problème du comportement asymptotique des meilleures L1 −approximations


de la classe W1r et des puissances tronquées pour r non entier, r > 0 a été étu-
dié dans [21] ; [23] ; [32]. Quant à celui du comportement asymptotique des
meilleurs L1 −approximation des bornes de la classe W1r par des polynômes
algébriques pour tout entier r > 1, il a été étudié dans [29] et il en découle
que :

12
√ √
supt {±2Br (t)( 1 − a2 )r+1 } ( 1 − a2 )(r−2)+ 1
− Cr ≤ E + ((x − a)r−1
+ )
n r n r+1 (r − 1)! n
√ √
supt {±2Br (t)( 1 − a2 )r+1 } ( 1 − a2 )(r−2)+
≤ + Cr (1.3)
nr nr+1
Pour a = 0, On a :

2kBr kc 1
En± (W1r ) = r
+ o( r+1 ) (1.4)
n n
Il s’en suit un des principaux résultats du travail de notre thèse comme suit.

1.3 Approximation de la puissance tronquée


Dans cette partie, nous allons considérer le cas des puissances tronquées
(x − a)r−1 avec r ∈]0; 1[.
Soit En± (W1r ) := sup En± (f ). Il s’en suit donc les résultats prouvés suivants
f ∈W1r

1.3.1 Préliminaire
Utilisons les résultats des travaux contenus dans [24] et [48], d’où il vient
que :
Z 2π
En+ (W∞
0
(K))1 = 2En (K)1 si En (K)1 = | K(t)sign[sin n(t − γ0 )]dt|
0

L’égalité En (gr,a )1 = 21 Een+1 (gr,cos θ cos t sin t)1 lie le problème de meilleure ap-
proximation, par des polynômes algébriques, au problème de L1 −approximation,
par des polynômes trigonométriques.

Een+1 (f )1 est l’erreur de la meilleure approximation de f par un polynôme


trigonométrique de degré inférieur ou égale à n + 1 dans l’espace L e 1.
Si cos x = a, il est établi dans [12] que :
1
En± (W1r ) = max max{En+ (x − a)r−1 − r−1
+ ; En (x − a)+ }
(r − 1)! −1≤a≤1

1.3.2 Approximation polynômiale de la puissance tron-


quée et erreur relative
Etablissons le résultat fondamental suivant sous forme de théorème que
nous prouverons. Ce résultat servira à la modélisation stochastique du proces-
sus du risque de poisson composé qui sera développée dans la partie II.

13
Théorème .1
+
Soit r ∈]0, 1[ ; a ∈] − 1; 1[, il existe un polynôme algébrique Pn,r,a (x) (resp

Pn,r,a (x)) de degré inférieur ou égal à n permettant d’approcher au-dessus (resp
en dessous) la puissance tronquée tel que l’égalité suivante soit vraie :

(r) √ √
(x − a)r−1
+ ± supt (±2D0 (t)( 1 − a2 )r+1 ) ln(n + 1)( 1 − a2 )(r−2)+
k −Pn,r,a (x)k = +o( )
Γ(r) nr nr+1
(1.5)
π
1 P∞ cos(kt−r 2 )
avec Dr (t) = π k=1 Kr

La preuve de ce théorème nécessite des résultats intermédiaires tels que

Lemme 1.1
e ± (f ) ≤
f r KV alors E
Soit f ∈ W CK
n nr+1

Remarque
Dans ce qui suivra, nous noterons par C une constante absolue et par Cr
une constante dépendante de r bien que leurs valeurs soient différentes suivant
les évènements.
(x−a)r−1
+
Posons gr,a (x) = Γ(r)
alors
Z 1
Ee ± (g
n r,a ) = inf {±gr,a (x) ± P (x)}dx (1.6)
{P ∈Pn ±gr,a ≥±P } −1

Par un changement de variable x = cos t, on a :


Z 1
Ee ± (g
n r,a ) = inf [±gr,a (cos t) ± P (cos t)]| sin t|dt
{P ∈Pn ±gr,a ≥±P } −1

Z 1
Een± (gr,a ) = 2[ inf [±gr,a (cos t) ± P (cos t)]| sin t|dt] = h (1.7)
{P ∈Pn ±gr,a ≥±P } 0

Soit Een± (gr,a ; | sin t|)1 la borne supérieure de h et caractérisant la meilleure


approximation supérieure de la fonction gr,a par un polynôme trigonométrique
de poids | sin t|. Il est évident pour une fonction f donnée que

Een± (f ; | sin t|) ≤ Een± (f )1

Définissons des fonctions 2π−périodiques comme suit :


1
− cos θ)r−1
(
Γ(r)
(cos t + si t ∈ [0; π]
φ(t) = φθ (t) :=
0 sinon

14
1
ξ(t) = ξθ (t) := (cos t − cos θ)r−1
+ sin t,
Γ(r)

η(t) = ηθ (t) := {Dr (θ − t) − Dr (θ + t)} sinr θ


De la remarque précédente et des formules 36 et 43 dans [31], la fonction
ξ − η a une borne dérivée dans l’intervalle [−π; π] donc

π dt
V−π ( (ξ − η)) ≤ Cr sin(r−1) θ
t

Du lemme (1.1), si a = cos θ et connaissant Een± (f ), on déduit que

Cr sin(r−1) θ
Ee ± (ξ
n − η)1 ≤
nr+1
Considérons maintenant le lemme suivant :

Lemme 1.2
Pour tout r ∈]0; 1[ on a

1 C sin(r−1) θ
En± (gr,a )1 ≤ Een± (ηr,θ )1 + (1.8)
2 nr+1
et
1 C sin(r−1) θ
En± (gr,a )1 ≥ Een± (ηr,θ )1 − (1.9)
2 nr+1
Un polynôme trigonométrique Tn−1/2 d’une intégrale d’ordre fractionnaire
n − 1/2 est définie comme une somme de la forme, voir [40],
n−1
X
[ak cos(k + 1/2)t + bk sin(k + 1/2)t]
k=1

ak et bk sont des nombres arbitraire. Le polynôme Tn−1/2 satisfait les conditions

Tn−1/2 (t + 2π) = −Tn−1/2 (t) (1.10)


La fonction f satisfaisant la condition (1.10) est appelée anti-périodique et
le nombre 2π est appelé l’anti-période.
Le polynôme qui interpole f (t) aux nœuds équidistants tk = πk n
, k = 0, 1, ..., n−
1 , voir [52], est de la forme

1 2n−1
X sin(t − tk )
Ln−1/2 (f, x) = f (tk )
2n k=0 sin( t−t
2
k
)

Notons par Wc r KV la classe des fonctions anti-périodiques f dans laquelle


les dérivées f sont bornées et V02π (f 0 ) ≤ K
0

15
Proposition 1.3.1
Soit f ∈ W c r KV alors le polynôme H
n−1/2 (f, x) qui interpole f aux nœuds
2πk
équidistants tk = n , voir [52], a la forme
n−1 n−1
f 0 (tk )νk (x)
X X
Hn−1/2 (f, t) = f (tk )`k (x) +
k=0 k=0


sin2 ( nx
2
) x − xk sin2 ( nx
2
) x − xk
`k = 2 2 t−tk cos ; ν k = 2 2 t−tk sin
n sin ( 2 ) 2 n sin ( 2 ) 2

Nous supposons au regard de ce qui précède que Hn−1/2 interpole f 0 (tk + 0) ou


f 0 (tk − 0). Ce résultat à été utilisé dans [36]

Lemme 1.3
Soit f ∈ Wc r KV et H
n−1/2 (f, x) le polynôme qui interpole f (t) en des nœuds
2πk
équidistants tk = n + γ. Alors
Z 2π
Cr ln n
|f (x) − Hn−1/2 (f, x)|dx ≤ M (1.11)
0 nr+1

Preuve Du théorème
La preuve du théorème s’appuie aussi sur le lemme suivant :

Lemme 1.4
Soit t− +
n−1 (Dr , t) et tn−1 (Dr , t) des polynômes trigonométriques de degré n − 1
representants les meilleures bornes de la fonction Dr (t). Alors
Z π
Cr ln n
|t+ (Dr , t) − Dr (t)| sin(t/2)dt = M (1.12)
−π nr+1

Preuve du lemme
Il est connu de [24] que t± (Dr , t) interpole doublement la fonction Dr (t)
suivant les nœuds tk = 2πk n
+ γ. Alors t± (Dr , t) sin(t/2) est un polynôme semi-
intégrable de degré n − 1/2.
Cela signifie que t± (Dr , t) sin(t/2) interpole (Dr , t) sin(t/2).
Comme (Dr , t) sin(t/2) ∈ W c r KV alors on a l’égalité (1.12). D’où le lemme.

Lemme 1.5
+
Pour tout r ∈]0; 1[, il existe un polynôme trigonométrique Tn+ (t) = Tn,r,θ (t)
− −
(resp Tn (t) = Tn,r,θ (t)) de degré inférieur ou égal à n−1 approchant la fonction
ηr,θ (t) par-dessus (resp par dessous) tel que
Z π
2 sinr (θ) e ± Cr ln n sinr−1 θ
|(ηr,θ (t) − T + (ηr,θ,t )) sin t|dt = En (Dr ) + (1.13)
−π π nr+1

16
Preuve
Définissons les fonctions auxiliaires Q± (t) ; ξ(t) et η(t) par :
sinr−1 θ
η(t) = ηθ (t) := {Dr (θ − t) − Dr (θ + t)}
π
sinr−1 θ
ξ(t) = ξr,θ (t) := {−Dr (θ − t) − Dr (θ + t)}
π
sinr−1 θ ±
T ± (t) := {tn−1 (Dr (θ − t)) − t±
n−1 (Dr (θ + t))}
π
sinr−1 θ
Q±n (t) = {−t± ±
n−1 (Dr (θ − t)) − tn−1 (Dr (θ + t))}
π
Il est évident que
±(T ± (t) − ηθ (t)) sin t = sin θ(Q±n (t) − ξr,θ (t))
r−1
sin θ
± (sin t − sin θ){−t± n−1 (Dr (θ − t)) + Dr (θ − t)}
π
sinr−1 θ
± (sin t + sin θ){t±n−1 (Dr (θ + t)) − Dr (θ + t)} (1.14)
π
car
sinr−1 θ

n (t)−ξr,θ (t) = {−t± ±
n−1 (Dr (θ−t))+Dr (θ−t)−tn−1 (Dr (θ+t))+Dr (θ+t)}
π
(1.15)
Alors Z π
2 sinr−1 θ e ±
|Q±
n (t) − ξr,θ (t)|dt ≤
En (Dr )1 (1.16)
−π π
En tenant compte de la remarque précédente, on a
Z π
|(sin t − sin θ)(Dr (θ − t) − t±
n−1 (Dr (θ − t)))| sin(t/2)dt ≤
−π
Z π
2 |t± (Dr (t)) − Dr (t)| sin(t/2)dt
−π
Cr ln n
≤ (1.17)
nr+1
et
Z π
|(sin t − sin θ)(Dr (θ + t) − t±
n−1 (Dr (θ + t)))| sin(t/2)dt ≤
−π
Z π
2 |t± (Dr (t)) − Dr (t)| sin(t/2)dt
−π
Cr ln n

(1.18)
nr+1
De ces 4 dernières expressions, nous déduisons l’estimation suivante :

Z π
2 sinr θ e ± Cr ln n. sinr−1 θ
|(ηr;θ,t − T ± (ηr;θ,t )) sin t|dt ≤ En (Dr ) + (1.19)
−π π nr+1

17
Par application des égalités (1.12) ;(1.13) ;(1.14), on a
Z π
± sin θ Z π + Cr ln n. sinr−1 θ
|(ηr;θ,t − T (ηr;θ,t )) sin t|dt = |Qr,θ,t − ξr,θ (t)|dt −
0 π 0 nr+1
(1.20)
Des conséquences des lemmes (1.1) et (1.4) et après de simples transforma-
tions on a
Z π
2 sinr θ e ± Cr ln n. sinr−1 θ
|(ηr;θ,t − T ± (ηr;θ,t )) sin t|dt ≥ En (Dr ) + (1.21)
0 π nr+1
et
Z 0
2 sinr θ e ± Cr ln n. sinr−1 θ
|(ηr;θ,t − T ± (ηr;θ,t )) sin t|dt ≥ En (Dr ) + (1.22)
−π π nr+1
Les estimations (1.17) et (1.18) mettent fin à la preuve du lemme.

En utilisant les relations de dualité pour les meilleures approximations,


±
nous obtenons l’estimation suivante de Een+1 (Dr )1
Z π
Ee ± (D
n r )1 = sup Dr (t)h(t)dt (1.23)
{h⊥T n ,|h|<1,Dr ≥±h} −π

Alors on a :
(r)
supt (±2πD0 (t))
n r )1 = Ee ± (D (1.24)
nr
De (1.6), des estimations (1.8), (1.9) et du lemme (1.4), il s’en suit la preuve
du théorème.
Une des conséquence du théorème (.1) est la suivante :

Proposition 1.3.2
+ −
Soit r > 0 ; t ∈] − x; x[, x > 0 alors il existe Pn,r,t (x) (resp Pn,r,t (x)) un
polynôme de degré inférieur ou égal à n − 1 approchant la puissance tronquée
(x − t)r−1
+ par valeur supérieure (resp par valeur inférieure) tel que l’égalité
suivante ait un sens :

(x − t)r−1 ± (r)
√ r+1 ln(n + 1)( x2 − t2 )r−2
k −Pn,r,t (x)k = sup (±2D0 (t)[ x2 − t2 ] )+o( )
Γ(r) t∈]−x;x[ nr+1
(1.25)

Preuve
La preuve de cette proposition repose sur celle du théorème (.1) dans la-
quelle on fait passer t ∈] − 1; 1[ à t ∈] − x; x[ où √
x > 0. De ce fait on obient
±
l’exitence du polynôme Pn,r,t (x) et de la fonction x2 − t2 tel que

(x − t)r−1 ± (r)
√ r+1 ln(n + 1)( x2 − t2 )r−2
k −Pn,r,t (x)k = sup (±2D0 (t)[ x2 − t2 ] )+o( )
Γ(r) t∈]−x;x[ nr+1
(1.26)

18
D’où la proposition.

Ce résultat servira, dans la deuxième partie, à l’approximation de la proba-


bilité de ruine dans des espaces à petits supports. En ce sens que la proposition
(1.3.2), conséquence du théorème(.1) nous permettra de conclure en l’existence
d’un polynôme qui approche, au mieux, une puissance tronquée née de quelques
fonctions infiniments divisibles et stables. Ces fonctions seront utilisées dans
cette thèse comme modèle de la loi du montant des sinistres dans le processus
du risque classique de poisson composé. Avant cela, nous présenterons notre
second résultat théorique dans le chapitre qui suivra.

1.4 Conclusion
Ce chapitre a été le lieu pour nous d’analyser l’espace Wpr des fonctions
intégrales d’ordre fractionnaire r ∈]0; 1[. Nous avons prouvé l’existence de po-
lynômes algébriques ou trigonométriques qui permettent d’approcher la puis-
sance tronquée (x − a)r−1+ . Cela nous a conduit en la détermination d’une
formule quadratique, de meilleure L1 −approximation des fonctions de cette
classe Wpr et une limite exacte de l’erreur commise.

19
Approximation par des polynômes algébriques
2
et trigonométriques de fonctions intégrales
d’ordre fractionnaire

2.1 Introduction
Dans cette partie, nous nous intéressons à l’approximation des fonctions
f r , 0 < r < 1. Pour les fonctions de cette classe, nous étudions
de la classe W ∞
la meilleure approximation par les polynômes algébrique ou trigonométrique.
Une particularité sera accordée au comportement asymptotique exact pour
cette classe de fonctions obtenues.

2.2 Généralités et notions utiles


2.2.1 Notions sur quelques fonctions utiles
Considérons ρ une fonction non négative sur l’intervalle [−1; 1] et soit H
une certaine classe de fonctions définies aussi sur [−1; 1] tel que ∀x ∈ [−1; 1]
la fonction suivante donnée par
1
1 Z fr (t)
Sρ (f )(x) := ρ(t)dt, x ∈] − 1, 1[ (2.1)
π t−x
−1

existe dans le sens de sa valeur principale.

Pour r > 0 et p ∈ [1; +∞[, considérons la classe Wpr des fonctions fr


représentées par
1
1 Z
fr (x) = (x − t)r−1
+ f (t)dt, x ∈ [−1, 1] (2.2)
Γ(r)
−1

20
Γ(r) est la fonction de Gamma-Euler, f est une fonction mesurable et
kf (t)k ≤ 1 presque partout.

La puissance tronquée (x − t)r−1


+ est définie par

(x − t)r−1
(
si x > t
(x − t)r−1
+ := + (2.3)
0 si x ≤ t

2.2.2 Erreur d’approximation d’une fonction intégrale


d’ordre fractionnaire r ∈]0; 1]
Définissons par En (f )q la meilleure approximation de la fonction f par un
polynôme algébrique de degré inférieur ou égal à n dans l’espace Lp . Posons
1 1
En (Wpr )q := sup kf kq ; avec + =1 (2.4)
f ∈Wpr p q

Soit
(x − t)r−1
(
si x > t
gr (x) = (x − t)r−1
+ := + (2.5)
0 si x ≤ t
et considérons Kr la meilleure approximation par une constante de la fonction
 
∞ cos kt − rπ
1X 2
Dr (t) = (2.6)
π k=1 kr
dans l’espace L1 . Il vient que l’égalité
1
En (gr )1 = Ẽn+1 (gr (cos t) sin t)1 (2.7)
2
permet la transposition d’un problème de meilleure approximation par des
polynômes algébriques au problème de meilleure L1 −approximation par des
polynômes trigonométriques.
Een+1 (f )1 est définie comme la meilleure approximation de la fonction f par un
polynôme trigonométrique de degré moins grand que n + 1 dans l’espace L e1

Considérons maintenant la fonction poids donnée par ρ0 (x) = 1 et appe-


f r la classe des fonctions S (f ) dont la forme est celle d’une intégrale
lons par W p ρ
singulière comme en (2.1).

Le problème d’approximation des intégrales singulières a été étudiés dans


[7]-[8] ; [37] ; [45]

En particulier, le problème du comportement asymptotique des approxima-


f r par les polynômes algébriques en des points appropriés
tions de la classe W ∞

21
de l’intervalle ] − 1; 1[ pour tout entier r a été étudié en [37] et il a été établi
que :
 √
√ 1 r−1 
( 1 − x + n)
2
K̃r ( 1 − x2 )r
f˜(x) − Pn (x) =

r
+ C r

r+1
 (2.8)
n  n 

Où fe est la fonction trigonométrique conjuguée à la fonction 2π−périodique f .

Dans cette partie de notre travail, nous ferons des approximations sur des
fonctions intégrales d’ordres fractionnaires r ∈]0, 1[. Il s’en suit donc la section
suivante :

2.3 Approximation de fonctions intégrales d’ordre


fractionnaire
2.3.1 Quelques outils et rappels utiles
Une fonction conjuguée à la fonction f 2π−périodique, intégrable sur [−π, π]
est une fonction de la forme
π
¯ 1 Z f (x + t) − f (x − t)
f (x) = lim+ − t dt (2.9)
ε→0 πε 2 tan
2
Il existe presque partout et presque partout égale à (C, α)−somme ou somme
de Poisson-Abel de la série trigonométrique conjuguée.
L’expression (2.9) peut être écrite sous la forme (voir [56], p.89)
π
1 Z f (x + t)
− dt (2.10)
π 2 tan t
−π
2
ou π
1Z f (t)
− dt. (2.11)
π (t − x)
−π 2 tan
2
Ces intégrales existent dans le sens de leurs valeurs principales.
La transformation Sρ (f )(x) peut être vue comme une version d’approche des
fonctions conjuguées aux fonctions f définies sur le segment [−1; 1]
r
Pour ρ(t) une fonction intégrable sur [−1; 1], non négative et soit f ∈ W∞ la
fonction définie sur [−1; 1], nous avons :

1 1
1 Z f (t) 1 Z f (cos t)
ρ(t)dt = ρ(cos t) sin tdt, x ∈] − 1, 1[ (2.12)
π t−x π cos t − x
−1 −1

22
et

1 π
1 Z f (cos t) 1 Z f (cos t) 1
f (cos x) = ρ(cos t) sin tdt = dt = C(f (cos t))(x)
π cos t − cos x π sin x (t − x) sin x
−1 −π 2 tan
2
(2.13)
Où C(f (cos t)) est le conjugué de la fonction f (cos t). Les intégrales en
(2.13) existent dans au sens de leurs valeurs principales.

f r , nous pouvons écrire :


Pour f (x) ∈ W∞

1 Z 1 f (t) 1 − t2 dt
f (x) = √
π −1 t−x 1 − t2
et de (2.13) nous déduisons
1
f (cos x) = C(f (cos t)| sin t|)(x)
sin x

2.3.2 Erreur relative à l’approximation d’une fonction


intégrale d’ordre fractionnaire
L’objectif de cette sous-section est la construction d’un théorème fonda-
mental, qui dépaint l’erreur d’approximation d’une fonction intégrale d’ordres
fractionnaires par un polynôme algébrique ou trigonométrique. Ce théorème
servira par ailleurs, d’appui à la modélisation stochastique qui sera développée
dans la partie II.
Soit le théorème (un de nos principaux résultats).

Théorème .2
Pour tout r ∈]0, 1[ et fe ∈ Wf r , supposons qu’en des points finis du segment

[−1; 1] la fonction f tend à s’annuler après une série de dérivation d’ordre
r − 1. Alors il existe une suite de polynômes algébriques Pn (x) tel que :
 √
√ 1 r−1 
( 1 − x + n)
2
K̃r ( 1 − x2 )r
f˜(x) − Pn (x) =

+ C r
 
nr  nr+1 

Cr : constante ne dépend que de r.


K̃r : meilleure approximation de f˜ par une constante.

Pour la preuve de ce théorème, considérons les résultats auxiliaires sui-


vants :

23
Lemme 2.1 (Voir [37])
r
Soit f une fonction de W∞ , alors il existe une suite de polynômes trigonomé-
triques Tn (x) tel que
1 ρ−1
(|sin x| + )
|f (x) − Tn (x)| ≤ C n , ρ ∈]0, 1]
nρ+1
Alors il existe une suite de polynôme algébrique trigonométrique Qn (x) et
une constante Cρ telq que
1 ρ−1
(|sin x| + )
f˜(x) − Qn (x) ≤ Cρ n
nρ+1
fe ≡ C(f ) est trigonométriquement la fonction conjuguée à la fonction
2π−périodique f

Preuve du théorème
Soit

S0 (x) = {Dr (u − x) − Dr (u + x)} sinr uφ(cos u)du
0

et

R0 (x) = fr (cos x) − S0 (x).


Alors du lemme (2.1) et de la formule (3.4) voir [37] nous déduisons que :

C(f (cos t)(x)) = C(S0 (x)) + C(R0 (x)) (2.14)


Considérons la fonction Q0n (x) donnée par :

Q0n (x) = {−Pn (u − x) + Pn (u + x)} sinr uφ(cos u)du
0

et Pn le meilleur polynôme trigonométrique qui approche le noyau Dr à un


ordre inférieur à n − 1.
Considérons encore le résultat suivant nécessaire à la démonstration du théo-
rème :

Lemme 2.2
r
Soit fr ∈ W∞ . La difference de second ordre de la fonction R0 (x) = fr (cos x) −
S0 (x) satisfait l’inégalité suivante(voir [34])
(
h1+r sinr−1 x si sin x ≥ h
|∆2h R0 (x)| ≤C
h2r si sin x < h ; x ∈ [0; π]

24

∆h R0 (x) = R0 (x) − R0 (x + h)
et
∆2h R0 (x) = R0 (x + h) − 2R0 (x) + R0 (x − h), h > 0

Preuve
Nous utilisions [50], p.133 dans lequel, il ressort que :

tr−1
+
Dr (t) = + Gr (t), t ∈] − 2π, 2π[,
Γ(r)
Gr (t) est une fonction analytique définie sur l’intervalle ] − 2π, 2π[.
De plus la dérivée G0r (t) est une fonction analytique sur la moitié de l’intervalle
] − 2π, 2π]. Elle est strictement croissante et bornée par une constante M sur
l’intervalle [−2π − , 2π − ] , > 0.
1
En particulier,|G0r (t)| ≤ sur l’intervalle [−π, π].
π
Aussi |G(2)
r (t)| ≤ M . Cependant

π
∆2h Gr (t) ≤ M h2 , t ∈ [0, π], h ∈]0, [
2
Ainsi nous pouvons estimer l’expression Dr (u − x)(sinr u − sinr x).
En vertu de la formule (11) (voir [35]) , il vient que :

|x − t|
|Dr (t − x)(sinr t − sinr x)| < |Dr (t − x)2r sinr |
2
Considérons la fonction u définie par

|x − t|
u(x) = Dr (t − x)2r sinr dt (2.15)
2
0

Elle est périodique, intégrale de la fonction 2π−périodique donnée par


π
r|x − t| 1Z |x − t|
sin dt − sinr dt
2 π 2
0

sur l’intervalle [−π, π] et satisfaisant la condition de Lipschitz d’ordre r.


Cela conduit à

|∆2h u(x)| ≤ Ch2r


C est une constante absolue.

Considérons encore le résultat suivant :

25
Lemme 2.3
Considérons la fonction Dr définie en (2.6) alors :

Dr (u − x)(sinr u − sinr x) ∈ W̃ r KV, r ∈]0, 1[


et
Cr sinr−1 u
En (Dr (u − x)(sinr u − sinr x)) ≤
nr+1

Preuve
Soit r ∈]0, 1[ et x, u ∈]0, π[, il est connu (voir [35]) que

| sinr u − sinr x| < sinr−1 x| sin x − sin u| (2.16)


et
2π x+u
sinr u <
sinr−1 x sin (2.17)
3 2
r r
Considérons (sin u − sin t) = g(t, u) ; On a

(Pn (u − t) − Dr (u − t)) = ϕ(t, u)∆t,h g(t, u) = g(t, u) − g(t − h, u)

et

∆2h g(t, u) = g(t + h, u) − 2g(t, u) + g(t − h, u) h > 0


Alors nous obtenons

∆t,h g(t, u) = (− sinr t − sinr (t + h))

et

∆t,h ϕ(t, u) = (Pn (u − t) − Dr (u − t)) − (Pn (u − t − h) − Dr (u − t − h))

Comme Pn (t, u) est le meilleur polynôme approchant Dr (t, u), , nous pou-
vons trouver M et M1 tels que |ϕ(t, u)| ≤ M et |∆t,h ϕ(t, u)| ≤ M1 h.

En utilisant les formules (2.16),(2.17), on obtient alors



|∆t,h g(t, u)|du ≤ C1 sinr−1 t (2.18)
0

Où C1 est une constante absolue. Comme

|∆t,h g(t, u)ϕ(t, u)| ≤ |g(t, u)ϕ(t, u) − g(t, u)ϕ(t − h, u)|


+ |g(t, u)ϕ(t − h, u) − g(t − h, u)ϕ(t − h, u)|

26
Alors

Zπ Zπ Zπ
|∆t,h g(t, u)ϕ(t, u)|du ≤ M1 h |g(t, u)|du + M |∆t,h g(t, u)|du
0 0 0

En vertu des formules (2.15) ; (2.16) ; (2.17) ; (2.18). On obtient



|∆t,h g(t, u)ϕ(t, u)|du ≤ Cr sinr−1 t
0
où Cr est une constante dépendante de r
De plus Dr (u − x)(sinr u − sinr x) est une fonction à variations limitées
satisfaisant la condition de Lipschitz d’ordre 1. En appliquant le théorème de
Jackson, nous pouvons donc conclure
Lemme 2.4 Pour chaque valeur r ∈]0, 1[ et x ∈ ]0, π[, nous avons

 √
√ 1 r−1 
K̃r ( 1 − x2 )r ( 1 − x 2+ ) 
C(S0 )(x) − Tn0 (x) ≤ + C
 n (2.19)
r
 
nr nr+1 

où Tn0 (x) est un polynôme trigonométrique de degré inférieur ou égal à n−1


et la constante Cr ne dépend que de r

Les égalités (2.13) et (2.19) permettent de réduire le problème d’approxima-


tion en des points de l’intégrale (2.1), par un polynôme algébrique, au problème
d’approximation (des fonctions périodiques C(fr (cos t))(t)) par des polynômes
trigonométriques.

Preuve
Soit S0 (x) et Q0n (x) des fonctions définies comme précédemment.

Z π
|(S0 )(x) − Q0n (x)| ≤ | {Dr (u − x) − Pn (u − x) − Dr (u + x) + Pn (u + x)} sinr uφ(cos u)du|
0
Z π
≤ sinr x | − Dr (u + x) + Pn (u + x)|du
0
Z π
+ |Dr (u − x) − Pn (u − x)|(sinr u − sinr x)du
0

Il est connu de [24] que Pn (u + x) interpole doublement la fonction Dr (u + x)


2πk
aux nœuds uk = γ + , k = 0, 1, ....., n − 1,.
n
Cela signifie que Pn (u+x)(sinr u−sinr x) interpole Dr (u+x)(sinr u−sinr x)
en ces nœuds équidistants.

27
Comme Dr (u + x)(sinr u − sinr x) est une fonction à variations limitées alors
en vertu de la formule (2.6), on obtient
 √
√ 1 r−1 
( 1 − x + n)
2
K r ( 1 − x2 ) r
(S0 )(x) − Q0n (x) ≤

r
+ C r

r+1

n  n 

Du lemme (2.3) et de la formule (2.27)(voir [37]), on peut trouver une suite de


polynôme trigonométrique Tn0 (x) tel que :
 √
√ 1 r−1 
Kr ( 1 − x )
2 r ( 1 − x 2+ ) 
C(S0 )(x) − Tn0 (x) ≤ + C
 n  , r ∈]0, 1]
r

nr nr+1 

Ceci achève la démontration du lemme.


De plus en se référant à [44], nous établissons le résultat suivant :

Lemme 2.5
Soit f ∈ W̃ r KV une fonction, alors
CK
Ẽn (f ) ≤
nr+1
Où W̃ r KV est la classe des fonctions f dont la dérivée est une fonction à
variation limitée de 0 à 2π tel que

V (f 0 ) < K
0

Il s’en suit, de la sur-additivité de En (f ), du lemme (2.3) et des lemmes 5


et 7 dans [36] que

Lemme 2.6
Pour tout r ∈]0, 1[ les égalités suivantes sont vérifiées :

1 C sin(r−1) θ
En (fr )1 ≤ Ẽn (S0 (x))1 + (2.20)
2 nr+1
et
1 C sin(r−1) θ
En (fr )1 ≥ Ẽn (S0 (x))1 − (2.21)
2 nr+1
C est une constante absolue.

De l’égalité (2.6), des estimations (2.20) ; (2.21) et des lemme (2.2),(2.4), il


s’en suit la preuve du théorème

28
2.4 Conclusion
Ce chapitre nous a permis d’analyser l’approximation de la classe H des
1 Z 1 f (t)
fonctions intégrable de la forme ρ(t)dt.
π −1 t − x
Nous avons examiné l’existence de meilleures polynômes qui approchent les
fonctions de la classe H. Nous avons aussi analysé le comportement asympto-
tique de l’erreur commise résultant des approximations opérées.

29
Deuxième Partie : Modélisation
stochastique et application

30
Lp−approximation et variables stables pour le
3
risque

3.1 Introduction
Les lois α-stables présentent un grand intérêt dans la modélisation de nom-
breux problèmes physiques et économiques. La caractéristique de ces lois est
leur index de stabilité α qui indique la vitesse de décroissance des queues de dis-
tribution. Elles sont de ce fait adaptées à la modélisation de la survenance des
risques. En effet elles reflètent les propriétés statistiques communes à la plupart
des grandes fluctuations dont les accroissements ne sont pas réguliers au cours
du temps. Mieux, les lois α−stables sont les seules distributions limites pos-
sibles pour des sommes, convenablement normalisées et centrées, des v :a (i.i.d).
Les distributions stables peuvent être dissymétriques et permettent des queues
épaisses, de telle sorte qu’elles ajustent les distributions empiriques beaucoup
mieux que ne le font les distributions Gaussiennes. Cependant, la modélisation
de la loi de la survenance de chaque sinistre par une loi α−stable conduit à
une expression stochastique caractérisée par une équation intégro-différentielle
suffisamment complexe. Comment donc faire ? C’est ce à quoi nous tenterons
de résoudre dans ce chapitre. Il s’agira pour nous d’abord de présenter les
variables α−stables et quelques-unes de leurs propriétés. Nous nous intéresse-
rons ensuite dans ce chapitre à des approximations sur de petits supports. Ces
supports représentés par des sous espaces de Lp (B, ν) matérialisés par leurs
mesures α∗ sont des cadres dans lesquels la théorie développée dans la pre-
mière partie consacre le polynôme nulle comme meilleure Lp −approximation
aux fonctions de lois infiniment divisibles dont les lois gamma, symétrique
stables, stable et stable à l’infini. Les meilleurs polynômes algébriques ou tri-
gonométriques donnés par l’interpolation des fonctions, précédemment citées,
nous permettrons de construire, sur le modèle classique du risque de poisson
composé, des équations différentielles d’ordre n dont la résolution est directe
ou pourra se faire numériquement en fonction de l’ordre d’interpolation de nos
fonctions. Ceci nous conduit à la détermination ou àl’estimation de la proba-

31
bilité de ruine.

3.2 Généralités sur les lois stables


3.2.1 Caractérisation des lois stables
Définition 3.1
Une v.a.r X a une distribution stable si pour toute suite ak , k ∈ N∗ et toute
famille X1 , X2 , ..., Xk , i.i.d de même loi que X, il existe ck > 0 et bk des réels
tels que
d
a1 X1 + a2 X2 + ... + ak Xk = ck X + bk (3.1)
d
= est l’égalité en distribution.
Lemme 3.1
Une variable aléatoire réelle X est stable si et seulement si elle est la distribu-
tion limite de la variable n
1 X
( X i − bn )
an i=1
C’est-à-dire que ∃an > 0 et bn des constantes tels que
n
1 X
( X i − bn ) → X (3.2)
an i=1

Preuve
– Supposons que X est une v.a α−stable, alors ∃ X1 , ..., Xn des v.a et
∃an > 0 et bn des constantes telles que
Pn
d 0 i=1 X i − bn
X1 + X2 + ... + Xn = an X + bn d où →X
an
– Supposons maintenant X1 , X2 , ..., Xn une suite de v.a iid et posons Sn =
X1 + X2 + ... + Xn tel que ∀x ∈ R
Sn − bn d
→X
an
Montrons que X est stable.

Si X est une v.a dégénérée, alors il est réduit à un point donc est stable
par définition.
Supposons que X à une distribution non dégénérée et pour k ≥ 1 posons
Sn1 = X1 + X2 + ... + Xn , ... et Snk = X(k−1)n+1 + ... + Xkn , .
puis
Sn1 − bn S k − bn
Xn1 = , ..., Xnk = n
an an

32
Il revient que les Xn1 , Xn2 , ..., Xnk ont la même distribution et que
d
Xni → X n → ∞; i = 1, ..., k
d
Considérons maintenant Yn = Xn1 + Xn2 + ... + Xnk .
d
Il vient que Y → X 1 + X 2 + ... + X k en distribution, avec
d d d d
X 1 = X 2 = ... = X k = X

D’autre part on a

d Sn(1) + Sn(2) + ... + Sn(k) − kbn


Yn =
an
d X1 + X2 + ... + Xkn − kbn
=
an
d a kn X 1 + X 2 + ... + Xkn − bkn bkn − kbn
= ( )+
an akn an
d
= αnk Zkn + βnk

akn bkn − kbn X1 + X2 + ... + Xkn − bkn


où αnk = ; βnk = et Zkn =
an an akn
d Yn −βnk
Il vient donc que Zkn = αkn
.
d
Sachant que Yn = X + X + ... + X k , il s’en suit de l’hypothèse que
1 2

∃αnk > 0 et ∃βnk des constantes tel que

X 1 + X 2 + ... + X k − βnk d
=X (3.3)
αnk
d
D’où Zkn → X et

αnk X + βnk = X 1 + X 2 + ... + X k

Par suite X est a une v.a α-stable.


D’où le lemme
De ce lemme, il ressort une généralisation du théorème centrale limite due
à Paul Lévy à travers le théorème suivant :

Lemme 3.2
Soit (Xi ) une suite de v.a i.i.d. Si ∀n ∈ N, an > 0 et bn des suites réels, on a :
Pn
i=1 X i − bn
P{ < x} → G(x) n→∞ (3.4)
an
alors G(x) est non dégénérée (c’est-à-dire n’est pas réduit à un point) et est
associée à une loi stable.

33
La preuve de ce lemme est détaillée dans [1].
En effet, en reprenant la démonstration de la propriété précédente on parvient
à
d d
Zkn = X ⇒ {Zkn ≤ x} → {X ≤ x}
On déduit donc que
L
P {Zkn ≤ x} → G(x)
où G(x) est la distribution d’une v.a α-stable

La nature et l’appartenance au max domaine d’attraction de la variable X


S n − bn
tel que → X est clairement établi dans le théorème dû à Fisher-Tippet
an
et s’énonce comme suit

Lemme 3.3
Soit X1 , ..., Xn des v.a indépendantes de la même famille que la v.a X de
distribution non dégénérée G. S’il existe des constantes an > 0 et bn ∈ R tels
que
S − b 
n n L
P ≤ x → G(x)
an
Alors G est de la forme

−1


 exp{−[1 + α( x−µ
σ
)]+  } si  6= 0
Gµ,σ, (3.5)

exp{−exp[−( x−µ ) ]} si  = 0


σ +

où x+ = max(0, x)

Les travaux de Lévy-Khintchine ont permis de donner une caractérisation


des variables α-stables comme suit.

Définition 3.2 [1]


Une v.a X à une distribution α-stable si et seulement sa fonction caractéris-
tique est donnée par :

ϕX (t) = E(esp{itX}) = exp{−(γ|t|)α [1 + βsign(t)w(t, α)] + iδt} (3.6)

− tan πα


 2
si α 6= 1
w(t, α) = 
 2
ln|t|
π
si α = 1


1 
si t > 0
Aussi on définit sign(t) =  0 si t = 0

−1 si t < 0

34
On note alors
X ∼ Sα (γ, β, δ)
Les paramètres α, β, δ et γ sont tels que :
– 0 < α ≤ 2 est appelé exposant caractéristique ou index de stabilité. Il
détermine la vitesse de décroissance de la queue de distribution (Plus
α → 0 plus la queue est lourde)
– −1 ≤ β ≤ 1 est le paramètre d’asymétrie. Si β > 0 alors la distribution
de X est dite asymétrique à droite. Si β < 0 alors la distribution de X
est dite asymétrie à gauche.
– δ ∈ R est le paramètre de position. Il mesure la tendance centrale de la
distribution.
– γ est le paramètre d’échelle ou de dispersion. Il mesure la dispersion de
la distribution autour du paramètre de position.

Exemple
1. Distribution Gaussienne
La densité est
1 (x − µ)2
f (x) = √ exp{− }
σ 2π 2σ 2
La fonction caractéristique est
σ 2 t2
ϕG (t) = exp{− + iµt}
2
Par identification, on a α = 2 ; γ = σ2 ; β = 0 et δ = µ

2. Distribution Gaussienne généralisée


La densité est
γ
f (x) =
π[(x − µ)2 + γ 2 ]
La fonction caractéristique est
ϕG (t) = exp{−γ|t| + iµt}
Ainsi, on a α = 1 ; γ = γ ; β = 0 et δ = µ

3. Distribution de Levy
La densité est
γ 1/2 1 γ
f (x) = ( ) exp{− }
2π (x − µ)3/2 2(x − µ)
La fonction caractéristique est
√ √
ϕG (t) = exp{ γt + i( γt + µt)}
On a donc α = 12 ; γ = γ ; β = 1 et δ = µ

35
Définition 3.3
Une v.a.r X a une distribution infiniment divisible si et seulement si ∃X1 , X2 , ..., Xn
indépendantes et de lois qui appartiennent toutes à la même famille que celle
de X (ce sont des copies de X) telles que :
d
X = X1 + X2 + ... + Xn (3.7)

Lemme 3.4
Une v.a.r X est la limite d’une somme de v.a.r Sn = ni=1 Xi si et seulement
P

si X est infiniment divisible.

Preuve
– Supposons que X est une variable infiniment divisible.
∀n ≥ 1 il existe des variables Xn,1 , ..., Xn,k des copies de X telles que
d d
Xn,1 + ... + Xn,k = X ⇒ Sn → X
d
– Supposons maintenant que Sn → X et montrons que X est infiniment
divisible.
Soient k ≥ 1 et Xnk = Xn(1) + ... + Xn(k) avec

Xn(1) = Xnk,1 + ... + Xnk,n ; ...; Xn(k) = Xnk,n(k−1)+1 + ... + Xnk,nk


d
De l’hypothèse on déduit que Xnk → X, n → ∞.
Les variables Xn(k) (k ≥ 1) étant des statistiques d’ordres, on a :

P {Xn(1) > y} = P {Xn(1) > y, Xn(2) > y, ..., Xn(k) > y} ≤ P {Xnk > ky}


P {Xn(1) < −y} = P {Xn(1) < −y, Xn(2) < −y, ..., Xn(k) < −y} ≤ P {Xnk < −ky}


d
Il vient alors qu’il existe une variable X1 telle que Xn(1) → X1 , n → ∞
De plus les variables Xn(1) , ..., Xn(k) sont identiquement distribuées donc
d d d
Xn(2) → X2 , Xn(3) → X3 , ..., Xn(k) → Xk

et
d d d
X1 = X2 = ... = Xk
Il s’en suit de l’indépendance des variables Xn(1) , ..., Xn(k) que
d
Xnk → X1 + ... + Xk
d
Sachant que Xnk → X, alors
d
X = X1 + ... + Xk

X est donc infiniment divisible

36
Le lemme est ainsi démontré.

Proposition 3.2.1
Une v.a.r X est de distribution infiniment divisible si et seulement si ∀n ∈ N

ϕX (t) = [ϕXn (t)]n

Où ϕX est la fonction caractéristique de X et ϕXn est celle de la variable Xn

Les exemples qui suivront sont plus illustratifs

Lemme 3.5
Soit X une v.a.r. Si X est stable alors elle est infiniment divisible.

Preuve
Xj − bnn
Soit Y la v.a définie par Yj = ∀j = 1; ...; n.
an
Les Yj sont indépendants car les Xj le sont. On peut donc écrire

X1 + X2 + ... + Xn − n bnn X1 + X2 + ... + Xn bn


Y1 + Y2 + ... + Yn = = −
an an an
Comme X est stable, alors

X1 + X2 + ... + Xn $ an X + bn

Ainsi donc
d an X + b n − b n d
Y1 + Y2 + ... + Yn = =X
an
Le lemme est démontré

Exemple de lois infiniment divisibles


1. Distribution Gaussienne
La densité est
1 (x − µ)2
f (x) = √ exp{− }
σ 2π 2σ 2
La fonction caractéristique est

σ 2 t2 σ 2 t2 µ
ϕα (t) = exp{− + iµt} = [exp{− + i t}]n
2 2n n
D’où ϕα (t) = [ϕXn (t)]n
Donc
m σ2
Xn ∼ N ( ; )
n n

37
2. Distribution Gaussienne généralisée
La densité est
γ
f (x) =
π[(x − µ)2 + γ 2 ]
La fonction caractéristique est
a
ϕα (t) = exp{−γ|t| + iµt} = [exp{− |t|}]n
n
n a
D’où ϕα (t) = [ϕXn (t)] avec ϕXn (t) = exp{− n |t|} et
a
Xn ∼ C( )
n
3. Distribution de Poisson
k
La densité est f (x) = e−λ λk!
On a
1 r 1 n
ϕα (t) = it =[ r ]
it n
(1 − λ ) (1 − λ )
1
D’où ϕα (t) = [ϕXn (t)]n avec ϕXn (t) = (1− it
r
)n
et
λ

λ
Xn ∼ P( )
n
D’autre part
Soient X, Y ∼ P(λ). Supposons que X et Y sont des variables α-stables
alors il existe a > 0 et b des constantes telles que X + Y = aX + b. Ainsi
( ( ( √
E(X + Y ) = E(aX + b) 2λ = aλ + b a= 2 √
⇒ ⇒
V (X + Y ) = V (aX + b) 2λ = aλ2 b = (2 − 2)λ
Ce qui est absurde car X + Y ∈ N
Par suite X et Y ne sont pas α−stables.
Ceci prouve que toute variable infiniment divisible n’est pas stable.

3.2.2 Densité et propriétés d’une distribution p-stable


Soit X une v.a.r de distribution stable alors sa densité de probabilité est
obtenue à l’aide de la transformée de Fourier inverse de la fonction caractéris-
tique. Ainsi donc :
1 Z +∞
f (x; α; β) = exp{−itx}ϕα (t)dt
2π −∞
Par suite on a
1 Z +∞
f (x; α; β) = exp{−γ|t|α [1 + βsign(t)w(t, α)] + it(δ − x)}dt (3.8)
π 0
Si la distribution est symétrique (β = 0) alors la densité devient
1 Z +∞
f (x; α; β) = exp{−|t|α } cos(xt)dt (3.9)
π 0

38
Propriété 3.2.1
Soit Xi ∼ Sα (δi , βi , γi ) (∀i = 1, ..., n). Si les Xi sont indépendantes alors
n
X
Xi ∼ Sα (δ, β, γ) avec
i=1
n Pn n
βi γiα 1
β = Pi=1 γiα ) α
X X
δ= δi , n α
, γ=(
i=1 i=1 γi i=1

Voir [54] pour la preuve de cette propriété.

Considérons maintenant le vecteur aléatoire X = (X1 , X2 , ..., Xn )n∈N

Définition 3.4
Un vecteur aléatoire X est de distribution stable si ∀k ∈ N, ∀X 1 , X 2 , ..., X k de
même loi que X, il existe ak > 0 et Dk des suites de vecteurs constants tels
que
X 1 + X 2 + ... + X k $ ak X + Dk (3.10)

Lorsque Dk = 0, on dit que X est une loi strictement stable.

Proposition 3.2.2

1) Soit X un vecteur stable. Alors toute combinaison linéaire des compo-


santes de X est aussi une v.a.r stable.
2) Soit 0 < α < 2. Le vecteur X est α-stable si et seulement si ∀t ∈ Rn , sa
fonction caractéristique peut s’écrire sous forme :
Z
πα
0
ϕX (t) = exp{iht; µ i− |ht; xi|α [1−isign(ht; xi) tan ]dµS n−1 (x)} (3.11)
S n−1 2
– h.; .i est le produit scalaire usuel dans Rn
– µ0 est un vecteur de Rn
– µS n−1 est une mesure sur l’ensemble des boréliens de la sphère unité(mesure
spectrale).

Définition 3.5
Un vecteur X est dit symétrique alpha-stable (SαS) si X est un vecteur α-
stable et si −X à même loi que X

Proposition 3.2.3
Soit 0 < α < 2. Les v.a.r X1 ; ...; Xn où ∀j = 1; ...; n Xj a pour loi Sα (µj ; βj ; γj )
sont indépendantes si et seulement si le vecteur (X1 ; ...; Xn ) est stable et sa
mesure spectrale est discrète et concentrée sur les points d’intersections entre
les axes et la sphère unité.

39
La mesure spectrale discrète et concentrée sur les points d’intersections
entre les axes et la sphère unité peut être donnée par :
n
X n
X
µS n−1 = ak δ(0; ...; 0; 1; 0; ...; 0) + bj δ(0; ...; 0; −1; 0; ...; 0) (3.12)
k=1 k=1

avec ak ≥ 0 ; bj ≥ 0
Ainsi donc, on a :
Lemme 3.6
Soit X un vecteur aléatoire α-stable (0 < α < 2), alors sa fonction caractéris-
tique peut être donnée par
n n
πp
tj µ0j − |t|α [(aj + bj ) − i(aj − bj )sign(tj ) tan(
X X
ϕX (t) = exp{i )]} (3.13)
j=1 j=1 2

3.3 Lp−approximation et modélisation stochas-


tique
Dans cette partie, nous modéliserons le risque classique de poisson composé
en utilisant les variables α-stables. Cette considération nous conduira à des
expressions intégrales, de noyaux connues ou non, dont la quantification s’avère
difficile. En estimant donc ces expressions à travers des approximations sur
un espace Lp , on leurs détermine des fonctions polynômiales qui serviront à
l’évaluation du risque, à la déternimation de ψ(u) ou de ses paramètres obtenus
dans les meilleures conditions d’approximation.

3.3.1 Risque classique de Poisson composé


Dans la plus part des entreprises financières et d’assurances, le risque de
survenance des sinistres est un facteur dont la maîtrise doit être absolue.
Soit N (t) le nombre de sinistres enregistrés dans une entreprise au cours du
temps t. Supposons que N (t) est un processus de poisson composé d’intensité
λ tel que E(N (t)) = λt. On obtient alors

(λt)k
P [N (t) = k] = e−λt k = 0, 1, 2, ...
k!
Considérons Xi le montant du i-ème sinistre et S(t) = X1 + X2 + ... + XN (t)
la somme total pour la prise en charge des N (t) sinistres d’une entreprise.
Notons R(t) le processus représentant la réserve dont dispose une entreprise,
à un temps t donné, sachant la réserve initiale R(o) = u. On a

R(t) = u + ct − S(t)

– u est la réserve initiale de l’entreprise (R(0) = u)

40
– Xi est une variable aléatoire de moyenne µ qui représente le montant du
i-ème sinistre. Cependant, le coût moyen des sinistres est

1 NX(t)
lim Xi = λE(X)
t→+∞ t
i=1

Où X est une v.a de distribution commune à chacune des variables Xi .


– c est le taux annuel des primes perçu par l’entreprise. Il est le plus souvent
donné par c = (1 + ρ)λE(X).
ρ indique de combien la prime doit excéder le coût moyen des sinistres
par unité de temps. Ainsi une activité peut être rentable si ρ > 0
– N (t) est un processus de poisson d’intensité λ représentant le nombre
de sinistres au cours du temps t. N (t) est indépendantes du coût Xi de
chaque sinistre.
Une illustration de l’évolution de réserve d’une entreprise au cours du temps
dans le modèle de poisson composé est comme suit

Figure 3.1 – Évolution des processus de réserve au cours du temps

41
S(t) = u − R(t) est le processus d’excédent des sinistres.

Les probabilités de ruine aux horizons temps finis T et temps infinis sont
données respectivement par

ψ(u, T ) = P { inf R(t) < 0/R(o) = u} et ψ(u) = P {inf R(t) < 0/R(o) = u}
t∈[0,T ] t≥0

Nous nous intéressons à la probabilité de ruine à l’horizon infini. On obtient


donc le lemme suivant :
Lemme 3.7 [19]
Soit N (t) un processus de poisson d’intensité λ, alors φ(u) vérifie l’équation
differentielle

λ λZ u
Dφ(u) = φ(u) − φ(u − x)dF (x); φ(0) = 0; φ(∞) = 1
c c 0
On pourra se reférer aux auteurs dans [3], [15] et [18] pour des détails sur
la preuve.

En effet, considérons le modèle de ruine de poisson composée donné par


N (t)
X
R(t) = u + ct − Xi
i=1

Soit ψ(u) = P {inf R(t) < 0/R(o) = u}.


t≥0

En utilisant la loi de la probabilité totale sur ψ(u), on obtient :


Z +∞ Z +∞
−λt
ψ(u) = λe ψ(u + ct − x)dF (x)dt
0 −∞

n
X
où F est la distribution de la somme Xi (dont la densité est f ).
i=1
Notons que ψ(u) = 1 pour u < 0
Posons y = u + ct. Dans l’expression de ψ ci-dessus, on tire
λ λu/c Z ∞ −λy/c Z +∞
ψ(u) = e e ψ(y − x)dF (x)dt
c u −∞

ψ est dérivable à travers cette expression. En dérivant donc par rapport à y,


on obtient
0 λ λ Z +∞
ψ (u) = ψ(u) − ψ(u − x)dF (x)
c c −∞
λ λZ u λ
ψ 0 (u) = ψ(u) − ψ(u − x)dF (x) − [1 − F (u)]
c c −∞ c

42
En occultant les sinistres négatifs et en posant φ(u) = 1 − ψ(u), il vient que
λ λZ u λ λZ u
φ0 (u) = φ(u) − φ(u − x)dF (x) ⇒ Dφ(u) = φ(u) − φ(u − x)dF (x)
c c 0 c c 0
dn φ
Avec D(1) φ(u) = Dφ(u) et D(n) φ(u) = n φ(u)
du
Dans les sections qui suivront nous nous intéresserons à la détermination
de φ(u) (pour une valeur de u donnée). Pour ce faire et compte tenu de la
complexité Zde l’expression de F , nous donnerons en premier lieu une approxi-
u
mation de φ(u − x)dF (x) sur la base des deux principaux résultats de la
0
partie I.

Des études sur différentes considérations de F dans ce modèle du risque


ont été traité par plusieurs auteurs dont Thorin(1973) qui a étudié le modèle
classique du risque énoncé plus haut, en supposant que les v.a Xi ont une
distribution commune gamma (Γ) de densité
1
x β −1
f (x) = 1 ; x ≥ 0; β > 1
β β Γ(1/β)
Il parvient à une expression de ψ(u) donnée par
1
ρ(1 − βR)e−Ru ρ πZ∞ x β e−(x+1)u/β
ψ(u) = + sin dx
1 + (1 + β)(R + Rβ − 1) πβ β 0 {x β1 [1 + (1 + β) x+1 ] − cos π }2 − sin2 π }
β β β

Où ρ est le chargement de sécurité qui définit l’évidence ou non de la ruine au


temps t = 0.

3.3.2 Approximation de la probabilité de ruine


Dans cette partie, nous nous intéresserons à la modélisation du montant
total des sinistres par une loi stable. Quelques exemples nous permettront donc
d’estimer la probabilité de ruine donnée par le modèle classique du risque de
poisson composé.

3.2.2.1 Approximation sur une loi symétrique stable


Considérons dans ce cas que le montant des sinistres suit une loi symétrique
α−stable. Il est distribué selon la fonction de densité suivante :
1 Z +∞
f (x) = exp{−tα } cos(xt)dt
π 0
Considérons le modèle de risque développé plus haut et donné par :
λ λZ u
Dφ(u) = φ(u) − φ(u − x)dF (x)
c c 0

43
On obtient ainsi l’équation donnée par
λ λ Z u Z +∞
Dφ(u) = φ(u) − exp{−tα } cos(xt)φ(u − x)dtdx
c πc 0 0
λ λ Zu Z +∞
⇔ Dφ(u) = φ(u) − φ(u − x)dx exp{−tα } cos(xt)dt(3.14)
c πc 0 0

La fonction f = fα converge vers f1 (fonction f pour α = 1)comme le


montre la figure suivante :

Figure 3.2 – Convergence de la loi symétrique alpha stable

44
Cherchons à déterminer une soluton approchée de l’équation (3.14). Nous
transformerons tout d’abord (E) en une équation differentielle ordinaire. Consi-
dérons dans un premier temps le cas fα où α = 1.
De part cette approche, (3.14) devient :
λ λ Zu Z +∞
Dφ(u) = φ(u) − φ(u − x)dx exp{−t} cos(xt)dt
c πc 0 0

Une double intégration par partie permet d’avoir


λ λ Zu 1
Dφ(u) = φ(u) − φ(u − x) dx (3.15)
c πc 0 1 + x2
Considérons l’expression
λ Zu 1
I= φ(u − x) dx
πc 0 1 + x2
D’une façon générale pour 0 < α < 2, considérons le lemme suivant :
Lemme 3.8
Soit f la fonction de densité d’une variable symétrique α−stable alors

1 +∞
X (−1)k 2k + 1 2k
f (x) = Γ( )x (3.16)
απ k=1 2k! α

Preuve
Soit X ∼ SαS avec γ = 1, sa densité est
1 Z +∞ −tα
f (x) = e cos(xt)dt (3.17)
π 0
Ecrivons cos(xt) sous forme de série convergente. On a
+∞
(−1)k
(tx)2k
X
cos(xt) =
k=0 2k!

En portant cette valeur dans [9], on obtient

1 Z +∞ −tα +∞
X (−1)k
f (x) = e (tx)2k dt
π 0 k=0 2k!
1 +∞
X (−1)k Z +∞
α
= x2k e−t (t)2k dt
π k=0 2k! 0

Posons tα = θ. Il vient que pour t ≥ 0, θ ≥ 0


1 1 1 −1
t = θ α ; dt = θ α dθ
α

45
on obtient de ce qui précède que :

1 +∞
X (−1)k Z +∞
2k+1
f (x) = x2k θ α −1 e−θ dθ
π k=0 2k! 0

1 +∞
X (−1)k 1 2k + 1
= x2k Γ( )
π k=0 2k! α α
1 +∞
X (−1)k 2k + 1 2k
= Γ( )x
πα k=0 2k! α
Du lemme précédent, découle le théorème suivant :
Théorème 3.1
Soient X une variable aléatoire symétrique α-stable de densité f et φ(x) une
fonction non négative telle que φ(∞) = 1. Alors il existe un polynôme algé-
brique pn de degré inférieur à n-1 qui soit le meilleur Lp −approximation de la
puissance tronquée (x − t)r−1 obtenue de l’expression
1 Zx
ϕ(t)(x − t)r−1 dt
Γ(r) −x
telle que
(r) √ √
(x − t)r−1
+ ± sup t (±2D0 (t)( x 2 − t2 )r+1 ) ln(n + 1)( x2 − t2 )r−2
k −Pn,r,t (x)k = +o( )
Γ(r) nr nr+1

Preuve
Soit X une variable aléatoire symétrique α-stable. Alors du lemme précé-
dent on établit que
1 +∞
X (−1)k 2k + 1 2k
f (x) = Γ( )x
πα k=0 2k! α
Z x
Dans l’équation intégro-differentielle (3.14), l’expression φ(x − t)f (t)dt, où
0
φ est la fonction vérifiant ∀x ≤ 0 φ(x) = 0 et φ(∞) = 1, peut être transformée
comme suit :
Posons y = x − t ⇒ t = x − t et dt = −dy. Par suite on a :
Z x Z x
φ(x − t)f (t)dt = φ(t)f (x − t)dt
0 0
En reférence au lemme(3.8), on obtient :
Z x Z x
1 +∞
X (−1)k 2k + 1
φ(x − t)f (t)dt = φ(t) Γ( )(x − t)2k dt
0 0 πα k=0 2k! α
1 +∞X (−1)k 2k + 1 Z x
= Γ( ) φ(t)(x − t)2k dt
πα k=0 2k! α 0
Z x
1 Z x
φ(x − t)f (t)dt = bn (α) × φ(t)(x − t)2k dt
0 Γ(r) 0

46
Avec
n
1 X (−1)k 2k + 1
bn (α) = Γ( )Γ(r)
πα k=0 2k! α
Posons r = 2k + 1, il vient donc que :
Z x
bn (r) Z x
φ(x − t)f (t)dt = φ(t)(x − t)r−1 dt
0 Γ(r) 0

Comme φ est une fonction tel que φ(x) = 0 ∀x < 0 alors


Z x
bn Z x
φ(x − t)f (t)dt = φ(t)(x − t)r−1 dt
0 Γ(r) −x

Du théorème (.1), de la la proposition (1.3.2) et du lemme (3.8), il existe un po-


lynôme algébrique pn de degré inférieur à n-1 qui soit le meilleurs Lp −approximation
de la puissance tronquée (x − t)r−1 obtenue de l’expression
1 Zx
ϕ(t)(x − t)r−1 dt
Γ(r) −x

telle que
(r) √ √
(x − t)r−1
+ ± supt (±2D0 (t)( x2 − t2 )r+1 ) ln(n + 1)( x2 − t2 )r−2
k −Pn,r,t (x)k = +o( )
Γ(r) nr nr+1
Ce théorème participera dans la section de l’approximation à la définition de
la forme de la meilleure approximation polynômiale de la densité p-stable f
ainsi que de la convolution φ ∗ f selon les cas.

3.2.2.2 Approximation sur une loi stable à queue lourde


Les lois stables font partie de la famille des lois non gaussienne à queue de
distribution lourde. Cette sous-section consacre donc la forme de la queue de
distribution des lois stables lorsque x prend des valeurs assez grandes. Cette
approche permet de définir une forme plus ou moins simplifiée de l’équation
intégro-différentielle. Un exemple de résolution avec une loi à queue légère sera
vu dans le point suivant avec la loi gamma. Un aperçu de la nature de la queue
de distribution de quelques lois est donné en annexe.
Pour ce cas, considérons que la variable X prend des valeurs suffisament
grandes. Soit le résultat suivant :

Lemme 3.9 (De John P.Nolan)


Soit X ∼ Sα (β; γ; δ) alors la queue de sa distribution est donnée par l’approxi-
mation :
P (X > x) ' γ α cα (1 + β)x−α

47
La densité est donc approximée comme suit :

f (x) = αγ α cα (1 + β)x−α−1

Avec cα = Γ(α)
π
sin( π2 α)
Ainsi, nous formulons le lemme suivant :
Lemme 3.10
Soit Xi une v.a α-stable tel que Xi ∼ Sα S. Soit N (t) un processus de poisson
P

composé, alors la probabilité φ(u) satisfait à l’équation intégro-differentielle :


Z u
λ
Dφ(u) − φ(u) + ε φ(t)(u − t)−α−1 dt = 0
c 0

Pour la résolution de ce type d’équation, nous proposons l’usagees du théorème


(.2).
Théorème 3.3.1
Soit X une variable aléatoire α−stable prenant de grandes valeurs et φ la pro-
babilité de non ruine associée à un processus de poisson composé alors il existe
r
une certaine classe de fonction g ∈ W∞ définie sur [−1; 1] et une fonction non
négative intégrable ρ tel que kρk ≤ 1. Alors il existe une suite de polynôme
algébrique Pn (x) tel que :
 √
√ 1 r−1 
( 1 − x + n)
2
K̃r ( 1 − x2 )r
f˜(x) − Pn (x) =

r
+ C r

r+1

n  n 

Preuve
Soit X une variable aléatoire α-stable de réalisation x assez grande. On a
X ∼ Sα (δ, β, γ) alors du théorème de John P.N, il vient que

f (x) = αγ α cα (1 + β)x−α−1

Ainsi
Z u Z u
φ(u − t)f (t)dt = φ(u − t)αγ α cα (1 + β)t−α−1 dt (3.18)
0 0
kZu
= φ(u − t)(t)−α−1 dt (3.19)
π 0
Avec k = παγ α cα (1 + β) En faisant le changement de variable t = u − x
dans (3.18), il vient que
Z u
kZ0
φ(u − t)f (t)dt = − φ(x)(u − x)−α−1 dx
0 π u
d’où Z u
kZu
φ(u − t)f (t)dt = φ(t)(u − t)−α−1 dt
0 π 0

48
Soit gu (t) une fonction continûment dérivable à petit support sur [-1 ;1] tel que
gu (t) := g(t) Posons

gu (t) = (t − u)−α ; 0<α<2

Soit φ la probabilité de non ruine associée au processus de poisson composé.


On déduit que φ(t) est une fonction non négative et que kφ(t)k1 ≤ 1.
De plus, par définition φ est continûment dérivable. Posons ρ = φ et comme
φ(t) = 0 si t < 0 alors on a
Z u
τ Z 1 g(t)
φ(u − t)f (t)dt := ρ(t)dt
0 π −1 t − u
Du théorème (.2) on déduit qu’il existe une suite de polynôme algébrique Pn (x)
tel que :
 √
√ 1 r−1 
K̃r ( 1 − x2 )r ( 1 − x 2+ ) 
˜
f (x) − Pn (x) =

+ Cr 
 n 
nr nr+1 

D’ou le théorème.
Ce résultat nous permet une approximation de la distribution d’une va-
riable stable à queue lourde par un polynôme algébrique ou trigonométrique.
Nous reviendrons plus explicitement sur ce point dans la section dédiée à l’in-
terpolation polynômiale.

3.2.2.3 Approximation et distribution infiniment divisible à queue


légère : loi gamma
Dans cette section, notre modèle se basera sur les distributions infiniments
divisibles à queues légère. Seul le cas de la loi gamma sera traité et ce en raison
de sa capacité à modéliser la survenance des sinistres multi-variés.

Soit la variable S = ni=1 Xi et Xi (i = 1, ..., n) une variable aléatoire de


P

densité gamma. Les cas particuliers de Γ(r, β) comme Γ(0, 1) et bien d’autre
formes ont fait l’objet de plusieurs études dont ceux de Thorin (1973), de HE
Yianjiang et al (2003). Intéressons-nous au cas générale de la loi gamma donnée
par la fonction
β r xr−1 e−βx si x ≥ 0
( 1
f (x) = Γ(r)
0 sinon
avec β > 0 et 0 < r < 2. On obtient donc le lemme suivant :

Lemme 3.11
N (t)
X
Soit R(t) = u + ct − Xi et φ la probabilité de non ruine lié à R(t) dans le
i=1

49
modèle classique de poisson composé. Alors
Z x
1 r r−1 −βt βr Z x
φ(x − t) β t e dt = ϕ(t)(x − t)r−1 dt (3.20)
0 Γ(r) Γ(r) −x

Preuve
Etant donné le modèle classique du risque donné plus haut, considérons
l’expression
Z x
g(x) = φ(x − t)f (t)dt
0
donc
Z x
1 r r−1 −βt
g(x) = φ(x − t) β t e dt
0 Γ(r)
βr Z x
= φ(x − t)e−tβ tr−1 dt
Γ(r) 0

Posons t = x − y ⇒ dt = −dy. Par suite on déduit que


βr Z x
g(x) = φ(t)(t − x)r−1 e(x−t)β dt
Γ(r) 0
D’où
β r exβ Z x
g(x) = φ(t)e−tβ (t − x)r−1 dt
Γ(r) 0
Définissons par ϕ la fonction donnée par

ϕ(t) = φ(t)e−tβ

L’expression de g devient

β r exβ Z x
g(x) = ϕ(t)(t − x)r−1 dt (3.21)
Γ(r) 0

Considérant que la fonction ϕ est non négative car φ est non négative et que
φ(t) = 0 ∀t < 0 alors il vient que :

β r exβ Z x
g(x) = ϕ(t)(t − x)r−1 dt (3.22)
Γ(r) −x
Conformement au théorème (.1) et à la proposition(1.3.2), verifions que ϕ est
une fonction non négative telle que kϕ(t)k ≤ 1
– Par définition , ϕ(t) ≥ 0 car produit de deux fonctions positives φ(t) et
e−tβ

50
– kϕ(t)k1 = kφ(t) × e−tβ k1 ≤ kφ(t)k1 × ke−tβ k1 . Or

Z +∞
−tβ
ke k1 = e−tβ dx = 1 et kφ(t)k1 ≤ 1 car densité de probabilité
0

d’où kϕ(t)k1 ≤ 1
Avec ses conditions nous pouvons donc approchée la puissance tronquée
(x − t)r−1 par un polynôme pn tel que
(r) √ √
(x − t)r−1
+ ± sup t (±2D0 (t)( x 2 − t2 )r+1 ) ln(n + 1)( x2 − t2 )r−2
k −Pn,r,t (x)k = +o( )
Γ(r) nr nr+1
cos(kt−r π )
avec Dr (t) = π1 ∞
P 2
k=1 Kr
De ce qui précède il ressort le théorème suivant :
Théorème 3.2
Soit φ une fonction non négative et f la densité gamma donnée par :
1
β r xr−1 e−βx
(
Γ(r)
si x ≥ 0
f (x) =
0 sinon
Alors il existe un polynôme algébrique pn de degré inférieur à n-1 qui soit
la meilleure Lp −approximation de la puissance tronquée (x − t)r−1 obtenue de
l’expression
1 Zx
ϕ(t)(x − t)r−1 dt
Γ(r) −x
telle que
(r) √ √
(x − t)r−1
+ ± supt (±2D0 (t)( x2 − t2 )r+1 ) ln(n + 1)( x2 − t2 )r−2
k −Pn,r,t (x)k = +o( )
Γ(r) nr nr+1

La proposition (1.3.2) et le lemme (3.11) permettent de démontrer ce théorème.

3.4 Approximation polynômiale de fonction et


mesure α∗
Dans cette section, nous évaluons α∗ mesurant un espace ∆ ∈ L1 . ∆ est
un espace normé dans lequel la meilleure approximation d’une fonction est le
polynôme nul. A cette occasion nous rappellerons quelques inégalités et pro-
priétés vérifiées par α∗
L’un des principes directeur de notre travail sur les approximations est l’éta-
blissement d’une relation entre les fonctions définies sur de petits supports et
les meilleurs approximations L1 y relatifs. Nous établirons donc que dans un
espace ∆ à petit support, dont la mesure est donnée par α∗ , la meilleure ap-
proximation d’une fonction f ∈ ∆ est le polynôme nul. Cette fonction f aura
donc une forme plus ou moins explicite et simplifiée donnée par la formule de
l’erreur d’approximation développée dans la partie I.

51
3.4.1 Généralités sur la mesure α∗
Considérons E un ensemble, ∆ un sous-ensemble de E . Soit ν une mesure
positive définie sur E.
Soit L1 (E, ν) un espace, de fonctions f à valeurs réelles, muni de la norme
Z
||f ||1 = |f (x)|dν(x)
E

Pour f ∈ L1 (E, ν) définissons par Z(f ) := {x : f (x) = 0} l’espace des zéros


de f et N (f ) sont complémentaires dans E.
De [55], [20], [46], nous tirons les résultats prouvés suivants.

Théorème 3.4.1
Soit E un sous espace linéaire de L1 (E, ν) et f ∈ L1 (E, ν) \ ∆ alors m∗ est
une meilleure L1 (E, ν) approximation de f dans ∆ si et seulement si
Z Z
| msign(f − m∗ )dν| ≤ |m|dν; m∈∆
E Z(f −m∗ )

Il vient donc les propositions suivantes :

Proposition 3.4.1
Soit ∆ un sous-ensemble homogène de L1 (E, ν).Alors zéro est l’erreur de la
meilleure L1 -approximation de f ∈ L1 (E, ν) si et seulement si
Z Z
|f |dν ≤ |f |dν f ∈ ∆
N (f ) Z(f )

De [55], [46], il ressort que la mesure de α∗ de l’espace ∆ dans lequel est défini
une mesure ν et sur lequel le polynôme nul est la meilleure approximation
d’une fonction m vérifie la condition :
|m|dν
R
sup{N :ν(N )≤α} N 1
Rα = sup ≤
m∈∆ ||m||1 2

Soit α > 0, notons par |||f |||α := sup{N :ν(N )≤α} N |f |dν la norme α de f . Nous
R

déduisons la proposition suivante tirée de [55], [20], [46]

Proposition 3.4.2
Soit ∆ un sous-ensemble homogène de L1 (E, ν).Soit m la meilleure L1 -approximation
de f ∈ L1 (E, ν). Alors la mesure α∗ de ce domaine est donnée par :

|||m|||α 1
α∗ = {α : sup ≤ } (3.23)
m∈∆ kmk1 2

52
3.4.2 Approximation Lp sur de petits supports
N (t)
Soit R(t) = u + ct − Σi=1 et S(t) = u − R(t).

Notons par φ la probabilité de non ruine associée au modèle classique du


risque de poisson composé. Il vient de ce qui précède que
λ λZ u
Dφ(u) = φ(u) − φ(u − x)dF (x)
c c 0
Désignons par g(x) = 0u φ(u − x)dF (x)
R

F est la distribution du montant total aléatoire des sinistres. Pour notre present
sujet, nous nous intéressons au cas où le coût aléatoire Xi du i−ème sinistre
P (0 ≤ α < 2). Il existe alors a > 0 et b
est non gaussien et de type α−stable.
Xi −b
des constantes réels tels que X = a
soit une v.a α−stable Posons a = 1
et b = 0, alors X = Σni=1 Xi .
Les Xi étant des copies de X, alors Xi ∼ Sp (δi , βi , γi )
Définissons par B un espace homogène et ν la mesure associée à la distribution
d’une variable m de densité g.
µ est donnée par µm (λ) = ν{x : |m(x)| > λ} d’où
Z +∞ Z +∞
µm (λ) = m(x)dν(x) = g(x)dx (3.24)
λ λ
1 1
Considérons Wpr la classe des fonctions de la forme Γ(r) −1 (x − t)
r−1
R
φ(t)dt.
r p
Soit g ∈ Wp alors l’erreur de la meilleure L − approximation de g est donnée
par En (Wpr )q := supg∈Wpr (g)q avec p1 + 1q = 1

Définition 3.4.1
Soit B un espace homogène et m ∈ B. Soit m∗ la meilleurs L1 −approximation
de m sur B. La mesure α∗ de l’espace B dans lequel la meilleure approximation
de m est m∗ est donnée par :

∗ |||m − m∗ |||α 1
α (B) = sup {α : sup ∗
≤ } (3.25)
m∈B ν(N )≤α ||m − m ||1 2

Avec
Z Z +∞
N = {x : |m(x)−m∗ (x)| > ρ}; |||m|||α = |m(x)|dν(x); ||m||1 = |m(x)|dν(x)
{N } 0

Considérons µm (λ) = ν{x : |m(x)| > λ} et m∗ (x) = inf{λ : µm (λ) ≤ x}

Lemme 3.12
Soit m ∈ B. Si ν est une mesure monoatomique alors
Z α
|||m|||α = m∗ (t)dt
0

53
Preuve
Soient ν une mesure, µm (t) = ν{t : m(x) > t} une distribution de m et
m∗ (x) = sup{t : µm (t) > x}
m∗ ainsi défini peut être vu comme une distribution de la fonction µm .
De plus m∗ est non négatif, non croissant par sa définition et continu sur
[0; +∞[.
Il vient que m et m∗ ont les mêmes distributions mais avec des mesures res-
pectives ν et λ.
Par ailleurs,
Z Z +∞ Z +∞
p ∗ p
|m(x)| dν(x) = (m (t)) dλ(t) = p tp−1 µ(t)dt
B 0 0

Supposons que p = 1, alors


Z Z +∞ Z +∞

|m(x)|dν(x) = m (t)dλ(t) = µm (t)dt
B 0 0

Si de plus ν est une mesure monoatomique et N = B \ Z un sous espace de


B, Z = {x : f (x) = 0} alors
Z Z α
k|mk|α = sup { |m|dν(x) = m∗ (t)dt
ν(N )≤α N 0

D’où le résultat
Lemme 3.13
Soit m(x) une variable aléatoire α−stable de distribution F . Alors ∃ P ∈ Pn
un polynôme de degré inférieur à n − 1 qui approche au mieux g et il existe un
sous espace homogène B tel que
En (g) = α∗ (B) g∈B (3.26)

Preuve
Soit m ∈ B une variable α−stable de distribution F et soit g la fonction
définie par Z +∞
g(x) = φ(x − t)dF (t)
0
Soit φ une fonction continue, dérivable et non négative sur [0; +∞[ tel que
kφk ≤ 1 et soit f la densité associée à la distribution F .
De (3.1) et (3.3.1) l’expression de g peut être donnée par
Z +∞ Z 1
φ(x − t)dF (t) = φ(t)(x − t)r−1 dt
0 −1

En application au théorème (.1), il existe un polynôme algébrique de degré


inférieur à n − 1 qui soit la meilleure L1 −approximation de g et l’erreur de
cette approximation peut être donnée par
En (g) = inf {kg(x) − P (x)k1 ; x ∈ [−1; 1]}
P ∈Pn

54
De plus α∗ est défini comme mesure de l’espace dans lequel la meilleure ap-
proximation de g est le polynôme nul. On déduit donc que


En (g) = αg∈B (g)

Théorème 3.3
Soit B un espace homogène et m ∈ B une variable aléatoire de distribution
µ(t) = ν{t : m(x) > t}. Soit φ une fonction continue, intégrable sur [−1; 1]
et kφk ≤ 1 tel que φ ? f soit la densité associée à µm . f est une distribution
α−stable. Soit m∗ la meilleure L1 −approximation polynômiale de m sur B
alors
α∗ (B) = kmk1 (3.27)

Preuve
Soit B un espace homogène et m ∈ B une variable aléatoire de distribution
µ.
Définissons par µ la distribution donnée par
Z +∞ Z +∞
µ(x) = ν{x : m(x) > x} = m(t)dν(t) = f (t)dt
x x

ν est une mesure et f est la densité de la distribution µ.

Soit m∗ la meilleure L1 −approximation polynômiale de m sur un sous es-


pace N de B et soit
1
α∗ (m){m∈B} = sup{α : k|m − m∗ k|α ≤ km − m∗ k1 }
2
Si m∗ est un polynôme nul sur N , alors on déduit que
1
k|mk|α ≤ kmk1
Z α
2
1
⇒ m∗ (t)dt ≤ kmk1
0 2
1
D0 où 0 ≤ kmk1 ∀m ∈ B
2
Par suite ∀m ∈ B
α∗ = sup{kmk1 } = kmk1
Le lemme 3.13 permet donc de conclure que

αm∈B (m) = kmk1 = En (m) = µm (0)

D’où le théorème

55
3.4.3 Application aux calculs de α∗
Il est très souvent difficile d’apprécier certaines lois qui tiennent compte de
la réalité des événements naturels. L’approximation de la loi des événements
par des lois bien connues devient une nécessité si toutefois l’erreur commise de
cette approximation est le plus minimale possible. Dans la suite, nous consi-
dérerons des cas d’approximations et nous évaluerons l’espace dans lequel la
meilleure approximation d’une fonction est le polynôme nul.

3.3.3.1 Approximation, conditions de Lyapunov et α∗


Le plus grand nombre de sinistres traité repose sur certaines hypothèses
qui rendent gaussiennes leurs distributions. Cependant la réalité des sinistres
rencontrée laisse entrevoir que ces hypothèses sont fortement restrictives et ne
permettent pas d’être véritablement en phase avec la réalité. Cette partie se
veut un apport à la construction de sous espace, d’un espace non gaussien, de
mesure minimale dans lequel, on aura une meilleurs approximation des densités
des sinistres vers des distributions gaussiennes.
Nous établissons à cet effet le résultat suivant :

Lemme 3.14
Soit (Xi )i=1;...;n une suite de v.a indépendantes définie sur un espace de proba-
bilité ν−mesurable B. Soit M un sous espace de L1 (B, ν) tel que si Xi ∈ M ,
on ait E(Xi ) = µi et V (Xi ) = σi2 . Alors
q
α∗ (M ) = 2(1 − φ( ln(4) − 2 ln(sn ))) (3.28)

Preuve
Utilisons la condition de Lyapunov

Proposition 3.4.3 Soit (Xi )i=1;...;n une suite de v.a indépendantes définie sur
un espace de probabilité tel que E(Xi ) = µi et V (Xi ) = σi2 .
Posons s2n = Σni=1 σi2 ∀n ∈ N
Si
E(|Xi |2+δ ) < ∞




∀δ > 0 et
Pn
 E(Xi −µi )2+δ
lim i=1
= 0 ∀i ∈ N


s2+δ
n

Alors Si Sn = X1 + ... + Xn , on a

Sn − E(Sn ) L
→ N (0; 1)
sn
Pn
Soit encore rnδ = i=1 E(Xi − µi )2+δ .

56
Définissons l’espace M par
rnδ
M = {Sn − µ : E(|Xi |2+δ ) < ∞; → 0}
s2+δ
n
Soit m ∈ M , De la proposition précédente, on obtient que :
m m
→ N (0, 1) ⇒ P ( < s) = φ(s)
sn sn
Soit m une variable aléatoire de mesure ν donnée et soit µ la distribution
associée à m tel que µm (x) = ν{x : | m(x)
sn
| > λ}. Alors µm est une ν−mesure
m kmk1
Soit m ∈ M , on a = .
sn 1 sn
De plus s
m 1 Z +∞ 2 2
=√ |x|e−x /2 dx =
sn 1 2π −∞ π
q
Par suite kmk1 = sn π2 .
A travers ces conditions d’approximation, il s’en suit maintenant le calcul de
α∗
Considérons que l’estimateur de la distribution m est donnée par
s
Z
1 2
α? = sup{α : sup |m|dν ≤ sn }
ν(N )<α N 2 π
Posons pour toute la suite,
m
 
N = x: >β
sn
On réecrit donc l’expression de α? donnée par α? = ν(N )
Z
Soit q(β) = |m(x)|dν(x). On a :
N

Z
q(β) = 2   |m(x)|dν(x)
m(x)
x: sn

2 Z +∞ −t2 /2
= √ te dt
2π β
2 2
q(β) = √ e−β /2

Nous achévons notre démonstration par le résultat suivant :
Lemme 3.15 q
Soit la quantité q(β) = N |m(x)|dν(x) tels que sup{β∈R} {q(β)} = 12 sn π2 pour
R

sn ∈]0; 2], alors s


? 4
α = 2(1 − φ[ ln( 2 )])
s
Où φ(t) = ν{x : m(x) ≤ t} est la fonction de répartition de la loi N (0, 1)

57
Preuve
|m(x)|dν(x). Alors
R
Soit q(β) = N
s
1 2
sup {q(β)} = sn
{β∈R} 2 π
s
2 2 1 2
⇒ √ e−β /2 = sn
2π 2 π
2
β sn
⇒ − = ln
2 2
q
De plus, sn ∈]0; 2] alors β = ln( s42 ).
n
De (3.15), on tire
m
 
?
α = P >β
sn
m
 
= 2P >β
sn
α? = 2(1 − φ(β))

d’où le lemme.

Dans les deux applications qui suivront nous considérons la situation sui-
vante :

Soit Xi une variable aléatoire α-stable de densité f . On a Xi ∼ Sα (δ, β, γ).


En utilisant les propriétés de la distribution α−stable, pour α 6= 2, l’approche
de la densité de la somme des Xi par celle d’une distribution gaussienne, via
la condition de Lyapunov, est irrecevable même dans n’importe quelle espace
qu’on définirait. Voir Propriété de la distribution α−stable
Ainsi nous somme amené à reconsidérer la méthode d’approximation de la
densité du montant total des sinistres. La méthode que nous développerons
est l’approximation polynômiale dans un espace à petit support dans lequel la
meilleure approximation est la polynôme nul.

soit E un espace de variables aléatoires α-stables normalisés tel que ∀m ∈


x X
E, on a m(x) = γ 1/α . De plus γ 1/α ∼ Sα (δ, β, 1).
x
Soit Z = {x : f (x) = 0}, définissons par N = {x : | γ 1/α | > ρ}. Il s’en suit les
approximations suivantes :

3.3.3.2 Approximation sur les distributions SpS et α∗


X
Considérons que γ 1/α est symétrique α−stable. Alors β = 0 et sa densité
1 +∞ −tα
R
est g(x) = π 0 e cos(xt)dt

58
Soit m ∈ E = [−1; 1] tel que m(x) soit une variable aléatoire symétrique
α−stable de caractéristique Sα (δ; 0, 1).

Définissons par µm (λ) = {λ : |m(x)| > λ}. On a


Z +∞
1 Z +∞ 1
µm (λ) = m(x)dν(x) = dx
λ π λ 1 + x2
ν est une mesure de probabilité sur E associée à la densité de la variable
symétrique α−stable. Considérons que la meilleur approximation de m dans
ces conditions est le polynôme nul et soit par α∗ l’erreur commise dans ce sens.
Définissons par
α∗ = ν{N }
Soit
X
km(x)k1 = E( )=δ
γ 1/α
|m(x)|dν(x)
R
Calculons de deux façons N

On a par définition
Z Z
1
|m(x)|dν(x) = 2 m(x)dν(x) = km(x)k1 (3.29)
N N 2
De plus, on a
Z Z +∞
2Z1 x 1
|m(x)|dν(x) = 2 xg(x)dx = 2
dx = (ln 2 − ln(1 + ρ2 ))
N ρ π ρ 1+x π
(3.30)
ρ > 0 et k|mk|α ≤ 1, on a δ < 21 .
Ainsi en égalisant les expressions, et en supposant que m(x) ∈ L avec L =
{X : E( X1 ) < π1 }.
γp
De (3.29) et (3.30) on tire que :

π δπ
ln 2 − ln(1 + ρ2 ) = km(x)k1 ⇒ ln(1 + ρ2 ) = ln(2) −
2
q 2
δπ
ρ = 2e− 2 − 1

On détermine finalemnt α∗ suivant que :

∗ 2 Z +∞ 1 2
α = ν(N ) = 2
dx = (arctan(1) − arctan(ρ))
π ρ 1+x π
2 π
q
δπ
α∗ = ( − arctan( 2e− 2 − 1))
π 4

59
3.3.3.3 Approximation sur les distributions α-stables et α∗
X
Considérons X ∼ Sα (δ, β, γ) avec β 6= 0. On a γ 1/α ∼ Sα (δ, β, 1)
Soit B un espace des variables stables Sα (δ, β, 1) à queues de distribution
lourdes dans lequel tous les variables sont des copies entre eux. Considérons
m ∈ B et définissons encore par µm (λ) = ν{λ : |m(x)| > λ}. Posons ν la
mesure de probabilité telle que
Z λ
ν{x : m(x) ≤ λ} = kα x−α−1
−∞

On a
Z +∞
µm (λ) = |m(x)|dν(x)
λ
Z +∞ Z ∞
= 2 g(x)dx = 2kα x−α−1
λ λ
2kp −p
µm (λ) = λ
p
Cherchons à déterminer ρ > 0 tel que α∗ = ν{N } avec N = {x : |m(x)| >
ρ}.
R +∞
Définissons à cet effet km(x)k1 = −∞ xg(x)dx. On a km(x)k = δ
Soit
Z Z
1
|m(x)|dν(x) = 2 m(x)dν(x) = km(x)k1
N N 2
Z Z +∞
|m(x)|dν(x) = 2 kα x−α dx
N ρ
Z
2kα −α+1
|m(x)|dν(x) = ρ
N α−1
2kα −α+1 1 δ(α − 1)
Par suite, on ρ = δ ⇒ ρ−α+1 =
α−1 2 4kα
Comme m(x) a une distribution stable à queue lourde alors 1 ≤ α < 2.
Ainsi

δ(α − 1) 1/(−α+1)
ρ=( )
4kα
Nous déterminons enfin α∗ comme suit

Z

α = ν(N ) = |m(x)|dν(x)
Z ∞ N
= 2kα x−α−1
λ
kα δ(α − 1) α/(α−1)
α∗ = 2 ( )
α 4kα

60
3.4.4 Interpolation polynômiale sur de petits supports
3.3.4.1 Approximation de la mesure α∗
Considérons que X est une v.a α−stable caractérisée par la fonction ψX
définie par :

ψX (t) = exp{−(γ|t|α )[1 + sign(t)βw(t, α)] + iδt}

Soit X1 , ..., Xn des copies de X et (Xi )i=1,...n des variables aléatoires indépen-
dantes tels que X = ni=1 ai Xi . On aura
P

n
Y n
Y
ψX (t) = ψai Xi (t) = ψXi (ai t)
i=1 i=1
n
exp{−(γ|ai t|α )[1 + sign(ai t)βw(ai t, α)] + iδai t}
Y
=
i=1

Supposons que α 6= 1 alors


n
exp{−(γ|ai t|α )kβ,α } × exp{iδai t}
Y
ψX (t) =
i=1
n n
ψX (t) = exp{(γ|t|)α kβ,α |ai |α } × exp{iδt
X X
ai }
i=1 i=1

Où kβ,α = βsign(t) tan( απ


2
)
Considérons B l’espace des variables aléatoires Xi (i = 1, ..., n) indépendantes
representant des copies d’une v.a X et ν une mésure monoatomique sur B.
Définissons par M un sous espace de L1 (B, ν) tel que
n n
|ai |α < ∞}
X X
M ={ ai Xi :
i=1 i=1
Pn
Soit X ∈ M alors X = i=1 ai Xi . Il vient donc que

|ai |r )1/r kXi k = ( |ai |r )1/r kX1 k


X X
kXkr = (

Ainsi
kXkr kX1 kr
Ar = sup { }= (3.31)
X∈M kXk1 kX1 k1
Soit Pn l’ensemble des polynômes de degré inférieur à n et soit
p
Wp = {e−(γ|x|) : p ∈ R} γ une constante réelle

Soit N = Wp Pn un sous espace de M alors il existe wp ∈ Wp et Q ∈ Pn tel


que g(x) = wp Q soit une densité de Xi (i = 1, ..., n).

61
Lemme 3.16
α
Soit wp = e−(γ|x|) et Q ∈ Pn un polynôme de degré inférieur à n. Si α ≥ 2
alors
1 1
kwp Qkr ≤ (α1/α n1−1/α ) r0 − r kwα Qkr0
1 1
où r
+ r0
=1

La preuve de ce lemme est du à Mhaskar et al voir [27]

Dans le cas d’une densité α−stable, le paramètre α est tel que 0 < α ≤
2. Les travaux de Nevai et Totik on aboutit à une généralisation du lemme
précédent comme suit :

Lemme 3.17
α
Soit wα = e−(γ|x|) et Q ∈ Pn un polynôme de degré inférieur à n. alors si
0 < α < 2 alors
kwα P kr
kwα Qkr ≤ cΛn (α)kwα Qkr0 et ≤ cΛn (α) (3.32)
kwα P kr0

c est une constante dépendant de α et





 n1−1/α si 1 < α < 2




Λn (α) = ln n si α = 1







1 0<α<1

En occultant le cas α = 1 et en se referant aux expressions (3.32), il vient


que
kwα Qk∞
A∞ = sup = cΛn (α)
kwα Qk1
Ainsi
1 1 k
α∗ (N ) ≥ 1
= =
(2A∞ ) 2cΛn (α) Λn (α)
On déduit donc que si X ∈ N et α 6= 1 alors

α∗ (N ) ≥ k


 n1−1/α
1<α<2

α∗ (N ) ≥ k


0<α<1

Le travail ci-dessus a été faite en considérant une variable aléatoire stable de


forme ni=1 Xi et dont les Xi ont des distributions uniformes communes de
P
α
densité définie par e−|x| P où P est un polynôme de degré inférieur à n.

62
Evaluation de α∗ : Cas particulier
Supposons X une variable aléatoire α−stable. Il existe des copies Xi (i =
1, ..., n) et il existe des constantes réelle an > 0, bn tel que an X + bn = X1 +
... + Xn = Sn . Il en suit donc les résultats suivants : Soit le résultat
kXkr kX1 kr
Ar = sup{ }=
kXk1 kX1 k1

Considérons dans cette partie que Xi ∈ M (i = 1, ..., n) sont des v.a de distri-
butions communes gamma Γ(α; β).Xi est en outre une v.a infiniment divisible
de distribution à queue légère. Soit N = M \Z = {x : m(x) > ρ} un sous espace
ν−mesurable, avec ν une mesure de probabilité associée à M et α∗ (M ) = ν(N )

Définissons aussi
1 Z +∞ xr−1 e−x/β
µX1 (λ) = ν{x : |X1 | > λ} = 2 × dx
Γ(r) λ βr

Par ailleur ||X1 ||1 = E(X1 ) = rβ avec X1 ∼ Γ(r; β).


Soit
Z
1
α∗ (M ) = ν(N ) = sup{α : sup |m(x)|dν(x) ≤ ||m(x)||1 }
ν(N )≤α N 2

Soit encore Z
1
|X1 |dν(x) = ||X1 ||1
N 2
xr
Supposons un sous espace S de ∆ dans lequel γ(r, x/β) := β
. On a

S = {x : γ(r, x/β) < Γ(r)}

On a par ailleurs
Z Z Z +∞
|X1 |dν(x) = 2 g(x)dν(x) = 2 g(x)dx
N N ρ
ρr
Z
γ(r, ρ/β)
|X1 |dν(x) = 2(1 − ) = 2(1 − β )
N Γ(r) Γ(r)
1
On déduit par égalité que ρ = ( βΓ(r)
4
(4 − rβ)) r Ainsi

1 Z +∞ xr e−x/β
α∗ (S) = 2 × dx = 2(1 − F (ρ))
Γ(r) ρ βr

Si Xi est une variable aléatoire de distribution Γ(r; β) on a les résultats suivants


donnés dans le tableau.

63
Table 3.1 – Calcul de quelques valeurs de α∗
r 0,2 0,4 0,6 0,8 1
β 10 8 5 3 2
6 1
ρ 6, 37.10 2, 37.10 2, 82 1, 52 1
α∗ 0 0 3, 47.10−7 1, 28.10−2 2, 71.10−1

Envigeageons un dernier cas de figure où X ∼ SαS avec α = 1 alors


1 Z +∞
f (x) = exp{−γt} cos(xt)dt
π 0
En effectuant successivement deux intégrations par partie, on obtient que
γ
f (x) = 2
γ + πx2
γ
Il existe γ ∈ R tel que f (x) := γ+3x2
et pour lequel ∀x ∈] − 1; 1[ on a
√ 1
1 − x2 ≤ f (x) ≤ √
1 − x2
√ 1
Les fonctions x :7→ 1 − x2 et x :7→ √1−x 2 sont de type Freud-Erdös avec

respectivement Q1 (x) = − 2 ln(1 − x ) et Q2 (x) = 21 ln(1 − x2 ). Les valeurs de


1 2

γ ainsi définies nous permettent l’illustration suivante.

Figure 3.3 – Inéqualities by Freud-Erdös functions

Les travaux de Lubinsky, E.B.Saff [26] et al nous permettent de tirer le


lemme suivant ainsi que la preuve qui en découle :
Lemme 3.18
Soit w := exp(−Q(x)) une fonction de type Freud-Erdös et P ∈ Pn un poly-
nôme de degré moins que n, alors
0
kwP kr ≤ c(nT (a2n )1/2 )1/r −1/r ≤ kwP kr0 (3.33)
c est une constante réelle

64
Preuve
xQ00 (x)
Soient w une fonction de type Freud-Erdös et T (x) := 1 + Q0i(x) ∀x ∈ [0; 1]
i
et i = {1; 2} tel que T soit croissante sur ]0; 1[ et T = o(Q0i (x)) pour x → 1.
Définissons par am := am (Qi ) et le nombre de Mhaskar-Rahmanov-Saff donné
par
2 Z 1 am tQ0 (am t)
m= √ dt
π 0 1 − x2
De [26], nous trouvons la preuve selon laquelle
0
kwP kr ≤ c(nT (a2n )1/2 )1/r −1/r ≤ kwP kr0

D’où le lemme.

Le lemme suivant est une conséquence du lemme précédent et s’articule


comme suit :

Lemme 3.19
Soit w une fonction de type Freud-Erdös et P ∈ Pn un polynôme de degré
moins que n, alors
c
α ∗ (wP ) ≥ (3.34)
nT (a2n )1/2
c une constante réelle.

la preuve découle de celle du lemme précédent. Il vient donc le théorème suivant


dont la preuve est la conséquence des lemmes ci-dessus.

Lemme 3.20
Soit M ∈ L1 (B, ν) l’espace des distributions α-stables f telles que
√ 1
1 − x2 ≤ f ≤ √
1 − x2
alors il existe c1 et c2 des constantes réelles
c1 c2
≤ α ∗ (M ) ≤ (3.35)
nT1 (a2n )1/2 nT2 (b2n )1/2

La preuve de ce théorème est due aux deux lemmes précédents

3.3.4.3 Estimation de la probabilité du risque de poisson composé


Dans cette section, il s’agit d’utiliser le polynôme d’approximation de la
densité de probabilité du montant total des sinistres dans la résolution de
l’équation intégro-différentielle
λ λZ u
Dφ(u) = φ(u) − φ(u − x)dF (x); φ(0) = 0; φ(∞) = 1
c c 0

65
Lemme 3.21
Soit f une fonction continue de classe C n (I) et n ∈ N. Alors il existe un
unique polynôme Pn de Lagrange de degré inférieur ou égal à n qui interpole
f en n + 1 points tel que
n n
X Y x − xi
Pn (x) = f (xk )`k (x) où `k (x) = k = 1, ..., n (3.36)
k=0 i=1i6=k xk − xi

Et dont l’erreur est donnée par les théorèmes .1 et .2.

Preuve
Soit f une fonction de classe C n sur un intervalle I. Alors elle peut être
interpolée en n + 1 points par un polynôme de Lagrange. Spposons deux poly-
nômes differentes de Lagrange Pn et Qn de degré n qui interpolent f en n + 1
points distincts. Par définition Pn et Qn prennent les mêmes valeurs aux n + 1
points distincts. Il vient que le polnôme Pn − Qn est de degré inféreieur à n et
à n + 1 racines. C’est donc le polynôme nul et par suite Pn = Qn
Il découle donc le lemme suivant

Lemme 3.22
Soit Xi (i = 1, ...n) des copies d’une v.a α−stable X de densité f dans l’espace
M ∈ L1 (B, ν).B un espace mesurable et ν une mesure monoatomique de B.
Considérons N (t) un processus de poisson et φ la probabilité de non ruine liée
à la réserve R(t). Alors φ est solution de l’équation différentielle
n
λ λX
D(n+2) φ(u) − D(n+1) φ(u) + ak k!D(n−k) φ(u) = 0 (3.37)
c c k=0

les ak sont les coefficients réels du polynôme d’interpolation de Lagrange défini


plus haut.

Preuve
Soit M ∈ L1 (B, ν) un espace et Xi ∈ M une variable aléatoire p−stable
tel que X = ni=1 Xi . Des lemmes précédents, f peut être approchée par un
P

polynôme dont les zéros (ou les coefficients) sont les an tels que α∗ ≤ an . On
établit donc que
n
ak xk + R(x)
X
f (x) :=
k=0
1 n √ o
(r)
R(x) = Rt (x) = sup ± D 0 (t) x 2 − t2 est le reste de l’approxima-
nr t
tion de f par un polynôme P . Et comme P est la meilleure approximation de
f , nous considérons que R(x) = 0.
Soit N (t) un processus de poisson d’intensité λ.
Considérons la réserve disponible au temps t donnée par

66
PN (t)
R(t) = u + ct − i=1 . Alors le modèle classique du risque composé conduit à
l’équation intégro-différentielle
λ λZ u
Dφ(u) = φ(u) − φ(u − x)dF (x); φ(0) = 0; φ(∞) = 1
c c 0
Il vient que
n
λ λZ u
ak xk dx
X
Dφ(u) = φ(u) − φ(u − x)
c c 0 k=0

A partir de cette équation, tirons une équation différentielle simple. Pour ce


faire, établissons une recurrence.

1. Pour n = 1 on a f (x) := ax + b. Ainsi


λ λZ u
Dφ(u) = φ(u) − φ(u − x)(ax + b)dx
c c 0
λ λa Z u λb Z u
Dφ(u) = φ(u) − (u − x)φ(x)dx + φ(x)dx
c c 0 c 0
λ λa Z u λb
D2 φ(u) = Dφ(u) − φ(x)dx − φ(u)
c c 0 c
λ 2 λa λb
D3 φ = D φ(u) − φ(u) − Dφ(u)
c c c
D’où D3 φ(u) − λc D2 φ(u) + λb
c
Dφ(u) + λa
c
φ(u) =0

2. Pour n=2, on a f (x) := ax2 + bx + d. On obtient donc


λ λZ u
Dφ(u) = φ(u) − φ(u − x)(ax2 + bx + d)dx
c c 0
Effectuons le changement de variable t = u − x et posons u =  et u = η
suivant l’emplacement de u au borne de l’intégrale et à l’intérieur de
celle-ci. Il vient donc par dérivation succéssive que
λ λZ 
Dφ(u) = φ(u) − [a(η − t)2 + b(η − t) + d]φ(t)dt
c c 0
λ λd λZ 
D2 φ(u) = Dφ(u) − φ() − (2a(η − t) + b)φ(t)dt
c c c 0
λ λd λZ u
D2 φ(u) = Dφ(u) − φ(u) − (2a(u − t) + b)φ(t)dt
c c c 0
λ 2 λd λb λZ 
D3 φ(u) = D φ(u) − Dφ(u) + φ(u) − 2aφ(t)dt
c c c c 0

D’où
λ λd 2 λb 2aλ
D4 φ(u) − D3 φ(u) + D φ(u) + Dφ(u) + φ(u) = 0
c c c c

67
Par suite on établit successivement que pour tout entier naturel n, φ(u) est
solution de l’équation différentielle
n
(n+2) λ (n+1) λX
D φ(u) − D φ(u) + ak k!D(n−k) φ(u) = 0
c c k=0

D’où le lemme.

Appliquons ce lemme à la loi symétrique stable.

Proposition 3.4.4
Soit X une v.a symétrique α−stable (α = 1) de densité f , N (t) un processus
de poisson d’intensité λ. Alors la probabilité de ruine φ est l’unique solution
de l’équation
λ λ λ
D3 φ(u) − D2 φ(u) + Dφ(u) + φ(u) = 0
c πc π(π − 1)c
La preuve de ce lemme est donnée par le lemme (3.22).
(
φ(0) = 1
Considérons
φ(∞) = 0
Pour prouver l’unicité de la solution de l’équation (3.37), interpolons f par un
polynôme P de degré 1.
Le polynôme d’interpolation de Lagrange est donné par :
x − x1 x − x0
P (x) = f (x0 ) + f (x1 )
x0 − x1 x1 − x0
D’où
x1 f (x0 ) − x0 f (x1 ) f (x1 ) − f (x0 )
a0 = ; a1 =
x1 − x0 x1 − x0
La fonction f , densité du coût des sinistres, representée par une variable
symétrique α−stable est définie, si α = 1, par
1 Z +∞
f (x) = exp{−t} cos(xt)dt
π 0
En interpolant la fonction f en deux points 0; 1, on obtient
1 1
a0 = et a1 =
π π(π − 1)
D’où le lemme.
Proposition 3.4.5
Soit X une v.a infiniment divisible de type gamma de densité f donné par
xr−1 −x/β
f (x) = e si x ≥ 0 0 sinon
β r Γ(r)

68
Soit N (t) un processus de poisson d’intensité λ. Il existe un polynôme de degré
1 qui interpole f tel que la probabilité de ruine φ soit l’unique solution de
l’équation
λ λe−1/β
D3 φ(u) − D2 φ(u) + φ(u) = 0
c cΓ(r)β r

Lemme 3.23
Soit X une variable α−stable de densité f , N (t) un processus de poisson d’in-
tensité λ. Soit B un espace ν−mesurable et M un espace de L1 (B, ν) dans
lequel la meilleure approximation de f est le polynôme nul. Alors la probabilité
de non ruine φ liée au modèle classique de ruine vérifie l’équation :
λ λ
D3 φ(u) − D2 φ(u) + Dφ(u) − ( − αn )φ(u) = 0 (3.38)
c c

Preuve du lemme (3.23)


Soit X une variable α−stable de densité f et M un espace de L1 (B, ν)
dans lequel la meilleure approximation de f est le polynôme nul.
Considérons le modèle classique du risque donné par
λ λZ u
Dφ(u) = φ(u) − φ(t)f (u − t)dt
c c 0
De la proposition (1.3.2), on déduit que

λ λZ u 1 n √ r+1 o
(r)
Dφ(u) = φ(u) − φ(t) r sup ± D0 (t) u2 − t2 dt
c c 0 n t
En se servant de la preuve du théorème .1 et en reférence aux lemmes (1.4) ;
(1.5) puis aux inégalités (1.17), (1.18), (3.37), on déduit qu’il existe Cr positif
tel que
√ ln n
r+1
(r)
|D0 (t) u2 − t2 sinr−1 (u − t)
| ≤ Cr
nr+1
Comme r > 0 on deduit donc qu’il existe Cr > 0 tel que
λ λCr ln n Z u
Dφ(u) = φ(u) − φ(t) sin(u − t)dt
c cnr+1 0
Suivant la position de u, posons u =  et u = η. Il vient que :
λ λCr ln n Z 
Dφ(u) = φ(u) − φ(t) sin(η − t)dt
c cnr+1 0
En dérivant succéssivement cette équation intégro-différentielle par rapport à
u (en considérant les dérivées partielles par rapport à  et par rapport à η), on

69
λCr ln n
obtient en posant αn = que :
cnr+1
Z u
2 λ h i
D φ(u) = Dφ(u) − αn φ(u) sin(0) − φ(0) sin(−t) − αn φ(t) cos(u − t)dt
c 0
Z u
λ
D2 φ(u) = Dφ(u) − αn φ(t) cos(u − t)dt
c 0
Z u
λ 2
D3 φ(u) = D φ(u) − αn φ(u) cos(0) + αn φ(t) sin(u − t)dt
c 0
λ 2 λ
D3 φ(u) = D φ(u) − αn φ(u) − Dφ(u) + φ(u)
c c
λ 2 λ
D3 φ(u) = D φ(u) − Dφ(u) + ( − αn )φ(u)
c c
D’où la preuve du lemme. La résolution de cette équation différentielle nous
λ
permettra, pour des valeurs de et αn connues, de sortir une formule fermée
c
de la probabilité de ruine ψ(u) = 1 − φ(u).

3.5 Conclusion
Au terme de ce chapitre, nous avons analysé la modélisation du risque clas-
sique de Poisson composé par les lois α−stables et infiniment divisibles. De
cette approche nous avons développé des applications à la théorie des approxi-
mations explicitées dans la première partie. Nous avons par la suite approfondi
cette application par des interpolations sur des espaces à petits supports de la
densité stable et de l’expression intégrale donnée par le modèle classique du
risque. Ce qui nous a permis de développer des équations différentielles dont
la résolution pourra se faire manuellement ou numériquement selon le degré
du polynôme d’interpolation utilisé.

70
Copules et modèle du risque multivarié
4
4.1 Introduction
En considérant le modèle classique du risque de poisson composé, nous dé-
terminerons la probabilité de ruine donnée par des sinistres dont le montant
et la survenance sont modélisés par une loi exponentielle et une loi gamma.
Cette approche nous permettra d’exhiber une formule fermée de la probabi-
lité de ruine. Qu’en est-il en réalité de la ruine. Elle peut intervenir du fait
de la survenance d’un sinistre extrêmement couteux et désastreuse. La ruine
peut aussi venir du fait de l’accumulation de plusieurs sinistres dans un même
secteur. Nous nous intéresserons à ce dernier cas. Comment donc apprécier la
dépendance des ruines causée par la survenance simultanée ou non de plusieurs
sinistres ? Les copules sont dans ce sens des outils performants de modélisation
de la dépendance des risques multi-variés. Dans ce chapitre nous analyserons
d’abord la notion des copules en rapport avec la modélisation de la dépendance.
Ensuite nous établirons, après avoir déterminé les probabilités de ruines sur des
branches d’activités différentes, la dépendance par les copules des risques de
ruines multi-variées et présenter ainsi un outil d’évaluation de ces dépendances.

4.2 Généralités sur les copules


4.2.1 Définitions
Soit (Xi )i=1...n = {Xi1 , Xi2 , ..., Xid } une suite de n variables aléatoires. la loi
de Xi est caractérisée par
Fi (xi ) = P {Xik ≤ xki ; k = 1, ..., d} xi = (x1i , x2i , ..., xdi )

Définition 4.1
On appelle copule n-dimensionnelle, toute fonction de répartition multi-variée
C ayant des marges uniforme sur [0; 1]

71
Une définition plus approfondie est donnée dans le cas 2−dimensionnel dans
[38] comme suit :

Définition 4.2
Une copule bivariée est une fonction de distributions 2−croissante C : I 2 =
[0, 1]2 → I telle que :

– ∀u, v ∈ I, C(u, 0) = 0 = C(0, u) ; C(u, 1) = u et C(1, v) = v


– ∀u1 , u2 , v1 , v2 ∈ I tels que u1 ≤ u2 et v1 ≤ v2 on a :

C(u2 , v2 ) − C(u1 , v2 ) − C(u2 , v1 ) + C(u1 , v1 ) ≥ 0.

4.2.2 Propriétés des copules


Théorème 4.2.1 (Continuité)
Soit C une copule bivariée, et u1 , u2 , v1 , v2 appartenant au domaine de C
(Dom(C)). On a

|C(u2 , v2 ) − C(u1 , v1 )| ≤ |u1 − v2 | + |u2 − v1 |

La démonstration de ce théorème se trouve en Annexe.

Théorème 4.2.2 (Différentiabilité)


Soit C une copule bivariée ; u, v ∈ I, on a :
∂C ∂C
1. Les dérivés partielles (u, v) et (u, v) existent p.s et appartiennent
∂u ∂v
à [0, 1].

∂C ∂C
2. Les fonctions u 7→ (u, v) et v 7→ (u, v) sont bien définies et dé-
∂u ∂u
croissantes sur I p.s

Proposition 4.2.1 (Invariance)


Soient X1 ; X2 deux v.a continues des marges F et G liées par une copule C.
Soient h1 et h2 des fonctions strictements croissantes, alors

C(F (h1 (x1 )), G(h2 (x2 ))) = C(F (x1 ), G(x2 ))

Définition 4.3
Soit F une distribution. L’inverse généralisée F ← de F est une fonction définie
par
F ← (t) = inf{x/F (x) ≥ t} = sup{x/F (x) ≤ t}

Si F est strictement croissante, la notion d’inverse généralisée conïcide avec la


notion de fonction réciproque F −1

72
Théorème 4.2.3 De Sklar[38]
Soit H une distribution bivariée jointe de marginales F et G. Soit F (x) = u
et G(y) = v, alors ∃ une fonction C appelée copule telle que
2
∀(x, y) ∈ R , H(x, y) = C(F (x), G(y))

Si F et G sont continues alors C est unique ; sinon elle est déterminée de


manière unique sur (ImF ) × (ImG).
Ce théorème est démontré en annexe.

Proposition 4.2.2
Soit C une copule bivariée. Alors la densité associée à C est définie par

∂ 2C
∀u, v ∈ [0, 1] c(u, v) = (u, v)
∂u∂v
Soient f et g les densités respectivements de F et G alors la densité h de H
est exprimée comme suit :

h(x, y) = c(F (x), G(y))f (x)g(y)

Soient H, C, F , G les fonctions définies dans le théorème (De Sklar). Il


vient, de ce qui précède, que si F et G sont continues alors

∀u, v ∈ I × I, C(u, v) = H(F ← (u), G← (v)) (4.1)

4.2.3 Quelques exemples de copules et leurs utilités


Du théorème de Sklar, de la proposition (4.2.2) et de la formule (4.1), il est
défini des copules dont nous presenterons içi quelques une.

4.2.3.1.La copule indépendance ou produit


Elle est définie par

C ⊥ (u, v) = uv, ∀u, v ∈ [0, 1]

Cette copule est utilisée pour modéliser la distribution de variables aléatoires


de marges independantes.
Une illustration de la copule produit peut être donnée par la figure suivante

73
Figure 4.1 – Copule indépendance

4.2.3.2.La copule de Farlie-Gumbel-Morgenstern


Soit θ ∈ [−1; 1], la copule FGM est donnée par

Cθ (u, v) = uv[1 + θ(1 − u)(1 − v)]

Cette copule est généralement utilisée dans le domaine de l’assurance, surtout


santé, pour modéliser la dépendance faible entre les composantes.
On peut illustrer ce type de copule par la figure ci-dessous

Figure 4.2 – Copule FGM

74
4.2.3.3.La copule de Gumbel
Soit θ ∈ [1; +∞[, la copule de Gumbel est définie par

Cθ (u, v) = exp{−([− ln u]θ + [− ln v]θ )1/θ }

La fonction génératrice de la copule de Gumbel est Φ(t) = (− ln(t))θ où


t ∈ [0; 1].
Faisant partie des copules archimédiennes, la copule de Gumbel permet la me-
sure des risques positivement corrélés. Elle permet particulièrement l’approche
de la mesure de dépendance des évènements rares.
La figure suivante permet d’illustrer une copule de Gumbel

Figure 4.3 – Copule de Gumbel

4.3 Dépendance des ruines par les copules


Disposant de la probabilité de ruine dans la i-ème branche ψi (ui ), nous me-
surerons la probabilité globale de ruine de toute la compagnie. Supposons que
l’entreprise à 2 branches en activité et notons par ψ1 (u1 ) et ψ2 (u2 ) les probabi-
lités de ruine liées respectivement à chacune de ces deux branches d’activités.
En considérant ψ1 (u1 ) et ψ2 (u2 ) comme des marges uniformes sur [0; 1] nous
utilisons les copules pour modélisée la ruine de l’entreprise dans son fonctionne-
ment avec les deux branches d’activités. Dans toute la suite, nous modéliserons
le risque bivarié d’une entreprise donnée à traves, les deux copules que sont,
la copule de Gumbel et celle FGM.

75
4.3.1 Dépendance par la copule de Gumbel
Soient X, Y des variables aléatoires de densités respectives f1 et f2 repré-
sentant les montants des sinistres de deux branches d’activités. Soient ψ1 et ψ2
les probabilités de ruine liées respectivement à X et à Y données par le mo-
dèle du risque classique de poissons composé N (t) d’intensité respectives λ1 et
λ2 . Considérons la copule de Gumbel. Cette Copule possède la caractéristique
de pouvoir représenter des risques dont la structure de dépendance est plus
accentuée sur la queue supérieure. Elle est à ce titre particulièrement adaptée
en assurance et en finance.
Théorème 4.1
Soient fi (i = 1, 2) des distributions exponentielles de paramètres λi . Soient
Cθ une copule de Gumbel et φi = 1 − ψi ∈ [0, 1] vérifiant l’équation
λ λZ u
Dφ(u) = φ(u) − φ(u − t)fi (t)dt
c c 0
Alors
λ λ
Cθ (ψ1 , ψ2 ) = exp{−([−( − α)u]θ + [−( − α)v]θ )1/θ }
c c
θ ∈ [1; +∞[ est le coefficient de dépendance de la queue

Preuve
Soit θ ∈ [1; +∞[ et Cθ (u, v) la copule de Gumbel. On a donc
Cθ (u, v) = exp{−([− ln u]θ + [− ln v]θ )
Notons ψ1 (u) = ψ1 = 1 − φ1 et
ψ2 (v) = ψ2 = 1 − φ2 Ainsi donc

Cθ (ψ1 , ψ2 ) = exp{−([− ln ψ1 ]θ + [− ln ψ2 ]θ )1/θ }


θ est le coefficient de dépendance de la queue

Soient Xi une variable exponentiel de densité fi ∼ exp(λi ) ; N (t) un pro-


cessus compsé de poisson d’intensité λi . Si φi vérifie l’équation
λ λZ u
Dφ(u) = φ(u) − φ(u − t)fi (t)
c c 0
Alors en considérant les résultats dans [19], nous établissons :

λ λZ u
Dφ(u) = φ(u) − φ(u − x)dF (x)
c c 0
λ λZ u
= φ(u) − φ(u − x)αe−αx dx
c c 0
λ λZ u
= φ(u) − φ(w)αe−α(u−w) dw w =u−x
c c 0

76
Posons pour le bésoin de la dérivation  = u et η = u suivants les cas. On
obtient :
λ λZ 
Dφ(u) = φ(u) − φ(w)αe−α(η−w) dw (4.2)
c c 0
En dérivant on obtient
Z 
λ αλ h i
D2 φ(u) = Dφ(u) − φ()e−α(η−) − α φ(w)e−α(η−w) dw
c c 0

λ αλ α2 λ Z 
2
D φ(u) = Dφ(u) − φ(u) + φ(w)e−α(η−w) dw (4.3)
c c c 0
αλ R 
De (4.2), on a c 0
φ(w)e−α(η−w) dw = −Dφ(u) + λc φ(u)

Dans (4.3), on deduit que

λ
D2 φ(u) − ( − α)Dφ(u) = 0
c
Pour la résolution de cette équation différentielle, considérons son équation
caractéristique :
λ
x2 − ( − α)x = 0
c
Les solutions sont x1 = 0 et x2 = ( λc − α).
Considérons le chargement de sécurité ρ = c−λµλµ
> 0. Comme µ = α1 , alors

λ
c− α
λ > 0
α
λ
−α < 0
c
La solution générale est donc

φ(u) = Aex1 u + Bex2 u = A + Bex2 u (4.4)


( (
φ(0) = 0 A+B =0
Sachant que ⇔ D’où B = −1. Par suite
φ(∞) = 1 A=1

λ
φ(u) = 1 − exp{( − α)u}
c

λ
φ(u) = 1 − exp{( − α)u}
c
Considérons, dans une compagnie d’assurance, deux branches d’activités, de
réserves initiales respectives u et v et de probabilités de non ruine respectives

77
λ1 λ2
φ1 (u) = 1 − exp{( − α)u} et φ2 (v) = 1 − exp{( − α)v}
c c
On obtient donc que
λ1 λ2
Cθ (ψ1 , ψ2 ) = exp{−([−( − α)u]θ + [−( − α)v]θ )1/θ }
c c
Le théorème est ainsi démontré.

Dans les conditions ci-dessus, si nous considérons maintenant que le mon-


tant des sinistres est une distribution infiniment divisible de type gamma, il
vient le résultat suivant :
Théorème 4.2
Soient fi (i = 1, 2) des distributions Γ(0, 1) . Soient Cθ une copule de Gumbel
et φi = 1 − ψi ∈ [0, 1] vérifiant l’équation
λ λZ u
Dφ(u) = φ(u) − φ(u − t)fi (t)
c c 0
Alors
x2 (x1 + 1)2 x1 (x2 + 1)2
Cθ (ψ1 , ψ2 ) = exp{−([− ln( )−x1 u]θ +[− ln( )−x2 u]θ )1/θ }
(x2 − x1 ) (x1 − x2 )

L’étude de la probabilité de ruine dans le modèle classique de ruine dans


[19] nous permet :

Considérons maintenant que la variable aléatoire( Xi à une distribution


xe−αx x > 0, α > 0
gamma. la fonction de densité f est définie par f (x) =
0 sinon
Alors, il ressort que

λ λZ u
Dφ(u) = φ(u) − φ(u − x)f (x)dx
c c 0
λ λZ u
= φ(u) − φ(w)(u − w)e−α(u−w) dw w =u−x
c c 0
Soit  = u et η = u alors
λ λZ 
Dφ(u) = φ(u) − φ(w)(η − w)e−α(η−w) dw
c c 0
λ λ λZ 
D2 φ(u) = φ(u) − φ()(η − )e−α(η−) − φ(w)e−α(η−w) dw
c c c 0
αλ Z 
+ φ(w)(η − w)e−α(η−w) dw
c 0
λ λZ u −α(u−w) αλ Z u
2
D φ(u) = φ(u) − φ(w)e dw + φ(w)(u − w)e−α(u−w) dw
c c 0 c 0

78
αλ R u
Or c 0
φ(w)(u − w)e−α(u−w) dw = αλ
c
φ(u) − αDφ(u). Donc
λ αλ λZ u
D2 φ(u) = ( − α)Dφ(u) + φ(u) − φ(w)e−α(u−w) dw
c c c 0
λ αλ λ αλ Z u
⇒ D3 φ(u) = ( − α)D2 φ(u) + Dφ(u) − φ(u) + φ(w)e−α(u−w) dw
c c c c 0
Ru α2 λ
De plus αλc 0 φ(w)e−α(u−w) dw = α( λc − α)Dφ(u) + c
φ(u) − αD2 φ(u).
Par suite
λ 2αλ α2 λ λ
D3 φ(u) = ( − 2α)D2 φ(u) + ( − α2 )Dφ(u) + ( − )φ(u)
c c c c

Pour la suite, posons α = 1, alors (E) devient
λ 2λ
(F ) : D3 + (2 − )D2 φ(u) + (1 − )Dφ(u) = 0
c c
L’équation caractéristique de (F ) est
λ 2λ
x3 + (2 − )x2 + (1 − ) = 0
c c
λ

c
−2− ∆
Les solutions de cette équation sont x1 = 0 ; x2 = et x3 =
√ 2
λ
−2+ ∆ q
2
c
où ∆ = λc2 + 4 λc
2
Ainsi donc la solution générale de (F ) est

φ(u) = A0 + A1 ex1 u + A2 ex2 u


Sachant que φ(0) = 0 et φ(∞) = 1, déterminons les réels A0 , A1 et A2 .
Considérons le chargement de sécurité ρ = c−µλ
λµ
> 0,
−αx 2
Comme Xi ∼ f (x) = xe alors E(Xi ) = µ = α2 , on obtient par suite de
raisonnement que
( (
λ
−2<0 x1 < 0
c ⇒
| λc − 2| > ∆ x2 < 0
(
φ(∞) = 1 ⇒ A0 = 1
Ainsi donc
φ(0) = 0 ⇒ A0 + A1 + A2 = 0
x2 (x1 +1)2 x1 (x2 +1)2
Par suite on obtient que A1 = (x1 −x2 )
et A2 = (x2 −x1 )
.
Finalement on a
x2 (x1 + 1)2 x1 u x1 (x2 + 1)2 x2 u
φ(u) = 1 + e + e
(x1 − x2 ) (x2 − x1 )
x2 (x1 + 1)2 x1 u x1 (x2 + 1)2 x2 u
φ(u) = 1 + e + e
(x1 − x2 ) (x2 − x1 )

79
Soit φ1 et φ2 la probabilité de ruine de deux branches d’activité de la compagnie
avec des reserves initiales u et v respectivement. On a

x2 (x1 + 1)2 x1 u x1 (x2 + 1)2 x2 u


φ1 (u) = 1 + e + e
(x1 − x2 ) (x2 − x1 )
et
x2 (x1 + 1)2 x1 v x1 (x2 + 1)2 x2 v
φ2 (v) = 1 + e + e
(x1 − x2 ) (x2 − x1 )
La copule de Gumbel nous donne donc

x2 (x1 + 1)2 θ x1 (x2 + 1)2


Cθ (ψ1 , ψ2 ) = exp{−([− ln( )−x1 u] +[− ln( )−x2 u]θ )1/θ }
(x2 − x1 ) (x1 − x2 )
D’où le résultat.

La copule ainsi définie nous permet d’établir une relation de dépendance


entre les différents types de ruine enregistrée dans deux branches d’activité.
Cela permettra une bonne gestion des dite branches par l’allocation de res-
sources nécessaires à chaque branche pour son fonctionnement "normale". La
dépendance entre ces ruines peut être évaluée à travers des mesures classiques
de dépendance (voir annexe).

4.3.2 Dépendance par la copule FGM


Considérons maintenant la copule de Farlie-Gumbel-Morgenster (FGM).
Elle modélise la dépendance faible entre les ruines intervenant dans les diffé-
rentes composantes d’une unité donnée. Soit θ ∈ [−1; 1] et Cθ (u, v) la copule
FGM. On a donc
Cθ (u, v) = uv[1 + θ(1 − u)(1 − v)]

Théorème 4.3
Soient fi (i = 1, 2) des distributions exponentielles de paramètres λi . Soient
Cθ une copule FGM et φi = 1 − ψi ∈ [0, 1] vérifiant l’équation

λ λZ u
Dφ(u) = φ(u) − φ(u − t)fi (t)dt
c c 0
Alors
λ1 λ2 λ1 λ2
Cθ (ψ1 , ψ2 ) = [(1−exp{( −α)u})(1−exp{( −α)v})][1+θ exp{( −α)u+( −α)v}]
c c c c
θ ∈ [−1; 1] est le coefficient de dépendance de la queue

80
Preuve
Notons de même que φ1 (u) = φ1 et φ2 (v) = φ2 Ainsi donc

Cθ (φ1 , φ2 ) = φ1 φ2 [1 + θ(1 − φ1 )(1 − φ2 )]

Soit Xi la variable aléatoire de distribution exponentielle tel que présentée


dans la section précédente.
Notons ψi = exp{( λci − α)(ui ) la probabilité de ruine de la i-ème branche
de la compagnie. On a

λ1 λ2
φ1 (u) = 1 − exp{( − α)u} et φ2 (v) = 1 − exp{( − α)v}
c c
ce qui permet

Cθ (φ1 , φ2 ) = Cθ (ψ1 , ϕ2 ) = (1 − ψ1 − ψ2 + ψ1 ψ2 )(1 − θψ1 ψ2 )

D’où la démonstration du théorème.

Théorème 4.4
Soient fi (i = 1, 2) une distribution Γ(0, 1) . Soient Cθ une copule de Gumbel
et φi = 1 − ψi ∈ [0, 1] vérifiant l’équation
λ λZ u
Dφ(u) = φ(u) − φ(u − t)fi (t)dt
c c 0
Alors Il existe des réels A, B, X, Y , Z tel que

Cθ (φ1 , φ2 ) = [1 + AX + BY + ABZ][1 + θ(Aex1 u + Bex2 u )(Aex1 v + Bex2 v )]

Preuve
Des théorèmes précédents, il découle que si le montant des sinistres a une
distribution gamma alors la probabilité de non ruine donnée par la loi gamma
étant
x2 (x1 + 1)2 x1 u x1 (x2 + 1)2 x2 u
φ(u) = 1 + e + e
(x1 − x2 ) (x2 − x1 )
On a
x2 (x1 + 1)2 x1 u x1 (x2 + 1)2 x2 u
φ1 (u) = 1 + e + e
(x1 − x2 ) (x2 − x1 )
et
x2 (x1 + 1)2 x1 v x1 (x2 + 1)2 x2 v
φ2 (v) = 1 + e + e
(x1 − x2 ) (x2 − x1 )
x2 (x1 + 1)2 x1 (x2 + 1)2
Soient A = et B = , on a
(x1 − x2 ) (x2 − x1 )
φ1 (u) = 1 + Aex1 u + Bex2 u et φ2 (v) = 1 + Aex1 v + Bex2 v

81
La modélisation de la probabilité de ruine par la FGM nous donne :

Cθ (φ1 , φ2 ) = φ1 φ2 [1 + θ(1 − φ1 )(1 − φ2 )]

= (1 + Aex1 u + Bex2 u )(1 + Aex1 v + Bex2 v )


[1 + θ(−Aex1 u − Bex2 u )(−Aex1 v − Bex2 v )]
Cθ (φ1 , φ2 ) = (1 + Aex1 v + Bex2 v + Aex1 u + Bex2 u + A2 ex1 (u+v) + ABex1 u+x2 v
+ABex2 u+x1 v + B 2 ex2 (u+v) )[1 + θ(Aex1 u + Bex2 u )(Aex1 v + Bex2 v )]

Par suite, en posant

ξ = ex1 v + ex1 u + Aex1 (u+v) , ζ = ex2 v + ex2 u + Bex2 (u+v) et

η = ex1 u+x2 v + ex2 u+x1 v


il vient que

Cθ (φ1 , φ2 ) = [1 + Aξ + Bζ + ABη][1 + θ(Aex1 u + Bex2 u )(Aex1 v + Bex2 v )]

Ce théorème est donc démontré.

4.4 Conclusion
Dans ce chapitre nous avons utilisé les copules comme outils d’évaluation
de la dépendance entre les ruines survenues dans deux branches d’activités.
A travers deux exemples de lois, principalement la loi exponentielle et la loi
gamma, nous avons déterminé les probabilités de ruines données par le modèle
classique du risque de Poisson composé dans deux branches d’activités d’un
même secteur. Disposant ainsi de formules fermées des probabilités de ruines,
que nous considérons d’ailleurs comme des marges uniformes, nous avons pro-
posé des probabilités conjointes en nous servant d’une copule FGM et d’une
copule de Gumbel. Ces probabilités permettent, non seulement, d’évaluer la
ruine totale d’une société disposant de deux branches d’activités (chacune pou-
vant être en ruine) mais aussi de mesurer la dépendance des ruines données
par chaque branche d’activité.

82
Conclusion générale

Notre travail de thèse avait pour leitmotiv cette interrogation essentielle :"
Quelles contributions à l’estimation de la probabilité de ruine pour le modèle
classique du risque de poisson composé si la survenance des sinistres est une
variable aléatoire non gaussienne de type α-stable ?"

La particularité de notre interrogation réside dans la complexité de la forme


de densités des variables α-stables, ce qui fait d’elle une fonction poids difficile-
ment manipulable dans une expression intégrale. Pour parvenir à nos objectifs,
nous avons dans un premier temps défini et amélioré une théorie sur les ap-
proximations de fonctions par des polynômes algébriques et trigonométriques.
La méthode d’approximation est évidemment efficace pour approcher la den-
sité de fonction de distribution composée comme celle des distributions stables.

Dans un second temps, après avoir rappelé les outils et propriétés fonda-
mentales des variables stables, nous avons pu établir des liens qui permettent
d’appliquer les résultats théoriques, développés, aux modèles classiques du
risque de Poisson composé. Nous nous somme intéressés particulièrement à
l’estimation de la densité du montant total des sinistres dans un espace à petit
support. Dans ces types d’espace, nous avons relevé que la meilleure approxi-
mation de la densité du montant des sinistres correspondait au polynôme nul.
Ces différents éléments nous ont conduit à un résultat basé sur la construction
d’une équation différentielle ordinaire d’ordre n dont la résolution pour n assez
grand pourrait être programmé à travers le logiciel R ou matlab.

Ces différentes approches offrent une estimation plus ou moins importante


de la probabilité du risque de Poisson composé.
Enfin, muni de ces résultats, nous nous somme intéressés à la probabilité de
ruine dans une entreprise disposant de plusieurs branches d’activité à caracté-
ristiques différentes.

83
Il s’est agi donc d’établir un lien, via les copules, entre les différentes probabili-
tés de ruine données par chaque branche d’activité. Ceci nous a permis d’esti-
mer la probabilité totale de ruine dans cette entreprise aux fins que celle-ci soit
dotée d’éléments d’appréciation mathématique sur sa bonne santé financière.

Pour nos travaux à venir, nous projetons utiliser les copules en vue de la
détermination de la probabilité de ruine sur non seulement le modèle classique
du risque de poisson composé, mais aussi sur d’autre type de modèle comme
celui de Cox dans lequel le processus de comptage n’est plus celui de poisson.
Nous envisageons dans le même ordre d’idée de développer des packages du
logiciel R pour simuler la probabilité du risque de survenance des sinistres
multi-variés et de leurs coûts. Cela nous permettra non seulement de participer
à l’évaluation et à la gestion des risques de survenance des sinistres aussi bien
dans les domaines des finances que des aléas climatiques et des catastrophes
naturels mais également de proposer un seuil d’allocation de fonds nécessaires
en vue d’éviter les ruines dans les entreprises financières.

84
Annexes

85
A) Copule et Application
A.1. Preuve sur la continuité des copules
Soit C une copule bidimensionnelle. Par définition, elle est 2−croissante.
Donc ∀u1 , u2 , v1 , v2 ∈ [0, 1] tel que
u1 ≤ u2 et v1 ≤ v2
Il existe alors des copules spécifiques CΓ1 et CΓ2 (où Γ1 ; Γ2 sont respective-
ments les graphes liés aux couples (u1 , v1 ) et (u2 , v2 )) tel que :
C(u1 , v1 ) = CΓ1 (u1 , v1 ) ; C(u2 , v2 ) = CΓ2 (u2 , v2 ) et C(u2 , v1 ) = CΓ1 (u1 , v2 ) = CΓ2 (u2 , v1 )
Par conséquent il vient que :

|C(u2 , v2 ) − C(u1 , v1 )| ≤ |C(u2 , v1 ) − C(u2 , v1 )| + |C(u2 , v1 ) − C(u1 , v1 )|


≤ |CΓ2 (u2 , v2 ) − CΓ2 (u2 , v1 )| + |CΓ1 (u2 , v1 )|
|C(u2 , v2 ) − C(u1 , v1 )| = |u2 − u1 | + |v2 − v1 |
D’ou la preuve du théorème de continuité de la copule.

A.2. Preuve du théorème de Sklar


Soit X, Y des variables aléatoires ; F et G des distributions. Alors F (X)
et G(Y ) sont des marges uiformes sur [0, 1], avec F (x) = u et F (y) = v. x et
y sont des réalisations de X et Y respectivements.

Considérons H une distribution jointe de F (X) et G(Y ). Il vient en utilisant


la proposition (4.2.2) l’existence d’une copule C tel que
C(u, v) = P (F (X) ≤ u; G(Y ) ≤ v)
C(u, v) = H(F ← (u); G← (v))
D’où le théorème.

A.3. Mesure de la dépendance par les copules


Quelques coefficients de corrélations seront utilisés pour permettre la me-
sure de dépendance par les copules ci-dessus citées. Considérons X; Y sont
deux variables aléatoires dont la distribution conjointe est modélisée par la
copule C
1. Le rhô de spearman
Il est donné par
Z 1Z 1
ρs (X, Y ) = 12 C(u, v)dudv − 3
0 0

Le rhô de Spearman n’a pas de formule explicite déduite de toutes les


copules.

86
2. Le tau de Kendall
Il est défini par :
Z 1Z 1
τk (X, Y ) = 4 C(u, v)dC(u, v) − 1
0 0

Par suite on obtient

τk (X, Y ) = 4E(C(U, V )) − 1 = 4E(X) − 1

Où X est la variable aléatoire C(U, V ) dont la répartition est la fonction

Φ(t)
FC (t) = t −
Φ0 (t)

B) Queue de distribution
Plusieurs caractérisations ont été données en guise de classification des
queues de distributions. La caractérisation la plus simple est celle basée sur la
comparaison avec la loi normale.
Ainsi une distribution a la queue lourde si, et seulement si son coefficient
d’aplatissement Ck est supérieur à celui de la loi normale(qui est de 3)
h X − µX  4 i
Ck = E >3
σX

87
Figure 4.4 – Différence illustrative entre la loi normale et une loi à queue
lourde (HIB)

Cependant cette caractérisation ne peut être appliquée que si le moment


d’ordre 4 existe. On peut en outre classifier les distributions en grandes familles
selon la nature de leurs queues. Nous avons entre autre :
1. Distributions avec des moments exponentiels inexistants (E). Elles véri-
fient E(eX ) = ∞

2. Distributions sub-exponentielles (D) : Pour elles, on a

P {X1 + X2 + ... + Xn ≥ x} F (x)


lim = 1; ou lim = ∞ ∀ > 0
x→∞ P {max(X1 ; X2 ; ...; Xn ) ≥ x} x→∞ ex

3. Distributions à variations régulières d’indices α(index de queue) (C) pour


lesquelles
F (tx)
lim = x−α
t→∞ F (t)

4. Distributions de type Paréto (B) caractérisées par F (x) = 1 − uα x−α ;


x ≥ u; u > 0
5. Distributions p−stable (A)
Illustration de classement des distributions et representation des queues :

88
Figure 4.5 – Classe de distributions

Figure 4.6 – Différence illustrative entre les différentes classes de distributions

89
Table 4.1 – Distributions de classe E
Loi Caractérisation queue ou densité
Loi exponentielle (λ) p=1 F (x) = exp{−λx}
β r r−1 −βx
Loi Gamma (β, r) p=1 Γ(r)
x e

Table 4.2 – Distributions de classe D


Loi Caractérisation queue ou densité
(x−ν)2
Loi normale (ν; σ) p=1 f (x) = σ√12π e− 2σ2
x
Halphen type A (α; ν; m) p = 1/2ν exp{−α( m +mx
)}
Gumbel (alpha, u) p=1 F (x) = 1 − exp{− exp[−(x − α)/u]}

Représentons quelques distributions pour observer les queues

Nous donnons quelques lois selon la caractérisation de leurs queues de dis-


tributions explicitées plus haut :

Table 4.3 – Distributions de classe C


Loi Caractérisation queue ou densité
s
|s|αλ e−αX X sλ−1
Gamma généralisée (α, λ, s) p = 1/sλ Γ(λ)
β α −α−1
Gamma inverse (α, β) p = 1/α f (x) = Γ(α) x exp{− βx }
Fréchet (α, k, u) p = −1/k F (x) = 1 − exp{( x−u k
)−α }
α
Weibull (α, c) p = −1/c exp{−(cx) }
(x/α)β
Log-logistique (α, β) p = 1/α 1+(x/α)β
Halphen typeB −1 (HIB)(α, ν, m) p = 1/2ν Bx−2ν−1 exp{−( mx
)2 x
+ α( m )}

90
Table 4.4 – Distributions de classe B
Loi Caractérisation 
queue ou densité
 1/k

1 + ( x−µ ) si k 6= 0
Pareto généralisée (µ; σ, k) p=-1/k F (x) =  σ +
exp{−( x−µσ +
) } si k = 0
1 (ln x−µ)2
Log-normale (µ; σ) √
σx 2π
exp{− 2σ 2 }

Table 4.5 – Distributions de classe A


Loi Caractérisation queue ou densité
1 R +∞
Loi p−stable f (x) = π 0 exp{−γ|t|p [1 + βsign(t)w(t, p)] + it(δ − x)}dt

91
Bibliographie

92
Bibliographie

[1] A.N Shiryayev (1984) Probability, volume 95 of graduate texts in mathe-


matics page 338

[2] Alain TOSETTI


Assurance : Comptabilité, Règlementation, Actuariat ISBN 2-7178-4024-9

[3] ASMUSSEN, S. et H. ALBRECHER. 2010, Ruin Probabilities, Advanced


Series on Statistical Science and Applied Probability, vol. 14, World
Scientific.

[4] AVRAM, F., D. CHEDOM et A. HORVARTH. 2011, On moments based


Padé approximations of ruin probabilities, Journal of Computational and
Applied Mathematics, vol. 235, no 10, p. 321-3228.

[5] BEEKMAN, J. 1969, Ruin function approximation", Transaction of


Society of Actuaries,vol. 21, no 59 AB, p. 41-48.

[6] Bernard GAREL, KODIA BANZOUZI Bernédy Nel Messie :


Nouvelles mésure de dépendance pour une modélisation alpha-stable
Université de Toulouse, INPT-ENSEEIHT/UPS, IMT

[7] Boksha A.N., Rational approximation of singular Integrals with convex


density .// in abstracts of the Second School " Fourier Series : Theory
and Application" in (Russian), Kiev(1997),PP. 24–25

[8] Boksha A.N.,Rusak V.N. Rational approximation of singular Integrals


.// in abstracts of the International Conference on Approximation

93
Theory (Kaluga,1996), Vol.1 (1996),PP. 38-39

[9] BOWERS, N. 1966, Expansion of probability density functions as a sumof


gamma densities with applications in risk theory, Transaction of Society
of Actuaries, vol. 18, no 52, p.125-137.

[10] DE VYLDER, F. 1978, A practical solution to the problem of ultimate


ruin probability, Scandinavian Actuarial Journal, , no 2, p. 114-119.

[11] DICKSON, D. C. M. 1995, A review of Panjer’s recursion formula and


it’s applications, British Actuarial Journal, vol. 1, no 1, p. 107-124.

[12] Doronin V.G.,Ligun A.A. Upper bound exact values of the best
approximation for some classes in L1 // rechearch on contemporary
problems of summation and approximation of functions and their appli-
cation Dnepropetrovsk , University of Dnepropetrovsk , 1977, P.25-36

[13] Doronin V.G.,Ligun A.A. On the best one-sided of the classes


approximation for some classes Wr H∞ // Mat. Zametki 43, 6 (1988) p.
757-769

[14] Francisco L, Adriano K. S, Vicente G. C, Fàtima L. P and Gilberto A. P


The Long-Term Bivariate Survival FGM Copula Model : An Application
to a Brazilian HIV Data

[15] François D Probabilité et sévérité de la ruine. Modèle classique de la


théorie du risque collectif et une de ses extensions, Thèse 1989, université
de Lausanne

[16] Ganelius T On one-sided approximation by trigonometrique polyno-


mials // Math. Scand. 1956. V.4 P. 247-258

[17] GOFFARD, P.-O., S. LOISEL et D. POMMERET. 2015b, A polynomial


expansion to approximate the ultimate ruin probability in the compound
Poisson ruin modelJournal of Computational and AppliedMathematics.

[18] GRANDELL, J. 1991, Aspects of risk theory,Springer

[19] HE YUANJIANG, LI XUCHENG and JOHN ZHANG


Some Results of Ruin Probability for the Classical Risk Process

94
[20] James. R.C Orthogonality and linear functions in normed linear spaces
Trans.Am.Math.Soc 61 265-292 (1947)

[21] Kafanov V.A.Approximation in mean of differentiable classes of


functions by algebraic polynomials //Izv.Akad.Nauk.SSSR Ser. Mat.
47,5 (1983), 1078-1090(in Russian)

[22] KODIA BANZOUZI Bernédy Nel Messie :


Mesures de dépendance pour une modélisation alpha-stable. Application
aux séries chronologiques stables
Thèse pour l’obtention du doctorat de l’université de toulouse, 25 Août
2011

[23] Korneichuk N.PExact Constants in Approximation Theory,


.M. :Nauka,1987 (in Russian) ;English transl. :Cambridge University
Press 1991

[24] Korneichuk N.P,A.A. Ligun and V.G.Doronin Constrained ap-


proximations.Naukova Dumka,Kiev ,1982 (in Russian)

[25] Kripke, B.R.Rivlin TJ Approximation in the métrique of L1 (X, µ)


Trans.Am.Math.Soc 119 101-122 (1965)

[26] D.S.Lubinsky, E.B.Saff Markov-Bernstein and Nikolskii inequalities, and


christoffeel functions for exponential weights on ]-1 ;1[
[27] Mhaskar, H.N
Weight analogues of Nikolskii-type inequalities and their applications
[28] Mathieu Bargès, Hélène Cossette, Stéphane Loisel, Etienne Marceau
On the Moments of the Aggregate discounted claims with Dependence
Introduiced by a FGM Copula

[29] Motornaya O.V,On the best approximation of differentiable functions


by algebraic polynomials in the space L1 ,Preprint 93.20, Inst.Mat. UAN
1993 (in Russian)

[30] Motornaya O.V.,Motornyi V.P.,Nitiema P.C. On the best


L1 approximation by polynomials of functions which are fractional
integrals of summable functions Dokl. Akad. Nauk Ukraine(1997),ISSN
1025-6415 N◦ 2 P.48-51( in Russian)

[31] Motornyi V.P.,Motornaya On one-sided approximation of truncated


power by algebraic polynomials in mean //Trudy matem.Akad.Nauk

95
SSSR, 2005, N◦ 88 p 185-193(in Russian)

[32] Motornyi V.P.,Motornaya O.B.Pas’ko A.N Approximation of


differentiable functions by interpolates polynomials in mean with multiple
nodes //Vesty Dnepropetrovsk University Mathematics 2004, N◦ 9 p
62-72 (in Russian)

[33] Motornyi V.P.,Pas’ko A.N.On the best one sided-approximation


of some classes of differentiable functions in L1 // East J.Appr.-
2004,n◦ 1 − 2. − p.159 − 169

[34] Motornyi V.P.,Approximation of tractional-order integrals by algebraic


polynomials I //Ukrainian Mathematical Journal.Vol.51, N◦ 5, 1999

[35] Motornyi V.P.,Approximation of tractional-order integrals by alge-


braic polynomials II //Ukrainian Mathematical Journal.Vol.51, N◦ 7, 1999

[36] Motornyi V.P.,Nitiema P.C.On the best L1 approximation by polyno-


mials of functions which are fractional integrals of summable functions
// East J.Appr.-1996-2,n◦ 4. − p.409 − 425

[37] Motornyi V.P., Approximation of certain classes of singular integrals


by algebraic polynomials //Ukrainian Mathematical Journal.Vol.53, N◦
3, 2001

[38] Nelsen, R. B An Introduction to Copulas, Springer (2006)

[39] Nikolskii S.M.. On the best mean approximation by some poly-


nomals of one classe of functions D.Akad.Nauk.SSSR (1947), -
58,N◦ 1.P.115 − 117.(in Russian)

[40] Nikolskii.S.M. On the best mean approximation by polynomals of


the functions |a − x|s , Izv.Akad.Nauk.SSSR Ser. Mat. 11,3 (1947),
139-180(in Russian).

[41] Nikolskii S.M.On the best linear method of approximation of differen-


tiable functions by polynomials in the mean // Dokl. Akad. Nauk SSSR
58, 2(1947), 185-188( in russian)

[42] Nitiema.P.C. On the best L1 −approximation of truncated power func-


tions by algebraic polynomials//U.M.J.1998-N◦ 4 T.50 P.593-598 (in

96
Russian)

[43] Nitiema.P.C. On the best L1 −approximation by polynomials of trunca-


ted power functions //Far East Journal of Applied Mathematics.Volume
44 Number 1,2010, pp. 73-84.

[44] Nitiema.P.C On the best one-sided approximation of functions in the


mean //Far East Journal of Applied Mathematics.Volume 49 No. 2
(2010) pp. 139-150.

[45] Pekarskii A.A. On the relationship between the best rational and
piecewise-polynomial approximation in the uniform metric // in abs-
tracts of the International Conference on Approximation Theory (Kaluga
,1996),Vol.2 (1996),PP. 168-169

[46] Pierre-Olivier Goffard Approximations polynomiales de densité de pro-


babilité et application en assurance Thèse de Doctorat de l’université
d’Aix-Marseille 2015

[47] R. SABRE :
SPECTRAL DENSITY ESTIMATION FOR STATIONARY STABLE
RANDOM FIELDS
APPLICATIONES MATHEMATICAE 23,2 (1995), pp. 107-133

[48] Taikov L.V.One-sided Approximation of functions // Matematicheskie


Zametki, Vol 67,N◦ 1 P 136-140 (2000)

[49] Thorin, O.
The ruin problem in case the tail of the claim distribution is completely
monotone (1973) . Skand. Aktuar Tidskr. 100-119.

[50] Timan A.F,.Theory of Approximation of Function of


Real Variable,Moscow,1960(in Russian) ;English transl. :New
York,Macmillan,1963.

[51] TOUBA Sonia :


Sur l’estimation des paramètres des lois alpha-stables
Thèse pour obtenir le titre de DOCTEUR EN SCIENCES, de l’université
de Biskra, Mohamed khieder

[52] Turetskii A.Kh interpolation theory in problems [in Russian] Vyshei-


shaya Shkola,Minsk (1977)

97
[53] Uchaiikin et Zolotarev ,V.M (1999) chance and stability. Stable distribu-
tions and their applications de Grayter, Berlin-New york.

[54] V. M. Zolotarev :
One-dimensional stable distributions, Translations of Mathematical
Monographs, vol. 65, American Mathematical Society, Providence, 1986,
ix + 284pp., 92.00. ISBN 0-8218-4519-5

[55] Y.Benyamini, A.Kroó, A.Pinkus L1 −Approximation and finding solu-


tions with small support

[56] Zygmund A Trigonometrical Series Moscow Mir 1965-T.1-2

98
UNIVERSITE OUAGA I PR JOSEPH KI-ZERBO
---------------
École Doctorale
Sciences et Techniques
---------------
Laboratoire d’Analyse Numérique,
d’Informatique et de BIOmathématique

N°d’ordre ..523….

Thèse présentée par


Ouindllassida Jean-Etienne OUEDRAOGO
Pour obtenir le grade de

Docteur de l’Université Ouaga I Pr Joseph KI-ZERBO


Option : Sciences Appliquées

Spécialité : Statistiques

TITRE DE LA THESE
MODÈLES STATISTIQUES POUR L'ANALYSE DES SÉRIES
CHRONOLOGIQUES HYDROLOGIQUES

Soutenue le 31 Juilletl 2017 devant le jury composé de :

Président : - Bisso SALEY, Professeur Titulaire, Université Abdou Moumouni de Niamey, Niger

Membres :

- Blaise SOME, Professeur Titulaire, Université OUAGA I, Pr Joseph KI ZERBO(Directeur)

- Simplice DOSSOU-GBÉTÉ, Maître de Conférences honoraire, Université de Pau et des pays de

l'Adours, France (Co-directeur)

- Clovis NITIEMA, Maître de Conférences, Université Ouaga II,Burkina Faso

-Soumdouda SAWADOGO, Maître de conférences, IDS, Burkina Faso(Rapporteur)

1
Remerciements :

Cette thèse aujourd’hui terminée aurait été moins riche sans quelques personnes que je
souhaite remercier ici.
En premier lieu, je tiens à remercier mon directeur de thèse Pr. Blaise SOME, d’avoir
accepté de diriger ma thèse et de son soutien sans faille pour la réalisation de cette thèse. Je
souhaite exprimer toute ma gratitude à mon co-directeur de thèse Dr. Simplice DOSSOU-
GBETE pour son encadrement, ses précieux conseils, sa disponibilité et sa confiance en
mon travail. Il a guidé mes premiers pas en statistiques, je ne sais certainement pas
combien de fois je l’ai déçu, mais je sais qu’il a toujours cru en moi, même malgré mes
multiples égarements. C’est une fierté et un honneur pour moi d’avoir travaillé avec lui
durant toutes ces années. Je le remercie de m’avoir fait bénéficier de l’étendue de ses
connaissances et de son savoir faire, de son encadrement au quotidien, toujours teinté de
bonne humeur.
Je tiens à exprimer ma profonde gratitude au Pr. Bisso SALEY, pour l’honeur qu’il me
fait en acceptant de présider le jury de cette thèse.
J’adresse toute ma gratitude au Dr. Assi Lazare N’GUESSAN, Dr. Soumdouda SA-
WADOGO et au Pr. Dominique MIZERE, pour avoir accepté d’être rapporteurs de ce
travail. Merci sincèrement du temps et de l’energie que vous avez consacré à la lecture de
mon travail. Soyez en rassurez que vos critiques et suggestions ont contribués à hausser
significativement la qualité de mon manuscrit.
J’adresse mes vives remerciements au Dr. Clovis NITIEMA pour ses multiples éfforts
pour le bon déroulement de cette thèse. Je profiterai adresser ma reconnaissance à tous
les matheux de l’UFR-SEG-OuagaII, en particulier, le Pr. Oumar TRAORE, et le Dr.

i
Remerciements :

Patricia OUEDRAOGO/ZOUNGRANA pour leurs soutiens sans faille. J’ai su compter


sur vous durant toutes ces années et vous m’avez adopté. Encore merci pour la bonne
humeur !
Au service de coopération et d’action culturelle(SCAC) de la France au Burkina faso,
je dis merci pour avoir investi sur moi en finançant deux de mes séjours à Pau.
A mes amis et collègues, en particulier Simon TIENDREBEOGO, Blami KOTE, Johng-
ay TAMATORO, Cheikh NDOUR, je dirais que vous avez tous contribué à la réalisation
de cette thèse : MERCI !
Je ne pourrai finir cette partie sans évoquer mes passages au Laboratoire de Mathé-
matiques et de leurs Applications de Pau(LMAP). Que tout le personnel de l’équipe de
recherche Probabilité et Statistique, en particulier les Professeurs Laurent BORDES, So-
phie MERCIER, trouvent ici l’expression de toute ma gratitude et ma reconnaissance
pour l’honneur qu’ils m’ont fait en m’accordant ce cadre si idéal pour la recherche. Merci
pour votre accueil et votre sens du partage.
A tous mes collègues doctorants à Pau et à Ouaga Cotonou où dans d’autres villes, je
dis MERCI !
A Madame CRIADO, no comment ! ! Cette thèse vous revient par ce que sans vous je
ne saurai tenir à Pau. Merci pour vos soutiens multiples qui m’ont permis de retrouver
par moment la joie de vivre !
Aux grandes familles ZOUGMORE à Koupéla et OUEDRAOGO à Zimtenga, tous les
sacrifices que vous avez consentit pour cette thèse me vont droit au cœur !
A mon épouse Alida , ton soutien sans faille et ta compréhension m’ont été très béné-
fiques.
A mon fils Steeve OUEDRAOGO, fais mieux que ton papa !
Je fermerai cette rubrique là ! Que Ceux qui ne sont pas déçu poursuivent la lecture ! ! !

ii
Table des matières

Remerciements : i

Table des matières iii

Liste des tableaux ix

Table des figures x

Liste des algorithmes xii

Abstract xvii

I Introduction générale 1
I.1 Description de la distribution de Pearson de type III . . . . . . . . . . . . 1
I.1.1 Incidence des paramètres sur la forme et le support de la distribution 2
I.2 Propriétés de la loi P 3 et leur conséquence sur l’inférence statistique basé
sur le maximum de vraisemblance . . . . . . . . . . . . . . . . . . . . . . . 8
I.2.1 État de l’Art . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
I.2.1.1 Quelques propositions de solutions . . . . . . . . . . . . . 13
I.2.1.2 Alternatives à la méthode du maximum de vraisemblance
pour l’ajustement de la distribution P 3 . . . . . . . . . . . 14
I.3 Quelques domaines d’utilisation du modèle P 3 . . . . . . . . . . . . . . . . 16
I.3.1 La Distribution P 3 comme modèle de durée . . . . . . . . . . . . . 16
I.3.2 Distribution de Pearson III comme modèle des phénomènes hydro-
logiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

iii
TABLE DES MATIÈRES

I.4 Des outils utilisés pour l’inférence statistique : les algorithmes MM . . . . . 19


I.4.1 Principe d’un algorithme MM . . . . . . . . . . . . . . . . . . . . . 19
I.4.2 De la convergence des algorithmes MM . . . . . . . . . . . . . . . . 20
I.5 Objectifs et démarche de nos travaux . . . . . . . . . . . . . . . . . . . . . 21

II Une méthode de vraisemblance marginale pour l’ajustement d’un modèle P 3


à une série d’observations indépendantes et identiquement distribuées. 23
II.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
II.2 Vraisemblance marginale basée sur les statistiques d’ordre . . . . . . . . . 24
II.3 Inférence statistique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
II.3.1 De la fonction auxiliaire et ses propriétés . . . . . . . . . . . . . . . 29
II.3.1.1 Proposition d’une fonction auxiliaire . . . . . . . . . . . . 29
II.3.1.2 Quelques propriétés de la fonction auxiliaire . . . . . . . . 31
II.3.2 Recherche du point maximum . . . . . . . . . . . . . . . . . . . . . 33
II.3.2.1 Comportement de la fonction de score en λ . . . . . . . . 34
II.3.2.2 Comportement de la fonction de score en β . . . . . . . . 35
II.3.2.3 Comportement de la fonction de score en ν . . . . . . . . 36
II.4 Implémentation de la méthode . . . . . . . . . . . . . . . . . . . . . . . . . 37
II.4.1 Algorithme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
II.5 Évaluation empirique de la performance des estimateurs proposés . . . . . 38
II.5.1 Plan d’échantillonnage . . . . . . . . . . . . . . . . . . . . . . . . . 38
II.5.2 Métriques utilisées pour l’évaluation des performances des estima-
teurs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
II.5.3 Résultats de simulation . . . . . . . . . . . . . . . . . . . . . . . . . 39
II.5.3.1 Résultats numériques et graphiques . . . . . . . . . . . . . 40
II.5.3.2 Variabilité des résultats . . . . . . . . . . . . . . . . . . . 42
II.5.4 Comparaison de la méthode proposée avec deux autres méthodes
alternatives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
II.5.4.1 Comparaison avec deux méthodes de la littérature . . . . 43

iv
TABLE DES MATIÈRES

II.6 Application à des données de la littérature . . . . . . . . . . . . . . . . . . 48


II.6.1 Description des données et application . . . . . . . . . . . . . . . . 48
II.6.2 Contrôle de la qualité d’ajustement du modèle . . . . . . . . . . . . 49
II.6.2.1 Diagramme Quantile-Quantile . . . . . . . . . . . . . . . . 49
II.6.2.2 Étude de la qualité d’ajustement par bootsrap . . . . . . . 51
II.6.3 Biais et intervalles de confiance des estimateurs de la méthode
MMosLE par bootstrap . . . . . . . . . . . . . . . . . . . . . . . . 52
II.6.3.1 Procédure de calcul . . . . . . . . . . . . . . . . . . . . . . 52
II.6.3.2 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
II.7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

Appendices 55

A Annexe du chapitre II 57
A.1 Quelques inégalités de base . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
A.2 Preuve de la Proposition 5 . . . . . . . . . . . . . . . . . . . . . . . . . . 58
A.2.1 Minorisation des termes de L1 (θ | x2:n , · · · ,xn:n ) . . . . . . . . . . . 58
A.3 Preuve de la Proposition 6 . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
A.3.1 Procédure de calcul des intégrales . . . . . . . . . . . . . . . . . . . 61
A.4 Résultats des méthodes LSPF-MLE et BL . . . . . . . . . . . . . . . . . . 62
A.4.1 Résultats de la méthode LSPF-MLE . . . . . . . . . . . . . . . . . 62
A.4.2 Résultats de la méthode BL . . . . . . . . . . . . . . . . . . . . . . 64

III Formulation et ajustement d’un modèle de série temporelle de marges distri-


buées selon une distribution P 3. 65
III.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
III.2 concepts et résultats intermédiaires . . . . . . . . . . . . . . . . . . . . . . 67
III.2.1 Concepts . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
III.2.1.1 Processus stochastique . . . . . . . . . . . . . . . . . . . . 67
III.2.1.2 La stationnarité . . . . . . . . . . . . . . . . . . . . . . . . 67
III.2.1.3 Structure d’autocorrélations . . . . . . . . . . . . . . . . . 68
III.2.2 Résultats intermédiaires . . . . . . . . . . . . . . . . . . . . . . . . 68

v
TABLE DES MATIÈRES

III.3 Le modèle et ses propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . 71


III.3.1 Amincissement convexe d’une variable aléatoire de loi P 3. . . . . . 71
III.3.2 Formulation du modèle . . . . . . . . . . . . . . . . . . . . . . . . . 73
III.3.3 Propriétés du modèle . . . . . . . . . . . . . . . . . . . . . . . . . . 74
III.3.3.1 Notations . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
III.3.3.2 Propriétés du premier et du second ordre . . . . . . . . . . 75
III.3.3.3 Simulation de trajectoires . . . . . . . . . . . . . . . . . . 77
III.3.3.4 Réparametrisation du modèle . . . . . . . . . . . . . . . . 80
III.3.3.5 Probabilité de transition . . . . . . . . . . . . . . . . . . 81
III.4 Ajustement du modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
III.4.1 La méthode : Vraisemblance conditionnelle . . . . . . . . . . . . . . 84
III.4.2 Estimation des paramètres du modèle étudié . . . . . . . . . . . . . 85
III.4.2.1 Construction de la fonction auxiliaire . . . . . . . . . . . . 85
III.4.2.2 Propriétés de la fonction auxiliaire . . . . . . . . . . . . . 91
III.4.3 Procédure de recherche du point maximum . . . . . . . . . . . . . . 93
III.4.3.1 Comportement de la fonction de score en ν. . . . . . . . . 94
III.4.3.2 Comportement de la fonction de score en β . . . . . . . . 95
III.4.3.3 Comportement de la fonction de score en a . . . . . . . . 96
III.4.3.4 Comportement de la fonction de score en b . . . . . . . . . 96
III.4.4 Implémentation de la méthode . . . . . . . . . . . . . . . . . . . . . 97
III.5 Évaluation des performances des estimateurs . . . . . . . . . . . . . . . . . 98
III.5.1 Plan de simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
III.5.2 Présentation et analyse des résultats de simulation . . . . . . . . . 99
III.5.2.1 Variabilité des résultats . . . . . . . . . . . . . . . . . . . 100
III.5.2.2 Résultats numériques des simulations . . . . . . . . . . . . 100
III.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104

Appendices 105

B Annexe du Chapitre III 107


B.1 Résultats préliminaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107

vi
TABLE DES MATIÈRES

B.2 Démonstration de la proposition 24 . . . . . . . . . . . . . . . . . . . . . . 108


B.3 Démonstration de la proposition 25 . . . . . . . . . . . . . . . . . . . . . . 113
B.4 Démonstration de la proposition 26 . . . . . . . . . . . . . . . . . . . . . . 116
B.5 Démonstration du lemme 28 . . . . . . . . . . . . . . . . . . . . . . . . . . 118
B.6 Procédure de calcul des intégrales . . . . . . . . . . . . . . . . . . . . . . 120

IV Conclusion et perspectives 129


IV.1 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
IV.2 Perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130

Bibliographie 133

vii
Liste des tableaux

II.1 Résultats numériques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40


II.2 Données de Dumonceaux et Antle[16] . . . . . . . . . . . . . . . . . . . . 48
II.3 Données de Dumonceaux et Antle : résultats des estimations des méthodes
MMosLE, LSFP-MLE et BL . . . . . . . . . . . . . . . . . . . . . . . . . 48
II.4 Données de Dumonceaux & Antle : résultats des estimations d’autres mé-
thodes de la littérature . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
II.5 Estimation du biais et intervalle de confiance 95% par la méthode des
percentiles corrigées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

A.1 Métriques des estimateurs de la méthode LSPF-MLE[46] . . . . . . . . . 63


A.2 Métriques des estimateurs de la méthode Bayesienne(BL).[46] . . . . . . . 64

III.1 Résultats numériques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102

ix
Table des figures

I.1.1 Influence du paramètre de seuil sur le support d’une distribution P 3 . . . 3


I.1.2 Influence du paramètre de forme pour une distribution P 3 de paramètres
de localisation et de d’échelle fixées respectivement à 0 , 1 et un paramètre
de forme plus petit que 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
I.1.3 Influence du paramètre de forme pour une loi de Pearson de type III de
paramètres de localisation, de forme et d’échelle fixées respectivement à
0, 1 et 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
I.1.4 Influence du paramètre de forme pour une distribution P 3 de paramètres
de localisation et de d’échelle fixées respectivement à 0 et 1 pour un pa-
ramètre de forme plus grand que 1 . . . . . . . . . . . . . . . . . . . . . . 6
I.1.5 Influence du paramètre d’échelle pour une distribution P 3 de paramètres
de localisation et de de forme fixés respectivement à 0.0 et 1.0 pour un
paramètre d’échelle égal à 0.5, 1.0, 3.0 . . . . . . . . . . . . . . . . . . . . 7
I.1.6 influence du paramètre d’échelle pour une distribution P 3 de paramètres
de localisation et de forme fixés respectivement à 0.0 et 2.0 pour un pa-
ramètre d’échelle égal à 0.5, 1.0, 3.0 . . . . . . . . . . . . . . . . . . . . . . 7
I.2.1 Profile de Log-vraisemblance du paramètre de localisation . . . . . . . . . 9
I.2.2 Profile de Log-vraisemblance du paramètre de localisation . . . . . . . . . 11
I.2.3 Profile de Log-vraisemblance du paramètre de localisation . . . . . . . . . 12

II.5.1 Biais et erreur quadratique moyenne pour l’estimateur du paramètre de


forme basés sur 1000 échantillons . . . . . . . . . . . . . . . . . . . . . . . 41

x
TABLE DES FIGURES

II.5.2 Diagramme de dispersion . . . . . . . . . . . . . . . . . . . . . . . . . . . 42


II.5.3 Biais et RMSE de l’estimateur du paramètre de forme basés sur 1000
échantillons simulés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
II.5.4 Biais et RMSE de l’estimateur du paramètre de localisation basés sur 1000
échantillons simulés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
II.5.5 Biais et RMSE de l’estimateur du paramètre d’échelle basés sur 1000
échantillons simulés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
II.5.6 Biais et EQM basés sur 1000 échantillons simulés . . . . . . . . . . . . . . 47
II.6.1 Diagramme Quantile-Quantile basée sur les estimations des trois méthodes 50
II.6.2 Graphique illustratif de la qualité de l’ajustement . . . . . . . . . . . . . 51

III.3.1 Exemples de trajectoires du processus (III.3.1) . . . . . . . . . . . . . . . 79


III.3.2 Effet du paramètre d’amincissement sur la forme de la rélation entre Xt
et Xt−1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
III.5.1 Diagramme de dispersion representant la variabilité des estimations . . . 100
III.5.2 Variations des métriques en fonction du paramètre de forme basés sur
1000 séries de longueurs 20, 50 et 100 . . . . . . . . . . . . . . . . . . . . 103

xi
Liste des algorithmes

II.1 MM(Minoration-Maximisation) . . . . . . . . . . . . . . . . . . . . . . . . 37
II.2 Intervalle de confiance par la méthode des percentiles corrigées . . . . . . 52

III.1 Procédure de simulation du modèle(III.3.1) . . . . . . . . . . . . . . . . . . 78


III.2 MM pour le modèle de série temporelle . . . . . . . . . . . . . . . . . . . . 98

xii
Liste des algorithmes

Productions scientifiques liées à la thèse

Articles acceptés

— Etienne Ouindllassida Jean Ouédraogo, Blaise Somé, Simplice Dossou-Gbété,


On Maximum Likelihood Estimation for the Three Parameter Gamma Distribu-
tion Based on Left Censored Samples, Science Journal of Applied Mathematics and
Statistics. Vol. 5, No. 4, 2017, pp. 147-163. doi : 10.11648/j.sjams.20170504.14
— Etienne O. J. Ouédraogo, Pierre Clovis Nitiema, Simplice Dossou-Gbété, Time
series models with Pearson type III marginal, Global Journal of Pure and Applied
Mathematics. ISSN 0973-1768 Volume 13, Number 9 (2017), pp. 5901-5912.
— Pierre Clovis Nitiema, Jean Etienne Ouedraogo and Frederic Bere, L 1 Approxi-
mation and stochastic Modelling, Pioneer Journal of Mathematics and Mathematical
Sciences,Volume 18, Issue 2, Pages 109-122 (November 2016)
— Diakarya Barro & Jean Etienne Ouédraogo & Longin Somé. (2013). Survival
Analysis by Sampling Mixtures of Extremal Copulas. International Journal of Sta-
tistics and Economics. 11. 73-82.

Communications Orales

— Etienne OUEDRAOGO, Simplice DOSSOU-GBETE. Thinning Pearson type 3


distribution and modelling time series with Pearson type 3 marginal. Conférence
Internationale de Statistique Appliquée pour le Developpement en Afrique / Inter-
national Conference on Applied Statistics for Development in Africa(SADA’2013),
4-8 Mar 2013, COTONOU, Benin.
— Etienne OUÉDRAOGO, Simplice DOSSOU-GBETE. A new likelihood method
for three-parameter weibull distribution fitting, Conférence Internationale de Sta-
tistique Appliquée pour le Developpement en Afrique / International Conference
on Applied Statistics for Development in Africa(SADA’2016), 28 Nov-3 Dec 2016
Cotonou, Benin.
— Etienne OUEDRAOGO, Simplice DOSSOU-GBETE, Formulation and fitting
time series model with Pearson type 3 marginal. Cimpa-Sénégal, Université Gaston

xiii
Liste des algorithmes

Berger / Saint-Louis, 5-15 avril 2016, Méthodes statistiques pour l’évaluation des
risques extrêmes : application à l’environnement, l’alimentation et l’assurance.
— Simplice Dossou Gbete and Ouédraogo Etienne. A new likelihood method for
three-parameter gamma distribution fitting. 61st annual meeting of the Brazilian
Region of the International Biometric Society (RBras2016), Salvador, Brazil, May
23-25, 2016

xiv
Résumé

L’objectif de cette thèse est d’ajuster un modèle de Pearson de type 3 à une série d’ob-
servations. Selon que cette série est issue d’une population indépendante et identiquement
distribuée(iid) ou que l’hypothèse d’indépendance est mise à défaut, deux approches ont
été proposés.
Après une introduction générale qui a fait l’objet du premier chapitre, le chapitre II est
consacré à l’ajustement du modèle lorsqu’on est en présence de données indépendantes
et identiquement distribuée(iid). Compte tenu des bonnes propriétés des estimateurs par
maximum de vraisemblance d’une part et d’autre part en considérant les difficultés liées
à son application pour le cas du modèle de Pearson de type 3, nous avons proposé une
méthode basée sur la vraisemblance des n-1 plus grandes statistiques d’ordre. La vraisem-
blance obtenue étant complexe, sa maximisation a été possible par le biais d’un algorithme
Minoration-Maximisation(MM). N’ayant pas pu accéder à une forme analytique des esti-
mateurs proposés, une étude de simulation par Monte Carlo a permis de discuter de leur
performance en comparaison avec celle d’autres méthodes de la littérature.
Dans le chapitre III, nous avons regardé le cas où les données en présence sont identi-
quement distribuées sans pour autant être indépendantes. Un modèle autoregressif dou-
blement stochastique a été formulé et les propriétés étudiées. Le principe de construction
du modèle proposé est basé sur un opérateur d’amincissement convexe que nous avons
défini. Pour ajuster ce modèle à une série d’observations, une méthode de vraisemblance
conditionnelle a été proposée. Tout comme dans le cas iid, la complexité de la fonction de
vraisemblance obtenue, nous a conduit à faire appel à un algorithme MM en vue d’estimer
les paramètres du modèle. Des études par simulations Monte Carlo ont permis de discuter

xv
Liste des algorithmes

des performances des estimateurs proposés.

Mots clés : distribution de Pearson de type 3, distribution gamma à trois paramètres,


Estimation, vraisemblance, algorithme MM, statistiques d’ordre, séries temporelles,
autoregressif, doublement stochastique.

xvi
Abstract

The objective of this thesis is to fit a Pearson of type 3 model to a data set. Depending
on whether this dataset is from an independent and identically distributed population (iid)
or that the independence hypothesis is defaulted, two approaches have been proposed.
After a general introduction which was the subject of the first chapter, Chapter II is
devoted to fitting the model in the presence of data from an iid population. Given the good
properties of the maximum likelihood estimators on the one hand and on the other hand
considering the difficulties associated with its application for the Pearson type 3 model,
we proposed a method based on the likelihood of n − 1 largest order statistics. Since the
likelihood obtained is complex, its maximization has been possible by means of an MM
algorithm. Having not been able to access an analytical form of the proposed estimators,
a Monte Carlo simulation study allowed to discuss their performance in comparison with
that of other methods of the literature.
In chapter III, we looked at the case where the data in question are identically dis-
tributed but not independent. A doubly stochastic autoregressive model was formulated
and the properties studied. The principle of construction of the proposed model is based
on a convex thinning operator that we have defined. To adjust this model to a data set, a
conditional likelihood method has been proposed. As in the iid case, the complexity of the
obtained likelihood function led us to use an MM algorithm to estimate the parameters
of the model. Monte Carlo simulation studies allowed to discuss the performance of the
proposed estimators

Keywords : Pearson type 3 distribution, three-parameter gamma distribution, Estima-


tion, likelihood, MM algorithm, order statistics, time series, autoregressive, doubly

xvii
Abstract

stochastic.

xviii
Chapitre I
Introduction générale

Dans de nombreux domaines des sciences et de la technologie, les chercheurs sont sou-
vent confrontés à l’analyse statistique de données asymétriques. Ces types de situations
sont assez fréquents particulièrement en hydrologie[6] et en fiabilité[48]. Les données nu-
mériques utilisées dans ces domaines sont constituées de valeurs ne pouvant descendre en
deçà d’un certain seuil. En présence de ces types de données, le modèle de Pearson de type
III ou sa transformée logarithmique, entendons par là, le modèle log-Pearson de type III,
figure parmi les modèles les plus appropriés pour l’analyse statistique. D’autres modèles
comme celui de Weibull ou le modèle log-normal sont aussi cités dans la littérature comme
étant des modèles concurrents.
Pour le compte de cette thèse, notre intérêt s’est porté sur l’utilisation de la distribution
de Pearson de type III dont une description est proposée dans la section suivante.

I.1 Description de la distribution de Pearson de type III

La distribution de Pearson de type III appartient à la grande famille de modèles de pro-


babilité introduite par Karl Pearson vers la fin du 19e siècle pour pallier aux insuffisances
du modèle normale. Cette famille contient plusieurs autres modèles dont notamment la
distribution gamma classique, la distribution exponentielle, la distribution bêta et la dis-
tribution Pareto. Dans ce manuscrit, il sera seulement question du type III de cette famille.
Pour plus de détails sur les autres membres, le lecteur pourra consulter les travaux de
Glanzel (1991)[23], de Nair et Sankaran (1991)[47], ou encore le livre de Johnson, Kotz et

1
Chapitre I Introduction générale

Balakrishnan(1994)[48] et la thèse de Sindu(2002)[60].


Beaucoup plus connue dans la littérature sous le nom de distribution gamma à trois
paramètres, la distribution de Pearson de type III est une distribution continue dont le
support est l’ensemble des réels strictement supérieurs à un certain seuil. Cette distribu-
tion est contrôlée par un vecteur de trois paramètres θ = (ν, λ, β). Sa fonction de densité
et sa fonction de répartition sont respectivement définies par

(x − ν)λ−1
( )
x−ν
f (x|θ) = exp − 1(ν ,+∞) (x) (I.1.1)
β λ Γ (λ) β

Z x
F (x|θ) = f (u | θ) du, x > ν (I.1.2)
ν

où ν ∈ R, λ > 0 et β > 0 désignent respectivement le paramètre de localisation,


le paramètre de forme et celui d’échelle. La fonction λ → Γ (λ) dans l’équation (I.1.1)
désigne la fonction gamma usuelle.
Dans la suite de ce manuscrit, la distribution de Pearson de type III sera notée P 3 et
la réparametrisation adoptée sera (ν, λ, β) introduite dans l’équation (I.1.1).

I.1.1 Incidence des paramètres sur la forme et le support de la

distribution

Le paramètre de localisation ν ∈ R, encore appelé paramètre de seuil, limite le support


de la distribution. Il indique la valeur minimale en dessous de laquelle ne peuvent des-
cendre les valeurs des observations qui décrivent le phénomène étudié. Cet effet est illustré
par le graphique ci-dessous qui représente les fréquences d’observations tirées d’un modèle
P 3 de paramètres respectifs(ν = 5.0, λ = 5.0, β = 1.0) et (ν = 10.0, λ = 5.0, β = 1.0).

2
I.1 Description de la distribution de Pearson de type III

0.20
seuil
5.0
10.0
0.15
densité
0.10
0.05
0.00

5 10 15 20

Figure I.1.1 – Influence du paramètre de seuil sur le support d’une distribution P 3

Le paramètre de forme λ est un réel strictement positif dont la valeur régit la forme de
la distribution. Il contrôle à lui seul l’asymétrie de la distribution comme on peut bien le
constater à travers le coefficient d’asymétrie donné par Ca = √2 .
λ
Le fait que ce coefficient
soit toujours positif, prouve que la distribution est asymétrique à droite. L’ampleur de
cette asymétrie devient plus grande au fur et à mesure que λ prend des valeurs proches de
0. Afin d’illustrer l’effet de ce paramètre sur la forme de la distribution, nous proposons
trois cas de figure. Dans tous les cas le paramètre de seuil et celui d’échelle seront fixés
respectivement à ν = 0.0 et β = 1.0.
— Le premier cas concerne les valeurs du paramètre de forme plus petites que l’unité.

3
Chapitre I Introduction générale

λ = 0.25 λ = 0.5

100

40
80

30
densité
60
densité

20
40

10
20
0

0
0 1 2 3 4 0 2 4 6

x x

Figure I.1.2 – Influence du paramètre de forme pour une distribution P 3 de paramètres


de localisation et de d’échelle fixées respectivement à 0 , 1 et un paramètre
de forme plus petit que 1

Dans ce cas, la distribution présente une forme de « J inversé » avec une asymptote en
ν = 0. Elle n’admet donc pas de mode ni de queue à gauche. Les petites valeurs (valeurs
proches de ν) sont assez fréquentes. En revanche, les grandes valeurs se font rares.
— Lorsque λ = 1, la distribution garde la même forme que précédemment avec une
asymptote en ν = 0, comme le témoigne le graphique ci-dessous.

4
I.1 Description de la distribution de Pearson de type III

1.0
0.8
0.6
densité

0.4
0.2
0.0

0 2 4 6 8 10

Figure I.1.3 – Influence du paramètre de forme pour une loi de Pearson de type III de
paramètres de localisation, de forme et d’échelle fixées respectivement à
0, 1 et 1

Cependant on note une légère augmentation de la fréquence des valeurs s’éloignant de


celle du paramètre de seuil.
— Le dernier cas regroupe les valeurs du paramètre de forme plus grandes que l’unité.
Les graphes ci-dessous correspondent à celles des répartitions des fréquences d’ob-
servations tirées d’un modèle P 3 avec λ = 1.5 et λ = 2.0.

5
Chapitre I Introduction générale

0.5
forme
* 1.5
+ 2.0
0.4
0.3
densité

0.2
0.1
0.0

0 2 4 6 8 10

Figure I.1.4 – Influence du paramètre de forme pour une distribution P 3 de paramètres


de localisation et de d’échelle fixées respectivement à 0 et 1 pour un pa-
ramètre de forme plus grand que 1

La distribution a une forme de cloche de mode égal à ν + (λ − 1) β. Cependant, on note


toujours une faible fréquence des grandes valeurs et l’absence d’une queue à gauche.
Tout comme le paramètre de forme, le paramètre d’échelle β est strictement positif. Sa
valeur définit la dispersion des données. Une échelle plus grande étire la distribution tandis
qu’une valeur d’échelle inférieure la restreint. Pour illustrer l’influence de ce paramètre
sur la distribution, trois graphiques sont proposés et sur chaque graphique trois courbes
y sont représentées. Pour tous ces graphiques le paramètre de seuil est fixé à ν = 0 et le
paramètre de forme respectivement à λ = 1.0; 2.0. Les trois courbes de chaque graphique
ont été obtenues pour trois valeurs du paramètre d’échelle β = 0.5; 1.0; 3.0.

6
I.1 Description de la distribution de Pearson de type III

2.0
échelle
* 0.5
+ 1.0
− 3.0
1.5
densité

1.0
0.5
0.0

0 1 2 3 4 5

Figure I.1.5 – Influence du paramètre d’échelle pour une distribution P 3 de paramètres


de localisation et de de forme fixés respectivement à 0.0 et 1.0 pour un
paramètre d’échelle égal à 0.5, 1.0, 3.0

On peut y voir l’effet du paramètre d’échelle. Plus il prend de grande valeurs, plus la
courbe est étirée. Cela est plus visible dans le graphique suivant.

échelle
* 0.5
+
0.6

1.0
− 3.0
densité

0.4
0.2
0.0

0 1 2 3 4 5 6

Figure I.1.6 – influence du paramètre d’échelle pour une distribution P 3 de paramètres


de localisation et de forme fixés respectivement à 0.0 et 2.0 pour un pa-
ramètre d’échelle égal à 0.5, 1.0, 3.0

7
Chapitre I Introduction générale

L’étalage de la densité et donc la variabilité des observations augmente avec la valeur


du paramètre d’échelle. De plus, les queues deviennent de plus en plus épaisses au fur et
à mesure que le paramètre d’échelle prend des valeurs de plus en plus grandes. Ce qui
justifie une forte fréquence de grandes et de petites valeurs.
Cette influence des paramètres sur la forme et le support de la distribution n’est pas
sans conséquence sur l’inférence statistique.

I.2 Propriétés de la loi P 3 et leur conséquence sur

l’inférence statistique basé sur le maximum de

vraisemblance

D’ores et déjà, notons que le support de la distribution est borné à gauche par le para-
mètre de localisation. Si ce paramètre est inconnu la distribution P 3 n’est plus régulière et
beaucoup de situations indésirables peuvent se présenter lorsque la méthode du maximum
de vraisemblance est utilisée. Cela fait d’elle un élément de la famille de distributions non
régulières. Les détails sur cette famille de distribution sont proposés dans les travaux de
Richard L. Smith[61].
La fonction de log-vraisemblance du vecteur de paramètres θ associée à n réplications
indépendantes (x1 , x2 , ..., xn ) d’un modèle P 3 défini par l’équation (I.1.1) est donnée par

n
l (θ|x1 , ..., xn ) = (λ − 1) ln (xi − ν) − nλ ln β (I.2.1)
X

i=1
(xi − ν)
Pn
− n ln Γ (λ) − i=1
β

Un des principaux résultats des travaux de Richard L. Smith a consisté à montrer


que la fonction de log-vraisemblance(I.2.1) présente différentes formes selon la valeur du
paramètre de forme λ :
Le premier cas étudié concerne la plage de 0 à 1. Si le paramètre de forme y est
strictement compris, la fonction de vraisemblance tend vers l’infini lorsque le paramètre
de localisation ν est proche de la première statistique d’ordre que nous noterons x1:n . En

8
I.2 Propriétés de la loi P 3 et leur conséquence sur l’inférence statistique basé sur le
maximum de vraisemblance
guise d’illustration, les graphiques ci-dessous sont celles du profile de log-vraisemblance en
fonction du paramètre de localisation. Le premier est obtenu pour la valeur du paramètre
de forme λ = 0.001 et les deux autres graphiques correspondent à λ = 0.5, 0.99. Le
paramètre d’échelle étant fixé à 1 pour les trois courbes.

λ = 0.001
Profile de log−vraisemblance
200
0
−200
−600
−1000

0.0 0.5 1.0 1.5 2.0


Paramètre de localisation

λ = 0.5 λ = 0.99
−100
0
Profile de de log−vraisemblance

Profile de log−vraisemblance
−150
−100

−200
−200

−250
−300

0.0 0.5 1.0 1.5 2.0 0.0 0.5 1.0 1.5 2.0
Paramètre de localisation Paramètre de localisation

Figure I.2.1 – Profile de Log-vraisemblance du paramètre de localisation

On peut y voir la forme en « J » du profile de log-vraisemblance. Si le seul paramètre à


estimer est ν (λ, β supposés connus), alors la première statistique d’ordre est un estimateur
consistent et asymptotiquement efficace. Par contre si tous les paramètres sont inconnus,
et ν proche de x1:n , alors la fonction de log-vraisemblance serait non bornée.
Le second cas selon le découpage de Richard L. Smith concerne la plage 1 ≤ λ ≤ 2.
Pour n réplications d’une distribution P 3 de paramètres (ν0 , λ0 , β0 ), il existe une séquence
 
ν̂n , λ̂n , β̂n de solutions des équations de log-vraisemblance vérifiant :

1
 
lim lim P r |ν̂n − ν0 | > an− 2 = 0
a→+∞ n→+∞

9
Chapitre I Introduction générale

1
 
lim lim P r |λ̂n − λ0 | > an− 2 = 0
a→+∞ n→+∞

1
 
lim lim P r |β̂n − β0 | > an− 2 = 0
a→+∞ n→+∞

Le détail de la preuve des résultats ci-dessus peut être consulté dans [61]. Il ressort
donc que pour un nombre n de réplications assez grand, des estimateurs par maximum de
vraisemblance consistants existent. De plus il est démontré dans [61] que les variables aléa-
1
  1
 
toires n 2 λ̂n − λ0 et n 2 β̂n − β0 sont asymptotiquement normales. Conséquence, les
estimateurs par maximum de vraisemblance de λ et β existent et sont asymptotiquement
normaux. Par contre pour ce qui est du paramètre de localisation, seul l’existence d’un
estimateur par maximum de vraisemblance est garantie. Toutefois, il faut noter que ces
résultats sont juste asymptotiques. Il n’est donc pas exclu que pour certaines réplications
de taille n fixée, la fonction de vraisemblance n’ait aucun point maximum. Le profile de
log-vraisemblance, fonction du paramètre de localisation est ci-dessous représente avec le
paramètre d’échelle fixé à β = 1.0 et pour trois valeurs différentes du paramètre de forme.

10
I.2 Propriétés de la loi P 3 et leur conséquence sur l’inférence statistique basé sur le
maximum de vraisemblance

λ=1

−100
Profile de log−vraisemblance
−150
−200
−250
−300

0.0 0.5 1.0 1.5 2.0


Paramètre de localisation

λ = 1.5 λ = 1.99

−240 −220 −200 −180 −160


−140
Profile de de log−vraisemblance

Profile de log−vraisemblance
−220 −180 −260

−260

0.0 0.5 1.0 1.5 2.0 0.0 0.5 1.0 1.5 2.0
Paramètre de localisation Paramètre de localisation

Figure I.2.2 – Profile de Log-vraisemblance du paramètre de localisation

Ces graphiques laissent voir que pour des valeurs du paramètre de forme proches de 2,
le profile de log-vraisemblance admet un point maximum.
Si λ > 2, l’existence d’estimateurs par maximum de vraisemblance n’est pas remise
en cause. Mieux encore, ces estimateurs sont asymptotiquement normaux pour tous les
paramètres. Toutefois, selon Johnson Kotz et Balakrishnan[48] les estimateurs par maxi-
mum de vraisemblance sont instables surtout si le paramètre de forme est voisin de 2.
Ils suggèrent à cet effet de ne les utiliser que lorsque λ > 2.5. Le paramètre d’échelle
étant toujours fixé à 1.0, nous proposons de représenter le profile de log-vraisemblance en
fonction du paramètre de localisation et pour différentes valeurs du paramètre de forme.

11
Chapitre I Introduction générale

λ = 2.5

−180
Profile de log−vraisemblance
−240 −220 −200
−260

0.0 0.5 1.0 1.5 2.0


Paramètre de localisation

λ=3 λ=5

−200
Profile de de log−vraisemblance
−200

Profile de log−vraisemblance
−240 −220
−220

−260
−240

−280
−260

0.0 0.5 1.0 1.5 2.0 0.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5
Paramètre de localisation Paramètre de localisation

Figure I.2.3 – Profile de Log-vraisemblance du paramètre de localisation

Lorsque le paramètre de forme prend des valeurs plus grandes que 2.5, le profile de
log-vraisemblance présente une forme en cloche.
La faiblesse de la classification de Richard L. Smith vient du fait qu’en général dans
la vie réelle, la valeur du paramètre de forme n’est pas connue à priori. Tout récemment,
d’autres conditions plus pratique sur l’existence de solutions des équations de vraisem-
blance furent proposées par Tzavelas[67]. Son premier résultat, qui est aussi la base de
son raisonnement, fut de montrer que les équations de vraisemblance peuvent se résumer
en une seule équation de la forme F (ν|x1 , x2 , ..., xn ) = 0, où ν désigne le paramètre de
seuil et les (xi )i=1:n , une séquence de n réplications indépendantes d’une distribution P 3.
L’étude des propriétés de la fonction F (.) lui a permit de formuler des conditions d’exis-
tence de solutions des équations du maximum de vraisemblance basées sur le moment
empirique d’ordre 3, c’est à dire µ3 = n−1 (xi − x̄)3 comme suit :
P

Si µ3 < 0, les équations de log-vraisemblance admettent au moins une solution.


Par contre, si µ3 > 0, deux cas de figures se présentent : Soit qu’il n’existe aucune
solution , soit il en existe au moins 2. Bien que le dernier cas manque de précision, il faut

12
I.2 Propriétés de la loi P 3 et leur conséquence sur l’inférence statistique basé sur le
maximum de vraisemblance
noter que cette classification revêt d’un intérêt d’ordre pratique, en ce sens qu’elle est
seulement fonction des observations.

I.2.1 État de l’Art

I.2.1.1 Quelques propositions de solutions

En dépit des problèmes liés à l’estimation par maximum de vraisemblance, certains


auteurs restent convaincu que cette méthode reste incontournable moyennant quelques
améliorations. S’il est fort probable que cette motivation soit due en partie aux bonnes
propriétés des estimateurs habituellement obtenus, force est de savoir que d’autres résul-
tats militent aussi en faveur de cette méthode. En effet, Akahira au cours de ses travaux[1]
prouve que si λ < 2, aucun autre estimateur du paramètre de seuil ne peut converger plus
vite que celui du maximum de vraisemblance. Sauf que si le paramètre de seuil est proche
du premier statistique d’ordre x1:n , la fonction de log-vraisemblance classique n’est plus
bornée. Néanmoins, d’autres auteurs comme Richard L. Smith proposent de prendre x1:n
comme un estimateur du paramètre de seuil lorsque λ < 2, quitte à ce que la fonction de
vraisemblance soit légèrement modifiée. Il propose dans ce cas l’utilisation de la vraisem-
blance
n
L̃n (ν, λ, β|x1 , ..., xn ) = n−1 log f (xi:n , ν, λ, β)
X

i=2

obtenue en excluant l’observation minimale de la fonction de vraisemblance classique. Il


montre que pour λ < 2, ses estimateurs possèdent les propriétés d’efficacité et de normalité
asymptotique et propose d’ailleurs que ces estimateurs soient utilisés comme critère de
distinction du cas λ < 2 et le cas λ > 2 puisque la valeur du paramètre de forme n’est
généralement pas connue a priori.
Fisher[19] montre que les estimateurs de la méthode des moments des paramètres de la
famille de distribution P 3 ne sont efficaces que dans les cas où les estimateurs du maximum
de vraisemblance sont asymptotiquement normaux. Par conséquent, il recommande la
méthode d’estimation par maximum de vraisemblance.
Convaincus que la solution passera par la méthode de maximum de vraisemblance, les
auteurs comme Harter & Moore[26] et Bai & al.[2] préfèrent se concentrer plutôt sur la

13
Chapitre I Introduction générale

méthode de résolution des équations de vraisemblances. Les premiers cités proposent une
procédure itérative pour résoudre les équations de vraisemblance de façon simultanée.
Et au cas où il n’existerait pas de solution, ils suggèrent de prendre la première statis-
tique d’ordre comme estimateur du paramètre de seuil. Cheng & Iles[11] prétendent que
l’utilisation de la vraisemblance usuelle n’est pas adapté à l’estimation des paramètres
de la famille des distributions non régulières. Ils proposent alors la méthode de vrai-
semblance corrigée dans laquelle la fonction de densité f (x1:n , ν, λ, β) est remplacée par
f (x, ν, λ, β) dx, où x1:n désigne la première statistique d’ordre et h > 0 un para-
R x1:n +h
x1:n

mètre à déterminer. Malheureusement le choix de h pose d’énormes difficultés pratiques.


Hirose[27] pour sa part propose de réparamètrer la distribution de P 3 et estimer les
paramètres par au moyen d’une méthode dite predicteur-correcteur(PCM). Mais sa pro-
position rencontre des problèmes d’ordre pratiques liés au choix du point initial de l’algo-
rithme. Pour l’améliorer, il propose quatre ans plus tard, une étape de rectification dans
l’algorithme de départ.
Les travaux de Bowman & Shenton[7] vont plus tard mettre à nue une autre insuffi-
sance de la méthode du maximum de vraisemblance lorsqu’elle est utilisée pour estimer
les paramètres d’un modèle P 3. En effet, dans les cas où ces estimateurs existent, ils
établissent que leur variance asymptotique n’existent pas souvent. Mais cette limite ne
saurai décevoir certains auteurs comme Tzavelas[68] qui va d’ailleurs proposer en 2009
un programme de résolution des équations de vraisemblance sous le logiciel Mathematica.
Cependant, bien que les résultats numériques obtenus soient voisins à ceux de ses compé-
titeurs, l’absence de résultats asymptotiques ne permet pas d’apprécier les propriétés de
ses estimateurs. De plus, aucune alternative n’a été proposée au cas où les équations de
vraisemblance n’admettraient pas de solutions.

I.2.1.2 Alternatives à la méthode du maximum de vraisemblance pour


l’ajustement de la distribution P 3

A la vue des problèmes liés à l’estimation par maximum de vraisemblance lorsque celle
ci est utilisée pour estimer les paramètres de la distribution P 3, diverses méthodes alterna-
tives ont été proposées. Soit en se basant sur la méthode des moments ou sur des méthodes

14
I.2 Propriétés de la loi P 3 et leur conséquence sur l’inférence statistique basé sur le
maximum de vraisemblance
bayesiennes ou encore sur diverses autres méthodes, plusieurs auteurs ont oeuvrés à l’es-
timation des paramètres des membres de la famille des distributions dites non régulières.
Parmi eux, on peut citer Cohen & Whitten[12, 13], Cheng & Amin[10], Balakhrisnan &
al.[4, 45, 46] ou encore Wang & Hall[25]. Plusieurs modifications de la méthode des mo-
ments ont été apportées par Cohen & Whitten. Considérant que la méthode classique des
moments consiste à égaler les trois premiers moments empiriques aux moments théoriques
correspondants, Cohen & Whitten[12, 13] proposent par exemple de remplacer l’équation
impliquant le moment d’ordre trois par une fonction de la première statistique d’ordre.
Cheng & Amin[10] proposent la méthode MPS(Maximum Product of Spacings method).
Cette méthode consiste à maximiser la moyenne géométrique des « espaces entre les ob-
servations » noté Di = f (x|ν, λ, β) dx. Des estimateurs consistants ont été obtenus
R xi:n
xi:n −1

sous des conditions plus générales que celles du maximum de vraisemblance. Balakhrisnan
& al.[4] proposent des estimateurs simples et efficaces basés sur les statistiques d’ordres.
Cette méthode a l’avantage de fournir des estimateurs sous une forme explicite. Wang &
Hall[25]définissent une vraisemblance bayesienne, qui en d’autres termes, est une pénali-
sation de la fonction de vraisemblance classique. L’un des atouts de cette pénalisation a
été de contenir l’explosion de la fonction de vraisemblance lorsque le paramètre de seuil
est proche de la première statistique d’ordre.
Dans le même ordre d’idée, Nagatsuka et ses collaborateurs ont proposés la méthode
LSPF(Location and scale Parameters Free) qui consiste à remplacer l’échantillon de dé-
part X1 , X2 , ..., Xn par les statistiques Wi:n = Xi:n −X1:n
Xn:n −X1:n
, où Xi:n désigne la ieme statistique
d’ordre. On peut remarquer que si X1 , X2 , ..., Xn représentent n réplications indépendantes
d’une distribution de Pearson de type III, alors les statistiques Wi:n , i = 1, ..., n sont indé-
pendantes du paramètre de seuil ainsi que du paramètre d’échelle. Pour estimer le para-
mètre de forme λ, il a suffit à Nagatsuka & al. de maximiser la vraisemblance construite
autour des statistiques Wi:n en prenant le soin d’exclure les deux variables dégénérées W1:n
et Wn:n . Une fois l’estimateur de λ obtenu, les deux autres sont déduit au moyen d’une
technique de correction de biais. Une des faiblesses de cette méthode est que les variables
W1:n et Wn:n sont dégénérées et ne sont pas pris en compte dans l’estimation de λ. La perte
éventuelle de l’information liée à cette exclusion réduit certainement les performances de

15
Chapitre I Introduction générale

l’estimateur du paramètre λ et de façon indirecte celles des deux autres. Nagasuka & al.
essayent de l’améliorer et réussissent à réduire le nombre de variables dégénérées en une
variable en proposant la méthode LPF(Location parameter free). Les variables de départ
sont cette fois-ci remplacées par les statistiques Vi:n = Xi:n − X1:n , i = 1, 2, ..., n. Il est
claire que les statistiques Vi:n , i = 1, 2, ..., n ne dépendent plus du paramètre de seuil,
étant donné que X1 , X2 , ..., Xn sont n réplications indépendantes d’une distribution P3 .
Seule la variable V1:n est dégénérée. Les estimateurs des paramètres de forme et d’échelle
seront obtenus en maximisant la vraisemblance des statistiques Vi:n , mais seul l’estimateur
du paramètre de forme λ sera retenu à cause de la piètre performance des estimations
du paramètre d’échelle. Les estimateurs des paramètres restant seront tirés de la vrai-
semblance classique, après avoir y injecté l’estimateur obtenu. Même si les estimateurs
semblent performants sur la base d’erreur quadratique moyenne et du biais des estima-
tions, il faut noter qu’une des faiblesses de ses méthodes provient certainement du fait
que les estimateurs sont obtenus en deux étapes.

I.3 Quelques domaines d’utilisation du modèle P 3

I.3.1 La Distribution P 3 comme modèle de durée

Le dictionnaire Larousse définie la fiabilité comme étant la probabilité pour qu’une


pièce primaire, un dispositif ou un équipement complet soit utilisé sans défaillance pen-
dant une période de temps déterminée, dans des conditions opérationnelles spécifiées. Une
des particularités des méthodes statistiques utilisées dans ce domaine vient du fait que les
variables statistiques utilisées modélisent des durées de vie et par conséquent sont toutes
positives ou nulles. De ce faite, seules les distributions à support positif seront considé-
rées. Plusieurs caractéristiques sont utilisées pour l’étude de la fiabilité d’un dispositif.
Parmi elles on peut citer la fonction de fiabilité qui désigne la probabilité qu’un dispositif
fonctionne jusqu’à un temps x0 . Elle est définie par R (x0 ) = 1 − F (x0 ) où F (.) désigne la
fonction de probabilité cumulée de la variable X modélisant la durée de fonctionnement
du dispositif considéré. Dans le domaine biomédical, la fonction de fiabilité est encore
appelée fonction de survie.

16
I.3 Quelques domaines d’utilisation du modèle P 3

Une autre caractéristique de la fiabilité probablement la plus populaire, est sans doute
le taux de défaillance ou taux d’avarie en un instant x définie par t (x) = − h(x)
1 dR(x)
dx
.
Cette popularité est en partie due à sa facilité d’interprétation. En effet, Gnedenko et al.
dans son livre[24] montre que t (x) dx est sensiblement égal à P (x < X < x + dx|x ≤ X).
Partant de cela, le terme t (x) dx peut être assimiler à la probabilité conditionnelle qu’un
dispositif tombe en panne dans l’intervalle de temps ]x, x + dx[ sachant qu’il a fonctionné
jusqu’au temps x. En d’autres termes, pour un léger incrément de temps dx, t (x) dx
représente la probabilité qu’un dispositif pris au hasard parmi ceux en fonctionnement
après le temps x, tombe en panne avant l’instant x + dx.
Le comportement de cette fonction permet de distinguer trois phases sur la vie d’un
dispositif depuis sa mise en service :
— Une première phase caractérisée par un taux de défaillance décroissant avec le temps
de fonctionnement. Cette période est appelée période de jeunesse. Les pannes sont
généralement dues à des erreurs de fabrications et de montages.
— Après le remplacement des pièces défaillantes détectes lors de la période de jeunesse,
le dispositif retrouve un taux de défaillance constant. C’est la période de vie utile
ou de panne fortuite.
— La dernière phase est caractérisé par un taux de défaillance croissant avec le temps
de fonctionnement. C’est la période de vieillissement.
Pour certains auteurs, l’utilisation de la distribution de Pearson de type III et de Weibull
trouve sa justification dans les propriétés de la fonction du taux de défaillance associée.
En effet pour ces distributions sus-citées la fonction du taux de défaillance dépend du
paramètre de forme. Elle est croissante si le paramètre de forme est plus grand que l’unité
et devient constant si le paramètre de forme est très proche de l’unité. Elle décroît en
revanche si le paramètre de forme est plus petit que 1. Cette fonction est donc capable
de décrire toutes les étapes de la vie d’un dispositif. De plus, contrairement au modèle
de Weibull, le modèle P 3 admet une fonction de taux de défaillance tendant à se sta-
biliser autour d’une constante (l’inverse du paramètre d’échelle) au fur et à mesure que
la durée de fonctionnement du dispositif s’augmente. Fort de cet argument, Bain et ses
collaborateurs[3](p.294) suggèrent que la distribution P 3 soit utilisée pour modéliser la

17
Chapitre I Introduction générale

durée de vie des dispositifs ayant un programme de maintenance régulier. La principale


raison étant que le dispositif devrait atteindre un état de stabilité au bout d’un certain
temps de fonctionnement pour cause de maintenance. Pour Gnedenko et ses collabora-
teurs [24](p.99) ce modèle est commode pour modéliser toute durée de vie présentant une
distribution unimodale et asymétrique.

I.3.2 Distribution de Pearson III comme modèle des phénomènes

hydrologiques

Le logarithme de la variable hydrologique mesurant des crues annuelles maximales est


généralement modélisé par une distribution de Pearson de type III. On dit aussi que la
variable crue annuelle maximale suit un modèle log-Pearson de type III. La genèse de
cette idée remonte dans les années 1924 avec les travaux de Foster[20], mais il faudra
attendre plus d’un demi siècle après pour que ce modèle devienne l’un des plus utilisés en
hydrologie. En effet au cour de cette période, plusieurs pays ont entrepris des études glo-
bales à partir de données observées afin d’arriver à recommander une procédure uniforme
d’estimation des crues. Ces travaux ont aboutit à l’utilisation systématique du modèle log-
Pearson III aux États Unis[14], en Australie[51] et en Allemagne[43]. Depuis cette période,
les travaux relatifs à l’application du modèle log-pearson III pour modéliser des variables
hydrologiques n’ont cessé de se multiplier. Parmi ces travaux, on peut citer ceux de Mc-
Mahon et Srikanthan[42], qui, après avoir analysé des données de crues recueillies sur 172
sites, ont recommandés l’utilisation du modèle Log-Pearson III. Les travaux de McMahon
et al.[41] sur des séries de crues annuelles maximales de 974 stations aboutissent au même
résultat. D’autres auteurs dont Phien & al.[54] et Koumassi & al.[34] soutiennent que
l’application de la distribution Log-Pearson III en hydrologie peut s’étendre à la modé-
lisation d’autres phénomènes hydrologiques comme les précipitations. Khosravi & al.[32]
testent le modèle log-Pearson III, le modèle log-normal à deux paramètres sur une série de
débits moyens annuels et une autre de débits annuels maxima. Ils conclurent en faveur du
modèle log-Pearson de type III. Olofintoye et al.[52] testent le modèle log-pearson III et
cinq autres modèles sur une série de précipitations maximales journalières recueillie dans
20 stations au Nigeria et concluent que le modèle log-pearson III est le meilleur modèle.

18
I.4 Des outils utilisés pour l’inférence statistique : les algorithmes MM

I.4 Des outils utilisés pour l’inférence statistique : les

algorithmes MM

I.4.1 Principe d’un algorithme MM

Le principe des algorithmes MM consiste principalement à substituer l’optimisation


d’une fonction objectif Ψ, difficile à optimiser, par celle d’une autre dite auxiliaire Q, ayant
l’avantage d’être plus facile à optimiser. L’optimum de cette dernière étant un optimum
local de la fonction Ψ. Selon que l’on est confronté à un problème de Minimisation ou de
Maximisation, l’acronyme MM de ces algorithmes signifie « Majoration-Minimisation » ou
« Minoration-Maximisation »[35, 28, 36]. Notre intérêt est porté sur la version minoration-
maximisation de cet algorithme. De façon plus spécifique, considérons le problème de
maximisation suivant :

argmaxx∈χ Ψ (x) (I.4.1)

où Ψ désigne la fonction objective définie sur un domaine χ. La mise en oeuvre d’un al-
gorithme MM pour le problème(I.4.1)commence par la recherche d’une fonction auxiliaire
Q définie sur l’espace cartésien χ × χ et vérifiant la propriété suivante :

Ψ (x) ≥ Q (x|x0 )

Ψ (x0 ) = Q (x0 |x0 )

pour tout (x, x0 ) ∈ χ × χ. Les fonctions x → Q (x|x0 ) vérifiant la propriété ci-dessus sont
aussi appelées fonctions minorantes de Ψ au sens de l’algorithme MM.
En général, la construction de la fonction minorante Q se fait par le biais d’inégalités
mathématiques comme l’inégalité de la moyenne, l’inégalité de Cauchy-Schwartz, l’inéga-
lité de Jensen, etc... Une fois la fonction auxiliaire obtenue, un algorithme MM alterne les
deux étapes suivantes :

La première étape consiste, à l’itération t, à calculer Q (x|xt−1 ) pour xt−1 fixé.

19
Chapitre I Introduction générale

La seconde est celle de la maximisation. Elle consiste à trouver xt tel que

xt = argmax {Q (x|xt−1 ) , x ∈ χ}

I.4.2 De la convergence des algorithmes MM

Les algorithmes MM peuvent être vu comme une généralisation des algorithmes EM


qui, eux sont utilisés en situation de données manquantes ou censurées[35]. La convergence
des algorithmes MM a fait l’objet de discussion dans plusieurs travaux, parmi lesquels on
peut citer les papiers de Kenneth Lange[35], de Wu Jeff[29] et de Florin Vaida[69]. La
plupart des propriétés de convergence proposées par les deux premiers cités reposent sur
la fonction objectif et sont souvent difficiles à vérifier en pratique. En revanche, celles de
Vaida[69] sont basées sur la fonction minorante Q. Nous reprenons ici quelques uns de ses
résultats relatifs aux algorithmes EM mais sont tout aussi valables pour les algorithmes
MM[69].
Le premier résultat donne les conditions de continuité du schéma de mise à jour des
itérés d’un algorithme MM.

Lemme 1. Désignons par M (x) un maximiseur de la fonction minorante x → Q (x|.).


Si Q (x|.) admet un unique point maximum, alors la fonction x → M (x) est continue[69].

Ce résultat facile à vérifier en pratique joue un rôle important en particulier dans le


théorème suivant dû à Vaida.

Théorème 2. Supposons le résultat précèdent vérifié et soit x0 un point fixé. Toute suite
d’itérés d’un algorithme MM converge vers un point stationnaire x∗ de la fonction objectif.
De plus x∗ est un point fixe de la fonction x → M (x) et tant que xt serait différent de
x∗ , la suite de valeurs {f (xt )}t≥1 est non décroissante.

En d’autres termes, si la fonction minorante est convexe(ou concave), toute séquence


d’itérés d’un algorithme MM converge vers un point stationnaire de la fonction objectif. De
plus, ce point est atteint lorsque deux itérés successifs de l’algorithme sont suffisamment
proches.
Notons que les conditions dans le théorème ci-dessus reposent uniquement sur la fonc-
tion minorante et sont faciles à vérifier en pratique. Ces conditions sont d’ailleurs presque

20
I.5 Objectifs et démarche de nos travaux

toujours vérifier dans le cadre des algorithmes MM en ce sens que la fonction minorante
est généralement convexe(ou concave) par construction.
Il est aussi important de signaler que le point de convergence de l’algorithme est tout
simplement un point stationnaire de la fonction objectif. Le théorème n’exclut donc pas
que ce point soit un point minimum ou un point-selle. Toutefois il serait souhaitable
de vérifier, à travers la matrice hessienne par exemple, la nature exacte du point de
convergence une fois le résultat obtenu.

I.5 Objectifs et démarche de nos travaux

Les attentes de cette thèse peuvent se résumer en deux grands points :


Premièrement, nous espérons apporter notre contribution à la résolution de certains
problèmes liés à l’utilisation de la méthode du maximum de vraisemblance pour l’ajuste-
ment du modèle P 3 à une série d’observations indépendantes et identiquement distribuées.
Vue l’importance de la première statistique d’ordre dans les propriétés du modèle, nous
comptons développer une approche focalisée sur les statistiques d’ordres.
En présence d’observations non-indépendantes mais identiquement distribuées selon un
modèle P 3, nous nous plaçons dans un cadre temporel. Dans une telle situation, nous
escomptons formuler et ajuster un modèle autorégressif d’ordre 1.
Pour ce faire, dès le chapitre suivant nous nous consacrerons à la proposition d’une
méthode basée sur le principe du maximum de vraisemblance pour ajuster un modèle P 3
à des observations indépendantes et identiquement distribuées. De façon spécifique, nous
développons une vraisemblance marginale basée sur les n − 1 plus grandes statistiques
d’ordres. Compte tenue de la complexité des fonctions de vraisemblances obtenues, un
algorithme itératif de type MM( Minoration-Maximisation)[35, 28, 36] a été mis en oeuvre
pour la maximisation. Ensuite, pour la méthode proposée, des études de simulations par
Monte Carlo ont permis de discuter des qualités des estimateurs proposés.
Le chapitre 3 est consacré à la formulation et à l’ajustement d’un modèle de série
temporelle dont les marges sont distribuées selon un modèle P 3. Ce modèle peut être
vue comme une extension du modèle proposé par Joe Harry [30]. Pour l’ajustement du
modèle, une méthode de vraisemblance conditionnelle a été proposée et implémentée. Tout

21
Chapitre I Introduction générale

comme dans le précèdent chapitre, la partie maximisation est développée via un algorithme
MM, et des études de simulations Monte-Carlo ont permis d’étudier le comportement des
estimateurs obtenus.
Le point de ces chapitres et des perspectives pour des travaux futurs viendront clôturer
ce manuscrit.

22
Chapitre II
Une méthode de vraisemblance marginale
pour l’ajustement d’un modèle P 3 à une série
d’observations indépendantes et
identiquement distribuées.

II.1 Introduction

La méthode de vraisemblance marginale dans sa version classique consiste à trouver une


statistique dont la distribution dépend seulement de certains paramètres dits d’intérêt,
les autres étant considérés comme des paramètres de nuisances. Cette distribution est
appelée vraisemblance marginale des paramètres d’intérêts. Sous certaines conditions de
régularité, cette vraisemblance contient toute ou une bonne partie de l’information sur les
paramètres d’intérêts et peut donc servir à estimer ces paramètres. Le lecteur intéressé
pourra se référer au livre de Pawitan ou à celui de Rhode[53, 58]. Celle développée dans ce
chapitre est basée sur les n − 1 plus grandes statistiques d’ordre. Certes, la vraisemblance
obtenue est toujours fonction de tous les paramètres du modèle -chose qui ne rentre pas
dans le cadre de la vraisemblance marginale classique - mais il faut noter qu’elle ne dépend
plus de la première statistique d’ordre. Cette méthode pourrait servir donc d’alternative
à la vraisemblance complète dont l’application au cas de la distribution gamma à trois
paramètres pose problème lorsque le paramètre de position est très proche de la première

23
Chapitre II Une méthode de vraisemblance marginale pour l’ajustement d’un modèle
P 3 à une série d’observations indépendantes et identiquement distribuées.
statistique d’ordre. La maximisation de la fonction de log-vraisemblance obtenue se fait
par le biais d’un algorithme Minoration-Maximisation(MM).
Le reste du chapitre est organisé comme suit. La prochaine section présente la fonction
de vraisemblance du vecteur des paramètres θ et la troisième section est consacrée à
la description et à la mise en oeuvre d’un algorithme MM pour la maximisation. Une
évaluation empirique des performances des estimateurs basée sur des études de simulations
par Monte-Carlo est présentée à la quatrième section. La dernière section est consacrée à
une discussion des résultats.

II.2 Vraisemblance marginale basée sur les statistiques

d’ordre

Dans le cadre de l’ajustement d’un modèle gamma à trois paramètres à une série d’ob-
servations, il est bien connu que lorsque le paramètre de localisation est proche de la
première statistique d’ordre, la vraisemblance complète n’est plus bornée. Des informa-
tions plus détaillées à cet effet peuvent être consultées dans[61].
L’idée maîtresse de la méthode de la vraisemblance marginale développée dans ce cha-
pitre consiste à considérer la première statistique d’ordre comme une variable de nuisance
que nous extirpons de la fonction de vraisemblance complète. De façon, plus spécifique,
considérons X1 , X2 , ..., Xn une suite de variables aléatoires indépendantes et identique-
ment distribuées selon une loi gamma à trois paramètres de fonction de répartition F (x|θ)
et de fonction de densité f (x|θ), où θ = (λ, ν, β) désigne le vecteur des paramètres du
modèle. Soit X1:n , X2:n , ..., Xn:n une séquence de statistiques d’ordre associées au n-upplet
(Xi )i=1:n . Considérons (x1 , x2 , ..., xn ) et (x1:n , x2:n , ..., xn:n ) les réalisations respectives des
n-upplet (Xi )i=1:n et (Xi:n )i=1:n . Un résultat général tiré du livre de Nagaraja[15] nous dit
que la densité conjointe des n statistiques d’ordre est donnée par :

n
f(Xi:n )i=1:n (u|θ) = n! f (ur | θ) 1{ν≤u1 <u2 <...<un } (u) ,
Y

r=1

24
II.2 Vraisemblance marginale basée sur les statistiques d’ordre

où u = (u1 , u2 , ..., un ). De ce dernier résultat et du fait que F (ν|θ) = 0, il découle que

Z u2 n
f(Xi:n )i=1:n (u|θ) du1 = n!F (u2 | θ) f (ur | θ)
Y
ν r=2

qui ne dépend plus de u1 . Partant de là, nous proposons la définition suivante :

Définition 3. Soit (xr )r=1:n un échantillon de taille n tiré d’une population de distribution
F et de fonction de densité f . Soit θ le vecteur des paramètres inconnus. On appelle
fonction de vraisemblance marginale basée sur les statistiques d’ordre , la fonction définie
par :

n
l (θ|xr:n ,r = 1 : n) = n!F (x2:n | θ) f (xr:n | θ) (II.2.1)
Y

r=2

où xr:n désigne la reme statistique d’ordre basée sur la série d’observations(xr )r=1:n .

Corollaire 4. Soit (xr )r=1:n un échantillon de taille n tiré d’une population de distribution
P 3 et soit θ le vecteur des paramètres inconnu. La fonction de log-vraisemblance marginale
basée sur les statistiques d’ordre de θ est définie par :

L (θ | x2:n , · · · ,xn:n ) = log (n!) − (n − 1) λ log (β) − (n − 1) log (Γ (λ))


n n
+λ log (xr:n − ν) − log (xr:n − ν) (II.2.2)
X X

r=2 r=2
1 n
(xr:n − ν) + λ log (x2:n − ν)
X

β r=2
1 1
( Z 1 ( ) )
+ log uλ−1 exp − (x2:n − ν) u du
β Γ (λ) 0
λ β

Démonstration.
De la définition 3, il ressort que la fonction de vraisemblance est donnée par l (θ|xr:n ,r = 1 : n) =
n
n!F (x2:n | θ) f (xr:n | θ) . En y injectant les fonctions (I.1.1) et (I.1.2) et en prenant le
Y

r=2
log de chaque côté de l’égalité, on obtient le résultat.

25
Chapitre II Une méthode de vraisemblance marginale pour l’ajustement d’un modèle
P 3 à une série d’observations indépendantes et identiquement distribuées.
Il est clair que la fonction de log-vraisemblance(II.2.2) est moins informative que la
fonction de vraisemblance complète, puisqu’elle ne prend pas en compte la totalité des
données. Par contre, moyennant la prise en compte de la contrainte x1:n − ν > 0 , la
fonction de vraisemblance proposée est desormais bornée. L’utilisation de cette contrainte
se fera de façon naturelle via la méthode d’optimisation utilisée. Nous y reviendrons dans
les paragraphes à venir.
Une fois que la fonction de log-vraisemblance est obtenue, la phase suivante consiste à
trouver un estimateur θb de θ qui maximise la fonction de log-vraisemblance.

II.3 Inférence statistique

La procédure standard de la maximisation de la fonction de log-vraisemblance com-


mence par la recherche d’éventuels zéros de la fonction de score dont les composantes
sont obtenues par simple différentiation de la partie à droite de l’équation (II.2.2). Pour
faire simple, les notations suivantes seront adoptées :

1
Z 1 " ( )#
G (λ, ν, β) =
ui
log (u) u exp − (x2:n − ν) u
i λ
du, ∀i = 1, 2
0 β

1
Z 1 ( )
G (λ, ν, β) = u exp − (x2:n − ν) u du
λ
0 β

Des notations ci-dessus, il vient que

∂ log G (λ − 1, ν, β) Gu1 (λ − 1, ν, β)
=
∂λ G (λ − 1, ν, β)

∂ log G (λ − 1, ν, β) G (λ, ν, β)
=
∂ν βG (λ − 1, ν, β)

∂ log G (λ − 1, ν, β) (x2:n − ν) G (λ, ν, β)


=
∂β β 2 G (λ − 1, ν, β)

∂Gu1 (λ − 1, ν, β)
= Gu2 (λ − 1, ν, β)
∂λ

26
II.3 Inférence statistique

∂G (λ − 1, ν, β)
= Gu1 (λ − 1, ν, β)
∂λ

∂G (λ, ν, β)
= Gu1 (λ, ν, β)
∂λ

∂G (λ, ν, β)
= G (λ + 1, ν, β)
∂ν

∂G (λ − 1, ν, β)
= G (λ, ν, β)
∂ν

∂G (λ, ν, β) (x2:n − ν)
= G (λ + 1, ν, β)
∂β β2

∂G (λ − 1, ν, β) (x2:n − ν)
= G (λ, ν, β)
∂β β2

Par suite

∂L (θ|x2:n , · · · , xn:n ) n
= −n log (β) − nΨ (λ) + log (xr:n − ν) + log (x2:n − ν)
X
∂λ r=2
Gu1 (λ − 1, ν, β)
+
G (λ − 1, ν, β)

∂L (θ|x2:n , · · · , xn:n ) n
1 n
1 λ n−1
= −λ +
X X
− −
∂ν r=2 xr:n − ν r=2 xr:n − ν x2:n − ν β
G (λ, ν, β)
+
βG (λ − 1, ν, β)

∂L (θ|x2:n , · · · , xn:n ) 1 X n
( )

= − + 2 (xr:n − x1 ) + (n − 1) (x1:n − ν)
∂β β β r=2
(x2:n − ν) G (λ, ν, β)
− 2
β G (λ − 1, ν, β)

27
Chapitre II Une méthode de vraisemblance marginale pour l’ajustement d’un modèle
P 3 à une série d’observations indépendantes et identiquement distribuées.
Des composantes de la fonction de score, on déduit aisément celles de la matrice hes-
sienne comme suit :

∂ 2 L (θ|x2:n , · · · , xn:n )
2
= −nΨ0 (λ)
∂λ
Gu2 (λ − 1, ν, β) G (λ − 1, ν, β) − Gu1 (λ − 1, ν, β)2
+
G (λ − 1, ν, β)2

∂ 2 L (θ|x2:n , · · · , xn:n ) n
1 2 n
1 2
λ
   
=
X X
−λ − −
∂ν 2
r=2 xr:n − ν r=2 xr:n − ν (x2:n − ν)2
G (λ + 1, ν, β) G (λ − 1, ν, β) − G (λ, ν, β)
+
β 2 G (λ − 1, ν, β)2

∂ 2 L (θ|x2:n , · · · , xn:n ) 2 X n
( )

= − (xr:n − x1 ) + (n − 1) (x1:n − ν)
∂β 2 β2 β 3 r=2
!
x2:n − ν x2:n − ν
2G (λ, ν, β) + G (λ + 1, ν, β)
β 3 β (x2:n − ν)2
− +
G (λ − 1, ν, β) β4

∂ 2 L (θ|x2:n , · · · , xn:n ) n
1 1
= −
X

∂ν∂λ r=2 xr:n − ν x2:n − ν
(x2:n − ν) G (λ, ν, β) G (λ − 1, ν, β) − Gu1 (λ − 1, ν, β) G (λ, ν, β)
u1

β2 G (λ − 1, ν, β)2

∂ 2 L (θ|x2:n , · · · , xn:n ) n − 1 (x2:n − ν) G (λ + 1, ν, β) G (λ − 1, ν, β)


= − 2 +
∂ν∂β β β 3 G (λ − 1, ν, β)2
−G (λ, ν, β) [βG (λ − 1, ν, β) + (x2:n − ν) G (λ, ν, β)]
β 3 G (λ − 1, ν, β)2

28
II.3 Inférence statistique

∂ 2 L (θ|x2:n , · · · , xn:n ) n
= −
∂β∂λ β
(x2:n − ν) Gu1 (λ, ν, β) G (λ − 1, ν, β) − G (λ, ν, β) Gu1 (λ − 1, ν, β)

β2 G (λ − 1, ν, β)2

La complexité de ces composantes rend pénible la recherche d’un éventuel zéro de


façon analytique. Dans de pareilles situations, une alternative consiste à faire recours aux
algorithmes d’optimisation. Dans le cas présent nous proposons d’utiliser l’algorithme
MM(Minoration-Maximisation)[35, 28, 36] dont la description a fait l’objet de la section
I.4.1. Les prochaines sections seront consacrées à sa mise en oeuvre.

II.3.1 De la fonction auxiliaire et ses propriétés

II.3.1.1 Proposition d’une fonction auxiliaire

Pour un soucis de clarté nous adoptons les notations suivantes :

L1 (θ | x1:n , · · · ,xn:n ) = −nλ log (β) − n log (Γ (λ))


n
+λ log (xr:n − ν) + λ log (x2:n − ν)
X

r=2
n
1 n−1
( n ) !
− log (xr:n − ν) − (xr:n − x1:n ) − (x1:n
(II.3.1)
X X
− ν)
r=2 β r=2 β

1
(Z ( ))
1
L2 (θ | x2:n , · · · ,xn:n ) = log λ−1
u exp − (x2:n − ν) u du
0 β

En prenant en compte ces notations dans (II.2.2), la fonction de log-vraisemblance


L (θ|x2:n , ..., xn:n ) prend la forme suivante :

L (θ|x2:n , ..., xn:n ) = log (n!) + L1 (θ | x1:n , · · · ,xn:n ) + L2 (θ | x1:n , · · · ,xn:n )

Proposition 5. Soit L1 (θ|x2:n , ..., xn:n ) la fonction définie par l’équation(II.3.1) et soit
θ0 = (ν 0 , λ0 , β 0 ) un point fixé dans le domaine admissible des paramètres Θ. Pour x1:n −ν >
0, une fonction minorante au sens de l’algorithme MM de L1 (θ|x2:n , ..., xn:n ) est donnée

29
Chapitre II Une méthode de vraisemblance marginale pour l’ajustement d’un modèle
P 3 à une série d’observations indépendantes et identiquement distribuées.
par :

Q1 (θ | θ0 ) = −n log (Γ (λ)) + nλ {1 − log (β 0 )}


( n n
x1:n − ν 0 x1:n − ν 0
" # " #)
+λ log (xr:n − ν ) +
0
+ log (x 0
) +
X X
2:n − ν
r=2 r=2 xr:n − ν 0 x2:n − ν 0
n 0
x1:n − ν 0
( " # " #)
2
λ x1:n − ν
− 0 n+ +
X
2λ r=2 xr:n − ν
0 x2:n − ν 0
λ0 (x1:n − ν 0 )2 X n
x1:n − ν 0 x1:n − ν 0 (n − 1) (x1:n − ν)2 n
1
( " # " #)
+ +
X
− − ν
2 (x1:n − ν) 2
r=2 xr:n − ν
0 x2:n − ν 0 2β (x1:n − ν )
0 0
r=2 xr:n − ν
0

β2 1X n
β 0 (x1:n − ν 0 )
−nλ0 02 − (xr:n − x1:n ) − (n − 1)
2β β r=2 2β 2
n n
1
− log (xr:n − ν 0 ) − ν 0
X X
0
r=2 r=2 xr:n − ν

Démonstration. voir Annexe A.2

Considérons les notations suivantes :

n o
c0 (θ) = G (λ − 1, ν, β) = exp − 1 (x2:n − ν) u du (II.3.2)
R 1 λ−1
u
0 β

Z 1 n o
G (λ − 1, ν, β)
u1 log (u)uλ−1 exp − β1 (x2:n − ν) u du
c1 (θ) = = 0
(II.3.3)
c0 (θ) c0 (θ)

et

Z 1 n o
G (λ, ν, β) uλ exp − β1 (x2:n − ν) u du
c2 (θ) = = 0
(II.3.4)
c0 (θ) c0 (θ)

La proposition ci-dessous donne une fonction minorante pour L2 (θ|x2:n , ..., xn:n )

Proposition 6. La fonction Q2 (θ | θ0 ) donnée par

c2 (θ0 ) (x2:n − ν)2 β 0 (x2:n − ν 0 )


Q2 (θ | θ0 ) = λc1 (θ0 ) − − c2 (θ0 )
2β (x2:n − ν )
0 0 2β 2

c2 (θ0 ) (x2:n − ν 0 )
+ 0
− λ0 c1 (θ0 ) + log (c0 (θ0 ))
β

est une fonction minorante de L2 (θ | x1:n , · · · ,xn:n ) au sens de l’algorithme MM.

30
II.3 Inférence statistique

Démonstration. Voir AnnexeA.3

Corollaire 7. Notons Q (θ|θ0 ) = Q1 (θ|θ0 ) + Q2 (θ|θ0 ) . Si x1:n − ν > 0, les assertions


suivantes sont vérifiées

L (θ|x2:n , ..., xn:n ) > log (n!) + Q (θ|θ0 )

L (θ0 |x2:n , ..., xn:n ) = log (n!) + Q (θ0 |θ0 )

Du corollaire ci-dessus, il découle que la fonction Q (.|θ0 ) obtenue est une fonction
auxiliaire pour (II.2.2).

II.3.1.2 Quelques propriétés de la fonction auxiliaire

De la fonction auxiliaire Q définie dans la section précédente, on déduit les coordonnées


du vecteur gradient comme suit.

∂Q (θ | θ0 ) 1 Xn
x1:n − ν 0 x1:n − ν 0
( " !#)
λ
= −n ψ (λ) + 0 1 + +
∂λ λ n r=2 xr:n − ν 0 x2:n − ν 0
n
−n (log (β 0 ) − 1) + log (xr:n − ν 0 ) + log (x2:n − ν 0 )
X

r=2
n 0
x1:n − ν 0
" # " #
x1:n − ν
+ + + c1 (θ0 )
X

r=2 xr:n − ν 0 x2:n − ν 0

où la fonction qui à λ associe ψ (λ) désigne la fonction digamma.

∂Q (θ | θ0 ) λ0 (x1:n − ν 0 )2 x1:n − ν 0 Xn
x1:n − ν 0
( " #)
= − +
∂ν (x1:n − ν)3 x2:n − ν 0 r=2 xr:n − ν 0
1 (n − 1) (x1:n − ν) c2 (θ0 ) (x2:n − ν)
!
+ 0 +
β x1:n − ν 0 x2:n − ν 0
n
1
+
X
0
r=2 xr:n − ν

31
Chapitre II Une méthode de vraisemblance marginale pour l’ajustement d’un modèle
P 3 à une série d’observations indépendantes et identiquement distribuées.

∂Q (θ | θ0 ) nλ0 β 1X n
1
= − 02 + 2 (xr:n − x1:n ) + 3 {(n − 1) β 0 (x1:n − ν 0 ) + β 0 (x2:n − ν 0 ) c2 (θ0 )}
∂β β β r=2 β
1 nλ0 4 n
( " # )
= − 3 (xr:n − x1:n ) − β 0 {(n − 1) (x1:n − ν 0 ) + (x2:n − ν 0 ) c2 (θ0 )}
X
β − β
β β 02 r=1

Lemme 8. Soit θ0 un point fixé dans le domaine admissible des paramètres Θ. La fonction
θ → Q (θ | θ0 ) est concave et admet donc un unique point maximum.

Démonstration.
 La matrice Hessienne
 associée à la fonction θ → Q (θ | θ ) est donnée par
0

∂ 2 Q(θ|θ0 )
 ∂λ2
0 0 
 
H= 0 ∂ 2 Q(θ|θ0 )
0 
 


 ∂ν 2 

∂ 2 Q(θ|θ0 )
0 0
 
∂β 2

∂ 2 Q (θ | θ0 ) 1 1 Xn
x1:n − ν 0 x1:n − ν 0
( " !#)
= −n ψ 0
(λ) + 1 + +
∂λ2 λ0 n r=2 xr:n − ν 0 x2:n − ν 0

∂ 2 Q (θ | θ0 ) 1 (n − 1) c2 (θ0 ) 3λ0 (x1:n − ν 0 )2 x1:n − ν 0 Xn


x1:n − ν 0
! ( " #)
= − 0 + − +
∂ν 2 β x1:n − ν 0 x2:n − ν 0 (x1:n − ν)4 x2:n − ν 0 r=2 xr:n − ν 0

∂ 2 Q (θ | θ0 ) nλ0 2Xn
3
2
= − 02 − 3 (xr:n − x1:n ) − 4 {(n − 1) β 0 (x1:n − ν 0 ) + β 0 (x2:n − ν 0 ) c2 (θ0 )}
∂β β β r=2 β

avec la fonction λ → ψ 0 (λ) désignant la fonction dérivée de la fonction digamma encore


appelée fonction tri-gamma.
Dans [22], il est montré que pour tout λ > 0 , ψ 0 (λ) ≥ 1
1+λ
+ 1
λ2
. On en déduit donc
que la fonction tri-gamma est strictement positive sur R∗+ . De plus, il vient de l’équation
(II.3.4) que c2 (θ0 ) ≥ 0. Comme xr:n − ν 0 > 0 et xr:n − ν > 0 pour tout r ∈ {1, 2, ..., n},
on peut voir sans trop de difficultés que toutes les composantes de la matrice Hessienne
sont négatives. Il vient donc que la matrice Hessienne est semi-définie négative pour tout
θ ∈ Θ, θ0 fixé. Par conséquent la fonction θ → Q (θ | θ0 ) est concave et admet donc un
unique point maximum des l’espace des possibles Θ.

32
II.3 Inférence statistique

Il ressort du lemme 8 qu’en partant d’un point initial θ0 pris dans le domaine admis-
sible, l’unique solution des équations de log-vraisemblance est nécessairement un point
maximum.
Un autre fait important est que la fonction Q (.) prend en compte la totalité des don-
nées. En effet, le minimum des observations x1:n qui était extirpé dans la fonction de vrai-
semblance donnée par l’équation(II.2.1) est réintégrée dans la fonction minorante Q (.).
Par conséquent cette fonction est suffisamment informative pour permettre d’estimer les
paramètres inconnus.
Des travaux de Florin Vaida[69], il découle que l’algorithme MM mise en oeuvre dans
ce chapitre convergera vers un point stationnaire de la fonction log-vraisemblance donnée
par l’équation(II.2.2). Reste à décrire le schéma pour l’atteindre.

II.3.2 Recherche du point maximum

Cette étape consiste à rechercher le point maximum de la fonction auxiliaire Q (.),


c’est-à-dire la solution de l’équation
argmax {Q (θ | θ0 , (xr )r=1:n ) , θ ∈ Θ}, où θ0 désigne une valeur fixée de θ. Or, il ressort du
lemme8 que cette solution est unique dans le domaine des possibles. Des lors la recherche
du point maximum peut se résumer à la résolution du système suivant :


∂Q(θ|θ0 ,(xr )r=1:n )
=0



∂λ





∂Q(θ|θ ,(xr )r=1:n )
 0

 ∂β
=0


∂Q(θ|θ0 ,(xr )r=1:n )


=0




∂ν

Un des avantages des algorithmes MM réside certainement dans le fait que la fonction
auxiliaire obtenue est généralement à variables séparées. Conséquence, chaque compo-
sante de la fonction de score dépend d’un et d’un seul paramètre. Ce qui logiquement
devrait faciliter la recherche d’une éventuelle racine. Mais cela n’empêche pas que ses
composantes soient non linéaires comme dans le cas présent. Néanmoins, les méthodes de
résolution numériques comme la méthode de Newton-Raphson et la méthode de bissection
sont faciles à implémenter en ce sens que les équations de vraisemblances obtenues sont
univariées. Ce couplage algorithmes MM et méthodes de résolution numérique porte le

33
Chapitre II Une méthode de vraisemblance marginale pour l’ajustement d’un modèle
P 3 à une série d’observations indépendantes et identiquement distribuées.
nom « d’algorithmes MM gradient ». Des détails sur ce type d’algorithmes peuvent être
consultés dans le livre de Lange[36]. Dans le cas présent, la méthode de bissection a été
utilisée. Des informations relatives à sa mise en oeuvre seront données dans les prochains
paragraphes.

II.3.2.1 Comportement de la fonction de score en λ

En rappel, la fonction de score en λ est donnée par :

∂Q (θ | θ0 ) 1 Xn
x1:n − ν 0 x1:n − ν 0
( " !#)
λ
= −n ψ (λ) + 0 1 + +
∂λ λ n r=2 xr:n − ν 0 x2:n − ν 0
" n #
+ log (xr:n − ν ) + log (x2:n − ν )
0 0
X

r=2
" n
x1:n − ν 0 x1:n − ν 0
#
+ + + c1 (θ0 )
X
x − ν 0 x − ν 0
r=2 r:n 2:n

−n {log (β 0 ) − 1}

En adoptant les notations suivantes

1 Xn
x1:n − ν 0 x1:n − ν 0
!
p (θ ) = 1 +
0
+
n r=2 xr:n − ν 0 x2:n − ν 0

t (θ0 ) = log (β 0 ) − 1
1 Xn
" #
− log (xr:n − ν 0 ) + log (x2:n − ν 0 )
n r=2
1 Xn
x1:n − ν 0 x1:n − ν 0
" #
− 0
+ 0
+ c1 (θ0 )
n r=2 xr:n − ν x2:n − ν

il découle que les fonctions


∂Q (θ | θ0 )
∂λ

et
λ
h (λ | θ0 ) = ψ (λ) + p (θ0 ) + t (θ0 )
λ0

34
II.3 Inférence statistique

possèdent les mêmes racines. Par suite la fonction dérivée h0 (λ | θ0 ) est donnée par :

p (θ0 )
h0 (λ | θ0 ) = ψ 0 (λ) +
λ0

De la positivité de la fonction tri-gamma pour tout λ > 0[22] et de celle de p (θ0 ), il


s’ensuit que h (λ | θ0 ) est une fonction croissante de λ sur ]0, +∞[. En outre, le corollaire
2.3 de Yahdi et al.[44] stipule que

1 1
log (λ) − ≤ ψ (λ) ≤ log (λ + 1) − , ∀λ > 0
2λ λ

En passant à la limite, on aboutit aux résultats suivants :

lim ψ (λ) = −∞
λ→0+

lim ψ (λ) = +∞
λ→+∞

Il s’ensuit donc que la fonction λ → h (λ | θ0 ) tend vers −∞ et +∞ si λ tend vers 0+ et


+∞ respectivement. Par conséquent la fonction λ → h (λ) admet une unique racine dans
∂Q(θ|θ0 )
l’intervalle ]0, +∞[ et il en est de même que la fonction ∂λ
.

II.3.2.2 Comportement de la fonction de score en β

La fonction de score en β peut s’écrire

∂Q (θ | θ0 ) 1
= − 3 g (β | θ0 )
∂β β

avec

n
nλ0 β 4
" #
g (β | θ ) =
0
(xr:n − x1:n ) − β 0 ((n − 1) (x1:n − ν 0 ) + (x2:n − ν 0 ) c2 (θ0 ))
X
− β
β 02 r=1

35
Chapitre II Une méthode de vraisemblance marginale pour l’ajustement d’un modèle
P 3 à une série d’observations indépendantes et identiquement distribuées.
∂Q(θ|θ0 )
De ce faite, les équations ∂β
= 0 et g (β | θ0 ) = 0 sont équivalentes. De la fonction
dérivée g 0 (β | θ0 ) donnée par

4nλ0 β 3 n
" #
g (β | θ ) =
0 0
(xr:n − x1:n )
X

β 02 r=1

v " n #
u
u β 02 1 X
il découle que β0 = 3
t 0

(xr:nn
− x1:n ) est l’unique racine positive et que g 0 (β | θ0 )
r=2
est positive pour tout β > β0 et négative si 0 < β < β0 . La fonction β → g (β|θ0 ) est
donc strictement décroissante sur ]0, β0 [ et strictement croissante sur ]β0 , +∞[. De plus,
c2 (θ0 ) > 0 par définition. On en déduit que :

g (0 | θ0 ) = −β 0 ((n − 1) (x1:n − ν 0 ) + (x2:n − ν 0 ) c2 (θ0 )) < 0

De la décroissance de la fonction β → g (β|θ0 ) sur ]0, β0 [ d’une part et d’autre part du


fait que g (0 | θ0 ) < 0, on déduit que g (β0 | θ0 ) < 0. Il s’ensuit donc que l’unique solution
∂Q(θ|θ0 )
de l’équation ∂β
= 0 est issue de l’intervalle ]β0 , +∞[ .

II.3.2.3 Comportement de la fonction de score en ν

∂Q(θ|θ0 )
On peut remarquer que ∂ν
= n−1
(x1: −ν)3
k (x1:n − ν | θ0 ) où

λ0 (x1:n − ν 0 )2 Xn
x1:n − ν 0 x1:n − ν 0
" #
k (u | θ ) = −
0
+
n−1 r=2 xr:n − ν
0 x2:n − ν 0
1 n
1 c2 (θ0 ) (x2:n − x1 ) 4
" #
+ +
X
u
n − 1 r=2 xr:n − ν 0 β 0 (x2:n − ν 0 )
1 c2 (θ0 )
" #
+ 0 + u3
β (x1:n − ν 0 ) (n − 1) β 0 (x2:n − ν 0 )

∂Q(θ|θ0 )
Il decoule donc que ∂ν
= 0 est équivalente à k (x1:n − ν | θ0 ) = 0. Un léger calcul de
différentiation permet de vérifier que la fonction k est monotone croissante sur le domaine
]0, +∞[ étant donné que c2 (θ0 ) > 0 et que (xr:n − ν 0 ) > 0 pour tout r ≥ 1. De plus
" n #
0 −ν 0 )2 x1:n −ν 0 x1:n −ν 0
lim k (u) = − λ (x1:n + < 0 et lim k (u) = +∞. On conclut donc
X
u→0+ n−1 xr:n −ν 0 x2:n −ν 0 u→+∞
r=2
∂Q(θ|θ0 )
que l’équation k (u) = 0 admet une unique solution ]0, + ∞[ et par suite ∂ν
admet
un unique zéro dans ] − ∞,x1:n [.
Dans toute la suite, la méthode développée dans ce chapitre sera appelée méthode

36
II.4 Implémentation de la méthode

MMosLE(qui signifie en anglais Maximum Marginalized order statistics Likelihood Esti-


mation)

II.4 Implémentation de la méthode

L’objectif dans cette section est de fournir les informations nécessaires au calcul des
estimateurs proposés. Comme on peut bien le remarquer, le calcul de la fonction Q (.|θ0 )
nécessite d’abord le calcul des constantes c0 (θ0 ) , c1 (θ0 ) et c2 (θ0 ) données respectivement
par les équations (II.3.2), (II.3.3) et (II.3.4). Une procédure numérique pour résoudre
ces intégrales est proposée et est disponible en Annexe(A.3.1). Une fois que la procédure
de résolution des intégrales est développée, le calcul des estimateurs peut se faire à travers
l’algorithme suivant :

II.4.1 Algorithme

Le schéma utilisé pour la maximisation de la fonction minorante peut se résumer comme


suit :

Algorithme II.1 MM(Minoration-Maximisation)


Entrées:k, θ0 = (λ0 , β
t
0 , ν0 )
Sorties: θ̂ = λ̂, β̂, ν̂
t

Variables déclarées:
condé.arrêt : une variable booléenne initialisée à vraie
k : étape itérative initialisée à 0
θk ← θ0
Tant que condition d’arrêt n’est pas vérifiée faire
— λ (θk+1 ) = t (λ, βk , νk )
λk+1 = arg max {Q (λ (θk+1 ) | θk )}
λ>0
θk0 = t (λk+1 , βk , νk ),
— β (θk+1 ) = t (λk+1 , β, νk )
βk+1 = arg max {Q (β (θk+1 ) | θk0 )}
β>0
θk00 = t (λk+1 , βk+1 , νk ),
— ν (θk+1 ) = t (λk+1 , βk+1 , ν)
νk+1 = arg max {Q (ν (θk+1 ) | θk00 )}
ν<x1:n
k =k+1

Fin tant que


résultats:θ̂

37
Chapitre II Une méthode de vraisemblance marginale pour l’ajustement d’un modèle
P 3 à une série d’observations indépendantes et identiquement distribuées.

II.5 Évaluation empirique de la performance des

estimateurs proposés

Compte tenue de la complexité de l’algorithme utilisé et du fait que la forme explicite


des estimateurs ne soit pas accessible , une étude théorique des propriétés des estimateurs
proposés n’est pas sans difficultés. Dans ce cas de figure, la méthode empirique serait une
bonne alternative. Cette dernière passe par des études de simulation par Monte Carlo dont
le plan sera explicité dans la toute prochaine section. Des métriques comme le biais et
l’erreur quadratique moyenne ont été utilisées pour évaluer les performances des estima-
teurs proposés. Tout comme dans le papier de Nagatsuka et ses collaborateurs[46], nous
calculons le biais joint et l’erreur quadratique moyenne jointe pour évaluer la performance
marginale des estimateurs proposés dans ce chapitre. Toutes ces métriques seront définies
dans les paragraphes à venir.
Étant donné que les algorithmes itératifs dépendent du choix de la valeur initiale, nous
essayons plusieurs valeurs initiales différentes et choisissons la solution qui a la valeur de
vraisemblance convergé la plus élevée.
Toute la procédure de calcul des estimateurs ici développé est implémentée sous l’envi-
ronnement scientifique R[57]. Les données sont générées par le biais du package PearsonDS[5].

II.5.1 Plan d’échantillonnage

Pour évaluer les performances de nos estimateurs, nous utilisons le même plan d’échan-
tillonnage que celui proposé par Nagatsuka et al. . Ce choix est justifié, car il per-
mettra de comparer les performances des deux types estimateurs. Leur plan d’échan-
tillonage a consisté à choisir les valeurs suivantes pour le paramètre de forme λ =
0.5, 1.0, 1.5, 2.0, 3.0, 4.0 tandis que le paramètre de localisation et celui d’échelle sont res-
pectivement fixés à ν = 0 et β = 1.0

38
II.5 Évaluation empirique de la performance des estimateurs proposés

II.5.2 Métriques utilisées pour l’évaluation des performances des

estimateurs.

Plusieurs métriques sont généralement utilisées en statistiques inférentielles pour évaluer


les qualités des estimateurs. Dans le cadre de cet travail nous avons choisi les plus fré-
quemment utilisés à savoir le biais, la racine carée de l’erreur quadratique moyenne(RMSE)
ainsi que le biais joint(JB) et l’erreur quadratique moyenne jointe(MSE). La procédure
de calcul de ces métriques est donnée par les formules mathématiques suivantes :

1 XN  
Biais (θi ) = θbik − θi0 , i = 1, 2, 3
N k=1

1 XN  2
EQM (θi ) = θbik − θi0 , i = 1, 2, 3
N k=1

v
1 XN 
u 2
RM SE (θi ) = θbik − θi0 , i = 1, 2, 3
u
t
N k=1

3
JB (θ) = | Biais (θi ) |
X

i=1

3
M SE (θ) = RM SE 2 (θi )
X

i=1

Où θ désigne le vecteur des paramètres, θbik l’estimation du paramètre θi avec le k eme


échantillon et θi0 la valeur théorique du paramètre θi .

II.5.3 Résultats de simulation

Pour chaque valeur théorique du vecteur des paramètres θ, 1000 échantillons de taille
n = 20, 50, 100 sont générés selon une loi P 3 de vecteur de paramètres θ. La méthode
présentée dans ce chapitre est ensuite appliquée à chaque échantillon. Les estimations
obtenues sont utilisées pour le calcul des métriques que nous consignons dans le tableau
suivant.

39
Chapitre II Une méthode de vraisemblance marginale pour l’ajustement d’un modèle
P 3 à une série d’observations indépendantes et identiquement distribuées.

II.5.3.1 Résultats numériques et graphiques

Forme Localisation Echelle Joint


λ n Biais EQM Biais EQM Biais EQM Biais MSE
0.5 20 0.065 0.290 0.001 0.023 −0.023 0.422 0.090 0.262
50 0.030 0.096 0.000 0.002 −0.028 0.262 0.057 0.078
100 0.023 0.064 0.000 0.001 −0.028 0.180 0.052 0.036
1.0 20 0.311 1.573 −0.010 0.189 0.028 0.444 0.348 2.708
50 0.036 0.472 0.006 0.053 0.021 0.256 0.063 0.291
100 −0.001 0.151 0.005 0.014 0.020 0.167 0.026 0.051
1.5 20 0.650 2.216 −0.049 0.419 0.028 0.486 0.728 5.320
50 0.062 0.682 0.014 0.136 0.046 0.286 0.122 0.566
100 −0.006 0.293 0.017 0.057 0.022 0.188 0.045 0.124
2.0 20 0.735 2.708 −0.046 0.610 0.072 0.541 0.854 8.001
50 0.139 1.174 0.013 0.284 0.058 0.310 0.210 1.556
100 0.004 0.529 0.023 0.138 0.030 0.200 0.056 0.339
3.0 20 0.738 3.096 0.048 0.907 0.132 0.589 0.918 10.752
50 0.318 2.080 0.023 0.601 0.068 0.359 0.409 4.818
100 0.166 1.291 0.000 0.419 0.029 0.232 0.195 1.895
4.0 20 0.593 3.590 0.254 1.211 0.165 0.626 1.013 14.750
50 0.382 2.642 0.066 0.906 0.091 0.398 0.539 7.960
100 0.023 1.675 0.090 0.614 0.067 0.274 0.180 3.259

Table II.1 – Résultats numériques

Pour mieux discuter de ces résultats, une visualisation est proposée à travers les gra-
phiques ci-dessous. Chaque métrique est représentée en fonction des valeurs théoriques du
paramètre de forme.

40
II.5 Évaluation empirique de la performance des estimateurs proposés

0.20
1.0

0.3
* 20 * 20 * 20
x 50 x 50 x 50
*

0.8
+ 100 + 100 + 100 *

0.15
* *

0.2
* *
0.6 *

0.10
Biais pour λ

Biais pour β
Biais pour ν
0.4

* +

0.05
0.1
* +
0.2

+ +
+ *
+ *
+

0.00
*
+* + +
0.0

+ + + +

0.0
+* + + *
+
*

−0.10 −0.05
−0.4 −0.2

* *

−0.1
0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0
λ λ λ

1.2
* 20
x 50
+ 100

1.0
*
*
0.8 *
biais joint

*
0.6
0.4

*
0.2

+ +

*
+ + +
+
0.0

0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0


λ
1.5
4

* 20 * 20 * 20
*

0.6
x 50 x 50 x 50
+ 100 * + 100 + 100 *
* *
*
3

0.5
*
1.0
RMSE pour λ

RMSE pour β
RMSE pour ν

*
* *
*
0.4

*
2

+ +
* *
0.3
0.5

+ +
* +
1

+
0.2

+
+ +
+ +
* +
* +
+ +
+
0.0

0.1

*
+ +
0

0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0
λ λ λ
15

* 20
x 50 *
+ 100

*
10
MSE

*
5

+
*
+

+ +
*
+ +
0

0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0


λ

Figure II.5.1 – Biais et erreur quadratique moyenne pour l’estimateur du paramètre de


forme basés sur 1000 échantillons

Les performances des estimateurs proposés ne sont peut-être pas extraordinaires pour
des petits échantillons(approximativement de taille inférieure ou égale à 20). Cependant
il faut noter que ces performances s’améliorent très rapidement à partir des échantillons
de taille modérée(autour de 50). En effet le biais et la racine carrée de l’erreur quadra-
tique moyenne(RMSE) des estimateurs s’améliorent au fur et à mesure que la taille des
échantillons augmente. Preuve que les estimateurs sont asymptotiquement sans biais et
convergents en probabilité. Il en est de même pour le biais joint et l’erreur quadratique

41
Chapitre II Une méthode de vraisemblance marginale pour l’ajustement d’un modèle
P 3 à une série d’observations indépendantes et identiquement distribuées.
jointe.
II.5.3.2 Variabilité des résultats

Pour illustrer la variabilité des estimations obtenues, nous avons opté pour la méthode
graphique. Chaque graphique représente la dispersion des estimations à travers un dia-
gramme de dispersion pour chaque valeur théorique du paramètre de forme.

n = 20 n = 50 n = 100

10 12
* 15 ** * **
* * **
*
30

** **
Estimations pour λ

Estimations pour λ

Estimations pour λ
* ** ** * *
** ** **
* ** **
* ** ** ** **
** ** * * ****

8
*
10

* *** **
20

* ** **
* * **
* * ** * **
* ** **

6
* * ** **
* ** **
* *** ** ** ** ***
*
** * **** ** * ** *
*** *** **** ** *** **

4
5 10

* ** *** *** **
** ** ** **
** *** ** * ** ** *
* * ** ** *** ***
*** ** ** ** *

2
** ***
** *** ***
*** ** ** *
0

0
.5 1.0 1.5 2 3 4 .5 1.0 1.5 2 3 4 .5 1.0 1.5 2 3 4
λ λ λ

n = 20 n = 50 n = 100
2
2

1
Estimations pour ν

Estimations pour ν

Estimations pour ν
1

** **
** *
0

*** *
*** **
0

*** * ***
0

* *** **** * **
** * ** * ***
** *** ** * ** **
** ***
***
*
****
**
* ***
* ***
−1
−2

** *
−1

* * * ** * *
** **
**
** ***
* ** **
* * * ** **
*** **
−2

* * **
* * ***
−4

*
−2

* * * ** **
* ** *
−3

* * * *

.5 1.0 1.5 2 3 4 .5 1.0 1.5 2 3 4 .5 1.0 2 3 4


λ λ λ

n = 20 n = 50 n = 100
2.0

* * **
4

* *
0.5 1.0 1.5 2.0 2.5

* * *
* * * **
Estimations pour β

Estimations pour β

Estimations pour β

* * * ** * ** *
** * *** ** *
* * **
**
** *
*
*** *** ** * ** ** **
3

** * ** *
** ***
1.5

** * ** ** * ** ** ** *
** **** * ** * * *** ** **
* * * **
** *** ***
* ** *
** *
**
2

*
1.0
1

0.5

*
*
*
* ** *
*
0

.5 1.0 1.5 2 3 4 .5 1.0 1.5 2 3 4 .5 1.0 1.5 2 3 4


λ λ λ

Figure II.5.2 – Diagramme de dispersion

Dans une moindre mesure, les estimateurs de tous les paramètres présentent une dis-
tribution asymétrique. L’ampleur de l’asymétrie est d’autant plus grande que la valeur
théorique du paramètre de forme est grande. Bien que ce résultat ne garantisse pas la
normalité asymptotique des estimateurs proposés, il faut néanmoins noter que l’ampleur
de l’asymétrie diminue lorsque la taille de l’échantillon augmente.

42
II.5 Évaluation empirique de la performance des estimateurs proposés

II.5.4 Comparaison de la méthode proposée avec deux autres

méthodes alternatives

II.5.4.1 Comparaison avec deux méthodes de la littérature

Comme indiqué en début de section, les performances des estimateurs dont il est
question dans ce chapitre sont comparées à celles de deux autres : la méthode LSPF-
MLE(Location and Scalde Paramètres Free Maximum Likelihood Estimators) développée
par Nagatsuka & co.[46] et la méthode BL(Bayesian Likelihood) par Hall et Wang[25].
Pour faciliter la comparaison, des graphiques présentant le comportement du biais et de
l’erreur quadratique moyenne de chaque paramètre en fonction de la valeur théorique du
paramètre de forme sont proposés pour les trois méthodes que sont la méthode LSPF-
MLE, la méthode BL et enfin la méthode MMosLE qui fait l’objet de ce chapitre. Les
résultats relatifs aux deux premières méthodes sont tirés du papier de Nagatsuka et co.[46].
Les graphiques ci-dessous représentent les métriques de l’estimateur du paramètre de
forme pour les trois méthodes .

43
Chapitre II Une méthode de vraisemblance marginale pour l’ajustement d’un modèle
P 3 à une série d’observations indépendantes et identiquement distribuées.
n = 20 n = 50 n = 100

2.0

0.6
x BLE x BLE x BLE
+ LSPF + LSPF + LSPF x
4
* MMosLE * MMosLE * MMosLE +

1.5

0.4
+
3

x
+
Biais pour λ

Biais pour λ

Biais pour λ
1.0

0.2
2

+ *
+

+
+ x

0.5
x + +
+* x x *

0.0
*
1

* * *
+ *
+* *
+* * + *
+* +* + *

0.0
*
+*
0

−0.2
0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0

λ λ λ

n = 20 n = 50 n = 100

3.0
8

x BLE x BLE x BLE


+ LSPF + LSPF + LSPF
15

* MMosLE * MMosLE * MMosLE +

2.5
6

2.0
RMSE pour λ

RMSE pour λ

RMSE pour λ
+
10

1.5
4

+
+
+ *
1.0

+ *
5

*
2

* +
*
0.5

+ *
*+ *
*+ + +
*
*+ *
+*
+* +*
+*
0.0

*+
0
0

0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0

λ λ λ

Figure II.5.3 – Biais et RMSE de l’estimateur du paramètre de forme basés sur 1000
échantillons simulés

Tout d’abord, il faut noter que le biais du paramètre de forme pour les trois paramètres
est positif et s’augmente avec la valeur actuelle du paramètre. Preuve que les trois mé-
thodes surestiment ce paramètre. Pour des valeurs du paramètre de forme inférieures ou
égales à l’unité, l’ampleur du biais est comparable pour les trois méthodes. Bien que les
performances en termes de biais s’améliorent pour les trois méthodes lorsque la taille de
l’échantillon augmente , notons que cette amélioration est beaucoup plus remarquable
pour la méthode proposée dans ce chapitre(MMosLE). En terme de racine carrée de l’er-
reur quadratique moyenne(RMSE) cette dernière surclasse en général les deux autres pour
des échantillons de taille moyenne au moins(approximativement 50).

44
II.5 Évaluation empirique de la performance des estimateurs proposés

n = 20 n = 50 n = 100

0.15
0.6
x BLE x BLE x BLE
+ LSPF + LSPF + LSPF

0.2
* MMosLE * MMosLE * MMosLE
+ +
0.4

0.10
0.1
*
* *
+
0.2

+ * * *

0.0

0.05
+* +*
Biais pour ν

Biais pour ν

Biais pour ν
+ +
*
0.0

+* +
+* + *

−0.1
* * * +

0.00
+* * +
+ + *
−0.2

−0.2

−0.05
−0.4

−0.3

−0.10
−0.6

−0.4

0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0

λ λ λ

n = 20 n = 50 n = 100
2.0
15

x BLE x BLE x BLE


+ LSPF + LSPF + LSPF
MMosLE MMosLE MMosLE

0.8
* * *
1.5

0.6
*
10
RMSE pour ν

RMSE pour ν

RMSE pour ν +
1.0

+
* 0.4 *

+ +
5

+
*
0.5

*
0.2

+
*+ *
*+ * +*
*+ +
+*
+*
*+ +* +*
0.0

0.0

+* +*
0

0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0

λ λ λ

Figure II.5.4 – Biais et RMSE de l’estimateur du paramètre de localisation basés sur


1000 échantillons simulés

Parmi les trois méthodes en compétition, seule la méthode bayésienne a tendance à sous-
estimer le paramètre de localisation. Pour des petits échantillons, la méthode MMosLE
présente le plus petit biais des trois méthodes lorsque le paramètre de forme est inférieur
ou égale à 1.5.
Pour des échantillons de taille modérée et grande, le biais de la méthode MMosLE et
celui de la méthode LSPF-MLE sont du même ordre. Les deux méthodes surestiment
le paramètre de localisation surtout lorsque la valeur théorique du paramètre de forme
est grande. Cette ressemblance entre les deux méthodes s’illustre aussi bien en terme de
racine carrée de l’erreur quadratique moyenne(RMSE). Les deux surclassent la méthode
BL.

45
Chapitre II Une méthode de vraisemblance marginale pour l’ajustement d’un modèle
P 3 à une série d’observations indépendantes et identiquement distribuées.
n = 20 n = 50 n = 100

0.25

0.08
x BLE x BLE x BLE
+ LSPF + LSPF + LSPF
MMosLE MMosLE MMosLE *

0.10
* * *

0.06
0.20

0.04
*
*
0.15

+ * * *

0.05
Biais pour β

Biais pour β

Biais pour β
*

0.02
* *
*
0.10

+
+

0.00
* + +
*
+
0.05

+ + +

0.00
+ + +
+ +

−0.02
* * +
+
*
0.00

+
*

−0.04
+
*

−0.05
−0.05

−0.06
0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0

λ λ λ

n = 20 n = 50 n = 100

0.30
0.45
0.8

x BLE + BLE x BLE


+ LSPF * LSPF + LSPF
* MMosLE * MMosLE * MMosLE
+ +
*
0.40
0.7

*
+

0.25
RMSE pour β

RMSE pour β

RMSE pour β
+
+
* *
0.35

*
0.6

+*
0.20

* +* *
0.30

+
0.5

+ *
* + *
*
+ +
+ +
+
* * +*
*
0.25

* +
0.15

+
0.4

0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.5 2.5 3.5
λ λ λ

Figure II.5.5 – Biais et RMSE de l’estimateur du paramètre d’échelle basés sur 1000
échantillons simulés

Le biais de l’estimateur du paramètre d’échelle de la méthode MMosLE est certes le plus


élevé parmi ceux des trois méthodes. Il est positif et augmente en fonction de l’ampleur du
paramètre de forme pour les trois méthodes. Cependant l’erreur quadratique moyenne de
la méthode proposée est soit moins élevée ou du même ordre de grandeur que celle de la
méthode LSPF-MLE qui a tendance à surclasser la méthode BL. Lorsque la valeur théo-
rique du paramètre de forme augmente, la racine carrée de l’erreur quadratique(RMSE)
des estimateurs du paramètre d’échelle augmente aussi et cela pour les trois méthodes.
Cependant elle diminue lorsque la taille de l’échantillon devient de plus en plus grande.

46
II.5 Évaluation empirique de la performance des estimateurs proposés

n = 20 n = 50 n = 100

2.5

0.7
6 x BLE x BLE x BLE
+ LSPF + LSPF + LSPF
MMosLE MMosLE MMosLE +
* * *

0.6
5

2.0

0.5
4

1.5
+
biais joint

biais joint

0.4
biais joint
3

0.3
1.0
+
+
2

0.2
+ *
0.5 *
*
1

* *

0.1
* * +
* + +
+
+ * * + +* *
+* *
+* +* *
+*
0.0

0.0
+
0

0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0

λ λ λ

n = 20 n = 50 n = 100
60

x BLE x BLE x BLE


+ LSPF + LSPF + LSPF
* MMosLE * MMosLE * MMosLE
8
200

+
50
40
150

6
MSE joint

MSE joint
MSE joint
30
100

*
20

+ +
50

+ *
10

+ *

* *
+* * +* +*
+* +* +* +* +* +* +* +* +*
0

0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0

λ λ λ

Figure II.5.6 : Biais et EQM basés sur 1000 échantillons simulés

Comme l’on pouvait s’y attendre, le biais et l’erreur quadratique jointe(MSE) aug-
mentent avec la valeur du paramètre de forme, mais diminuent lorsque la taille de l’échan-
tillon devient de plus en plus grande, et cela est valable pour les trois méthodes en compé-
tition. Pour des valeurs du paramètre de forme plus petites que l’unité, les trois méthodes
sont comparables vis-à-vis des métriques jointes(biais et erreur quadratique). Dans les
autres cas, la méthode proposée à tendance à surclasser les autres méthodes.

47
Chapitre II Une méthode de vraisemblance marginale pour l’ajustement d’un modèle
P 3 à une série d’observations indépendantes et identiquement distribuées.

II.6 Application à des données de la littérature

II.6.1 Description des données et application

Cette section est consacrée à l’utilisation de la méthode proposée pour ajuster la dis-
tribution gamma à trois paramètres sur un jeu de données réelles emprunté des travaux
de Dumonceaux et Antle. Il s’agit des données relatives au niveau de crue de la rivière
Susquehanna de Harrisburg en Pennsylvanie, prélevé entre 1890 et 1969. À chaque période
de quatre années, le niveau maximal a été enregistré et les résultats sont consignés dans
le tableau ci-dessous.

0.65 0.27 0.61 0.74 0.32 0.42 0.45 0.41 0.30 0.49
0.40 0.42 0.38 0.34 0.42 0.39 0.38 0.48 0.32 0.27

Table II.2 – Données de Dumonceaux et Antle[16]

Shape Location Scale


MMosLE 3.020 0.208 0.071
LSFP 2.371 0.235 0.080
BL 1.986 0.244 0.090

Table II.3 : Données de Dumonceaux et Antle : résultats des estimations des méthodes
MMosLE, LSFP-MLE et BL

On observe que toutes les trois méthodes fournissent une estimation positive du pa-
ramètre de seuil. De plus, une différence substantielle existe entre les estimations du
paramètre de forme. Si la plus grande estimation de ce dernier est fournie par la méthode
MMosLE, la plus petite est obtenue par la méthode BL. Pour les autres paramètres en
revanche, la méthode MMosLE enregistre les plus petites estimations et les plus grandes
proviennent de la méthode BL, bien que les résultats soient très proches.
Outre ces résultats, d’autres auteurs comme Cohen et Whitten[12, 13], Hirose[27] et
Tzavelas[67] avaient précédemment utilisé ces mêmes données pour illustrer le compor-
tement de leurs estimateurs en les ajustant au modèle gamma à trois paramètres. Les
résultats obtenus sont reportés dans le tableau ci-dessous.

48
II.6 Application à des données de la littérature

Shape Location Scale


Cohen & Whitten MLE 1.1940 0.2628 0.1343
Cohen & Whitten MME 2.9043 0.2096 0.0735
Hirose (a) 1.3837 0.2596 0.1182
Hirose (b) 1.1816 0.2630 0.1356

Table II.4 : Données de Dumonceaux & Antle : résultats des estimations d’autres mé-
thodes de la littérature

Le résultat de Cohen et Whitten[12] en utilisant la méthode de maximum de vrai-


semblance est très voisin de celui-ci obtenu un peu plus tard par Hirose[27](celui noté
’Hirose(b)’) en procédant à une réparametrisation du modèle. Ce dernier auteur souligne
d’ailleurs que ce résultat correspond à un point selle de la fonction de log-vraisemblance
avant d’être confirmé par Tzavelas[68]. Le second résultat proposé par Cohen et Whitten[13]
est obtenu avec leur méthode des moments modifiés. On note néanmoins une similitude
entre leurs résultats et ceux obtenu par la méthode proposée. Après changement de point
de départ de sa procédure de calcul, Hirose[27] obtient un second résultat(noté ’Hirose(a)’)
correspondant à un maximum local de la fonction de log-vraisemblance. Résultat encore
confirmé par Tzavelas[67]. En somme, une des leçons qu’on peut tirer de cet exemple est
que pour des échantillons de petite taille les estimations du maximum de vraisemblance
peuvent présenter des différences significatives avec les estimations fournies par d’autres
procédures d’estimation.

II.6.2 Contrôle de la qualité d’ajustement du modèle

Après l’estimation des paramètres du modèle, il est nécessaire de vérifier si l’ajustement


du modèle à la série d’observations est de qualité. Certes, des tests statistiques existent
dans la littérature à cet effet, mais les méthodes graphiques sont les plus utilisées du fait
de leur simplicité.

II.6.2.1 Diagramme Quantile-Quantile

L’idée de base des diagrammes quantile-quantile est de représenter les points M (x∗i , xi )
où xi et x∗i désignent respectivement les quantiles empiriques et les quantiles théoriques du

49
Chapitre II Une méthode de vraisemblance marginale pour l’ajustement d’un modèle
P 3 à une série d’observations indépendantes et identiquement distribuées.
modèle soupçonné. En principe, si les observations sont tirées du modèle en question, ces
deux quantiles devront être égaux et par conséquent, les points M (x∗i , xi )i seront alignés.
Pour ce qui est de cette section, nous soupçonnons le modèle P 3 d’être à l’origine des
observations de la Table II.2 . Sur l’axe vertical, est représentée la série ordonnée croissante
tandis que l’axe horizontal représente les quantiles d’ordre pi = i−.5
20
,i = 1 : 20 du modèle
P 3 . Pour chacune des trois méthodes d’estimation, nous utilisons les valeurs estimées des
paramètres pour le calcul des quantiles du modèle.

Méthode MMosLE

*
0.7

*
Quantiles empiriques

*
0.6
0.5

* *
*
* ** *
0.4

*
***
**
*
0.3

*
**
0.3 0.4 0.5 0.6 0.7
Quantiles théoriques

Méthode LSPF−MLE Méthode BL

* *
0.7

0.7

* *
Quantiles empiriques

Quantiles empiriques

* *
0.6

0.6
0.5

0.5

* * * *
* *
* *
** ** ** **
0.4

0.4

*** ***
* *
** **
0.3

0.3

* *
** **
0.3 0.4 0.5 0.6 0.7 0.3 0.4 0.5 0.6 0.7
Quantiles théoriques Quantiles théoriques

Figure II.6.1 : Diagramme Quantile-Quantile basée sur les estimations des trois méthodes

Comme on peut bien le constater, les méthodes d’estimation n’ont apparemment pas
d’influence significative sur la qualité de l’ajustement. Pour toutes les méthodes, quelques
points ont tendance à s’écarter de la position idéale sans pour autant détériorer la qualité
de l’ajustement.
Pour mieux apprécier le niveau de déviation entre quantiles empiriques et quantiles
théoriques pour chacune des trois méthodes d’estimation, nous proposons ici d’utiliser

50
II.6 Application à des données de la littérature

une procédure bootstrap.

II.6.2.2 Étude de la qualité d’ajustement par bootsrap

La distribution gamma standard de paramètres (1.0, 1.0) est utilisée comme distribution
de référence et dont les quantiles d’ordre pi = i−.5
20
,i = 1 : 20 sont représentés en abscisse.
Pour la courbe du milieu(en points noirs), l’axe des ordonnées correspond aux sta-
tistiques d’ordre des données observées. Cette courbe traduit la variabilité des données
observées. Les courbes en extrême(courbes en rouge) représentent les quantiles d’ordre
.975 (respectivement .025) de la distribution empirique pour la courbe au-dessus (respec-
tivement en dessous) obtenue en utilisant 1000 échantillons de tailles 20 générées à partir
de la distribution ajustée.

Méthode MMosLE
1.2
Données ordonnées &

1.0

+
quantiles bootstrap
0.8

+
+ *
+
* *
0.6

+
+
+ +
++ +
++
++
* **
+ +
+
++
0.4

********
+ + ++
++ ++++
+
**
++**
+ ++++
**
++
0.2

0 1 2 3 4
Quantiles Gamma(1,1) pour (i − 0.5) 20, i = 1:20

Méthode LSPF−MLE Méthode BL


1.2

1.2

+ +
Données ordonnées &

Données ordonnées &


1.0

1.0
Quantiles bootstrap
quantiles bootstrap

+
0.8

0.8

+
+ * +
+ *
+
* * +
* *
0.6

0.6

++ +
+ + + +
++ + ++ +
** * ** *
++ + ++ +
++ + + ++ + +
0.4

0.4

+++
******** ********
++ ++ ++
++ ++++ +++ +++
++ +++++
* ++ ++++++
*
** **
*** ***
+
+++ ++++
0.2

0.2

0 1 2 3 4 0 1 2 3 4
Quantiles Gamma(1,1) pour (i − 0.5) 20, i = 1:20 Quantiles Gamma(1,1) pour (i − 0.5) 20, i = 1:20

Figure II.6.2 : Graphique illustratif de la qualité de l’ajustement

Dans les trois cas de figure, la courbe décrivant la variabilité des données observées
(celle en noir) est contenue dans l’enveloppe (en rouge) formée par les deux courbes

51
Chapitre II Une méthode de vraisemblance marginale pour l’ajustement d’un modèle
P 3 à une série d’observations indépendantes et identiquement distribuées.
traduisant respectivement les quantiles d’ordre .975 et .025 de la distribution empirique.
Cela témoigne que les déviations constatées dans le diagramme quantile-quantile n’ont
aucune méchanceté et par conséquent, il n’ya pas de raison évidente de rejeter l’hypothèse
selon laquelle les observations de la Table II.2 sont distribuées selon un modèle P 3.

II.6.3 Biais et intervalles de confiance des estimateurs de la

méthode MMosLE par bootstrap

Dans cette section, nous développons une procédure de calcul du biais et des intervalles
de confiances pour raffiner la comparaison des résultats des trois méthodes. Compte tenu
de la petite taille des observations, nous suggérons de procéder par bootstrap.

II.6.3.1 Procédure de calcul

Pour calculer le biais et les intervalles de confiance, nous utilisons la méthode de boots-
trap paramétrique développée dans le papier de Carpenter et Bithell[9]. Pour ce faire, soit
θb les estimations obtenues en utilisant l’échantillon original consigné dans le tableauII.2.
Nous générons N = 5000 échantillons de taille n = 20 avec un modèle gamma à trois
paramètres dont le vecteur des paramètres est θ.
b En appliquant la méthode MMosLE

aux N échantillons, on obtient les estimations θb1∗ , θb2∗ , ..., θbN



. On calcule alors le biais par
PN  b∗ 
1
N i=1θ i − θb .
Compte tenu de l’asymétrie des estimateurs proposés dans le cadre de ce travail(voir
paragraphe(II.5.3.2), nous suggérons la méthode des percentiles corrigés [9] pour calculer
les intervalles de confiance. La procédure de calcul d’un intervalle de confiance de niveau
95% peut se résumer autour de l’algorithme suivant :

Algorithme II.2 Intervalle de confiance par la méthode des percentiles corrigées


n o
b θb∗ = θb∗ , θb∗ , ..., θb∗
Entrées:N ,θ, 1 2 N
Sorties: lower, upper
— Déterminer la proportion p des valeurs θbi∗ inférieure à θb
— Calculer z0 = qnorm(p)
— Calculer α1 = pnorm(2z0 + qnorm(.025)) et α2 = pnorm(2z0 + qnorm(.975))
— Déterminer les bornes de l’intervalle par lower =quantile d’ordre α1 de θb∗ et
upper =quantile d’ordre α2 de θb∗

52
II.7 Conclusion

II.6.3.2 Résultats

En appliquant la procédure de calcul décrite ci-dessus, les résultats suivants ont été
recueillis.

Shape Location Scale


Bias 5.301 -0.046 0.005
Borne inf. de IC à 95% 1.014 -0.447 0.012
Borne sup. de IC à 95% 64.582 0.282 0.174

Table II.5 : Estimation du biais et intervalle de confiance 95% par la méthode des per-
centiles corrigées

Si les intervalles de confiance du paramètre de seuil et celui d’échelle semblent être


raisonnables, celui du paramètre de forme est relativement large. De plus l’intervalle de
confiance du paramètre de localisation laisse voir la possibilité de valeur négative pour la
valeur vraie de ce paramètre, tandis que les deux autres excluent cette possibilité.

II.7 Conclusion

Dans ce chapitre, nous avons proposé une approche de maximum de vraisemblance


pour l’estimation des paramètres de la distribution P 3. La fonction de vraisemblance est
basée sur les n − 1 plus grandes statistiques d’ordre d’un échantillon de taille n tiré d’une
distribution P 3. Les estimations du maximum de vraisemblance du paramètre du modèle
sont obtenues en faisant recours à un algorithme MM. Bien que les distributions des esti-
mations présentent une certaine asymétrie, ce qui signifie que la normalité asymptotique
n’est pas garantie, les résultats de l’étude de simulation par Monte-Carlo suggèrent que
la méthode est efficace car le biais et l’erreur quadratique moyenne s’améliorent au fur et
à mesure que la taille de l’échantillon augmente. Ces résultats sont comparés à ceux de
deux méthodes alternatives : la méthode (LSPF-MLE) de Nagatsuka et al.(2014)[46], et
la méthode Bayesienne (BL) de Hall et Wang (2005),[25]. Les principales conclusions de
cette comparaison sont les suivantes :
— le biais du paramètre de forme a une petite amplitude lorsque sa valeur théorique
est inférieure à 1.5 et il s’améliore plus rapidement que pour ceux des méthodes

53
Chapitre II Une méthode de vraisemblance marginale pour l’ajustement d’un modèle
P 3 à une série d’observations indépendantes et identiquement distribuées.
LSPF-MLE et BL dans tout le domaine de ce paramètre ;
— l’erreur quadratique moyenne de l’estimation du paramètre de forme s’améliore plus
rapidement que celui des méthodes LSPF-MLE et BL ;
— le biais du paramètre de localisation est faible si la valeur théorique du paramètre de
forme est inférieure à 1.5 et son amplitude dévient comparable à celle des deux mé-
thodes LSPF-MLE et BL si la valeur théorique du paramètre de forme est supérieure
à 1.5.
— L’erreur quadratique moyenne du LSPF-MLE est le plus petit des trois méthodes,
par contre celui de la méthode BL est le pire par rapport à cette métrique de
performance.
— Les estimations du paramètre d’échelle obtenues par la méthode LSPF-MLE ou la
méthode BL a un biais inférieur à la méthode MMosLE.
— L’erreur quadratique moyenne a une amplitude proche de celui de la méthode du
LSPF-MLE.

54
Appendices

55
Annexe A
Annexe du chapitre II

A.1 Quelques inégalités de base

Soient u, v, u0 et v 0 des réels strictement positifs. Les relations suivantes sont vérifiées.

1. -log (v) ≥ − log (v 0 ) − 1


v0
(v − v 0 )
2 v0 v 2 u0
2. −uv ≥ − u2 u0
− 2 v0

v0
 
3. log (u + v) ≥ log (u + v 0 ) + u+v 0
log v
v0

v 02 u0
n  o
u2
4. u log (v) = u − log 1
v
et par suite u log (v) ≥ u log (v 0 ) + u − 2u0
− 2v 2

1 1
  
u log (v) ≥ u log (v ) − v − 0 0 0
v v
u
≥ u log (v ) + u − v 0
0
v(
1
)
2
u
≥ u log (v 0 ) + u + v 0 − 0 0 − 2 v 0 u0
2u v 2v
2 02 0
u v u
≥ u log (v 0 ) + u − 0 −
2u 2v 2

 2
u2 u0
5. −u log (v) ≥ u (1 − log (v 0 )) − 2u0
− 2
v
v0

6. Pour tout u, u0 appartenant à l’intervalle ]0, 1[, on a : − log (1 − u) ≥ − log (1 − u0 ) +


u0
 
1−u0
log u
u0
. Par suite,

u 1−u
 
0 = log u 0 + (1 − u0 ) 0
u 1 − u0
u 1−u
   
≥ u log 0 + (1 − u ) log
0 0
u 1 − u0

57
Annexe A Annexe du chapitre II

A.2 Preuve de la Proposition 5

Démonstration.

A.2.1 Minorisation des termes de L1 (θ | x2:n , · · · ,xn:n )

Lemme 9.

x1:n − ν 0 x1:n − ν 0 λ2 x1:n − ν 0 (x1:n − ν 0 )2 λ0


" # " # " #
λ log (xr:n − ν) ≥ λ log (xr:n − ν ) +
0
λ − −
xr:n − ν 0 xr:n − ν 0 2λ0 xr:n − ν 0 (x1:n − ν)2 2

Démonstration. Comme log (xr:n − ν) = log {(xr:n − x1:n ) + (x1:n − ν)} et prenant en
compte l’hypothèse que (x1:n − ν) > 0 , l’inégalité de base (3) conduit à

x1:n − ν 0 x1:n − ν
 
log (xr:n − ν) ≥ log (xr:n − ν 0 ) + 0
log
xr:n − ν x1:n − ν 0

Par suite

x1:n − ν 0 x1:n − ν
 
λ log (xr:n − ν) ≥ λ log (xr:n − ν ) + λ
0
0
log
xr:n − ν x1:n − ν 0

En appliquant l’inégalité (1) et en tenant compte que λ > 0 on a :

x1:n − ν 0 x1:n − ν 0 λ2 x1:n − ν 0 (x1:n − ν 0 )2 λ0


" # " # " #
λ log (xr:n − ν) ≥ λ log (xr:n − ν )+
0
λ− −
xr:n − ν 0 xr:n − ν 0 2λ0 xr:n − ν 0 (x1:n − ν)2 2

Lemme 10.

1.
ν − ν0
− log (xr:n − ν) ≥ − log (xr:n − ν ) + 0
xr:n − ν 0

2.

λ2 0 β
2
−λ log (β) ≥ −λ log (β 0 ) + λ − − λ
2λ0 2β 02

58
A.2 Preuve de la Proposition 5

Démonstration.

1. Application directe de l’inégalité basique (1)

2. De l’inégalité basique (1) il vient que

1
− log (β) ≥ − log (β 0 ) − (β − β 0 )
β0

Par suite
λβ
−λ log (β) ≥ −λ log (β 0 ) + λ −
β0

En appliquant l’inégalité basique (2) au dernier terme à droite on obtient le résultat.

Des lemmes ci dessus on déduit que

L2 (θ | x1:n , · · · ,xn:n ) ≥ −n log (Γ (λ)) + nλ {1 − log (β 0 )}


( n n
x1:n − ν 0 x1:n − ν 0
" # " #)
+λ log (xr:n − ν ) +
0
+ log (x 0
) +
X X
2:n − ν
r=2 r=2 xr:n − ν 0 x2:n − ν 0
n 0
x1:n − ν 0
( " # " #)
2
λ x1:n − ν
− 0 n+ +
X
2λ r=2 xr:n − ν
0 x2:n − ν 0
λ0 (x1:n − ν 0 )2 X
n
x1:n − ν 0 x1:n − ν 0 (n − 1) (x1:n − ν)2
( " # " #)
− + −
2 (x1:n − ν)2 r=2 xr:n − ν 0 x2:n − ν 0 2β 0 (x1:n − ν 0 )
n
1

X
0
r=2 xr:n − ν
β2 1Xn
β 0 (x1:n − ν 0 )
−nλ0 − (x r:n − x 1:n ) − (n − 1)
2β 02 β r=2 2β 2
n n
1
− log (xr:n − ν 0 ) − ν 0
X X
0
r=2 r=2 xr:n − ν

En notant Q1 (θ | θ0 )le membre à droite de l’inégalité ci-dessus, on obtient

L1 (θ | x2:n , · · · ,xn:n ) ≥ Q1 (θ | θ0 )

Par simple calcul on vérifie que L1 (θ0 | x2:n , · · · ,xn:n ) = Q1 (θ0 | θ0 ). D’où le résultat.

59
Annexe A Annexe du chapitre II

A.3 Preuve de la Proposition 6

Démonstration.

1. Par application de l’inégalité basique (1) on a

ν − ν0
− log (xr:n − ν) ≥ − log (xr:n − ν 0 ) +
xr:n − ν 0

De plus

1
( )
−λ log (β) ≥ λ − log (β ) − 0 (β − β 0 )
0
β
1 λ2 β 0 β 2 λ0
( )
≥ −λ log (β ) + λ − 0
0
+
β 2 λ0 2 β0
λ2 β2
≥ −λ log (β 0 ) + λ − 0 − λ0 02
2λ 2β

Par ailleurs on peut remarquer que

1
Z 1 ( )
c0 (θ) = u λ−1
exp − (x2:n − ν) u du
0 β
n o
1 1 exp − β10 (x2:n − ν 0 ) u
Z 1 ( " # )
λ−λ0
= c0 (θ0 ) u exp − (x2:n − ν) − 0 (x2:n − ν ) u
0
du
0 β β c0 (θ0 )

De l’inégalité de Jensen on a :

1 1
" #
L2 (θ | x2:n , · · · ,xn:n ) ≥ log (c0 (θ )) + (λ − λ ) c1 (θ ) −
0 0 0
(x2:n − ν) − 0 (x2:n − ν 0 ) c2 (θ0 )
β β

En outre par application de l’inégalité basique (3) on déduit que

1 β 0 (x2:n − ν 0 ) (x2:n − ν)2


− (x2:n − ν) ≥ − −
β 2β 2 2β 0 (x2:n − ν 0 )

et Par suite

β 0 (x2:n − ν 0 )
L2 (θ | x2:n , · · · ,xn:n ) ≥ log (c0 (θ0 )) + (λ − λ0 ) c1 (θ0 ) − c2 (θ0 )
2β 2
c2 (θ0 ) (x2:n − ν)2 c2 (θ0 ) (x2:n − ν 0 )
− +
2β 0 (x2:n − ν 0 ) β0

60
A.3 Preuve de la Proposition 6

En notant Q2 (θ | θ0 )le membre à droite de l’inégalité ci-dessus, on obtient

L2 (θ | x2:n , · · · ,xn:n ) ≥ Q2 (θ | θ0 )

Par simple calcul on vérifie que L2 (θ0 | x2:n , · · · ,xn:n ) = Q2 (θ0 | θ0 ). D’où le résultat.

A.3.1 Procédure de calcul des intégrales

n o
c0 (θ) = exp − 1 (x2:n − ν) u du
R 1 λ−1
u
0 β

Z 1 n o
log (u)uλ−1 exp − β1 (x2:n − ν) u
c1 (θ) = 0
du
c0 (θ)

Z 1 n o
uλ exp − β1 (x2:n − ν) u
c2 (θ) = 0
du
c0 (θ)

A quelques constantes prêts, ces intégrales sont analogues à celle déjà calculer dans le
chapitre précèdent.

Proposition 11. Soit (xr )r=1:n une série de n réplications indépendantes d’un modèle
P 3 de vecteur de paramètre θ = (ν, λ, β) et (xr:n )r=1:n la séquence ordonnée croissante des
observations. Soit U une variable aléatoire distribuée selon un modèle Bêta de paramètres
 
λ
2
et 1, de fonction de densité g u| λ2 , 1 . Les égalités suivantes sont vérifiées.

1.
β λ Γ (λ)
c0 (θ) = F1 (1)
(x2:n − ν)λ

2.
E (f (U ))
c1 (θ) =
c0 (θ)

3.
β λ+1 Γ (λ + 1)
c2 (θ) c0 (θ) = F2 (1)
(x2:n − ν)λ+1

61
Annexe A Annexe du chapitre II

où F1 (.)et F2 (.)désignent la fonction de répartition d’une distribution gamma clas-


sique de paramètre d’échelle β
x2:n −ν
et de paramètres de forme respectifs λ et λ + 1
et
2 λ
( )
x2:n − ν
f (u) = u 2 log (u) exp − u
λ β

Démonstration.
Les relations (1) et (3)sont immédiates. Il ne reste qu’à prouver l’égalité(2).

Z 1 n o
log (u)uλ−1 exp − β1 (x2:n − ν) u
c1 (θ) = 0
du
c0 (θ)
   
Γ 1+ Γ
 
Z 1 λ λ
λ λ
n o
2 2
   u 2
−1    log (u)u 2 exp − β1 (x2:n − ν) u
0 Γ λ
2
Γ 1+ λ
2
= du
c0 (θ)
 2 λ
n o
g u| λ2 , 1 log (u)u 2 exp − β1 (x2:n − ν) u
R1
0
= λ du
c0 (θ)
 
g u| λ2 , 1 f (u)
R1
0
du
c0 (θ)

A.4 Résultats des méthodes LSPF-MLE et BL

A.4.1 Résultats de la méthode LSPF-MLE

62
A.4 Résultats des méthodes LSPF-MLE et BL

Shape Location Scale Joint


λ n Bias RMSE Bias RMSE Bias RMSE Bias MSE
0.5 20 0.055 0.208 −0.003 0.010 0.016 0.447 0.074 0.243
50 0.019 0.102 0.000 0.001 0.003 0.276 0.022 0.087
100 0.002 0.060 0.000 0.000 0.002 0.188 0.004 0.039
1.0 20 0.276 1.004 −0.022 0.091 −0.018 0.417 0.316 1.190
50 0.053 0.258 −0.004 0.027 −0.003 0.244 0.060 0.127
100 0.031 0.162 −0.002 0.012 −0.014 0.163 0.047 0.053
1.5 20 0.532 1.845 −0.025 0.214 −0.001 0.455 0.558 3.657
50 0.128 0.834 −0.009 0.098 0.011 0.271 0.148 0.779
100 0.038 0.324 −0.002 0.052 0.005 0.176 0.045 0.139
2.0 20 0.649 2.462 0.009 0.320 0.028 0.483 0.686 6.397
50 0.285 1.269 −0.015 0.194 0.005 0.309 0.305 1.743
100 0.087 0.559 0.000 0.115 0.002 0.194 0.089 0.363
3.0 20 1.393 5.333 0.159 0.624 0.091 0.589 1.643 29.177
50 0.789 3.406 0.042 0.423 −0.002 0.370 0.833 11.917
100 0.316 1.464 0.016 0.289 −0.013 0.237 0.345 2.283
4.0 20 1.801 7.391 0.432 0.991 0.141 0.682 2.374 56.074
50 1.344 5.018 0.152 0.702 0.005 0.418 1.501 25.848
100 0.523 2.688 0.107 0.496 −0.012 0.275 0.642 7.547

Table A.1 : Métriques des estimateurs de la méthode LSPF-MLE[46]

63
Annexe A Annexe du chapitre II

A.4.2 Résultats de la méthode BL

Shape Location Scale Joint


λ n Bias RMSE Bias RMSE Bias RMSE Bias MSE
0.5 20 0.067 0.204 0.001 0.008 −0.025 0.412 0.093 0.211
50 0.033 0.093 0.000 0.001 −0.033 0.250 0.066 0.071
100 0.030 0.058 0.000 0.000 −0.053 0.178 0.083 0.035
1.0 20 0.373 2.179 −0.018 0.186 −0.021 0.419 0.412 4.958
50 0.025 0.242 0.006 0.026 0.013 0.249 0.044 0.121
100 0.012 0.153 0.003 0.012 −0.001 0.165 0.016 0.051
1.5 20 1.489 7.564 −0.127 0.714 −0.009 0.480 1.625 57.954
50 0.098 0.888 0.006 0.125 0.026 0.282 0.130 0.884
100 0.009 0.318 0.011 0.056 0.016 0.181 0.036 0.137
2.0 20 1.627 7.993 −0.156 0.923 0.022 0.508 1.805 64.998
50 0.260 1.300 −0.019 0.276 0.018 0.312 0.297 1.864
100 0.061 0.564 0.011 0.131 0.010 0.199 0.082 0.375
3.0 20 3.397 11.598 −0.400 1.797 0.095 0.641 3.892 138.154
50 1.018 4.778 −0.125 0.868 0.022 0.376 1.165 23.724
100 0.319 1.482 −0.038 0.403 −0.002 0.226 0.359 2.410
4.0 20 4.229 14.501 −0.479 2.639 0.179 0.772 4.887 217.839
50 1.953 7.479 −0.312 1.591 0.029 0.403 2.294 58.629
100 0.561 2.762 −0.079 0.772 0.011 0.255 0.651 8.290

Table A.2 : Métriques des estimateurs de la méthode Bayesienne(BL).[46]

64
Chapitre III
Formulation et ajustement d’un modèle de
série temporelle de marges distribuées selon
une distribution P 3.

III.1 Introduction

Dans la version classique de l’analyse des séries temporelles on a coutume de sup-


poser que la distribution marginale est gaussienne. Pourtant, cette hypothèse est fré-
quemment mise à défaut. C’est le cas par exemple lorsqu’il s’agit d’analyser des séries
dans les domaines comme l’hydrologie, la météorologie, la théorie de l’information ou de
l’économie[55].
Dès lors, l’analyse des séries temporelles nécessite des transformations du type Box
&Cox[8] avec le risque de modifier la structure de la série originale. D’autres suggestions
allant dans le sens des transformations de Lettenmaier & Burges[39] ou encore de Stedinger
& Taylor[64] ont été aussi proposés.
Dans ces dernières années des modèles autorégressifs de marges non gaussiennes très
variées ont été proposées dans la littérature. On y trouve des modèles de séries temporelles
avec des marges allant de la distribution exponentielle simple au mélange d’exponentielle
[21, 37, 38, 40], des marges weibull[59, 49] et des marges gamma[21, 59, 50, 18, 17, 30,
56, 49]. Obeysekera & Yevjevich[50] font état d’une procédure pour la génération de
séries à partir d’un schéma autorégressif de distribution marginale gamma. Au cours de

65
Chapitre III Formulation et ajustement d’un modèle de série temporelle de marges
distribuées selon une distribution P 3.
leurs récents travaux, Fernandez & Salas[18] développent un modèle autorégressif d’ordre
un de marge gamma(GAR(1)). Compte tenu de l’importance du biais des estimateurs
du modèle obtenu via la méthode des moments, ils suggèrent l’utilisation d’une sorte
de correction avant l’ajustement du modèle. Appliquée à des séries annuelles de débits,
ils prétendent que le modèle GAR(1) est plus adapté que les précédents pour générer
des données de débits synthétiques. Tiku & al.[65] proposent un modèle AR(1) avec des
termes d’erreurs distribuées selon un modèle gamma. Ils suggérèrent l’utilisation de la
méthode du maximum de vraisemblance modifiée (ML) pour l’estimation des paramètres
du modèle.
Le modèle proposé dans ce chapitre appartient à la classe des modèles autorégressifs
doublement stochastiques étudiée par Tjostheim[66]. Une représentation générale de ce
type de modèle est formulée comme suit :

Xt = At Xt−1 + εt , t ∈ Z (III.1.1)

où (εt )t∈Z et (At )t∈Z sont des processus stochastiques.


Précédemment, une revue détaillée des domaines d’application de ce type de modèle
a été discuté par Vervaat puis par Lewis & Lawrence[70, 38]. Des conditions générales
d’existence de solutions stationnaires de l’équation(III.1.1) furent données par Mohsen
Pourahmadi[56]. Il révèle qu’un choix judicieux des séquences (εt )t∈Z et (At )t∈Z pouvait
conduire à des solutions stationnaires de marges non gaussiennes. Les cas spécifiques
des marges gamma, exponentielle ou hyper-exponentielle ont été discutés. Harry Joe[30]
propose un schéma de construction de modèles autorégressifs doublement stochastiques
dont les marges appartiennent à la famille des distributions stables par convolution et
infiniment divisibles. Son schéma est basé sur un opérateur stochastique qu’il a quali-
fié « d’opérateur d’amincissement » de la distribution marginale. Le cas spécifique de
plusieurs distributions marginales a été développée. Entre autres, la distribution gamma
standard et la distribution de poisson.
Le principe de construction du modèle proposé dans ce chapitre est inspiré de celui
proposé par Harry Joe[30]. À partir d’une distribution marginale P 3, nous formulons
un modèle autorégressif dont les termes d’innovations sont distribuées selon un modèle

66
III.2 concepts et résultats intermédiaires

gamma standard. Les propriétés du modèle obtenu ont été discutés. L’ajustement du mo-
dèle proposé est réalisé par une méthode de maximum de vraisemblance conditionnelle.
Compte tenu de la complexité de la fonction de vraisemblance obtenue, un algorithme
MM a été mise en oeuvre pour estimer les paramètres du modèle. Enfin à partir des
études de simulation Monte Carlo, nous évaluons les performances des estimateurs pro-
posés. Toutes les procédures de calcul dans le présent chapitre ont été implémentées sous
l’environnement de calcul R[57].

III.2 concepts et résultats intermédiaires

III.2.1 Concepts

III.2.1.1 Processus stochastique

Notons par (Ω, F, P) un espace de probabilité. Soient T un ensemble des indices et S un


espace métrique muni de la tribu borélienne notée B (S). D’une façon générale T désigne
un ensemble arbitraire, mais dans la suite de ce chapitre cette notation fait référence au
temps et nous nous intéresserons uniquement au cas ou T ⊆ N. S sera appelé espace
d’état. Nous l’assimilerons à l’ensemble R tout au long de ce chapitre.

Définition 12. On appelle « processus stochastique » une famille de variables aléatoires


(Xt )t∈T définies sur (Ω, F, P), indexés par t ∈ T et a valeur dans S.
On dit qu’un processus (Xt )t∈T est Markovien ou possède la propriété de Markov si et
seulement si la probabilité conditionnelle de Xt+1 sachant (Xk )k=0:t ne dépend que de Xt
seul.

III.2.1.2 La stationnarité

En termes simples, un processus est stationnaire s’il ne dépend pas de l’indice temporel.
Cette propriété est très importante en pratique, en ce sens que le processus pourrait être
caractérisé uniquement par sa loi stationnaire, qui par définition ne dépend pas du temps.
Généralement, on distingue la stationnarité stricte et la stationnarité faible ou de second
ordre.

67
Chapitre III Formulation et ajustement d’un modèle de série temporelle de marges
distribuées selon une distribution P 3.
Définition 13. On dit qu’un processus (Xt )t∈T est strictement stationnaire, si pour
tout T ∈ T et pour tout décalage h ∈ Z, les vecteurs aléatoires (X1 , X2 , ...XT ) et
(X1+h , X2+h , ...XT +h ) ont la même loi.

Mise à part les processus gaussiens, la stricte stationnarité est délicate à vérifier en
pratique. D’où la nécessité d’introduire une notion de stationnarité moins contraignante.

Définition 14. On dit qu’un processus (Xt )t∈T est stationnaire au sens faible , si les
conditions suivantes sont vérifiées :

1. ∀t ∈ T, E (Xt ) = c(constante)

2. ∀t ∈ T, V (Xt ) 6= ∞

3. ∀h ∈ Z, Cov (X0 , Xh ) = f (h) (une fonction uniquement de h)

III.2.1.3 Structure d’autocorrélations

L’autocorrélation d’une série temporelle est simplement la corrélation du processus par


rapport à une version décalée dans le temps de lui-même. L’autocorrélation est générale-
ment caractérisée par la fonction d’autocorrélation définie par :

Définition 15. On désigne par « fonction d’autocorrélation » associée à un processus


stationnaire (Xt )t∈T , la fonction ρ (h) définie par

Cov (X0 , Xh )
ρ (h) = ,
V (X0 )

où h désigne un décalage temporel quelconque.


Comme plutôt indiqué, le modèle qui sera formulé dans ce chapitre est inspiré de l’opé-
ration d’amincissement. La section suivante est consacrée à la définition de cette notion.

III.2.2 Résultats intermédiaires

Proposition 16. Soit X une variable aléatoire distribuée selon un modèle P 3 de para-
mètre de localisation ν, de forme λ et de paramètre d’échelle β. La transformée de Laplace
de X est donnée par :

68
III.2 concepts et résultats intermédiaires


1
φX (t) = exp (−νt)
βt + 1

Démonstration. Reprenons la formule de la fonction de densité f de X définie en (I.1.1) :

(x − ν)λ−1
( )
x−ν
f (x|θ) = exp − 1{ν ,+∞} (x) (III.2.1)
β λ Γ (λ) β

Par définition

φX (t) = E {exp (−tX)}


ν Z +∞ (x − ν)λ−1 βt + 1
! ( !)
= exp exp −x dx
β ν β λ Γ (λ) β

En opérant le changement u = x − ν, le résultat précèdent nous conduit à :

ν Z +∞ uλ−1 βt + 1
! ( !)
φX (t) = exp exp − (u + ν) du
β 0 β λ Γ (λ) β
uλ−1 βt + 1
Z +∞ ( !)
= exp (−νt) exp −u du
0 β λ Γ (λ) β
!λ Z
1 uλ−1 βt + 1
( !)
+∞
= exp (−νt) exp −u du
βt + 1

β

0 β
βt+1
Γ (λ)

On reconnaît dans l’intégrale la fonction de densité d’une distribution P 3 de paramètre


de localisation 0, de paramètre de forme λ et de paramètre d’échelle β
βt+1
. D’où


1
φX (t) = exp (−νt)
βt + 1

Corollaire 17. Supposons que X1 et X2 soient deux variables aléatoires indépendantes


et identiquement distribuées selon P3 (ν, λX1 , β) et P3 (0, λX2 , β) respectivement, et soit
X = X1 + X2 leur somme. Les assertions suivantes sont vérifiées :

1. la variable aléatoire X est distribuée selon une loi P 3 de paramètres ν, λ et β où


λ = λX1 + λX2 .

69
Chapitre III Formulation et ajustement d’un modèle de série temporelle de marges
distribuées selon une distribution P 3.
2. la distribution conditionnelle de X1 sachant que X = x est identique à la distribution
de la variable (x − ν) S + ν , où S désigne une variable aléatoire distribuée selon la
loi bêta de paramètres λX1 et λX2 .

Démonstration.

1. Notons par φX1 , φX2 et φX les transformées de Laplace de X1 , X2 et X respective-


ment. Puisque X1 et X2 sont indépendantes, il vient que φX (t) = φX1 (t) φX2 (t). Il
découle de la proposition(16) que

!λX +λX
1 1 2
φX (t) = exp (−νt)
βt + 1

1
= exp (−νt)
βt + 1

Par suite,φX (t) est la transformée de Laplace d’une distribution P 3 de paramètre


de localisation ν, de forme λ et de paramètre d’échelle β. D’où le résultat.

2. Notons par fX1 et fX2 les fonctions de densité des variables aléatoires X1 et X2
respectivement. Si fX1 |X désigne la fonction de densité de la variable X1 condition-
nellement à X = x, on a :

fX1 ,X2 (y, x − y)


fX1 |X (y|, ν, λX1 , λX2 , x) =
fX (x)
fX (y) × fX2 (x − y)
= 1
fX (x)
λX −1 λ −1
(y−ν) 1 exp{− y−νβ }
(x−y) X2 β }
exp{− x−y
×
β 1 Γ(λX1 ) β 2 Γ(λX2 )
λX λX

= λ +λ −1
(x−ν) X1 X2 β }
exp{− x−y
Γ(λX1 +λX2 )
λX +λX
β 1 2

Par conséquent

1 Γ (λX1 + λX2 ) y − ν
" # λX −1
y−ν
 
2
fX1 |X (y|, ν, λX1 , λX2 , x) = λX1 −1
1−
x − ν Γ (λX1 ) Γ (λX2 ) x − ν x−ν

qui n’est rien d’autre que la fonction de densité de la variable aléatoire (x − ν)S + ν
avec S v Beta(λX1 , λX2 )

70
III.3 Le modèle et ses propriétés

III.3 Le modèle et ses propriétés

Précédemment Joe Harry[30] a proposé un schéma de construction de modèles autoré-


gressifs de la forme

Xt = Rt (Xt−1 , α) + Et , t = 1, ..., n, α ∈]0, 1[

où Rt est un opérateur stochastique à construire judicieusement et Xt une variable dont


la distribution appartient à la famille des distributions infiniment divisibles et stables par
convolution. Ce type de modèle, à la différence des modèles autorégressifs standards, est
qualifié de modèle doublement stochastique en ce sens que l’opérateur Rt (Xt−1 , α) et les
innovations Et sont toutes deux des variables aléatoires. Une extension de ce modèle à des
marges de la famille exponentielle de dispersion a par la suite été proposée par Jorgensen
et Song[31].
En ce qui concerne le présent chapitre, nous souhaitons que Xt soit distribuée selon
un modèle P 3 de vecteur de paramètre θ = (ν, λ, β). L’approche développée consiste à
utiliser la notion d’amincissement, par laquelle la variable Xt−1 de distribution P 3 de
vecteur de paramètre θ serait amincie en une variable Rt (Xt−1 , α) de distribution P 3
de paramètre de localisation ν de forme αλ et de paramètre d’échelle β. En supposant
les innovations Et indépendantes et identiquement distribuées selon un modèle gamma
standard de paramètre de forme (1 − α) λ et de paramètre d’échelle β et en utilisant le
résultat du corollaire(17), on obtient la distribution désirée pour la variable Xt .

III.3.1 Amincissement convexe d’une variable aléatoire de loi P 3.

Dans cette section, nous définissons l’opérateur d’amincissement. Des résultats du co-
rollaire(17), nous pouvons formuler la définition suivante.

Définition 18. Considérons une variable aléatoire X distribuée selon un modèle P 3 de


paramètre de seuil ν , de paramètre de forme λ et de paramètre d’échelle β et soit α ∈]0, 1[.
La variable aléatoire R (X, α) est appelée un amincissement convexe de proportion α de

71
Chapitre III Formulation et ajustement d’un modèle de série temporelle de marges
distribuées selon une distribution P 3.
X si et seulement si sa distribution conditionnellement à X = x est la même que celle de
la variable (x − ν) S + ν où S est distribuée selon un modèle Bêta de paramètres αλ et
(1 − α) λ.

La terminologie amincissement trouve son explication dans le fait que la moyenne de


la variable aléatoire R (X, α) conditionnellement à X = x est une combinaison linéaire
convexe de x. En effet,

E (R (X, α) |X = x) = (x − ν) E (S) + ν

= (x − ν) α + ν

Par conséquent ν < E (R (X, α) |X = x) < x puisque α ∈]0, 1[.


De la définition ci-dessus, nous pouvons tirer les propriétés suivantes :

Proposition 19. Soit X une variable aléatoire distribuée selon un modèle P 3 de para-
mètre de seuil ν , de paramètre d’échelle β et de paramètre de forme λ. Soit α ∈]0, 1[. Les
assertions suivantes sont vérifiées.

1. Les variables R (X, α) et X − R (X, α) sont indépendantes

2. La variable aléatoire R (X, α) est distribuée selon un modèle P 3 de paramètre de


seuil ν, de paramètre d’échelle β et de paramètre de forme αλ.

3. La variable aléatoire X − R (X, α) est distribuée selon un modèle gamma standard


de paramètre d’échelle β et de paramètre de forme (1 − α) λ.

Démonstration.

1. En rappel, X = X1 + X2 avec X1 et X2 deux variables aléatoires indépendantes.


L’idée de la preuve consiste à montrer que la distribution conjointe du couple de
variables (R (X, α) , X − R (X, α)) est la même que celle du couple (X1 , X2 ). Les
détails de cette preuve sont accessibles dans le papier de Jorgenson[31](voir la preuve
de la Proposition 3.1 ).

72
III.3 Le modèle et ses propriétés

2. Soit fR la fonction de densité marginale de R (X, α) et fR|X la fonction de densité


conditionnelle de R (X, α) sachant que X = x . On a :

Z +∞
fR (r|ν, λ, α) = fX (x|α, ν, λ, β) × fR|X (r|ν, λ, α, x) dx
ν

De la Définition18 la fonction de densité de R (X, α) sachant que X = x s’écrit :

1 Γ (λ) r−ν r−ν


   
fR|X (r|ν, λ, α, x) = αλ−1
× 1− (1−α)λ−1
x − ν Γ (αλ) Γ ((1 − α) λ) x − ν x−ν

Par suite

(x − ν)−1 Γ (λ)
fR (r|ν, λ, α) = ×
Γ (αλ) Γ ((1 − α) λ)
n o
Z +∞ (x − ν) λ−1 exp − x−ν β

r − ν αλ−1 x − r (1−α)λ−1
  
dx
ν β λ Γ (λ) x−ν x−ν
1
( )
r−ν
= αλ exp − ×
β Γ (αλ) β
1
( )
Z +∞
x−r
(x − r) (1−α)λ−1
exp − dx
ν β (1−α)λ Γ ((1 − α) λ) β
1
( )
r − ν
= αλ (r − ν) αλ−1 exp −
β Γ (αλ) β

d’où le résultat

Il ressort donc de la proposition ci-dessus que toute variable X distribuée selon un


modèle P 3 est décomposable en une somme de deux variables indépendantes dont l’une
est distribuée selon une loi P 3 et l’autre selon un modèle gamma standard. En d’autres
termes, partant d’une variable distribuée selon un modèle P 3, il serait donc possible de
générer une suite de variables de la même distribution.

III.3.2 Formulation du modèle

Considérons X1 une variable distribuée selon une loi P 3 de paramètres de localisation ν,


de forme λ et d’échelle β. D’après la proposition 19, on peut trouver une séquence (Et )t≥2
tel que la séquence de variables aléatoires (Xt )t≥2 générées par le schéma autorégressif de

73
Chapitre III Formulation et ajustement d’un modèle de série temporelle de marges
distribuées selon une distribution P 3.
premier ordre
Xt = Rt (Xt−1 , α) + Et , t ≥ 2

soient de marges distribuées selon un modèle P 3. D’où la définition.

Définition 20. Soit X1 une variable distribuée selon une loi P 3 de paramètres de lo-
calisation ν, de forme λ et d’échelle β. On dit qu’un processus (Xt )t≥1 est un processus
autorégressif de premier ordre de marges distribuées selon un modèle P 3 s’il vérifie l’équa-
tion de récurrence

Xt = Rt (Xt−1 , α) + Et , t ≥ 2 (III.3.1)

1. α est un réel strictement compris entre 0 et 1.

2. (Rt (Xt−1 , α))t∈N? est une séquence d’amincissements de Xt−1 indépendantes et dis-
tribuées selon une loi P 3 de paramètre de seuil ν , d’échelle β et de paramètre de
forme αλ.

3. La séquence d’innovations (Et )t∈N? est une suite de variables aléatoires indépen-
dantes et identiquement distribuées selon une loi gamma standard de paramètre
d’échelle β et de paramètre de forme (1 − α) λ.

4. Les séquences (Rt (Xt−1 , α))t∈N? et (Et )t∈N? sont mutuellement indépendantes.

III.3.3 Propriétés du modèle

III.3.3.1 Notations

Pour un soucis de clarté, les notations suivantes seront adoptées dans la suite du cha-
pitre.

Rt = Rt (Xt−1 , α)

74
III.3 Le modèle et ses propriétés

at = min (xt , xt−1 )

x1:T = min (x1 , x2 , · · · , xT )

III.3.3.2 Propriétés du premier et du second ordre

Proposition 21. Considérons une série temporelle (Xt ) t∈N∗ vérifiant la formule de ré-
currence donnée en(III.3.1). Les assertions suivantes sont vérifiées.
 
1. E (Xt | Xt−1 ) = αXt−1 + (1 − α) ν + λ
β
 
2. ∀j ∈ N? , E (Xt+j | Xt ) = αj Xt + (1 − αj ) ν + λ
β
,
 
3. La fonction d’auto-covariance(ACF) de retard j est donnée par γ (j) = αj λ
β2

4. La fonction d’auto-corrélation de retard j est donnée parρ (j) = αj .

5. Le processus (Xt ) t∈N∗ est stationnaire au sens faible.

Démonstration.

1.

E (Xt | Xt−1 = xt−1 ) = E (Rt | Xt−1 = xt−1 ) + E (Et )

Or, par définition la distribution conditionnelle de Rt sachant que Xt−1 = xt−1 est
la même que celle de (xt−1 − ν) S + ν où S designe une variable aléatoire distribuée
selon une loi Beta de paramètres αλ et (1 − α) λ. Par suite E (Rt |Xt−1 = xt−1 ) =
α (xt−1 − ν)+ν. Comme Et suit une loi gamma de paramètre de forme (1 − α) λ et de
paramètre d’échelle β, il decoule que E (Et ) = (1−α)λ
β
. Par consequent, E (Xt | Xt−1 = xt−1 ) =
 
αxt−1 + (1 − α) ν + λ
β
. D’où

!
λ
E (Xt | Xt−1 ) = αXt−1 + (1 − α) ν + (III.3.2)
β

75
Chapitre III Formulation et ajustement d’un modèle de série temporelle de marges
distribuées selon une distribution P 3.
2. Procédons par récurrence. Pour j = 1, le résultat précedent conduit à :

E (Xt+1 | Xt = xt ) = E (Rt+1 | Xt ) + E (Et+1 )


!
λ
= αxt + (1 − α) ν +
β

Par suite
!
λ
E (Xt+1 | Xt ) = αXt + (1 − α) ν + (III.3.3)
β

Donc la propriété est vérifiée pour j = 1. Supposons qu’elle est vraie jusqu’à l’ordre
j − 1, on a :

E (Xt+j |Xt ) = E (E [((Xt+j | X1 , · · · , Xt+j−1 ))] | Xt )

Comme le processus est Markovien, on déduit que

E (Xt+j |Xt ) = E (E [Xt+j | Xt+j−1 ] | Xt )


! !
λ
= E αXt+j−1 + (1 − α) ν + | Xt
β
!
λ
= αE (Xt+j−1 | Xt ) + (1 − α) ν +
β
!
  λ
= α j Xt + 1 − α j ν +
β

 
3. Il suffit de montrer que Cov (Xt , Xt+j ) = αj λ
β2
, ∀j ≥ 1. Pour cela, procédons
encore par récurrence

Ainsi, pour j = 1 on a :

Cov (Xt , Xt+1 ) = E (Cov (Xt , Xt+1 ) | Xt ) + Cov (E (Xt | Xt ) , E (Xt+1 | Xt ))

= E (Xt Xt+1 | Xt ) − E (Xt | Xt ) E (Xt+1 | Xt ) + Cov (Xt , E (Xt+1 | Xt ))

= 0 + Cov (Xt , E (Xt+1 | Xt ))

Par suite, en utilisant l’équation(III.3.3), il découle que

76
III.3 Le modèle et ses propriétés

!!
λ
Cov (Xt , Xt+1 ) = Cov Xt , αXt + (1 − α) ν +
β

= αVar (Xt )
λ

β2

Donc la propriété est vérifiée pour j = 1.

Supposons maintenant qu’elle est vraie jusqu’au pas j − 1. En utilisant le second


résultat de la proposition, on peut écrire que

Cov (Xt , Xt+j ) = Cov (Xt ,E (Xt+j | Xt ))


!
  λ
= Cov Xt , α Xt + 1 − α
j j
ν+ = αj Var (Xt )
β
!
λ
= α j
β2

Preuve que la propriété est vraie à l’ordre j.

4. Par définition, la fonction d’auto-corrélation ρ (j) est donnée par :

αj λβ 2
ρ (j) = = αj
λβ 2

5. Du résultat précèdent, ρ (j) = αj . Comme α ∈]0, 1[, on déduit que le modèle est
stationnaire.

III.3.3.3 Simulation de trajectoires

D’un point de vue pratique, le modèle défini par l’équation(III.3.1) n’a de valeur que
si l’on peut générer assez facilement la séquence (Xt )t∈N∗ . Puisque Rt (Xt−1 , α) et Et sont
indépendantes, on peut remarquer que

Xt |Xt−1 =d Rt (Xt−1 , α) |Xt−1 + Et

77
Chapitre III Formulation et ajustement d’un modèle de série temporelle de marges
distribuées selon une distribution P 3.
où la notation =d signifie égalité en distribution. Or les distributions de Rt (Xt−1 , α) |Xt−1
et Et sont connues depuis (18). La simulation du processus décrite par (III.3.1) peut donc
se faire à travers le schéma suivant :

Algorithme III.1 Procédure de simulation du modèle(III.3.1)


Entrées:θ = (ν, λ, β, α),T , le seed ou la graine aléatoire
Sorties: (xt )t=1:n
— Générer une valeur x1 selon une distribution P3 (ν, λ, β)
— Fixer la graine aléatoire
— Pour t = 2 : T faire
1. Génerer une valeur beta selon une loi Beta de paramètres αλ et (1 − α) λ
2. Génerer une valeur gamma selon une loi Gamma de paramètres (1 − α) λ et αλ
3. xt = gamma + (xt−1 − ν) ∗ beta + ν
Fin pour.
Résultats : (xt )t=1:T

Pour générer des observations à partir du modèle P 3, le package « pearsonDS »[5] du


logiciel R[57] a été utilisé.
En guise d’illustration, des exemples de réalisations du processus(III.3.1) sont pré-
sentés à la figure(III.3.1) ci déssous. Trois trajectoires de longueurs 100 sont générées
du modèle(III.3.1) avec les valeurs théoriques suivantes du paramètre de forme :α =
0.25; 0.5; 0.75. Les autres paramètres étant fixés à (λ, ν, β) = (0.5, 0.0, 1.0).

78
III.3 Le modèle et ses propriétés

α = 0.25 α = 0.5

2.5
4

2.0
3

1.5
Xt

Xt
2

1.0
1

0.5
0.0
0

0 20 40 60 80 100 0 20 40 60 80 100

dates dates

α = 0.75
1.5
1.0
Xt

0.5
0.0

0 20 40 60 80 100

dates

Figure III.3.1 – Exemples de trajectoires du processus (III.3.1)

Visiblement, ces trajectoires ne présentent pas de structure particulière. Il n’y a donc


pas de raison apparente de s’opposer à la stationnarité du processus.
D’autre part, les graphiques ci-dessous illustrent l’effet du paramètre d’amincissement
sur la tendance entre Xt et Xt−1

79
Chapitre III Formulation et ajustement d’un modèle de série temporelle de marges
distribuées selon une distribution P 3.

α = 0.25 α = 0.5

2.5
● ●
4

2.0

3

● ●

1.5
● ●

Xt

Xt
2

● ●

1.0

● ●●●
● ● ● ● ●● ● ● ●


●●●● ●
1

0.5


●●● ● ●● ● ●● ●

●●●●●● ● ●● ● ●●
● ● ● ● ● ●●●● ●
●●
●●
●●
●●●● ● ● ● ● ●●
●●

●●●
●● ●
●●●● ●

0.0


●●

●●


●●●●●●●●●● ●● ● ● ●

●●


●●


●●● ●


● ● ● ●
0

0 1 2 3 4 0.0 0.5 1.0 1.5 2.0 2.5

Xt−1 Xt−1

α = 0.75

● ●
1.5


● ●
● ●● ●
1.0


● ●

Xt

● ●

● ●
●●
●● ●
● ●● ●
0.5

● ●
● ●

●● ●
● ●●
● ●●

●● ●

●● ●

●● ●
●●
●●●●
0.0




●●
●●● ● ●

0.0 0.5 1.0 1.5

Xt−1

Figure III.3.2 – Effet du paramètre d’amincissement sur la forme de la rélation entre Xt


et Xt−1 .

À la vue des graphiques ci-dessus, il ressort que la linéarité de la tendance entre deux
observations successives de la série devient de plus en plus évidente lorsque le paramètre
d’amincissement prend des valeurs de plus en plus grandes(proche de 1).

III.3.3.4 Réparametrisation du modèle

Dans toutes les sections à venir, nous adopterons la réparametrisation suivante :

a = αλ

b = (1 − α) λ

80
III.3 Le modèle et ses propriétés

Comme λ > 0 et α ∈]0, 1[, les nouveaux paramètres a et b prennent leurs valeurs dans
l’intervalle ]0, +∞[.
L’adoption de cette réparametrisation nous conduit aux relations suivantes :

a
α =
a+b

λ = a+b

Par conséquent, le vecteur de paramètre θ devient désormais θ = (a, b, β, ν)

III.3.3.5 Probabilité de transition

Proposition 22. Soit (Xt )t≥2 une série temporelle générée par le modèle(III.3.1). La
distribution de Xt conditionnellement à Xt−1 est donnée par

Z
X
f (xt |xt−1 ) = fRtt−1 (rt ) fEt (xt − rt ) drt , (III.3.4)
It

avec

1
( )
xt − rt
fEt (xt − rt |θ) = b (xt − rt ) b−1 exp − I]−∞,xt ] (rt ) ; (III.3.5)
β Γ (b) β

!a−1 !b−1
X 1 Γ (a + b) rt − ν xt−1 − rt
fRtt−1 (rt |xt−1 , θ) = I[ν,xt−1 ] (rt )
xt−1 − ν Γ (a) Γ (b) xt−1 − ν xt−1 − ν
(III.3.6)
où I (.) désigne la fonction indicatrice et It = [ν, at ], le support d’intégration

Démonstration. Du modèle (III.3.1), on peut déduire que :

    
 Xt  1 0 1  Et 
    
= 0 1 0
    
X 
 Xt−1 
 
 t−1  
    
0 0 1
    
Rt Rt

81
Chapitre III Formulation et ajustement d’un modèle de série temporelle de marges
distribuées selon une distribution P 3.
Ce qui conduit à
    
 Et  1 0 −1  Xt 
    
= 0 1 0
    
X 
 Xt−1 
 
 t−1  
    
0 0 1
    
Rt Rt

Par suite

fXt ,Xt−1 ,Rt (xt , xt−1 , rt ) = fEt ,Xt−1 ,Rt (xt − rt , xt−1 , rt )

De plus, comme (Rt , Xt−1 ) et Et sont indépendantes, et compte tenue du faite que

X
fXt−1 ,Rt (xt−1 , rt ) = fXt−1 (xt−1 ) fRtt−1 (rt )

X
où fRtt−1 (.) désigne la distribution de Rt conditionnellement à Xt−1 = xt−1 , on déduit que

X
fEt ,Xt−1 ,Rt (xt − rt , xt−1 , rt ) = fEt (xt − rt ) fXt−1 (xt−1 ) fRtt−1 (rt )

qui à son tour conduit à

X
fXt ,Xt−1 ,Rt (xt , xt−1 , rt ) = fEt (xt − rt ) fXt−1 (xt−1 ) fRtt−1 (rt ) (III.3.7)

Comme

Z
f (xt , xt−1 ) = fXt ,Xt−1 ,Rt (xt , xt−1 , rt ) drt
It
Z
X
= fXt−1 (xt−1 ) fEt (xt − rt ) fRtt−1 (rt ) drt ,
It

l’équation (III.3.7) conduit à la fonction de probabilité de transition

Le problème avec la fonction de transition donnée par l’équation(III.3.7) est que le


domaine d’intégration It dépend du paramètre de localisation ν, comme on peut bien le
constater dans l’équation(22). Le résultat suivant en est une alternative.

Corollaire 23. La fonction de transition donnée par la proposition(22) peut aussi s’écrire

82
III.4 Ajustement du modèle

sous la forme :

Z 1
X
f (xt |xt−1 , θ) = (at − ν) fEt (xt − ν − u (at − ν) |θ) fRtt−1 ((at − ν) u + ν|θ)
(III.3.8)
du
0

X
où les fonctions fEt (.|θ) et fRtt−1 (.|θ) sont données respectivement par les équations
(III.3.5) et (III.3.6).

Démonstration. Le résultat est immédiat en posant

rt − ν
u =
at − ν

dans l’équation (III.3.4) .

III.4 Ajustement du modèle

Les méthodes d’ajustement des modèles non gaussiens sont diverses et variées. Si la
méthode des moindres carrées ordinaire semble être la plus utilisée du fait de sa simplicité,
plusieurs auteurs soulignent néanmoins le manque d’efficacité de ses estimateurs. Comme
alternative, Klimko & co.[33] propose la méthode des Moindres carrées conditionnelles.
En termes simples, cette procédure consiste à minimiser la quantité

T
S (θ) = [xt − E (Xt |xt−1 )]2
X

t=1

où θ représente le vecteur des paramètres et E (Xt |xt−1 ) désigne l’espérance condition-


nelle de Xt sachant que Xt−1 = xt−1 . Pour Sim[59], les estimateurs des moindres carrées
conditionnelles ne sont généralement pas efficaces. Il propose la méthode du maximum
de vraisemblance et suggère que les estimations obtenues de la méthode de Klimko &
al. soient utilisées comme valeurs initiales des algorithmes itératifs destinés à la maximi-
sation de la fonction de log-vraisemblance. Fernandez & al.[18] utilisent la méthode des
moments pour ajuster leur modèle autorégressif de marges gamma. Ils concluent que les
estimateurs de la méthode des moments sont biaisés pour des variables dépendantes et

83
Chapitre III Formulation et ajustement d’un modèle de série temporelle de marges
distribuées selon une distribution P 3.
non gaussiennes. Par conséquent, une sorte de correction est nécessaire avant l’utilisation
de cette méthode.
Pour ce qui concerne le présent chapitre, nous développons une méthode de vraisem-
blance conditionnelle pour l’ajustement du modèle proposé.

III.4.1 La méthode : Vraisemblance conditionnelle

Soit (xt ) t=1:T une série d’observations obtenues du processus(III.3.1) dont la distribu-
tion dépend du vecteur de paramètres θ = (a, b, β, ν). Notons L (θ|xt , t = 1 : T ) la fonction
de vraisemblance du vecteur de paramètres θ associée. Le modèle étant Markovien de pre-
mier ordre, la fonction de vraisemblance est réduite au produit suivant :

T
L (θ|xt , t = 1 : T ) = f (x1 |θ) f (xt |xt−1 , θ) (III.4.1)
Y

t=2

où la probabilité de transition f (xt |xt−1 ) est donnée en(III.3.8) et f (x1 |θ) désigne la
fonction de densité marginale donnée par l’équation(I.1.1).
Tous les deux termes à droite de l’équation(III.4.1) sont accessibles, au moins numéri-
quement. Par conséquent, les estimateurs par maximum de vraisemblance de θ devraient
en principe l’être aussi sans trop de difficultés. Mais la présence du terme f (x1 |θ) pourrait
engendrer des problèmes d’optimisation numériques pour certaines valeurs des paramètres.
Certains de ces problèmes ont été déjà discutés dans le chapitre introductif(I.2). Condi-
tionner la fonction de vraisemblance(III.4.1) par rapport à la première observation X1
s’avère être une bonne alternative, puisque cela nous conduit à la fonction de vraisem-
blance conditionnelle définie par :

T
CL (θ|xt , t = 1 : T ) = f (xt |xt−1 , θ) (III.4.2)
Y

t=2

De l’équation (III.4.2) nous développons la fonction de log-vraisemblance comme suit :

T
log (CL (θ|xt , t = 1 : T )) = log f (xt |xt−1 ) (III.4.3)
X

t=2

84
III.4 Ajustement du modèle

III.4.2 Estimation des paramètres du modèle étudié

La fonction de log-vraisemblance définie par l’équation(III.4.3) est très complexe et sa


maximisation par les méthodes usuelles s’avère compliquée. Une possibilité de surmonter
cette difficulté serait de faire appel à des algorithmes spécifiques pour l’inférence statis-
tique tels que les algorithmes MM déjà décrits dans le premier chapitre et dont les détails
peuvent être consultés dans[35, 28, 36].
En rappel, la première étape de cet algorithme consiste en un choix judicieux d’une
fonction minorisante de la fonction de vraisemblance. Cette fonction dite auxiliaire devrait
être plus facile à maximiser que la fonction originale. Dans la prochaine section, nous
nous focalisons sur la recherche d’une telle fonction pour la log-vraisemblance donnée par
l’équation(III.4.3).

III.4.2.1 Construction de la fonction auxiliaire

Le principe de la construction d’une telle fonction est basée sur les inégalités mathé-
matiques telles que l’inégalité de la moyenne, l’inégalité de Cauchy-Schwartz, l’inégalité
de Jensen, l’inégalité de convexité etc...
Le résultat ci-dessous propose une fonction auxiliaire pour le logarithme de la fonc-
tion de probabilité de transition donnée par l’équation(III.3.8). Dans toute la suite de
ce chapitre, θn = (an , bn , βn , νn ) désignera une valeur fixée du vecteur des paramètres
θ = (a, b, β, ν)

Proposition 24.
Soit (xt ) t=1:T une séquence générée du modèle donné par la relation (III.3.1) et soit θn =
(an , bn , βn , νn ) une valeur fixée du vecteur des paramètres θ = (a, b, β, ν). Les assertions
suivantes sont vérifiées

1.

log f (xt |xt−1 , θ) > log f (xt |xt−1 , θn ) + l1,t (θ | θn , xt , xt−1 ) + l2,t (θ | θn , xt , xt−1 )

85
Chapitre III Formulation et ajustement d’un modèle de série temporelle de marges
distribuées selon une distribution P 3.
2.

log f (xt |xt−1 , θn ) = log f (xt |xt−1 , θn ) + l1,t (θn | θn , xt , xt−1 ) + l2,t (θn | θn , xt , xt−1 )

l1,t (θ | θn , xt , xt−1 ) = −b log β + bn log βn


Γ (a + b) Γ (a) Γ (b)
! !
+ log − log − 2 log (III.4.4)
Γ (an + bn ) Γ (an ) Γ (bn )

+ a log (at − ν) − an log (at − νn ) − (a + b) log (xt−1 − ν)


!
xt−1 − ν
+ (an + bn ) log (xt−1 − νn ) + log
xt−1 − νn

et

Z 1
l2,t (θ | θn , xt , xt−1 ) =b log {xt − ν − (at − ν) u} ht (u|θn ) du
0
Z 1
− bn log {xt − νn − (at − νn ) u} ht (u|θn ) du
0
Z 1
− log {xt − ν − (at − ν) u} ht (u|θn ) du
0
Z 1
+ log {xt − νn − (at − νn ) u} ht (u|θn ) du
0
x t − at Z 1 xt − ν Z 1
− uht (u|θn ) du − (1 − u) ht (u|θn ) du
β 0 β 0

(III.4.5)
Z 1
xt − νn − (at − νn ) u
+ ht (u|θn ) du
0 βn
Z 1 Z 1
+ (a − 1) log (u) ht (u|θn ) du − (an − 1) log (u) ht (u|θn ) du
0 0
Z 1
+b log (xt−1 − ν − (at − ν) u) ht (u|θn ) du
0
Z 1
− bn log (xt−1 − νn − (at − νn ) u) ht (u|θn ) du
0
Z 1
− log (xt−1 − ν − (at − ν) u) ht (u|θn ) du
0
Z 1
+ log (xt−1 − νn − (at − νn ) u) ht (u|θn ) du
0

86
III.4 Ajustement du modèle

avec

X
fEt (xt − νn − u (at − νn ) |θn ) fRtt−1 ((at − νn ) u + νn |θn )
ht (u|θn ) = (at − νn )
f (xt |xt−1 , θn )

1
fEt (xt − νn − u (at − νn ) |θn ) = (xt − νn − u (at − νn )) bn −1
βnbn Γ (bn )
xt − νn − u (at − νn )
( )
× exp − I]−∞, xt −νn ] (u)
βn at −νn

!an −1
X 1 Γ (an + bn ) (at − νn ) u
fRtt−1 ((at − νn ) u + νn |θn ) =
xt−1 − νn Γ (an ) Γ (bn ) xt−1 − νn
!bn −1
xt−1 − νn − (at − νn ) u
× I[0, xt−1 −νn ] (u)
xt−1 − νn at −νn

Démonstration. Voir AnnexeB.2

Dans les équations (III.4.4) et (III.4.5) ci-dessus, plusieurs composantes du vecteur des
paramètres θ sont liées. Cela n’est pas à faciliter la maximisation. Pour contourner ces
difficultés, nous proposons une deuxième phase de minorisations dont les résultats sont
donnés par les propositions25 et 26 ci-dessous.

Proposition 25. En utilisant les notations dans l’équation (III.4.4), l’inégalité suivante
est vérifiée :
l1,t (θ | θn , xt , xt−1 ) ≥ Q1,t (θ|θn , xt , xt−1 )

87
Chapitre III Formulation et ajustement d’un modèle de série temporelle de marges
distribuées selon une distribution P 3.

!2
b2 β bn
Q1,t (θ|θn , xt , xt−1 ) = − b log βn + b − − + bn log βn
2bn βn 2
Γ(a) Γ (b)
! !
+ (a + b) ψ (an + bn ) − (an + bn ) ψ (an + bn ) − log − 2 log
Γ(an ) Γ (bn )
 2
x1:T − νn x1:T − νn a
  
+ (a − an ) log (at − νn ) + a−
at − νn at − νn 2an
2
x1:T − νn x1:T − νn an
 

at − ν n x1:T − ν 2
1 (x1:T − ν)2 an
" #
2 x1:T − νn
+ −a −
xt−1 − νn 2an 2(x1:T − νn )
1 x1:T − νn (x1:T − ν)2 bn
" #
+ −b2 −
xt−1 − νn 2bn 2 (x1:T − νn )
" #
x1:T − νn
+ (a + b) − log (xt−1 − νn )
xt−1 − νn
x1:T − νn x1:T − ν
+ (an + bn ) log (xt−1 − νn ) + log
xt−1 − νn x1:T − νn

Démonstration. Voir Annexe B.3

Proposition 26. En utilisant les mêmes notations que dans l’équation (III.4.5), on ob-
tient le résultat suivant :

l2,t (θ | θn , xt , xt−1 ) ≥ Q2,t (θ|θn , xt , xt−1 )

88
III.4 Ajustement du modèle

Q2,t (θ|θn , xt , xt−1 ) = (b − bn ) I6,t (θn )


" #
b2 x1:T − νn 2 bn
 
+ (x1:T − νn ) b − − I3,t (θn )
2bn x1:T − ν 2
xt − at
+ (ν − νn ) I3,t (θn ) − I1,t (θn )
β
(x1:T − ν)2 βn (x1:T − νn )
" #
xt − x1:T
− + + I7,t (θn )
β 2βn (x1:T − νn ) 2β 2
Z 1
xt − νn − (at − νn ) u
+ ht (u|θn ) du
0 βn
+ (a − an ) I2,t (θn )

+ (b − bn ) I5,t (θn )
" #
b2
2
x1:T − νn bn

+ (x1:T − νn ) b − − I4,t (θn )
2bn x1:T − ν 2

+ (ν − νn ) I4,t (θn )

Avec

Z 1
I1,t (θn ) = uht (u | θn ) du
0
Z 1
I2,t (θn ) = log (u) ht (u | θn ) du
0
Z 1
1−u
I3,t (θn ) = ht (u | θn ) du
0 xt − νn − (at − νn ) u
Z 1
1−u
I4,t (θn ) = ht (u | θn ) du (III.4.6)
0 xt−1 − νn − (at − νn ) u
Z 1
I5,t (θn ) = log {xt−1 − νn − (at − νn ) u} ht (u | θn ) du
0
Z 1
I6,t (θn ) = log {xt − νn − (at − νn ) u} ht (u | θn ) du
0

I7,t (θn ) = 1 − I1,t (θn ) .

et ht (u|θn ) est donné par l’équation (B.2.1)

Démonstration. Voir Annexe B.4

Le résultat suivant nous donne l’expression de la fonction auxiliaire, c’est-à-dire celle


qui sera maximisé à la place de la fonction de log-vraisemblance(III.4.3). On peut bien
remarquer que les paramètres dans cette fonction sont séparés, chose qui pourra faciliter

89
Chapitre III Formulation et ajustement d’un modèle de série temporelle de marges
distribuées selon une distribution P 3.
la maximisation.

Proposition 27. Les notations adoptées sont analogues aux précédentes.

1.
log (CL (θ|xt , t = 1 : T )) ≥ const + Q (θ|θn , (xt )t=1:T )


T
Q (θ|θn , (xt )t=1:T ) = Qt (θ|θn , xt , xt−1 )
X

t=2

avec
Qt (θ|θn , xt , xt−1 ) = Q1,t (θ|θn , xt , xt−1 ) + Q2,t (θ|θn , xt , xt−1 )

2.
log (CL (θn |xt , t = 1 : T )) = const + Q (θn |θn , (xt )t=1:T )

Démonstration.

1. Par définition
T
log (CL (θ|xt , t = 1 : T )) = log f (xt |xt−1 , θ)
X

t=2

or d’après la proposition 24

log f (xt |xt−1 , θ) ≥ log f (xt |xt−1 , θn ) + l1,t (θ | θn , (xt )t=1:T ) + l2,t (θ | θn , (xt )t=1:T )

Comme l1,t (θ | θn , xt , xt−1 )+l2,t (θ | θn , xt , xt−1 ) ≥ Q1,t (θ|θn , xt , xt−1 )+Q2,t (θ|θn , xt , xt−1 ) =
Qt (θ|θn , xt , xt−1 ), on déduit que

log f (xt |xt−1 , θ) ≥ log f (xt |xt−1 , θn ) + Qt (θ|θn , xt , xt−1 )

Par conséquent

T T
log (CL (θ|xt , t = 1 : T )) ≥ log f (xt |xt−1 , θn ) + Qt (θ|θn , xt , xt−1 )
X X

t=2 t=2
≡ const + Q (θ|θn , (xt )t=1:T )

90
III.4 Ajustement du modèle

2. Se vérifie par des calculs simples.

III.4.2.2 Propriétés de la fonction auxiliaire

Lemme 28. La fonction auxiliaire θ → Q (θ|θn , (xt )t=1:T ) est dérivable sur l’espace Θ des
paramètres et les composantes du vecteur gradient sont données par :

1.

∂Q (θ|θn , (xt )t=1:T ) T


1 1 X T
" #
x1:T − ν
= (an + bn ) + I7,t (θn )
X
∂ν x1:T − νn t=2 xt−1 − νn βn t=2
1 T
x1:T − νn
(III.4.7)
X

x1:T − ν t=2 xt−1 − νn
T
3 "X T
#
x1:T − νn an

+ bn (I3,t (θn ) + I4,t (θn ))
X

x1:T − ν t=2 at − νn t=2
T T
+ I3,t (θn ) + I4,t (θn )
X X

t=2 t=2

2.

∂Q (θ|θn , xt , xt−1 ) β (T − 1) 1 X T
= −bn + [(xt − at ) I1,t (θn ) + (xt − x1:T ) I7,t (θn )]
∂β βn2 β 2 t=2
βn (x1:T − νn ) XT
+ I7,t (θn ) (III.4.8)
β3 t=2

T −1 T
" #
β4 β X
= −b n 2 + [(xt − at ) I1,t (θn ) + (xt − x1:T ) I7,t (θn )]
β3 βn T − 1 t=2
T
βn
+ (x ) I7,t (θn )
X
1:T − ν n
β3 t=2

3.

∂Q (θ|θn , xt , xt−1 ) T
" #
a X x1:T − νn x1:T − νn
= − (T − 1) ψ (a) − +
∂a an t=2 at − νn xt−1 − νn
T T
x1:T − νn
+ log (at − νn ) + (III.4.9)
X X

t=2 t=2 at − ν n
T T
" #
x1:T − νn
(T − 1) ψ (an + bn ) + − log (xt−1 − νn ) + I2,t (θn )
X X

t=2 xt−1 − νn t=2

91
Chapitre III Formulation et ajustement d’un modèle de série temporelle de marges
distribuées selon une distribution P 3.
4.

∂Q (θ|θn , xt , xt−1 )
= − 2 (T − 1) ψ (b) (III.4.10)
∂b
T T
" #
b x1:T − νn
T −1+ + (x1:T − νn ) [I3,t (θn ) + I4,t (θn )]
X X

bn t=2 xt−1 − νn t=2
T
− (T − 1) log βn + T − 1 + (T − 1) ψ (an + bn ) + [I5,t (θn ) + I6,t (θn )]
X

t=2
T T T
x1:T − νn X
+ (x1:T − νn ) [I3,t (θn ) + I4,t (θn )] + log (xt−1 − νn )
X X

t=2 t=2 xt−1 − νn t=2

où la fonction a → ψ (a) est la fonction digamma

Démonstration. Voir AnnexeB.5

Lemme 29. La matrice Hessienne associée à la fonction θ → Q (θ|θn ) est diagonale et


ses composantes diagonales sont données par :

1.

∂ 2 Q (θ|θn , xt , xt−1 ) T
1 1 X T
" #
−1
= (a + ) + I7,t (θn )
X
n b n
∂ν 2 x1:T − νn t=2 xt−1 − νn βn t=2
1 T
X x1:T − νn

(x1:T − ν) t=2 xt−1 − νn
2

(x1:T − νn )3 X
T T
" #
an
+ (I3,t (θn ) + I4,t (θn ))
X
−3 b n
(x1:T − ν)4 t=2 at − νn t=2

2.

∂ 2 Q (θ|θn , xt , xt−1 ) (T − 1) 2 X T
= −b n − [(xt − at ) I1,t (θn ) + (xt − x1:T ) I7,t (θn )]
∂β 2 βn2 β 3 t=2
βn (x1:T − νn ) XT
−3 I7,t (θn )
β4 t=2

3.

∂ 2 Q (θ|θn , xt , xt−1 ) 1 X T
" #
x1:T − νn x1:T − νn
= − (T − 1) ψ 0
(a) − +
∂a 2 an t=2 at − νn xt−1 − νn

92
III.4 Ajustement du modèle

4.

∂ 2 Q (θ|θn , xt , xt−1 )
2
= − 2 (T − 1) ψ 0 (b)
∂b
1 T T
" #
x1:T − νn
T −1+ + (x1:T − νn ) [I3,t (θn ) + I4,t (θn )]
X X

bn t=2 xt−1 − νn t=2

où la fonction a → ψ 0 (a) est la fonction dérivée de la fonction digamma

Démonstration. Par simple calcul de différentiation

Corollaire 30. Soit θn un point fixé dans le domaine admissible des paramètres Θ. La
fonction θ → Q (θ | θn , (xt )t=1:T ) est concave et admet donc un unique point maximum.

Démonstration. Du lemme ci-dessus on déduit que la matrice Hessienne est semi-definie


négative pour tout θ ∈ Θ, et pour θn fixé. Par conséquent la fonction θ → Q (θ | θn , (xt )t=1:T )
est concave et admet donc un unique point maximum.

III.4.3 Procédure de recherche du point maximum

Il découle du corollaire ci-dessus, que le point maximum est l’unique solution du système

∇Q (θ|θn , xt , xt−1 ) = 0 (III.4.11)

où la notation ∇Q (θ|θn , xt , xt−1 ) désigne le vecteur gradient dont les composantes sont
données par le lemme28. Les composantes de ∇Q (θ|θn , xt , xt−1 ) étant indépendantes, la
résolution du système(III.4.11) peut s’effectuer suivant chaque composante prise indivi-
duellement. Toutefois, il faudra noter que le système est non linéaire, rendant ainsi pénible
la recherche d’une solution analytique. Dans de pareilles situations, on peut faire appel
à des algorithmes de résolution numériques tels que la méthode de Newton Raphson, la
méthode de la bissection, etc. Des détails sur le couplage des algorithmes de résolution
numériques et des algorithmes du type MM sont disponibles dans la littérature et peuvent
être consultés ici[36]. Toutefois, il faut noter que la plupart de ces algorithmes convergent
très lentement.
Afin de faciliter la résolution numérique des équations de scores, une étude du com-
portement de chaque équation, prise comme fonction du paramètre concerné est proposée

93
Chapitre III Formulation et ajustement d’un modèle de série temporelle de marges
distribuées selon une distribution P 3.
dans les prochaines sections . Cette étude permettra dans la mesure du possible de réduire
l’espace solution.

III.4.3.1 Comportement de la fonction de score en ν.

∂Q(θ|θn ,(xt )t=1:T )


Après arrangements, la composante ∂ν
du vecteur gradient donnée par
l’équation (III.4.7) peut s’écrire :

∂Q (θ|θn , (xt )t=1:T ) 1


= k (x1:T − ν|θn )
∂ν (x1:T − ν)3

1 T
1 1 X T
" #
k (u|θn ) = (an + bn ) + I7,t (θn ) u4
X
x1:T − νn x
t=2 t−1 − ν n βn t=2
T
+ [I3,t (θn ) + I4,t (θn )] u3
X

t=2
T T T
" #
x1:T − νn an
2
− (x1:T − νn ) 3
+ bn (I3,t (θn ) + I4,t (θn ))
X X X
−u
t=2 xt−1 − νn t=2 at − νn t=2

∂Q(θ|θn ,(xt )t=1:T )


Il s’en suit que l’équation ∂ν
= 0 est équivalente à k (x1:T − ν | θn ) = 0.
Notons

1 T
1 1 X T
" #
A (θn ) = (an + bn ) + I7,t (θn )
X
x1:T − νn t=2 xt−1 − νn βn t=2

T
B (θn ) = [I3,t (θn ) + I4,t (θn )]
X

t=2

T
x1:T − νn
C (θn ) =
X

t=2 xt−1 − νn

" T T
#
an
D (θn ) = (x1:T − νn ) 3
+ bn (I3,t (θn ) + I4,t (θn ))
X X

t=2 at − νn t=2

et
u = x1:T − νn

94
III.4 Ajustement du modèle

Des notations ci-dessus, il découle que k (u|θn ) = A (θn ) u4 +B (θn ) u3 −C (θn ) u2 −D (θn )
et la fonction dérivée k 0 (u | θn ) s’annule en

q
−3B (θn ) + 9B (θn )2 + 32A (θn ) C (θn )
u=
8A (θn )

On peut remarquer que u → k (u | θn ) est croissante si u > u0 et décroissante à gauche



−3B(θn )+ 9B(θn )2 +32A(θn )C(θn )
de u0 , avec u0 = 8A(θn )
. De plus lim+ k (u | θn ) = −D (θn ) < 0 et
u→0

k (u0 | θn ) < 0. Comme lim k (u) = +∞, puisque A (θn ) > 0, l’équation k (u|θn ) = 0
u→+∞
∂Q(θ|θn ,(xt )t=1:T )
admet une unique solution dans ]u0 , + ∞[ . Par conséquent l’équation ∂ν
=0
admet une unique solution dans l’intervalle]−∞,x1:T − u0 [

III.4.3.2 Comportement de la fonction de score en β

∂Q(θ|θn ,(xt )t=1:T )


Cette section est consacrée à l’étude de la fonction β → ∂β
donnée par
l’équation(III.4.8).
∂Q(θ|θn ,(xt )t=1:T )
On peut remarquer que la résolution de l’équation ∂β
= 0 peut se réduire
à celle de l’équation g (β|θn ) = 0 où

T
β4 β X
g (β|θn ) = −bn + [(xt − at ) I1,t (θn ) + (xt − x1:T ) I7,t (θn )]
βn2 T − 1 t=2
T
βn
+ (x1:T − νn ) I7,t (θn )
X
T −1 t=2

Quelques calculs de différentiations permettent d’obtenir les résultats suivants :


— la dérivée g 0 (β | θn ) de g (β|θn ) s’annule en

v
T
βn2
u
β= [(xt − at ) I1,t (θn ) + (xt − x1:T ) I7,t (θn )]
u
3
X
t
4 (T − 1) bn t=2

— la fonction g 0 (β|θn ) est positive si β < β0 et négative sinon, avec

v
T
βn2
u
β0 = [(xt − at ) I1,t (θn ) + (xt − x1:T ) I7,t (θn )]
u
3
X
t
4 (T − 1) bn t=2

95
Chapitre III Formulation et ajustement d’un modèle de série temporelle de marges
distribuées selon une distribution P 3.
— comme I7,t (θn ) > 0, on a :

T
βn
g (0 | θn ) = (x1:T − νn ) I7,t (θn ) > 0
X
T −1 t=2

Il s’en suit donc que g (β0 | θn ) est positive. De plus limβ→+∞ g (β|θn ) = −∞. Par consé-
∂Q(θ|θn ,(xt )t=1:T )
quent l’unique solution de l’équation ∂β
= 0 appartient à l’intervalle ]β0 , +∞[
.

III.4.3.3 Comportement de la fonction de score en a

∂Q(θ|θn ,(xt )t=1:T )


L’équation(III.4.9) donne la formule de ∂a
, fonction de a.
∂Q(θ|θn ,(xt )t=1:T )
Résoudre l’équation ∂a
= 0 revient à trouver les racines de la fonction
a → h (a|θn ) définie par

a
h (a|θn ) = ψ (a) + p (θn ) + c (θn )
an

avec

1 X T
" #
x1:T − νn x1:T − νn
p (θn ) = +
T − 1 t=2 at − νn xt−1 − νn

1 X T
1 X T
1 1
" !#
at − ν n
c (θn ) = − log − (x1:T − νn ) +
T − 1 t=2 xt−1 − νn T − 1 t=2 at − νn xt−1 − νn
1 X T
− I2,t (θn ) − ψ (an + bn )
T − 1 t=2

a → h (a|θn ) est une fonction croissante sur ]0, +∞[. Comme p (θn ) est positif, la fonc-
tion a → h (a|θn ) tend respectivement vers −∞ et +∞ en 0 et en +∞. On en déduit
qu’elle admet une unique racine dans l’intervalle ]0, +∞[ . Par conséquent l’équation
∂Q(θ|θn ,(xt )t=1:T )
∂a
= 0 admet une unique solution dans ]0, +∞[.

III.4.3.4 Comportement de la fonction de score en b

La fonction dont il est question dans cette section est donnée par l’équation(III.4.10).
Après un léger réarrangèrent des termes, on peut remarquer que la résolution de l’équation

96
III.4 Ajustement du modèle

∂Q(θ|θn ,(xt )t=1:T )


∂b
= 0 revient à trouver les racines de la fonction

b
l (b|θn ) = ψ(b) + p2 (θn ) + c2 (θn )
bn

1 1 T
x1:T − νn 1 T
p2 (θn ) = + + (x1:T − νn ) [I3,t (θn ) + I4,t (θn )]
X X
2 2 (T − 1) t=2 xt−1 − νn 2 (T − 1) t=2

log βn − 1 − ψ (an + bn ) 1 T
c2 (θn ) = [I5,t (θn ) + I6,t (θn )]
X

2 2 (T − 1) t=2
1 T
− (x1:T − νn ) [I3,t (θn ) + I4,t (θn )]
X
2 (T − 1) t=1
1 T
x1:T − νn 1 T
+ log (xt−1 − νn )
X X

2 (T − 1) t=2 xt−1 − νn 2 (T − 1) t=2

Comme I3,t (θn )et I4,t (θn ) sont toutes deux positives pour tout t ≥ 1, il découle que
p2 (θn ) > 0. De plus, la fonction b → l (b|θn )est une fonction croissante sur ]0, +∞[. p2 (θn )
étant positive, la fonction b → l (b|θn ) tend vers −∞ et +∞ respectivement en 0 et en
+∞. Elle admet donc une unique racine dans l’intervalle ]0, +∞[ . Il en est de même pour
∂Q(θ|θn ,(xt )t=1:T )
l’équation ∂b
=0.

III.4.4 Implémentation de la méthode

Cette section est consacrée à la proposition d’un schema pour le calcul numérique des
estimateurs proposés dans ce chapitre. Cela passe d’abord par le calcul des intégrales
données par l’équation(III.4.6). Ces intégrales, en plus d’être complexes, présentent pour
la plupart des singularités aux niveaux des bornes. À l’absence de solution analytique,
un schema numérique pour le calacul des intégrales est proposé en Annexe B.6. Une fois
que la procédure de calcul des intégrales est implémentée, le calcul des estimateurs peut
s’effectuer à travers le schéma suivant :

97
Chapitre III Formulation et ajustement d’un modèle de série temporelle de marges
distribuées selon une distribution P 3.
Algorithme III.2 MM pour le modèle de série temporelle
Entrées:k, θ0 = (α0 , ν0 ,λ0 , β0 )
t

Sorties: θ̂ = t α̂, ν̂, λ̂, β̂


Initialiser a0 , b0
Initialiser les intégrales: I = I (θ0 )
Condition d’arrêt: une variable booléenne initialisée à fausse
k : étape itérative initialisée à 0
θk ← θ0
Tant que condition d’arrêt n’est pas vérifiée faire
— ν (θk+1 ) = t (ν, ak , bk , βk )
νk+1 = arg max {Q (ν (θk+1 ) | θk )}
ν<x1:n
θk0 = t (νk+1 , ak , bk , βk )
I = I (θk0 )
— a (θk+1 ) = t (νk+1 , a, bk , βk )
ak+1 = arg max {Q (a (θk+1 ) | θk0 )}
a>0
θk00 = t (νk+1 , ak+1 , bk , βk ),
I = I (θk00 )
— b (θk+1 ) = t (νk+1 , ak+1 , b, βk )
bk+1 = arg max {Q (b (θk+1 ) | θk00 )}
b>0
θk000 = t (νk+1 , ak+1 , bk+1 , βk ),
I = I (θk000 )
— β (θk+1 ) = t (νk+1 , ak+1 , bk+1 , β)
βk+1 = arg max {Q (β (θk+1 ) | θk000 )}
β>0
k =k+1

Fin tant que


résultats:θ̂

III.5 Évaluation des performances des estimateurs

Vu que les estimateurs proposés n’ont pas d’expressions explicites, l’évaluation des
performances s’effectuera par des études de simulation par Monte-Carlo selon le plan
suivant :

III.5.1 Plan de simulation

Sans perte de généralité, les valeurs théoriques suivantes du vecteur des paramètres
noté θth ont été utilisées.

98
III.5 Évaluation des performances des estimateurs

λth .5 1.0 1.5 2.0 3.0 4.0


νth 0 0 0 0 0 0
βth 1.0 1.0 1.0 1.0 1.0 1.0
αth 0.5 0.5 0.5 0.5 0.5 0.5

où les notations λth , νth , βth et αth désignent respectivement les valeurs théoriques du
paramètre de forme, de localisation, d’échelle et d’amincissement.
Pour chaque quadruplet (λth , νth , βth , αth ), 1000 trajectoires de longueur respective n =
20, 50 et 100 sont générées à partir de l’algorithme III.1.

III.5.2 Présentation et analyse des résultats de simulation

Sur chacune des trajectoires simulées dans la précédente section, nous calculons les
estimations obtenues en utilisant l’algorithme III.2.
La figure III.5.1 illustre la variabilité des estimations des différents paramètres à travers
des diagrammes de dispersion.

99
Chapitre III Formulation et ajustement d’un modèle de série temporelle de marges
distribuées selon une distribution P 3.

III.5.2.1 Variabilité des résultats

III.5.2.2 Résultats numériques des simulations

n = 20 n = 50 n = 100
** * * **
0.8

* ** ** * ** *
Estimations pour α

Estimations pour α

Estimations pour α
** ** **

0.6
* ** ** ** **

0.6
** ** *
** ** ** **
**
0.6

* *

0.4

0.4
0.4

*
** *
* *
0.2

* * * **

0.2
**** ***
**
*
** *
*
* **

0.2
* *** * **
** *
* ***
* *

.5 1.0 2 3 4 .5 1.0 2 3 4 .5 1.0 2 3 4


λ λ λ

n = 20 n = 50 n = 100
** * *
* * *
Estimations pour λ

Estimations pour λ

Estimations pour λ
20

* ** ** * ***

12
* ***
30

* ** * **
* *** * * * *
* *** *** *** ** **
** ** ** *
15

**
** **
*** ** *
**
** ***
** * * ** **
20

** ** *** *

2 4 6 8
** **
*** *** *** ** **** ** **
10

** *** * ***
* ** ** **
** *** *** ** **** **
** ***
10

**
** ** **
**
** **
5

*** *
* *** *** ***
*** * **
* **
* ** * *
0

.5 1.0 2 3 4 .5 1.0 2 3 4 .5 1.0 2 3 4


λ λ λ

n = 20 n = 50 n = 100
2

**
**
2

*
Estimations pour ν

Estimations pour ν

Estimations pour ν

* **
1

* *
** *** *
** ** ** ***
0
0

*** ****
−2

** * *** *
* ** ** *
* ** **
** *** *
***
−2 −1

**
* *** ** **
* **
**
*** ** **
**
−6

** **
−2

** ** ** *
* ** * ** * ***
* ** ** * **
* ** * * *
* ** **
−10

* *
** *
−4

* * *

.5 1.0 2 3 4 .5 1.0 2 3 4 .5 1.0 2 3 4


λ λ λ

n = 20 n = 50 n = 100
2.5

* * * *
*
Estimations pour β

Estimations pour β

Estimations pour β

*
1.5

** * **
3

* *
*** ** * **
** * ** **
* * * ** * ** * *** *
**
* * * **
1.5

* * **
* *
***
**
* *** ** ** *
** **
2

** **
1.0

*** * * *
** * *
*
1

0.5
0.5

* ** *
*
0

.5 1.0 2 3 4 .5 1.0 2 3 4 .5 1.0 2 3 4


λ λ λ

Figure III.5.1 – Diagramme de dispersion representant la variabilité des estimations

À l’instar de l’estimateur du paramètre d’ammincisement, tous les autres présentent une


distribution asymétrique. L’asymétrie est d’autant plus marquée que la valeur théorique
du paramètre de forme est grande. Par conséquent, il n’est pas évident que ces estima-
teurs vérifient la propriété de normalité asymptotique. Toutefois, notons que les séries
utilisées sont relativement courtes(au maximum 100) pour espérer de bonnes propriétés
asymptotiques des estimateurs.
Au delà de la variabilité des estimations, la précision et la convergence figurent parmi
les propriétés indispensables pour un estimateur. Afin d’étudier le comportement des esti-

100
III.5 Évaluation des performances des estimateurs

mateurs proposés vis-à-vis des propriétés sus-citées, les estimations obtenues sont ensuite
résumées à travers les métriques telles que le biais et l’erreur quadratique moyenne, dé-
crites dans le chapitre précedent.
Les résultats obtenus sont résumés dans le tableau ci-après.

101
Chapitre III Formulation et ajustement d’un modèle de série temporelle de marges

Forme Localisation Echelle Amincissement Joint


λ n Biais RMSE Biais RMSE Biais RMSE Biais RMSE Biais MSE
0.5 20 0.384 0.857 0.001 0.041 −0.348 0.509 −0.042 0.081 0.775 1.002
50 0.292 0.319 0.000 0.002 −0.355 0.412 −0.031 0.054 0.678 0.274
100 0.276 0.287 0.000 0.000 −0.348 0.377 −0.029 0.042 0.652 0.227
1.0 20 1.086 2.864 −0.052 0.279 −0.264 0.473 −0.074 0.126 1.475 8.519
50 0.384 0.572 −0.003 0.049 −0.244 0.325 −0.049 0.076 0.680 0.442
100 0.318 0.389 0.000 0.018 −0.230 0.273 −0.044 0.059 0.593 0.230
2.0 20 2.714 5.701 −0.264 0.884 −0.230 0.496 −0.098 0.165 3.306 33.558
50 0.842 1.638 −0.084 0.303 −0.180 0.302 −0.057 0.099 1.164 2.877
100 0.525 0.860 −0.052 0.155 −0.156 0.222 −0.043 0.071 0.775 0.819
3.0 20 3.652 7.268 −0.427 1.418 −0.192 0.497 −0.101 0.179 4.372 55.117
50 1.281 2.786 0.619 0.301 0.112 1.649 8.249
distribuées selon une distribution P 3.

−0.170 −0.144 −0.054


100 0.660 1.304 −0.095 0.322 −0.109 0.209 −0.035 0.078 0.899 1.852
4.0 20 4.164 8.222 −0.473 1.775 −0.156 0.511 −0.100 0.186 4.894 71.050
50 1.542 3.548 −0.229 0.918 −0.106 0.311 −0.050 0.118 1.927 13.539
100 0.813 1.918 −0.127 0.548 −0.082 0.220 −0.033 0.083 1.054 4.034
Table III.1 – Résultats numériques

102
III.5 Évaluation des performances des estimateurs

Les variations des différentes métriques en fonction du paramètre de forme λ et de la


longueur des séries peuvent être observées dans la Figure III.5.2 ci-dessous.
0.05

0.30
20 20
50 50

0.25
100 100
0.00

0.20
RMSE pour α
Biais pour α

0.15
−0.05

0.10
0.05
−0.10

0.00
0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0
λ λ

0.8
20
50
−0.30

0.7
100

0.6
RMSE pour β
Biais pour β

0.5
−0.20

0.4

20
0.3
−0.10

50
100
0.2

0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0
λ λ

20 20
8
4

50 50
100 100
6
3

RMSE pour λ
Biais pour λ

4
2

2
1
0

0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0
λ λ
0.0

20
50
1.5
−0.1

100
RMSE pour ν
Biais pour ν
−0.2

1.0
−0.3

0.5
−0.4

20
50
100
0.0

0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0
λ λ
5

70

20 20
50 50
60

100 100
4

50
biais joint

40
3

MSE
30
2

20
10
1

0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0
λ λ

Figure III.5.2 – Variations des métriques en fonction du paramètre de forme basés sur
1000 séries de longueurs 20, 50 et 100

Pour de faibles valeurs théoriques du paramètre de forme λ et quelle que soit la longueur
des séries, l’ampleur du biais de tous les paramètres est relativement faible. Le biais
de l’estimateur du paramètre de forme est positif à l’opposé de celui des estimateurs

103
Chapitre III Formulation et ajustement d’un modèle de série temporelle de marges
distribuées selon une distribution P 3.
du paramètre d’auto-corrélation(α) et du paramètre d’échelle(β). Celui du paramètre de
localisation est positif seulement pour des séries de longueur modérée et grande et négatif
pour des séries courtes.
Pour des valeurs théoriques du paramètre de forme de plus en plus grande la qualité du
biais des estimateurs du paramètre d’auto-corrélation, de forme ainsi que du paramètre de
localisation se détériore progressivement. Seul celle de l’estimateur du paramètre d’échelle
a tendance à s’améliorer avec la valeur théorique de λ. À l’instar de l’estimateur du
paramètre de forme, tous les autres ont un biais négatif. Cependant, pour chaque valeur
théorique du paramètre de forme, le biais de tous les paramètres s’améliorent avec la
longueur des séries.
Tous les estimateurs proposés présentent une racine carrée de l’erreur quadratique
moyenne(RMSE) relativement élevée pour des séries courtes mais diminue au fur et à
mesure que la longueur de la série augmente. L’amplitude de cette métrique a tendance
à s’augmenter avec la valeur théorique du paramètre de forme λ. Comme l’on pouvait s’y
attendre, ces mêmes comportements des estimateurs sont aussi observés sur le graphique
représentant l’erreur quadratique jointe(MSE).

III.6 Conclusion

Dans ce chapitre, nous avons formulé et ajuster un modèle autorégressif doublement


stochastique pour des séries temporelles lorsque la variable sous-jacente est distribuée se-
lon un modèle P 3. Le modèle est stationnaire et les termes d’innovations sont distribués
selon un modèle gamma standard. L’ajustement de ce modèle a été réalisé en utilisant
une méthode de maximum de vraisemblance conditionnelle, qui n’est plutôt pas très fré-
quent dans la modélisation des séries temporelles à la vue de la complexité des fonctions
de vraisemblances généralement rencontrées dans ce domaine. Pour venir à bout de cette
difficulté, nous avons fait appel à un algorithme MM. À partir des études de simulations
par Monte-Carlo, nous avons montré que les estimateurs obtenus présentent des perfor-
mances intéressantes. Toutefois ces performances semblent se détériorer progressivement
pour de grandes valeurs théoriques du paramètre de forme.

104
Appendices

105
Annexe B
Annexe du Chapitre III

B.1 Résultats préliminaires

Lemme 31. Soient x ,xn , y, yn des réels strictement positifs et c une constante réelle
positive. Les rélations suivantes sont vérifiées.

1.
x
− log(x) + log(xn ) ≥ 1 − (B.1.1)
xn

2.
xn x
log(x + c) ≥ log(xn + c) + log (B.1.2)
xn + c xn

3.
yn xn
xy ≤ x2 + y2 (B.1.3)
2xn 2yn
2x
n  o
x2
4. x log (y) = x − log 1
y
et par suite x log (y) ≥ x log (yn ) + x − 2xn
− yn
2y 2
n

1
( !)
x log (y) ≥ x log (yn ) − yn y −
yn
x
≥ x log (yn ) + x − yn
y
1
( )
x2
≥ x log (yn ) + x + yn − − yn xn
2xn yn 2y 2
x2 yn2 xn
≥ x log (yn ) + x − −
2xn 2y 2

Démonstration. (B.1.1, B.1.2) are applications of the concavity of log(.) function.

107
Annexe B Annexe du Chapitre III

B.2 Démonstration de la proposition 24

1. Soit θn = (an , bn , βn , νn ) une valeur fixée du vecteur des paramètres θ = (a, b, β, ν)


et soit ht (u|θn ) la fonction de densité definie par :

X
fE (xt − νn − u (at − νn ) |θn ) fRtt−1 ((at − νn ) u + νn |θn )
ht (u|θn ) = t (at − νn )
f (xt |xt−1 , θn )
(B.2.1)
où les fonctions fEt (.) et fRXtt (.) sont données respectivement par les équations
(III.3.5) et (III.3.6)

2. Il resulte de l’inégalité de Jensen que

log f (xt |xt−1 , θ) ≥ log f (xt |xt−1 , θn ) + log (at − ν) − log (at − νn ) +
 
X
Z 1
fEt (xt − ν − u (at − ν) |θ) fRtt−1 ((at − ν) u + ν|θ)
log  X
 ht (u|θn ) du
0 fEt (xt − νn − u (at − νn ) |θn ) fRtt−1 ((at − νn ))u + νn |θn )
(B.2.2)

log f (xt |xt−1 , θ) ≥ log f (xt |xt−1 , θn ) + log (at − ν) − log (at − νn )
fEt (xt − ν − u (at − ν) |θ)
Z 1 " #
+ log ht (u|θn ) du
0 fEt (xt − νn − u (at − νn ) |θn )
 
X
Z 1
f tt−1 ((at − ν)u + ν|θ) 
+ log  XRt−1 ht (u|θn ) du
0 fRt ((at − νn )u + νn |θ)

108
B.2 Démonstration de la proposition 24

Des équations (III.3.5) et (III.3.6) il resulte que :

at − ν
 
log f (xt |xt−1 , θ) ≥ log f (xt |xt−1 , θn ) + log
at − ν n
Z 1
+ (b − 1) log {xt − ν − (at − ν) u} ht (u|θn ) du
0
Z 1
− (bn − 1) log {xt − νn − (at − νn ) u} ht (u|θn ) du
0

− b log β + bn log βn − log Γ (b) + log Γ (bn )


xt − ν − (at − xt + xt − ν) u
Z 1
− ht (u|θn ) du
0 β
Z 1
xt − νn − (at − νn ) u
+ ht (u|θn ) du
0 βn
1 Γ (a + b) 1 Γ((an + bn )
! !
+ log − log
xt−1 − ν Γ (a) Γ (b) xt−1 − νn Γ (an ) Γ (bn )
! !
at − ν at − ν n
+ (a − 1) log − (an − 1) log
xt−1 − ν xt−1 − νn
Z 1 Z 1
+ (a − 1) log (u) ht (u|θn ) du − (an − 1) log (u) ht (u|θn ) du
0 0
(at − ν) u
Z 1 !
+ (b − 1) log 1 − ht (u|θn ) du
0 xt−1 − ν
(at − νn ) u
Z 1 !
− (bn − 1) log 1 − ht (u|θn ) du
0 xt−1 − νn

109
Annexe B Annexe du Chapitre III

at − ν
 
log f (xt |xt−1 , θ) ≥ log f (xt |xt−1 , θn ) + log
at − ν n
Z 1
+b log {xt − ν − (at − ν) u} ht (u|θn ) du
0
Z 1
− bn log {xt − νn − (at − νn ) u} ht (u|θn ) du
0
Z 1
− log {xt − ν − (at − ν) u} ht (u|θn ) du
0
Z 1
+ log {xt − νn − (at − νn ) u} ht (u|θn ) du
0

− b log β + bn log βn − log Γ (b) + log Γ (bn )


x t − at Z 1 xt − ν Z 1
− uht (u|θn ) du − (1 − u) ht (u|θn ) du
β 0 β 0
Z 1
xt − νn − (at − νn ) u
+ ht (u|θn ) du
0 βn
Γ(a + b) Γ(a) Γ(b)
! ! !
xt−1 − ν
− log + log − log − log
xt−1 − νn Γ(an + bn ) Γ(an ) Γ(bn )
at − ν
 
+ a log (at − ν) − an log (at − νn ) − log
at − ν n
!
xt−1 − ν
− a log (xt−1 − ν) + an log (xt−1 − νn ) + log
xt−1 − νn
Z 1 Z 1
+ (a − 1) log (u) ht (u|θn ) du − (an − 1) log (u) ht (u|θn ) du
0 0
Z 1
+b log (xt−1 − ν − (at − ν) u) ht (u|θn ) du
0
Z 1
− bn log (xt−1 − νn − (at − νn ) u) ht (u|θn ) du
0
Z 1
− log (xt−1 − ν − (at − ν) u) ht (u|θn ) du
0
Z 1
+ log (xt−1 − νn − (at − νn ) u) ht (u|θn ) du
0

− b log (xt−1 − ν) + bn log (xt−1 − νn ) + log (xt−1 − ν) − log (xt−1 − νn )

110
B.2 Démonstration de la proposition 24

log f (xt |xt−1 , θ) ≥ log f (xt |xt−1 , θn )


Z 1
+b log {xt − ν − (at − ν) u} ht (u|θn ) du
0
Z 1
− bn log {xt − νn − (at − νn ) u} ht (u|θn ) du
0
Z 1
− log {xt − ν − (at − ν) u} ht (u|θn ) du
0
Z 1
+ log {xt − νn − (at − νn ) u} ht (u|θn ) du
0

− b log β + bn log βn
x t − at Z 1 xt − ν Z 1
− uht (u|θn ) du − (1 − u) ht (u|θn ) du
β 0 β 0
Z 1
xt − νn − (at − νn ) u
+ ht (u|θn ) du
0 βn
Γ(a + b) Γ(a) Γ(b)
! !
+ log − log − 2 log
Γ(an + bn ) Γ(an ) Γ(bn )

+ a log (at − ν) − an log (at − νn )

− (a + b) log (xt−1 − ν) + (an + bn ) log (xt−1 − νn )


Z 1 Z 1
+ (a − 1) log (u) ht (u|θn ) du − (an − 1) log (u) ht (u|θn )du
0 0
Z 1
+b log (xt−1 − ν − (at − ν) u) ht (u|θn ) du
0
Z 1
− bn log (xt−1 − νn − (at − νn )u) ht (u|θn ) du
0
Z 1
− log (xt−1 − ν − (at − ν) u) ht (u|θn ) du
0
Z 1
+ log (xt−1 − νn − (at − νn ) u) ht (u|θn ) du
0
!
xt−1 − ν
+ log
xt−1 − νn

111
Annexe B Annexe du Chapitre III

log f (xt |xt−1 , θ) ≥ log f (xt |xt−1 , θn )

− b log β + bn log βn
Γ (a + b) Γ(a) Γ(b)
! !
+ log − log − 2 log
Γ (an + bn ) Γ(an ) Γ(bn )

+ a log (at − ν) − an log (at − νn )

− (a + b) log (xt−1 − ν) + (an + bn ) log (xt−1 − νn )


!
xt−1 − ν
+ log
xt−1 − νn
Z 1
+b log {xt − ν − (at − ν) u} ht (u|θn ) du
0
Z 1
− bn log {xt − νn − (at − νn ) u}}ht (u|θn ) du
0
Z 1
− log {xt − ν − (at − ν) u} ht (u|θn ) du
0
Z 1
+ log {xt − νn − (at − νn ) u} ht (u|θn ) du
0
x t − at Z 1 xt − ν Z 1
− uht (u|θn ) du − (1 − u) ht (u|θn ) du
β 0 β 0
Z 1
xt − νn − (at − νn ) u
+ ht (u|θn ) du
0 βn
Z 1 Z 1
+ (a − 1) log (u) ht (u|θn ) du − (an − 1) log (u) ht (u|θn ) du
0 0
Z 1
+b log (xt−1 − ν − (at − ν) u) ht (u|θn ) du
0
Z 1
− bn log (xt−1 − νn − (at − νn ) u) ht (u|θn ) du
0
Z 1
− log (xt−1 − ν − (at − ν) u) ht (u|θn ) du
0
Z 1
+ log (xt−1 − νn − (at − νn ) u) ht (u|θn ) du
0

Pour fair simple, adoptons les notations suivantes :

l1,t (θ | θn , xt , xt−1 ) = −b log β + bn log βn


Γ (a + b) Γ (a) Γ (b)
! !
+ log − log − 2 log
Γ (an + bn ) Γ (an ) Γ (bn )

+ a log (at − ν) − an log (at − νn )


!
xt−1 − ν
− (a + b) log (xt−1 − ν) + (an + bn ) log (xt−1 − νn ) + log
xt−1 − νn

112
B.3 Démonstration de la proposition 25

et

Z 1
l2,t (θ | θn , xt , xt−1 ) =b log {xt − ν − (at − ν)u} ht (u|θn ) du
0
Z 1
− bn log {xt − νn − (at − νn ) u} ht (u|θn ) du
0
Z 1
− log {xt − ν − (at − ν) u} ht (u|θn ) du
0
Z 1
+ log {xt − νn − (at − νn ) u} ht (u|θn ) du
0
x t − at Z 1 xt − ν Z 1
− uht (u|θn ) du − (1 − u) ht (u|θn ) du
β 0 β 0
Z 1
xt − νn − (at − νn ) u
+ ht (u|θn ) du
0 βn
Z 1 Z 1
+ (a − 1) log (u) ht (u|θn ) du − (an − 1) log (u) ht (u|θn ) du
0 0
Z 1
+b log (xt−1 − ν − (at − ν) u) ht (u|θn ) du
0
Z 1
− bn log (xt−1 − νn − (at − νn ) u) ht (u|θn ) du
0
Z 1
− log (xt−1 − ν − (at − ν) u) ht (u|θn ) du
0
Z 1
+ log (xt−1 − νn − (at − νn ) u) ht (u|θn ) du
0

En tenant compte de ces notations on deduit que

log f (xt | xt−1 , θ) ≥ log f (xt | xt−1 , θn ) + l1,t (θ | θn , xt , xt−1 ) + l2,t (θ | θn , xt , xt−1 )

B.3 Démonstration de la proposition 25

Démonstration.
Soit (xt ) t∈N une sequence generée par le modèle définie par la relation (III.3.1) et
soit θn = (an , bn , βn , νn ) une valeur fixée du vecteur des paramètres θ = (a, b, β, ν). Les
minorisations suivantes sont vraies :

Lemme 32.

!2
b2 β bn
−b log β ≥ −b log βn + b − −
2bn βn 2

113
Annexe B Annexe du Chapitre III

Démonstration.

" #
β
−b log β ≥ b − log βn + 1 −
βn

≥ − b log βn + b −
βn
!2
b2 β bn
≥ − b log βn + b − −
2bn βn 2

Lemme 33.

Γ (a + b)
log ≥ (a + b) ψ (an + bn ) − (an + bn ) ψ (an + bn )
Γ (an + bn )

!
xt−1 − ν x1:T − νn x1:T − ν
log ≥ log (B.3.1)
xt−1 − νn xt−1 − νn x1:T − νn

x1:T − νn a2
2
x1:T − νn x1:T − νn x1:T − νn an
     
a log (at − ν) ≥ a log (at − νn ) + a− −
at − ν n at − νn 2an at − ν n x1:T − ν 2

Démonstration. De la convexité de la fonction x → log Γ (x), on déduit que

Γ (a + b)
log ≥ (a + b) ψ (an + bn ) − (an + bn ) ψ (an + bn )
Γ (an + bn )
 
xt−1 −ν
Comme log xt−1 −νn
= log ((xt−1 − x1:T ) + (x1:T − ν)) − log (xt−1 − νn ) on a

!
xt−1 − ν x1:T − νn x1:T − ν
log ≥ log
xt−1 − νn xt−1 − νn x1:T − νn

De plus, de l’égalité log (at − ν) = log ((at − x1:T ) + (x1:T − ν)) on déduit que

x1:T − νn x1:T − ν
log (at − ν) ≥ log (at − νn ) + log
at − ν n x1:T − νn

114
B.3 Démonstration de la proposition 25

Par suite

x1:T − νn a2
2
x1:T − νn x1:T − νn x1:T − νn an
     
a log (at − ν) ≥ a log (at − νn )+ a− −
at − ν n at − νn 2an at − νn x1:T − ν 2

Lemme 34.

1 (x1:T − ν)2 an
" #
2 x1:T − νn
−(a + b) log(xt−1 − ν) ≥ −a − (B.3.2)
xt−1 − νn 2an 2(x1:T − νn )
1 x1:T − νn (x1:T − ν)2 bn
" #
+ −b2 −
xt−1 − νn 2bn 2 (x1:T − νn )
" #
x1:T − νn
(a + b) − log (xt−1 − νn )
xt−1 − νn

Démonstration.

ν − νn
− (a + b) log (xt−1 − ν) ≥ − (a + b) log (xt−1 − νn ) + (a + b)
xt−1 − νn

Or

ν − νn x1:T − ν x1:T − νn
(a + b) = − (a + b) + (a + b)
xt−1 − νn xt−1 − νn xt−1 − νn
1 x1:T − νn
= [−a (x1:T − ν) − b (x1:T − ν)] + (a + b)
xt−1 − νn xt−1 − νn

En utilisant (B.1.3) , on obtient les inégalités suivantes :

2 x1:T− νn (x1:T − ν)2 an


−a (x1:T − ν) ≥ −a −
2an 2 (x1:T − νn )

2 x1:T− νn (x1:T − ν)2 bn


−b (x1:T − ν) ≥ −b −
2bn 2 (x1:T − νn )

115
Annexe B Annexe du Chapitre III

D’où

1 (x1:T − ν)2 an
" #
2 x1:T − νn
− (a + b) log (xt−1 − ν) ≥ −a −
xt−1 − νn 2an 2 (x1:T − νn )
1 x1:T − νn (x1:T − ν)2 bn
" #
+ −b2 −
xt−1 − νn 2bn 2 (x1:T − νn )
" #
x1:T − νn
+ (a + b) − log (xt−1 − νn )
xt−1 − νn

Des lemmes ci-dessus on déduit la proposition

B.4 Démonstration de la proposition 26

Démonstration.

Lemme 35.

1.
xt − ν xt − x1:T (x1:T − ν)2 βn (x1:T − νn )
− ≥− − −
β β 2βn (x1:T − νn ) 2β 2

2.

b log {xt − ν − (at − ν) u} ≥ b log {xt − νn − (at − νn ) u}


bn (x1:T − νn ) (1 − u)
" #
b2
2
x1:T − νn

+ b− − (B.4.1)
2bn x1:T − ν 2 xt − νn − (at − νn ) u

3.

− log {xt−1 − ν − (at − ν) u} ≥ − log {xt−1 − νn − (at − νn ) u}


(ν − νn ) (1 − u)
+ (B.4.2)
xt−1 − νn − (at − νn ) u

Démonstration.

116
B.4 Démonstration de la proposition 26

1.

xt − ν xt − x1:T x1:T − ν
− =− −
β β β
xt − x1:T (x1:T − ν)2 βn (x1:T − νn )
≥− − −
β 2βn (x1:T − νn ) 2β 2

2. Sachant que

log {xt − ν − (at − ν) u} = log [(xt − x1:T − (at − x1:T ) u) + (x1:T − ν) (1 − u)]

Par (B.1.2), on peut déduire que :

b log {xt − ν − (at − ν) u} ≥ b log {xt − νn − (at − νn ) u}


(x1:T − νn ) (1 − u) x1:T − ν
 
+ b log
xt − νn − (at − νn ) u x1:T − νn

Par suite(4) implique

b2
2
x1:T − ν x1:T − νn bn

b log ≥ b− −
x1:T − νn 2bn x1:T − ν 2

et donc

b log {xt − ν − (at − ν) u} ≥ b log {xt − νn − (at − νn ) u}


bn (x1:T − νn ) (1 − u)
" #
b2
2
x1:T − νn

+ b− −
2bn x1:T − ν 2 xt − νn − (at − νn ) u

3. Résulte de la convexité de la fonction x → − log x.

Du lemme ci dessus et en adoptant les notations (III.4.6), la proposition est vérifiée.

117
Annexe B Annexe du Chapitre III

B.5 Démonstration du lemme 28

Démonstration. De la proposition27

T
Q (θ|θn , (xt )t=1:T ) = Qt (θ|θn , xt , xt−1 )
X

t=2
T
= {Q1,t (θ|θn , xt , xt−1 ) + Q2,t (θ|θn , xt , xt−1 )}
X

t=2

Par conséquent

∂Q (θ|θn , (xt )t=1:T ) X T


∂Q1,t (θ|θn , xt , xt−1 ) ∂Q2,t (θ|θn , xt , xt−1 )
( )
= +
∂θ t=2 ∂θ ∂θ

1.

∂Q1,t (θ|θn , xt , xt−1 ) 1


3
an x1:T − νn x1:T − ν

=− + (an + bn )
∂ν at − νn x1:T − ν xt−1 − νn x1:T − νn
x1:T − νn 1

xt−1 − νn x1:T − ν

∂Q2,t (θ|θn , xt , xt−1 )


3
x1:T − νn

= I3,t (θn ) + I4,t (θn ) − bn [I3,t (θn ) + I4,t (θn )]
∂ν x1:T − ν
x1:T − ν
+ I7,t (θn )
βn (x1:T − νn )

D’où

∂Qt (θ|θn , xt , xt−1 ) x1:T − ν an + b n I7,t (θn ) 1


" #
x1:T − νn
= + −
∂ν x1:T − νn xt−1 − νn βn xt−1 − νn x1:T − ν
3 
x1:T − νn an
 
− + bn (I3,t (θn ) + I4,t (θn )) + I3,t (θn ) + I4,t (θn )
x1:T − ν at − ν n

En outre

2.

∂Q1,t (θ|θn , xt , xt−1 ) β


= − bn 2
∂β βn

118
B.5 Démonstration du lemme 28

∂Q2,t (θ|θn , xt , xt−1 ) x t − at xt − x1:T βn (x1:T − νn )


= 2
I1,t (θn ) + 2
I7,t (θn ) + I7,t (θn )
∂β β β β3

D’où

∂Qt (θ|θn , xt , xt−1 ) β 1


= − bn 2 + 2 [(xt − at ) I1,t (θn ) + (xt − x1:T ) I7,t (θn )]
∂β βn β
βn (x1:T − νn )
+ I7,t (θn )
β3

3.

∂Q1,t (θ|θn , xt , xt−1 ) x1:T − νn a


 
=ψ (an + bn ) − ψ (a) + log (at − νn ) + 1−
∂a at − νn an
1 x1:T − νn x1:T − νn
 
− a + − log (xt−1 − νn )
xt−1 − νn an xt−1 − νn

∂Q2,t (θ|θn , xt , xt−1 )


= I2,t (θn )
∂a

D’où

∂Qt (θ|θn , xt , xt−1 )


" #
a x1:T − νn x1:T − νn x1:T − νn
= − ψ(a) − + + log (at − νn ) +
∂a an at − νn xt−1 − νn at − ν n
" #
x1:T − νn
ψ (an + bn ) + − log (xt−1 − νn ) + I2,t (θn )
xt−1 − νn

4.

∂Q1,t (θ|θn , xt , xt−1 ) b


= − log βn + 1 − + ψ (an + bn ) − 2ψ (b)
∂b bn
1
 " #
x1:T − νn x1:T − νn

− b + − log (xt−1 − νn )
xt−1 − νn bn xt−1 − νn

∂Q2,t (θ|θn , xt , xt−1 )


" !#
b
= I5,t (θn ) + I6,t (θn ) + (x1:T − νn ) 1 − [I3,t (θn ) + I4,t (θn )]
∂b bn

119
Annexe B Annexe du Chapitre III

D’où

∂Qt (θ|θn , xt , xt−1 )


" #
b x1:T − νn
= − 2ψ(b) − 1+ + (x1:T − νn ) [I3,t (θn ) + I4,t (θn )]
∂b bn xt−1 − νn

− log βn + 1 + ψ (an + bn ) + I5,t (θn ) + I6,t (θn )


x1:T − νn
+ (x1:T − νn ) [I3,t (θn ) + I4,t (θn )] + − log (xt−1 − νn )
xt−1 − νn

B.6 Procédure de calcul des intégrales

Avant de donner les détails de la procédure de calcul, nous rappelons d’abord les inté-
grales dont il est question.

Z 1
I1,t (θn ) = uht (u | θn ) du
0
Z 1
I2,t (θn ) = log (u) ht (u | θn ) du
0
Z 1
1−u
I3,t (θn ) = ht (u | θn ) du
0 xt − νn − (at − νn ) u
Z 1
1−u
I4,t (θn ) = ht (u | θn ) du (B.6.1)
0 xt−1 − νn − (at − νn ) u
Z 1
I5,t (θn ) = log {xt−1 − νn − (at − νn ) u} ht (u | θn ) du
0
Z 1
I6,t (θn ) = log {xt − νn − (at − νn ) u} ht (u | θn ) du
0
Z 1
I7,t (θn ) = (1 − u) ht (u | θn ) du = 1 − I1,t (θn )
0

X
fEt (xt − νn − u (at − νn ) |θn ) fRtt−1 ((at − νn ) u + νn |θn )
ht (u|θn ) = (at − νn )
f (xt |xt−1 , θn )

120
B.6 Procédure de calcul des intégrales

et

1
fEt (xt − νn − u (at − νn ) |θn ) = (xt − νn − u (at − νn )) bn −1
βnbn Γ (bn )
xt − νn − u (at − νn )
( )
× exp − I]−∞, xt −νn ] (u)
βn at −νn

!an −1
X 1 Γ (an + bn ) (at − νn ) u
fRtt−1 ((at − νn ) u + νn |θn ) =
xt−1 − νn Γ (an ) Γ (bn ) xt−1 − νn
!bn −1
xt−1 − νn − (at − νn ) u
× I[0, xt−1 −νn ] (u)
xt−1 − νn at −νn

En général, deux types de méthodes sont utilisées pour le calcul numérique des intégrales.
Les méthodes stochastiques(méthodes Monte Carlo) et les méthodes déterministes dites de
quadrature. L’une des difficultés majeures rencontrées par les utilisateurs des méthodes
stochastiques est liée à la lenteur de la convergence. Pour ce qui concerne ce travail,
toutes les intégrales doivent être mise à jour à chaque itération de l’algorithme que nous
proposerons un peu plu tard. Compte tenue du nombre d’évaluation élevé pour chaque
intégrale, les méthodes de quadratures semblent être une bonne alternative.
Le résultat suivant permet d’écrire les intégrales ci-dessus en termes d’espérance ma-
thématique.

Proposition 36. Soit U une variable aléatoire distribuée selon un modèle Bêta de pa-
ramètres an et bn de fonction de densité g (u|an , bn ) et (xt )t=1:T une série générée du
modèle(III.3.1). Notons

Z 1
X
I0,t (θn ) = fEt (xt − ν − u (at − ν) |θ) fRtt−1 ((at − ν) u + ν|θ) du
0

Les égalités suivantes sont vérifiées :

1. ∀t = 2 : T , Si xt ≤ xt−1 alors

I0,t (θn ) = E (f0xttm1 (U ))

121
Annexe B Annexe du Chapitre III

E (U f0xttm1 (U ))
I1,t (θn ) =
I0,t (θn )

E (ln (U ) f0xttm1 (U ))
I2,t (θn ) =
I0,t (θn )

E (f0xttm1 (U )) 1
I3,t (θn ) =
I0,t (θn ) xt − νn
 
(1−U )f0xttm1 (U )
E xt−1 −νn −U (xt −νn )
I4,t (θn ) =
I0,t (θn )

E [ln (xt−1 − νn − U (xt − νn )) f0xttm1 (U )]


I5,t (θn ) =
I0,t (θn )

E [ln ((xt − νn ) (1 − U )) f0xttm1 (U )]


I6,t (θn ) =
I0,t (θn )

avec
n o
exp − xtβ−ν (1 − u)
!an −1
1
n
xt − νn
f0xttm1 (u) = (xt − νn ) bn −1 n

βn Γ (bn )
bn xt−1 − νn xt−1 − νn
!bn −1
(xt − νn ) u
× 1− I[0,1] (u)
xt−1 − νn

2. ∀t = 2 : T , Si xt > xt−1 alors

I0,t (θn ) = E (f0xttm1 (U ))

E (U f0xttm1 (U ))
I1,t (θn ) =
I0,t (θn )

E (ln (U ) f0xttm1 (U ))
I2,t (θn ) =
I0,t (θn )

E (f0xtm1t (U )) 1
I3,t (θn ) =
I0,t (θn ) xt − νn
 
(1−U )f0xtm1t (U )
E xt−1 −νn −U (xt −νn )
I4,t (θn ) =
I0,t (θn )

E [ln (xt−1 − νn − U (xt − νn )) f0xtm1t (U )]


I5,t (θn ) =
I0,t (θn )

E [ln ((xt − νn ) (1 − U )) f0xtm1t (U )]


I6,t (θn ) =
I0,t (θn )

122
B.6 Procédure de calcul des intégrales

avec
n o
(xt − νn − u (xt−1 − νn )) bn −1 exp − xt −νn −u(x
βn
t−1 −νn )

f0xtm1t (u) = I[0,1] (u)


βnbn Γ (bn ) xt−1 − νn

où E (U ) désigne l’espérance mathématique par rapport à la distribution Bêta de para-


mètres an , bn qui est celle de la variable U .

Démonstration.

1. De l’équation (III.3.8), il vient que

X
fEt (xt − νn − u (at − νn ) |θn ) fRtt−1 ((at − νn ) u + νn |θn )
ht (u|θn ) = X
fEt (xt − ν − u (at − ν) |θ) fRtt−1 ((at − ν) u + ν|θ) du
R1
0
X
fEt (xt − νn − u (at − νn ) |θn ) fRtt−1 ((at − νn ) u + νn |θn )
=
I0,t (θn )

avec

Z 1
X
I0,t (θn ) = fEt (xt − ν − u (at − ν) |θ) fRtt−1 ((at − ν) u + ν|θ) du
0

Comme xt ≤ xt−1 , on a at = min (xt , xt−1 ) = xt et par conséquent :

1
fEt (xt − νn − u (at − νn ) |θn ) = (xt − νn ) bn −1 (1 − u)bn −1
βnbn Γ (bn )
( )
x t − νn
× exp − (1 − u) I]−∞,1] (u)
βn

!an −1
X 1 Γ (an + bn ) (xt − νn ) u
fRtt−1 ((at − νn ) u + νn |θn ) =
xt−1 − νn Γ (an ) Γ (bn ) xt−1 − νn
!bn −1
xt−1 − νn − (xt − νn ) u
× I[0, xt−1 −νn ] (u)
xt−1 − νn xt −νn

123
Annexe B Annexe du Chapitre III

De plus

X
ht (u|θn ) I0,t (θn ) = fEt (xt − νn − u (at − νn ) |θn ) fRtt−1 ((at − νn ) u + νn |θn )
Γ (an + bn ) an −1 1
" #
= u (1 − u)bn −1 bn (xt − νn ) bn −1
Γ (an ) Γ (bn ) βn Γ (bn )
n o
exp − xtβ−ν (1 − u)
!an −1 !bn −1
(xt − νn ) u
n
x t − νn
× n
1− I[0,1] (u)
xt−1 − νn xt−1 − νn xt−1 − νn
Γ (an + bn ) an −1
" #
bn −1
≡ u (1 − u) f0xttm1 (u)
Γ (an ) Γ (bn )
≡ g (u|an , bn ) f0xttm1 (u)

avec g (u|an , bn ) la fonction de densité de la variable aléatoire U de loi Bêta de


paramètres an et bn . Du résultat précèdant on a :

X
fEt (xt − νn − u (at − νn ) |θn ) fRtt−1 ((at − νn ) u + νn |θn ) = g (u|an , bn ) f0xttm1 (u)

Il en decoule que :

Z 1
X
I0,t (θn ) = fEt (xt − ν − u (at − ν) |θ) fRtt−1 ((at − ν) u + ν|θ) du
0
Z 1
g (u|an , bn ) f0xttm1 (u) du
0

= E (f0xttm1 (U ))

Z 1
I1,t (θn ) = uht (u | θn ) du
0
g (u|an , bn ) uf0xttm1 (u|θn ) du
R1
= 0
I0,t (θn )
E (U f0xttm1 (U ))
I0,t (θn )

Z 1
I2,t (θn ) = ln (u) ht (u | θn ) du
0
g (u|an , bn ) ln (u) f0xttm1 (u|θn ) du
R1
= 0
I0,t (θn )
E (ln (U ) f0xttm1 (U ))
I0,t (θn )

124
B.6 Procédure de calcul des intégrales

Z 1
1−u
I3,t (θn ) = ht (u | θn ) du
0 xt − νn − (xt−1 − νn ) u
g (u|an , bn ) x(1−u)f 0xttm1 (u|θn )
R1
0 t −νn −(xt−1 −νn )u
du
=
I0,t (θn )
 
(1−U )f0xttm1 (U |θn )
E xt −νn −(xt−1 −νn )U
I0,t (θn )

Z 1
1−u
I4,t (θn ) = ht (u | θn ) du
0 xt−1 − νn − (xt−1 − νn ) u
g (u|an , bn ) f0xttm1 (u|θn )
R1
0 (xt−1 −νn )
du
=
I0,t (θn )
 
f0xttm1 (U |θn )
E (xt−1 −νn )
I0,t (θn )

Z 1
I5,t (θn ) = ln (xt−1 − νn − (xt−1 − νn ) u) ht (u | θn ) du
0
g (u|an , bn ) ln [(xt−1 − νn ) (1 − u)] f0xttm1 (u|θn ) du
R1
= 0
I0,t (θn )
E (ln [(xt−1 − νn ) (1 − U )] f0xttm1 (U |θn ))
I0,t (θn )

Z 1
I6,t (θn ) = ln (xt − νn − (xt−1 − νn ) u) ht (u | θn ) du
0
g (u|an , bn ) ln (xt − νn − (xt−1 − νn ) u) f0xttm1 (u|θn ) du
R1
= 0
I0,t (θn )
E (ln (xt − νn − (xt−1 − νn ) U ) f0xttm1 (U |θn ))
I0,t (θn )

2. Si xt > xt−1 , alors at = xt−1 . Par suite :

1
fEt (xt − νn − u (at − νn ) |θn ) = (xt − νn − u (xt−1 − νn )) bn −1
βnbn Γ (bn )
xt − νn − u (xt−1 − νn )
( )
× exp − I]−∞, xt −νn ] (u)
βn xt−1 −νn

125
Annexe B Annexe du Chapitre III

1 Γ (an + bn ) an −1
(1 − u)bn −1 I[0,1] (u)
X
fRtt−1 ((at − νn ) u + νn |θn ) = u
xt−1 − νn Γ (an ) Γ (bn )

De plus

X
ht (u|θn ) I0,t (θn ) = fEt (xt − νn − u (at − νn ) |θn ) fRtt−1 ((at − νn ) u + νn |θn )
Γ (an + bn ) an −1 (xt − νn − u (xt−1 − νn )) bn −1
" #
= u (1 − u)bn −1
Γ (an ) Γ (bn ) βnbn Γ (bn )
n o
exp − xt −νn −u(x
βn
t−1 −νn )

× I[0,1] (u)
xt−1 − νn
Γ (an + bn ) an −1
" #
bn −1
≡ u (1 − u) f0xtm1t (u)
Γ (an ) Γ (bn )
≡ g (u|an , bn ) f0xtm1t (u|θn )

On en déduit que :

Z 1
X
I0,t (θn ) = fEt (xt − ν − u (at − ν) |θ) fRtt−1 ((at − ν) u + ν|θ) du
0
Z 1
g (u|an , bn ) f0xtm1t (u) du
0

= E (f0xtm1t (U ))

Z 1
I1,t (θn ) = uht (u | θn ) du
0
g (u|an , bn ) uf0xtm1t (u|θn ) du
R1
= 0
I0,t (θn )
E (U f0xtm1t (U ))
I0,t (θn )

Z 1
I2,t (θn ) = ln (u) ht (u | θn ) du
0
g (u|an , bn ) ln (u) f0xtm1t (u|θn ) du
R1
= 0
I0,t (θn )
E (ln (U ) f0xtm1t (U ))
I0,t (θn )

126
B.6 Procédure de calcul des intégrales

Z 1
1−u
I3,t (θn ) = ht (u | θn ) du
0 xt − νn − (xt−1 − νn ) u
g (u|an , bn ) x(1−u)f 0xtm1t (u|θn )
R1
0 t −νn −(xt−1 −νn )u
du
=
I0,t (θn )
 
(1−U )f0xtm1t (U |θn )
E xt −νn −(xt−1 −νn )U
I0,t (θn )

Z 1
1−u
I4,t (θn ) = ht (u | θn ) du
0 xt−1 − νn − (xt−1 − νn ) u
g (u|an , bn ) f0xtm1t (u|θn )
R1
0 (xt−1 −νn )
du
=
I0,t (θn )
 
f0xtm1t (U |θn )
E (xt−1 −νn )
I0,t (θn )

Z 1
I5,t (θn ) = ln (xt−1 − νn − (xt−1 − νn ) u) ht (u | θn ) du
0
g (u|an , bn ) ln [(xt−1 − νn ) (1 − u)] f0xtm1t (u|θn ) du
R1
= 0
I0,t (θn )
E (ln [(xt−1 − νn ) (1 − U )] f0xtm1t (U |θn ))
I0,t (θn )

Z 1
I6,t (θn ) = ln (xt − νn − (xt−1 − νn ) u) ht (u | θn ) du
0
g (u|an , bn ) ln (xt − νn − (xt−1 − νn ) u) f0xtm1t (u|θn ) du
R1
= 0
I0,t (θn )
E (ln (xt − νn − (xt−1 − νn ) U ) f0xtm1t (U |θn ))
I0,t (θn )

Smyth[63] a proposé une forme simplifiée des méthodes de quadratures en termes de


distributions de probabilités. Un de ses principaux résultats a consisté d’approximer l’es-

127
Annexe B Annexe du Chapitre III

pérance mathématique d’une fonction f (X) d’une variable aléatoire X comme suit :

n
E (f (X)) = wi f (xi )
X

i=1

où (wi )i=1:n désignent les poids et (xi )i=1:n les noeuds associés à la distribution de la
variable X.
Le package R « statmod »[62] dispose d’une fonction permettant de calculer les noeuds
et les poids associés à un certain nombre de distribution de probabilité, dont la distribution
Bêta que nous utilisons pour le calcul des intégrales au cours de ce travail.

128
Chapitre IV
Conclusion et perspectives

IV.1 Conclusion

En rappel, le premier objectif fixé au début de ce travail était d’une part de proposer une
méthode d’ajustement à une série d’observations iid issue de la distribution de Pearson de
type III. Cette méthode devant permettre de contourner les problèmes liés à l’utilisation
de la méthode du maximum de vraisemblance. Notre second objectif serait de formuler et
d’ajuster un modèle autorégressif doublement stochastique au cas ou l’indépendance des
observations serait mise à défaut.
Dans le premier cas de figure, nous avons proposé une méthode de vraisemblance mar-
ginalisée sur la première statistique d’ordre. Au juste, nous utilisons une fonction de
vraisemblance basée sur les n − 1 plus grandes statistiques d’ordre. Cette fonction étant
complexe, nous avons dû faire appel à un algorithme MM pour la partie optimisation.
Par ailleurs, la mise en oeuvre de cet algorithme nous a permis de réintégrer la première
statistique d’ordre, obtenant ainsi une fonction objectif qui, non seulement est concave
mais aussi prend en compte toutes les observations. Une forme analytique des estima-
teurs proposés n’étant pas accessibles, des études de simulations par Monte Carlo ont été
menées dans le but d’évaluer leurs performances. Comparativement à deux méthodes ré-
centes dont la méthode LSPF(Location and Scale Parameters Free Maximum Likelihood
method (LSPF-MLE) et la méthode Bayesienne(Bayesian likelihood method), nous avons
pu montrer que les estimateurs proposés se comportaient plutôt bien.
Dans les situations où les observations ne sont plus indépendantes, un modèle auto-

129
Chapitre IV Conclusion et perspectives

régressif d’ordre un basé sur l’opérateur d’amincissement a effectivement été formulé et


ses propriétés étudiées. Pour l’ajustement de ce modèle nous avons utilisé la méthode de
vraisemblance conditionnelle. Comme par le passé, la complexité de la fonction de vrai-
semblance obtenue nous a conduit à l’utilisation d’un algorithme MM dont la mise en
oeuvre nous a permis d’obtenir une fonction objectif concave et facile à maximiser. Après
avoir mené des études de simulation par Monte Carlo, nous avons pu constater que les
estimateurs proposés présentaient d’intéressantes propriétés.
Pour terminer, nous rappelons que toutes les procédures de calcul utilisées dans ce
document ont été implémentées dans l’environnement R.

IV.2 Perspectives

1. Élargir la méthode de vraisemblance marginale à d’autres modèles pré-


sentant des problèmes d’ajustement similaire au modèle 3.

Il est bien connu que lorsque le support d’une distribution dépend d’un paramètre
inconnu, la condition classique de régularité pour la méthode du maximum de vrai-
semblance n’est plus vérifiée. Plusieurs distributions de probabilité figurent dans
cette grande classe de distributions non régulières. Plusieurs d’entre elles présentent
des problèmes d’ajustements similaires à ceux de la distribution P 3 lorsque la mé-
thode de maximum de vraisemblance est utilisée . Parmi elles, on peut citer[61] :

a) La distribution Weibull à trois paramètres

!λ−1  !λ 
λ x−ν  x−ν 
f (x|ν, λ, β) = exp − , ν < x; λ, β > 0
β β  β 

b) La distribution log-normal à trois paramètres.

1 [log (x − ν) − β]2
( )
f (x|ν, λ, β) = √ exp − , ν < x; λ > 0; −∞ < β < ∞
2πλ (x − ν) 2λ

Dans un futur proche, nous nous focaliserons à l’application de la méthode de vrai-


semblance marginale pour l’ajustement des distributions sus-citées.

2. Explorer le cas d’ajustement par la méthode de vraisemblance condition-

130
IV.2 Perspectives

nelle

Au cours de ce travail, nous avions aussi eu à explorer la piste de la vraisemblance


conditionnelle. Tout comme la méthode exposée dans ce document, il s’agit d’une
méthode basée sur les n − 1 plus grandes statistiques d’ordres. Les résultats de
simulations n’ont pas été satisfaisant du point de vu du biais des estimateurs de la
méthode proposée. Cependant les résultats sur l’erreur quadratique moyenne était
très intéressantes. Preuve que les estimateurs de la vraisemblance conditionnelle
sont dotés d’une grande stabilité.

Très prochainement, nous comptons révisé cette piste en introduisant un correcteur


de biais.

3. Appliquer le modèle autorégressif formulé au chapitre 3 à des données


réelles

Une des limites de cette thèse est de n’avoir pas pu appliquer le modèle formulé au
chapitre 3 à des données réelles. Dans nos travaux futurs, nous nous intéresserons à
l’applicabilité du modèle présenté dans le domaine de l’hydrologie pour l’ajustement
des débits maximums annuels.

4. Élargir le modèle autorégressif à d’autres distributions stables par convo-


lution

5. Améliorer notre connaissance sur les conditions d’utilisation de la dis-


tribution P3 pour l’analyse statistique et´etudier les crit‘eres du bon
ajustement.

131
Bibliographie

[1] M. Akahira. Asymptotic theory for estimation of location in non-regular cases. i :


Order of convergence of consistent estimators. ii : Bounds of asymptotic distributions
of consistent estimators. Rep. Statist. Appl. Res. Union Jap. Sci. Eng, 22 :pp.8–
26,pp.99–115, 1975.

[2] J. Bai, A.J. Jakeman, and M. MCaleer. A new approach to maximum likelihood esti-
mation of the three-parameter gamma and weibull distributions. Australian Journal
of Statistics, Vol.33(No.3) :pp.397–410, 1991.

[3] L. Bain and M. Englehardt. Statistical analysis of reliability and life-testing models :
theory and methods. CRC Press, Second Edition, 1991.

[4] N. Balakrishnan and J. Wang. Simple efficient estimation for the three-parameter
gamma distribution. Journal of statistcal planning and inference, Vol.85(No.1-
2) :pp.115–126, 2000.

[5] M. Becker and S. Klößner. PearsonDS : Pearson distribution system.


http ://CRAN.R-project.org/package=PearsonDS, R package version 0.97, 2013.

[6] F. Bobee, B.and Ashkar. The gamma family and derived distributions applied in
hydrology. Water Resources Publications, 1991.

[7] L.R. Bowman, K. O.and Shenton. Problems with maximum likelihood estimation
and the 3 parameter gamma distribution. Journal of Statistical Computation and
Simulation, Vol.72(No.5) :pp.391–401, 2002.

[8] G. E. P. Box and D. R. Cox. An analysis of transformations. J. Royal Statistics


Society, Series B, vol.26 :pp.211–252, 1964.

133
BIBLIOGRAPHIE

[9] J. Carpenter and J. Bithell. Bootstrap confidence intervals : when, which, what ? a
practical guide for medical statisticians. Statistics in Medecine, 19 :pp.1141–1164,
2000.

[10] R. C. H. Cheng and N. A. K. Amin. Estimating parameters in continuous univariate


distribution with a shifted origin. Journal of the Royal Statistical Society. Series B
(Methodological), Vol.45(No.3) :pp.394–403, 1983.

[11] T. C Cheng, R. C. H.and Iles. Corrected maximum likelihood in non-regular


problems. Journal of the Royal Statistical Society. Series B (Methodological),
Vol.49(No.1) :pp.95–101, 1987.

[12] A. C Cohen and B. J. Whiten. Modified moment and maximum likelihood estima-
tors for parameters of the three-parameter gamma distribution. Communications in
statistics-simulation and computation, Vol.11(No.2) :pp.197–216, 1982.

[13] A.C. Cohen and B.J. Whitten. Modified moment estimation for the three-parameter
gamma distribution. Journal of Quality Technology, (No.18) :pp.53–62, 1986.

[14] W.R.C. (U.S. Water Resources Concil). A uniform technique for determining flood
flow frequencies. U.S. Water Resources Concil, Washington DC, (Bull.15), 1967.

[15] H.N. David, H.A.and Nagaraja. Order statistics, Third Edition. Wiley Online Library,
2003.

[16] R. Dumonceaux and C.E. Antle. Discriminations between the log-normal and the
weibull distributions. Technometrics, Vol.15(No.4) :pp.923–926, 1973.

[17] B. Fernandez and J.D. Salas. Periodic gamma autoregressive processes for operational
hydrology. Water Resources Research, vol.22 :pp.1385–1396, 1986.

[18] B. Fernandez and J.D. Salas. Gamma autoregressive models for stream-flow simula-
tion. Journal of Hydraulic Engineering, vol.116 :pp.1403–1414, 1990.

[19] R. A. Fisher. On the mathematical fondations of theorical statistics. Philosophical


Transactions of the Royal Society of London A : Mathematical, Physical and Engi-
neering Sciences, Vol.222(No.594-604) :pp.309–368, 1922.

[20] H. A. Foster. Theorical frequency curves and their application to engineering


problems. Transactions of the American Society of Civil Engineers, Vol. LXXX-
VIII(No.1) :pp.142–173, 1924.

134
BIBLIOGRAPHIE

[21] D. P. Gaver and P. A. W. Lewis. First order autoregressive gamma sequences and
point processes. Advances in Applied Probability, vol.12 :pp.727–745, 1980.

[22] R. Gerd. On the curvature of the trigamma function. Journal of Computational


North-Holland and Applied Mathematics, pages pp.397–399, 1986.

[23] W. Glanzel. Characterization through some conditional moments of pearson-type


distributions and discrete analogues. Sankhya : The Indian Journal of Statistics,
Series B (1960-2002), 53(No.1) :pp.17–24, 1991.

[24] B. V. Gnedenko, Y. K. Belyaev, and A. D. Solovyev. Mathematical methods of


reliability theory. Academic Press, New York and London, 1969.

[25] P. Hall and J.Z. Wang. Bayesian likelihood methods for estimating the end point
of a distribution. Journal of the Royal Statistical Society, vol.67(No.5) :pp.717–729,
2005.

[26] A.H. Harter, H. L.and Moore. Maximum likelihood estimation of the parameters of
gamma and weibull populations from complete and from censored samples. Techno-
metrics, Vol.7(No.4) :pp.639–643, 1965.

[27] H. Hirose. Maximum likelihood parameter estimation in the three-parameter gamma


distribution. Computational Statistics and Data Analysis, Vol.20(No.4) :pp.343–354,
1995.

[28] D.R. Hunter and K. Lange. A tutorial on mm algorithms. The American Statistician,
vol.58(No.1) :pp.30–37, 2004.

[29] W. C. F. Jeff. On the convergence properties of the em algorithm. The Annals of


Statistics, vol.11 :pp.95–103, 1983.

[30] H. Joe. Time series with univariate margins in the convolution-closed infinitely divi-
sible class. Journal of Applied Probability, vol.33(No.3) :pp.664–677, 1996.

[31] B. Jorgenson and P. X. Song. Stationary times series models with exponential dis-
persion model margins. Journal of Applied Probability, Vol.35(No.1), 1998.

[32] G. Khosravi, A. Majidi, and A. Nohegar. Determination of suitable probability dis-


tribution for annual mean and peak discharges estimation (case study : Minab river-
barantin gage, iran). International Journal of Probability and Statistics, (No.5) :pp.
160–163, 2012.

135
BIBLIOGRAPHIE

[33] L. A. Klimko and P. I. Nelson. On conditional least squares estimation for stochastic
process. Annals of Statistics, vol.6 :pp.629–642, 1978.

[34] D. H. Koumassi, A. E. Tchibozo, E. Vissin, and C. Houssou. Analyse fréquentielle


des évènements hydro-pluviométriques extrêmes dans le bassin de la sota au bénin.
Afrique Science, Vol.10(N0.2) :pp.137–148, 2014.

[35] D.R. Lange, K.and Hunter and I. Yang. Optimization transfer using surrogate objec-
tive functions (with discussion). Journal of Computational and Graphical Statistics,
vol.9(No.1) :pp.1–20, 2000.

[36] K. Lange. Optimization,Second Edition, volume Vol.95. Springer New York, 2013.

[37] A. J. Lawrence. The mixed exponential solution to the first order autoregressive
model. Journal of Applied Probability, vol.17 :pp.546–552, 1980.

[38] A. J. Lawrence and P. A. W. Lewis. A new autoregressive time series model in


exponential variables (near(1)). Adv. Appl. Probab, vol.13 :pp.826–845, 1980.

[39] D. P. Lettenmaier and S. Burges. An operational approach to preserving skew in hy-


drologic models of long-term persistence. Water Resources Research, vol.13 :pp.281–
290, 1977.

[40] J. Malisic. On exponential autoregressive time series models, in :p. bauer et al. (eds.).
Mathematical Statistics and Probability Theory, vol.B :pp.147–153, 1986.

[41] B. L. McMahon, T. A.and Finlayson, A. T. Haines, and R. Srikanthan. Global


runoff – continental comparisons of annual flows and peak discharges. Catena Verlag,
Cremlingen-Destedt, Germany.

[42] T. A. McMahon and R. Srikanthan. Log pearson iii distribution – is it applicable to


flood frequency analysis of australian streams ? Journal of Hydrology, Vol.52(No.1-
2) :pp. 139–147, 1981.

[43] H. Monsonyi, E. F.and Eggers and D. Koberg. Influence of probability analysis on


selection of design flood.ii world congress of iwra, new delhi. NERC : Flood studies
repport, natural environmental resources concil, London, (Vol.1-5) :pp.1100, 1975.

[44] I. Muqattash and M. Yahdi. Infinite family of approximations of the digamma func-
tion. Math. Comput. Model, pages pp.1329–1336, 2006.

136
BIBLIOGRAPHIE

[45] H. Nagatsuka and N. Balakrishnan. Parameter and quantile estimation for the three-
parameter gamma distribution based on statistics invariant to unknown location.
Journal of Satistical planning and Inference, vol.142(No.7) :pp.2087–2102, 2012.

[46] H. Nagatsuka, N. Balakrishnan, and T. Kamakura. A consistent method of estimation


for the three-parameter gamma distribution. Communications in Statistics-Theory
and Methods, vol.43(No.18) :pp.3905–3926, 2014.

[47] N.U. Nair and P.G. Sankaran. Characterization of the pearson family of distributions.
IEEE Transactions on Reliability, (No.40) :pp.75–77, 1991.

[48] L.J. Norman, S. Kotz, and N. Balakrishnan. Continuous Univariate Distribu-


tions,Second Edition, volume vol.1. john willey and Sons, New York, 1994.

[49] M. Novkovic. Autoregressive time series models with gamma and laplace distribution.
MSci Thesis, University of Belgrade, Faculty of Mathematics, 1987.

[50] J.T.B. Obeysekera and V. Yevjevich. A note on simulation of samples of gamma-


autoregressive variables. Water Resources Research, vol.21 :pp.1569–1572, 1985.

[51] I.E.A. Institution of Ingineers Australia. Australian rainfall and runnof : flood ana-
lysis and design. 1977.

[52] O. O. Olofintoye, B.F. Sule, and A.W. Salami. Best–fit probability distribution
model for peak daily rainfall of selected cities in nigeria. New York Science Journal,
Vol.2(No.3), 2009.

[53] Y. Pawitan. In All Likelihood :Statistical Modelling and Inference Using Likelihood.
CLARENDON PRESS·OXFORD, 2011.

[54] H. N. Phien and T. Jivajirajah. Applications of the log-pearson type-3 distribution


in hydrology. Journal of Hydrology, Vol.73(No.3-4) :pp.359–372, 1984.

[55] B. V. Popovic. ar(1) time series with approximated beta marginal. Publications de
l’Institut Mathematique, vol.88 :pp.87–98, 2010.

[56] M. Pourahmadi. Stationarity of the solution of xt = at xt−1 + t and analysis of non-


gaussian dependent random variables. Journal of Time Series Analysis, vol.9 :pp.225–
239, 1988.

137
BIBLIOGRAPHIE

[57] R Core Team. R : A language and environment for statistical computing.


http ://www.R-project.org/, 2015.

[58] C. A. Rohde. Introductory Statistical Inference with the Likelihood Function. Sprin-
ger, 2014.

[59] C. H. Sim. Simulation of weibull and gamma autoregressive stationary process.


Communucation in Statistics, Simulation and Computation, vol.B15 :pp.1141–1146,
1986.

[60] T. K. Sindu. An extended Pearson system useful in Reliability analysis. PhD thesis,
Departement of statistics, Cochin University of science and technology, 2002.

[61] R.L. Smith. Maximum likelihood estimation in a class of nonregular cases. Biome-
trika, vol.72(No.1) :pp.67–90, 1985.

[62] G. Smyth, Y. Hu, P Dunn, B. Phipson, and Y. Chen. statmod : Statistical Modeling,
2015. R package version 1.4.21.

[63] G. K. Smyth. Numerical integration. in : Encyclopedia of biostatistics, p. armitage


and t. colton (eds.). Wiley, London, pages pp. 3088–3095, 1998.

[64] J. R. Stedinger and M. R. Taylor. Synthetic streamflow generation :1. model verifi-
cation and validation. Water Resources Research, vol.18 :pp.909–918, 1982.

[65] M.L. Tiku, W.K Wong, and G. Bian. Time series models with asymmetric inno-
vations. Communications in Statistics-Theory and Methods, vol.28 :pp.1331–1360,
1999.

[66] D. Tjostheim. Some doubly stochastic time series models. Journal of Time Series
Analysis, vol.7 :pp.51–72, 1986a.

[67] G. Tzavelas. Sufficient conditions for the existence of a solution for the log-likelihood
equations in three-parameter gamma distribution. Communications in Statistics-
theory and methods, Vol.33(No.9) :pp.1371–1382, 2008.

[68] G. Tzavelas. Maximum likelihood parameter estimation in the three-parameter


gamma distribution with use of mathematica. Journal of Statistical Computation
and Simulation, Vol.79(No.12) :pp.1457–1466, 2009.

138
BIBLIOGRAPHIE

[69] F. Vaida. Parameter convergence for em and mm algorithms. Statist. Sinica,


vol.15 :pp.831–840, 2005.

[70] W. Vervaat. On a stochastic difference equation and a representation of non-negative


infinitely devisible random variables. Advances in Applied Probability, vol.11 :pp.750–
783, 1979.

139

Vous aimerez peut-être aussi