Modélisation des valeurs extrêmes multivariées
Modélisation des valeurs extrêmes multivariées
Série C : Statistique
Sommaire
Partie 1
Contribution à la modélisation statistique des
valeurs extrêmes multivariées
Partie 3
Modélisation des risques multivariées. Applications au
risque de changement climatique en Afrique de l'Ouest
Partie 5
Approche stochastique dans l’épidémiologie des maladies
infectieuses émergentes.
16 décembre 2010
Université de Ouagadougou
Table des matières
Dédicaces vi
Remerciements vii
Résumé ix
1 Introduction générale 1
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.2 Préliminaires . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
i
TABLE DES MATIÈRES ii
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
5 Conclusion générale 94
iv
Liste des tableaux
v
Dédicaces
vi
Remerciements
C’est un immense plaisir pour moi de pouvoir remercier ici les personnes
qui, durant ce travail de recherche, m’ont soutenu et guidé statistiquement
ou non, de près ou de loin...
vii
REMERCIEMENTS viii
Je n’oublie pas mon frère jumeau de thèse, Soumaïla MOUSSA, pour ses
coups de main dans l’utilisation du logiciel R et aussi pour ses prêches reli-
gieuses dans l’intention de me rendre plus musulman que je ne l’étais.
Résumé
Dans une partie annexe les outils fondamentaux utilisés dans l’analyse
des valeurs extrêmes on été résumé. Les modèles paramétriques usuels de
copules et de distributions extrêmes multivariées sont donnés ainsi que les
liens entre les mesures classiques de la dépendance et ces modèles.
ix
RÉSUMÉ x
Asbtract
Introduction générale
1
CHAPITRE 1. INTRODUCTION GÉNÉRALE 2
L’objectif que nous nous …xons ici est de construire une mesure condition-
nelle de la dépendance en partant de la fonction de dépendance de Pickands
pour les modèles extrêmes multivariées. Dans le chapitre 1, nous rappelons
les résultats fondamentaux des distributions univariées qui modélisent les
phénomènes marginaux. Leurs di¤érents domaines d’attraction sont égale-
ment donnés. Nous introduisons dans le chapitre 2, la mesure de discordance
d’une distribution multivariée de façon générale. La propriété fondamentale
de cette mesure est donnée dans le cas bivarié. Pour le cas particulier des
modèles extrêmes multivariés, nous établissons que les distributions margi-
nales associées à une partition orientée sont aussi des modèles extrêmes. Une
CHAPITRE 1. INTRODUCTION GÉNÉRALE 3
Une partie annexe résume les outils fondamentaux utilisés dans l’analyse
des valeurs extrêmes (univariées et multivariées). Les familles usuelles de
copules multivariées sont données ainsi que quelques modèles des valeurs
extrêmes multivariées. Les liens entre les mesures classiques de la dépendance
et les copules sont donnés.
Chapitre 2
2.1 Introduction
4
CHAPITRE 2. MODÈLES DES EXTRÊMES UNIVARIÉS 5
8 ( 1
)
>
< exp (1 + x)+ si 6= 0
GV E (x) = G (x) = (2.1)
>
:
exp f exp ( x)g si = 0
avec x+ = max(o; x); le paramètre étant l’indice des valeurs extrêmes.
2.2 Préliminaires
1
F (1 p) = sup fx 2 R=F (x) pg :
La notion de lois de même type est fondamentale dans l’analyse des va-
leurs extrêmes.
On dit que deux variables aléatoires X et Y sont de même type s’il existe
loi
des constantes réelles > 0 et 2 R telles que : Y = X + ; i.e. si
F et G sont les distributions respectives des variables X et Y, alors on a :
F ( x + ) = G (x) ; x 2 R:
Exemple 1.1
2
Si N ( ; ) désigne la loi normale généralisée de moyenne et d’écart
type et dé…nie par sa fonction densité
( )
2
1 1 x
f (x) = p exp ; x 2 R; (2.2)
2 2
2 2
alors, on véri…e que N ( 1 ; 1) et N ( 2 ; 2) sont de même type.
Remarque 1.1 Par dé…nition, les statistiques d’ordre ne sont pas indé-
pendantes même si les variables Xi sont i.i.d.
1
En e¤et, si X1 ; :::; Xn est une suite de n variables aléatoires réelles i.i.d, on véri…e
aisément les relations suivantes :
n
fMn xg () fmax (X1 ; :::; Xn ) xg () \ fXi xg
i=1
n
fWn xg () fmin (X1 ; :::; Xn ) xg () \ fXi xg :
i=1
CHAPITRE 2. MODÈLES DES EXTRÊMES UNIVARIÉS 10
Fig. 2.1 –Evolution de la fonction Fn;n d’une loi gaussienne pour n=10, 50,
100 et 200 respectivement.
Fig. 2.2 –Evolution de la fonction fn;n d’une loi gaussienne pour n=10, 50,
100 et 200 respectivement.
CHAPITRE 2. MODÈLES DES EXTRÊMES UNIVARIÉS 11
1
Le résultat suivant découle de la croissance de la fonction F, F désignant
l’inverse généralisée de F.
Lemme 1.1
Soit X1 ; :::; Xn des variables aléatoires i.i.d de distribution commune F.
Alors, pour tout vecteur (U1 ; :::; Un ) de variables indépendantes de loi uni-
1 1
forme sur l’intervalle I, le vecteur (F (U1;n ) ; :::; F (Un;n )) a même loi
que (X1; :::; Xn ) :
Remarque 1.2
Le lemme (1.1) signi…e en particulier que si X1 et X2 sont deux variables
continues de lois respectives F1 et F2 , alors les transformations
L’étude des lois des valeurs extrêmes univariées est basée sur une ap-
proche parallèle à celle du théorème central limite, qui est le fondement de la
statistique inférentielle. Ce théorème établit que pour une suite de variables
2
aléatoires réelles i.i.d fXn ; n 0g, de variance et d’espérance mathéma-
tique …nies, alors
Sn n loi
p ! N (0; 1) ;
n n !+1
Soit (Xi ; i 1) une suite de variables aléatoires i.i.d. S’il existe des suites
de normalisation f n > 0g et f n 2 Rg et une distribution non-dégénérée G
véri…ant la relation (1.5); alors G est de la forme suivante :
9
x >
Gumbel, (x) = exp exp ; x2R >
>
8 >
>
( ) >
>
>
> x
1=
>
>
< exp >
>
1+ ,x > 0 >
>
Fréchet, (x) = + >
=
>
>
: 0 si x 0 (2.6)
8 8 9 >
>
< 1
= >
>
>
> x >
>
< exp ; x >
>
: ; >
>
Weibull, (x) = + >
>
>
> >
>
: ;
1 si x
1
lim E g n (Mn n) = E (g (G))
n !+1
CHAPITRE 2. MODÈLES DES EXTRÊMES UNIVARIÉS 14
v n 1
Remarquons que 1 1]0;n] (v) converge en croissant vers e v 1fv>0g :
n
Comme par hypothèse In converge pour tout g, il est naturel, mais érroné à
priori, de penser que pour tout v > 0; la suite de terme
n
U n
Jn (v) = v
n
converge. Supposons malgré tout que cette convergence ait lieu. On déduit
1
en considérant Jn Jn (1) que pour tout w > 0,
w
U (wn) U (n)
! h (w) :
n n !+1
Comme la variable W est non triviale cela implique que la fonction h n’est
pas égale à une constante. Comme la fonction U est croissante, la fonction h
CHAPITRE 2. MODÈLES DES EXTRÊMES UNIVARIÉS 15
est également croissante. Supposons que plus généralement, on ait pour tout
w > 0;
U (wx) U (x)
! h (w) ;
(x) x!+1
(xw1 )
En faisant tendre x vers l’in…ni dans l’égalité ci-dessus, on obtient que
(xw1 )
converge pour tout w1 > 0: En notant l (w1 ) la limite, il vient que
Si 6= 0; par symétrie , on a
En particulier, on a
h (w1 ) 1 w2 = h (w2 ) 1 w1 :
h (w)
Cela implique que h (w) = 0 si w = 1, et sinon est constant.
1 w
Par conséquent, on obtient h (w) = c w 1 : À un changement d’échelle
1
près, on peut choisir c = et à une translation près, on peut choisir U (n) =
bn :
1
On peut maintenant calculer la limite de In = E [g ( n (Mn n ))] : Il
vient par le théorème de la
gence dominée
Z Z
v 1 v (1+ y) 1=
lim In = g e 1fv>0g dv = g (y) 1f1+ y>0g d e ;
n !+1
v 1
où on a posé y = si 6= 0 et y = log (v) si = 0:
1=
(1+ x)
Ainsi, la distribution de la loi limite est H (x) = e : C’est la
forme standard de la distribution dé…nie plus loin par la relation (1.10)
= 1: 9
(x) = exp f e x g avec x 2 R >
>
>
>
>
>
( >
>
>
>
exp x si x > 0 >
>
(x) = ; >0 =
0 si x 0 (2.8)
>
>
>
>
( >
>
>
>
1 si x > 0 >
>
(x) = ; >0 >
>
;
exp x si x 0
La …gure suivante présente les courbes des densités de trois lois extrêmes
standard.
CHAPITRE 2. MODÈLES DES EXTRÊMES UNIVARIÉS 18
Remarque 1.3
Les trois types de distributions de valeurs extrêmes sont di¤érents d’un
point de vue modélisation. Cependant, chacune peut s’obtenir par une trans-
formation fonctionnelle de l’autre. Plus précisément si X > 0 est une variable
aléatoire, on véri…e aisément les relations suivantes :
1
X () ln X () : (2.9)
X
Dans le résultat suivant (voir [19]) fait le lien entre une loi extrême et une
max-stable.
Théorème 1.2
La classe des lois max-stables coïncide avec la classe des limites possibles
non dégénérées pour les maxima normalisées variables aléatoires i.i.d.
8 ( )
1
>
>
< exp1+ x
+ si 6= 0
GV E (x) = G ; ; (x) = n h io (2.10)
>
>
: exp exp x
si =0
+
Remarquons que les paramètres et sont en fait les limites des suites
normalisantes f n > 0g et f n 2 Rg. On véri…e aisément que la forme géné-
ralisée de la fonction densité de probabilité correspondante est dé…nie sur le
même domaine, pour tout x 2 R par
1+
8 1
9
1 x < x =
g ; ; (x) = 1+ exp 1+ :
: ;
Remarque 1.4
Une conséquence de la remarque 1.3 précédente est le fait que l’on peut,
sans perdre de généralité, se limiter à une quelconque de ces lois extrêmes
pour une caractérisation. Le choix d’une loi extrême comme marge est donc
une question de pragmatisme. Par exemple, Pickands [18] utilise des marges
exponentielles (loi de Gumbel) tandis que Resnick [19] et Tajvidi ( [22]) pré-
fèrent une marge de Fréchet unitaire. Dans notre cas nous travaillerons avec
la marge paramétrique généralisée (GVE).
Wn n ~
lim P x = G(x);
n !+1 n
~ est de la forme
alors la distribution G
8 9
1
< x ~ ~=
~
G(x) = 1 exp 1 ~ où ~ > 0; ~ ; ~ 2 R:
: ~ +
;
Ainsi, une distribution de valeurs extrêmes est donc la limite d’une suite
convenablement normalisée de la loi du maximun ou du minimum.
Dé…nition 1.3
Une variable aléatoire appartient au domaine d’attraction d’une loi
stable G s’il existe des constantes de normalisation f n > 0g et f n 2 Rg
telles que
Sn n loi
! G ie lim P (Sn nx + n) = G (x) (2.11)
n n !+1 n !+1
i) F 2 M DA(G)
F (tx)
(1 F) 2 V R( ) i:e: lim = x ; x > 0:
t !+1 F (t)
1 1
Dans ce cas n =F (1 ) et n = 0:
n
Par conséquent F 2 M DA( ) s’il existe une fonction à variation lente
L telle que F (x) = x L(x): Les distributions du M DA( ) sont à queue
épaisse. L’exemple suivant établit que la Pareto appartient au M DA( ):
n = FX 1 (1 1
n
) = n1= x0 : Ainsi, pour x x0 et lorsque n ! +1;
n
1= n1= x0 x
P (Mn n x) = P Mn n x0 x = FXn n 1=
x0 x = 1 x0
h in x
n
= 1 n1= x = 1 ! exp x :
n
Le MDA de Weibull est formé par les lois à queues …nies, i.e F (x) = 0 si
x > xF où xF est le point terminal droit de F. Resnick (dans [19]) caractérise
le domaine de Weibull au moyen du résultat suivant.
1 F xF 1
x
2 RV ( ) ou si F xF 1
x
2 M DA( )
où xF est le point terminal droit de F avec xF < +1. Alors, il existe une
fonction à variation lente L(x) telle que
1 F xF 1
x
= x L(x) avec n = xF F 1
1 1
n
et n = xF :
Exemple 1.3
Ainsi,
1 1 1 1
n =F (1 )=1 (1 )= :
n n n
De plus,
x x
P (Mn nx + n) = P Mn + 1 = FXn 1 +
8 n n
< 1 si x > 0
= x n
: 1+ ! exp (x) si x 0
n
Le MDA de Gumbel est formé par les lois à queue légère i.e F (x) ! 0
exponentiellement plus vite lorsque x ! +1: Il est di¢ cile de caractériser
explicitement ce domaine du fait qu’il n’existe pas de condition nécessaire
et su¢ sante relativement simple. Mais si la fonction F est de classe C 2 ; une
condition su¢ sante est la suivante :
[1 F (x)] @ 2 F (x)
lim = 1:
x !+1 (@F (x))2
lim F n [ nx + n] = (x):
x !1
Alors,
F (x)
lim Gn [ nx + n] = (x + ) () lim = exp( ):
x !1 x !1 G(x)
Tab. 2.1 –Récapitulatif des domaines d’attraction des lois extrêmes univa-
riées
Conclusion
Dépendance conditionnelle
extrême multivariée
3.1 Introduction
28
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE29
Il faut noter cependant que lorsque l’on tente de résoudre ces genres de
problèmes multivariés, on est confronté à quelques di¢ cultés formulées par
les questions suivantes :
Dans cette section nous rappelons quelques notions liées aux lois mul-
tivariées et leurs propriétés fondamentales qui sont beaucoup utilisées dans
l’analyse des extrêmes multivariés.
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE31
a. Distributions multivariées
Le résultat suivant, démontré dans [13], résume les propriétés d’une dis-
tribution multivariée.
(1) (1)
x1 ;y1 ::: xm ;ym F (y1 ; :::; ym ) 0 (3.1)
(i)
où l’opérateur xi ;yi est dé…ni pour tout t2 Rm par :
(i)
xi ;yi F (t) = F (t1 ; :::; ti 1 ; yi ; ti+1 ; :::; tm ) F (t1 ; :::; ti 1 ; xi ; ti+1; :::; tm )
Remarques 2.1
La propriété (ii) signi…e en particulier que F est croissante par rapport
à chaque variable
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE32
sous l’hypothèse
@ m F (x1 ; :::; xm )
f (x) = ; x = (x1 ; :::; xm ) 2 Rm :
@x1 :::::@xm
Z +1 Z +1
f1;2 (x1 ; x2 ) = ::: f (x1 ; x2 ; u3 ; :::; um ) dum :::du4 du3
1 1
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE33
Une matrice de corrélation R est une matrice de covariance dont les élé-
ments diagonaux sont égaux à 1. On véri…e par ailleurs que si les éléments dia-
gonaux 1;1 ; :::; m;m de la matrice de covariance sont tous non nuls, alors la
1
matrice de corrélation associée à est la matrice R = diag ( 1;1 ; :::; m;m ) :
1 1
Dans ce cas R dé…nit la matrice de covariances du vecteur 1;1 X1 ; :::; m;m Xm :
Z +1 Z +1 Z +1
F (x) = f (x) dx = ::: f (x1 ; :::; xm ) dx1 :::dxm :
x xm x1
Remarque 2.2
Il faut noter que dans l’analyse multivariée, le sens de fonction de survie
requiert une attention particulière. En e¤et, on a
i.e
1 F (x1 ; x2 ) = F1 (x1 ) + F2 (x2 ) F (x1 ; x2 ) :
et
xF = xF1 ; :::; xFm tel que xFi = sup fFi < 1g +1
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE35
où
(x _ y) = (max (x1 ; y1 ) ; :::; max (xm ; ym ))
et
(x ^ y) = (min (x1 ; y1 ) ; :::; min (xm ; ym ))
Proposition 2.1
pour tous (x1 ; x2 ) 2 R2 et (x01 ; x02 ) 2 R2 véri…ant (2.3): Dans ce cas on dit
que f est Totalement Positive d’ordre deux (TP2 ) et Joe établit dans [13] les
propriétés suivantes.
Proposition 2.2
i) f est TP 2 :
ii) F est TP 2 :
iii) F̄ est TP 2 :
Cependant, l’égalité (2.6) requiert que pour tout t > 0, la fonction F t soit
une distribution, i.e F est max-id.
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE37
Dans cette section les opérations sur les vecteurs sont e¤ectuées compo-
sante par composante. Par exemple :
Si x = (x1 ; x2 ) 2 R2 et 2 R; alors x = ( x1 ; x2 ) et +x =
( + x1 ; + x2 ) :
Si x = (x1 ; x2 ) et y = (y1 ; y2 ) 2 R2 ; alors xy = (x1 y1 ; x2 y2 ) et x + y =
(x1 + y1 ; x2 + y2 ) :
Pour tous x = (x1 ; :::; xm ) 2 Rm et y = (y1 ; :::; ym ) 2 Rm ; alors x < y
(respectivement x y) signi…e que xi < yi (respectivement xi yi ),
pour tout 1 i m:
max (x ; y) = (max (x1 ; y1 ) ; :::; max (xm ; ym )) ;
Un rectangle est noté ]a; b] tel que
L’analyse des VEM n’est pas une extension immédiate du cas univarié.
En e¤et, l’absence de norme naturelle et d’ordre total dans Rn ne permettent
pas de faire une comparaison systématique. Aussi, plusieurs approches ont
été considérées pour comparer les vecteurs. L’approche la plus partagée a
consisté à comparer les vecteurs, composante par composante.
Dans la pratique, on considère les valeurs extrêmes de données multiva-
riées de phénomènes climatiques ou de l’environnement. Par exemple, on fait
la collecte des données sur plusieurs sites et l’on s’intéresse au maximum de
vitesse de vent, de pluviométrie et de température sur chaque site.
Dans l’analyse des extrêmes multivariés, il est usuel d’étudier les vecteurs
des maxima et des minima pris composante par composante. On considère
un échantillon d’observations à m dimension f(Xn ) ; n 1g ou une famille de
n vecteurs aléatoires i.i.d fXk ; k = 1; 2; ::; mg tels que Xk = (Xk;1 ; :::; Xk;m )
2 Rm de distribution F. Dans ce cas, le vecteur du maximum est donné par :
telles que
M1;n Mm;n
9
G(x1 ; :::; xm ) = lim P 1;n
x1 ; :::; m;n
xm =
n7 !+1 1;n m;n
(3.7)
= lim F ( n
1;n x1 + 1;n ; :::; m;n xm + m;n )
;
n7 !+1
Exemple 2.1
Soit X = f(X1 ; :::; Xm ) ; m 2g ; un vecteur aléatoire distribué suivant le
modèle multivarié de Pareto tel que, pour tous 1 et x = (x1 ; :::; xm ) > 0
P
tel que xi 1
1 i m
" #1
X
F (x) = 1 xi ; 1:
1 i m
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE40
1 1 1
i = Fi 1 = et i = h ( i ) = 0:
n n
On a :
0 0" # 1 11n
x 1@ X
P (Mn n x) = Fn = @1 xi AA :
n n 1 i m
Remarques 2.3
i) Toute distribution des VEM est continue (car toutes les marges le sont).
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE41
iii) Toutes les marges d’une distribution des VEM sont du type extrême i.e.
8 8
> > 19 >
>
> < xi =
>
> i
< exp 1+ i i si i 6= 0
>
: i >
;
Gi (xi ) = + :
>
>
>
> xi
>
: exp exp i
si i = 0
i +
Théorème 2.2
La classe des distributions extrêmes multivariées est précisément celle des
distributions max-stables avec des marges non dégénérées.
i) F 2 M DA(G)
Il existe des suites de vecteurs de normalisation
x1 x2
P (X > (x1; x2 )) = F (x1; x2 ) = + 1 ; xi > i; i = 1; 2
1 2
Fi 2 M DA ( ) ; i = 1; 2
F2 1 (t) = 2 t1= 1
1 2t
2 (t) = F2 F1 (t) =
1
Ainsi, on obtient
tx1 t2 x2 x1 t2 x2
1+ 1
+ 1+ 1 1
+ 1
1
= lim
t7 !+1 t
1+ 1
( 1 + tx1 ) +( 1 + t2 x2 ) (tx1 + t2 x2 1)
= lim
t7 !+1 ( + t)
1
= x1 + x2 (x1 + x2 )
Mn n
Gn ( nx + n )= lim P x = G(x)
n7 !+1 n
Z
G(x) = exp min (q1 x1 ; :::; qm xm ) d(q) ; xi > 0
Sm 1
Z
avec qi dq = 1; étant une mesure …nie dé…nie sur Sm 1 :
Sm 1
il vient que
2 0 1 3
X Z
q x
G(x) = exp 4 xi max @ P1 1 ; :::; q m xm A
P d(q)5 ;
xi xi
1 i m Sm 1
1 i m 1 i m
1
Soit
2 0 1 3
6 X B q x1 qm x m C 7
G(x) = exp 4 xi A @ P1 ; :::; P A d(q)5 (3.9)
1 i m
x i x i
1 i m 1 i m
Z " !#
X
A(t) = max q1 t1 ; :::; qm 1 tm 1 ; qm 1 ti d(q):
Sm 1 1 i m 1
Dé…nition 2.3
Proposition 2.5
La fonction de dépendance de Pickands véri…e les propriétés suivantes
Remarque 2.3
La fonction de dépendance d’une distribution extrême multivariée n’est pas
liée au type de marge considérée. Pour une marge de Fréchet, par exemple,
la relation (2.10) précédente équivaut à
1 1 x2
G(x1 ; x2 ) = exp + A ; x 1 ; x2 0
x1 x2 x1 + x2 1
Exemple 2.3 : Cas du modèle logistique
h i1
Dans le cas bivarié, on a : A (t) = t + (1 t) ; dé…nie sur le sim-
plexe
S2 = t = (t1 ; t2 ) 2 [0; 1]2 ; t1 + t2 = 1 :
- les moments d’ordre 2 doivent être …nis pour que ce coe¢ cient soit
dé…ni.
En particulier, une copule bivariée C est dé…nie sur le carré unité I2 par
Interprétations de la dé…nition
Les propriétés (i) et (ii) signi…ent que toute copule est une distribution
dont chaque distribution marginale dé…nit une loi uniforme unitaire: En e¤et,
d’après le lemme 1.1 et la remarque 1.2, on peut considérer une loi multivariée
F = (F1 ; :::; Fn ) telle que
Dans ce cas, la propriété i) vient du fait que, pour tout (x1 ; :::; xn ) 2 Rn ,
1
C(1; :::; 1; ui ; 1; :::; 1) = F +1; :::; +1; Fi (ui ) ; +1; :::; +1
1
= Fi Fi (ui ) = ui avec ui 2 Fi R
Si les lois marginales H1 ; ::::; Hm sont toutes continues, alors la copule C est
unique et dé…nie, pour tout (u1 ; :::; un ) 2 I n ; par
L’un des résultats essentiels dans la théorie des copules est le fait qu’elles
restent invariantes par transformations strictement croissantes des marges
(cf. [17]).
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE51
Dé…nition 2.5
On appelle copule de valeurs extrêmes, toute copule C est telle que, pour
tout t > 0
1
C(u1 ; :::; un ) = C t (ut1 ; :::; utn ):
Dé…nition 2.6
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE53
~ N et X
sont respectivement les réalisations de vecteurs marginaux X ~ N de
k k
X.
de X, on obtient :
x Nk ) =
HNk (~ lim H(x) et HNk x~N = lim H(x)
x
~N x
!~ k x x
~N !~
k Nk k Nk
où
x~N = xNk ;1 ; :::; xN ;k et x~N = xNk ;1 ; :::; xNk ;n k
k k k
(x1 x2 ) (y1 y2 ) < 0 i:e fx1 < x2 et y1 > y2 g ou fx1 > x2 et y1 < y2 g
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE54
n o
~=
De façon similaire, pour une Nk -partition X ~N ; X
X ~N ; 1 k < n; n 2
k k
+ ~ N > x~N =X
~N x~Nk ); x = (x1 ; :::; xn ) 2 Rn :
Nk ;X (x) = P (X k k k
Nk ;X Nk ;H Nk ;C :
et
+
En notant 1;1 (x1 ; x2 ) le degré de discordance dé…ni, pour tout (x1 ; x2 ) 2
R2 par
+
1;1 (x1 ; x2 ) = P (X1 > x1 =X2 x2 ) ;
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE55
il vient que
P (X1 > x1 ; X2 x2 ) P (X1 x1 ; X2 x2 )
P (X1 > x1 =X2 x2 ) = =1 :
P (X2 x2 ) P (X2 x2 )
~+ + + 1 1
Nk ;H = Nk ;H (Me;H ) = Nk ;H H1 1 ; :::; Hn 1 : (3.15)
2 2
1
~+ + 1 1 1 1
Nk ;H = Nk ;C (Me;X ) = 1 C ; :::; CHNk ; :::; ;
2 2 2 2
où CHNk est la copule associée à la distribution HNk du vecteur marginal
XNk :
Le Nk -degré médian de discordance inférieure est dé…ni similairement.
Remarquons que dans le cas bivarié, les quatre degrés de discordance dé-
…nis par la relation (2.14) sont liés les uns aux autres par des transformations
fonctionnelles. Par exemple, pour tout (x1 ; x2 ) 2 R2 avec H2 1 (x2 ) > 0; on
véri…e aisément que :
+ +
1;1 (x1 ; x2 ) =1 1 1;2 (x1 ; x2 ) H1 (x1 )H2 1 (x2 ):
ou simplement :
Exemple 2.3
Soit X = (X1 ; X2 ; X3 ) un vecteur aléatoire tridimensionnel. En considé-
rant N 2 = f1; 3g ; le N 2 -degré de discordance inférieure de X est donné, pour
(x1 ; x2 ; x3 ) 2 R3 ; par
+
N2 (x1 ; x2 ; x3 ) = [H1;3 (x1 ; x3 ) H(x1 ; x2 ; x3 )] H2 1 (x2 ) ; (x1 ; x2 ; x3 ) 2 R3 ;
On établit que
1 1 1
N2 ; ; = 0:0062:
2 2 2
1
Pour ce modèle, la probabilité que les marges X1 et X3 n’excèdent pas
2
1
pendant que la valeur prise par X2 excède est de 0:0062:
2
Proposition 2.5
Théorème 2.7
Soit H la fonction de distribution d’un couple de variables aléatoires (X1 ; X2 )
de copule C. Si le degré de discordance C (x1 ; x2 ) de C est croissante par rap-
port à la deuxième variable x 2 , alors H est max-id.
C (x1 + "; x2 ) = P (X1 > x1 =X2 x2 ) P [(x1 < X1 < x1 + ") =X2 x2 ]
C (x1 ; x2 ) C (x01 ; x2 ) 0
C (x1 ; x2 ) C (x01 ; x02 ) 0: (3.19)
Ainsi, en multipliant les deux membres de (2.20) par le terme H2 (x2 ) H2 (x02 )
0; on établit que H est TP2 ; i.e pour tout (x1 ; x2 ) 2 R2 et (x01 ; x02 ) 2 R2 véri-
…ant (2.3),
H(x1 ; x2 )H(x01 ; x02 ) H(x01 ; x2 )H(x1 ; x02 ): (3.21)
On conclut …nalement que H est max-in…niment divisible sur R2 car Joe a
établi (dans [13]) que la relation (2.20) implique (2.16) de la propriété ci-
dessus
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE59
Le théorème 2.8 suivant établit que la loi marginale d’une partition orien-
tée d’une distribution des VEM reste toujours une distribution des VEM.
Théorème 2.8
Supposons qu’il existe une distribution des VEM G qui décrit le compor-
tement asymptotique des maxima convenablement normalisés d’un vecteur
X. Alors, il existe une distribution des VEM k-dimensionnelle, G k et une
distribution VEM (n-k)-dimensionnelle, G n k décrivant respectivement les
comportements asymptotiques des maxima des vecteurs marginaux X̃ Nk et
X̃ Nk de X : De plus les distributions G k et G n k sont des marges de G.
tels que le bloc marginal de maxima MNk = (MNk ;1 ; :::; MNk ;k ) de XNk
converge vers GNk selon la relation (2.7). Ainsi, la distribution marginale
GNk est un modèle des VEM k-dimensionnelle.
Théorème 2.9
Soit G une distribution des VEM de degré de discordance : Alors, il
existe une fonction convexe D dé…nie sur le simplexe unitaire de Rm 1
telle
que
8 0 19
>
> >
>
>
>( m ) B C>>
< X B y1 (x1 ) ym 1 (xm 1 ) C =
(x) = 1 exp B
yi (xi ) D B m ; :::; m C (3.22)
C>
>
>
> i=1 @X X A>>
>
: yi (xi ) yi (xi ) >
;
i=1 i=1
1
xi i i
yi (xi ) = 1 + i ; i = 1; :::; m: (3.23)
i +
P (X1 x1 ; :::; Xn xn )
(x1 ; :::; xn ) = P (X1 > x1 =Xi xi ; 2 i n) = 1 :
P (X2 x2 ; :::; Xn xn )
G (x1 ; :::; xn )
(x1 ; :::; xn ) = 1
GN1 (x2 ; :::; xn )
yj
En posant tj = P
m dans la relation ci-dessus, on véri…e que
yi
i=1
X
m
0 < tj < 1; j = 1; ::; m et tj = 1:
i=1
Par suite,
0 1
B y2 ym 1 C t2 tm 1
AN 1 B
@Pm ;:::; Pm
C = AN
A 1
;:::;
1 t1 1 t1
yi yi
i=2 i=2
soit
( m )
G (x1 ; :::; xn ) X h i
= exp yi A (t1 ; : : : ; tm 1 ) + (1 t1 ) AN1 t2
1 t1
; : : : ; t1m t11
GN1 (x2 ; :::; xn )
( i=1 )
X m
= exp yi D (t1 ; : : : ; tm 1 ) ;
i=1
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE62
t2 tm 1
D(t) = A (t1 ; : : : ; tm 1 ) + (1 t1 ) AN1 ;:::; :
1 t1 1 t1
Corollaire 2.1
Corollaire 2.2
Soit C une copule extrême bivariée de degré de discordance C: Alors il
1
existe une fonction dé…nie de R+ dans 2
;1 telle que, pour tout (x1 ; x2 ) 2
2
R où yi (xi ) véri…ant (2.23)
y2 (x2 )
C (x1 ; x2 ) =1 exp [y1 (x1 ) + y2 (x2 )] DC : (3.24)
y1 (x1 )
1
et les Hi désignent les inverses généralisées des Hi , les marges de H: Or
d’autre part, d’après le théorème de Sklar, on a
Par suite, il vient que toute distribution bivariée H dans la relation (2.24) de
marges Hi (xi ) est exprimée par
y1 (x1 )
H(x1 ; x2 ) = exp [y1 (x1 ) + y2 (x2 )] AC ; (x1 ; x2 ) 2 R2
y1(x1 ) + y2 (x2 )
où AC est la fonction de dépendance de Pickands de C. Finalement, le théo-
1
rème 2.9 implique l’existence d’une fonction DC dé…nie de R+ dans ;1
2
telle que
1 t
DC (t) = AC ; t > 0:
1+t 1+t
Exemple 2.4
Soit C 1; 2 la copule associée à la distribution extrême mixte de Tajvidi
( [22]) telle que
n 1 o
C 1; 2 (u1 ; u2 ) = u1 u2 exp 2 u~1 1
+ u~2 1 1 ; (u1 ; u2 ) 2 I 2
Corollaire 2.3
Soit C la copule associée à une distribution extrême bivariée continue
H, de fonction de discordance B C . Alors la copule C véri…e les propriétés
suivantes :
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE65
ln u2
i) C(u1 ; u2 ) = u2 exp ln (u1 u2 ) DC ; 0 < u1 1; u2 2 I
ln u1
~ est une distribution bivariée telle que H
ii) Si H ~ 2 M DA (H) ; alors C
CH~
et
C(u1 ; u2 ) = H H1 1 (u1 ); H2 1 (u2 ; (u1 ; u2 ) 2 I 2
où h i
i
u~i = Hi 1 (ui ) = i 1 ( ln ui ) i
; i = 1; 2:
i
Notons par ailleurs que les relations (2.22) et (2.24) signi…ent en particu-
lier que la fonction de discordance est indépendante du choix de la distribu-
tion marginale. Cela nous autorise donc à choisir une loi quelconque parmi
les types extrêmes : 1 ; et 1 . Par exemple un choix arbitraire
i i
Hi i:e i = ln ui ; i = 0 et i =1
conduit à
C(u1 ; u2 ) = C( ln u1 ; ln u2 ):
C(u1 ; u2 ) = lim H n H1 1 (~
u1 ) ; H2 1 (~
u2 ) ; (u1 ; u2 ) 2 I 2 :
n !+1
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE66
~n
lim H 1;n x1 + 1;n ; 2;n x2 + 2;n = H(x1 ; x2 ):
n !+1
n
lim CH ~
~ H1 n;1 x1 + n;1
~2
;H n;2 x2 + n;2 = C [H1 (x1 ); H2 (x2 )]
n !+1
Par suite,
~n
lim CH~ H n;1 x1 + n;1
~n
;H n;2 x2 + n;2 = CH [H1 (x1 ); H2 (x2 )]
1 2
n !+1
S = lim P (X1 > t=X2 > t) = lim P (H1 (X1 ) > u=H2 (X2 ) > u) :
t!+1 u!1
I = lim P (X1 < t=X2 < t) = lim+ P (H1 (X1 ) < u=H2 (X2 ) < u) :
t! 1 u!0
On peut remarquer que ces valeurs sont en réalité les valeurs extrêmes de
~C (par rapport au domaine du paramètre ): Et d’autre part, on véri…e
n
aisément que pour un modèle
n à n paramètres fCo ; = ( 1 ; :::; n )g, il existe 2
valeurs extrêmes possibles ~ ; j = 1; :::; 2n de ~C : On peut alors estimer
C ;j
la moyenne de ces valeurs extrêmes d’où la dé…nition suivante.
Dé…nition 2.10
Soit fC ; = ( 1 ; :::; n )g une copule extrême bivariée à n paramètres, de
discordance médiane ~C . On dé…nit la valeur moyenne de la discordance
médiane de C comme la moyenne arithmétique des valeurs extrêmes ~ : C ;j
On la notant C cette valeur; on a
j=2n
X
~
C ;j
j=1
C = :
2n
Exemple 2.5
Considérons le modèle mixte paramétrique proposé par Tajvidi ( [22]) dé-
…ni, pour tout (u1 ; u2 ) 2 I 2 ; par
1
1 1 1
C 1; 2 (u1 ; u2 ) = u1 u2 exp 2 (log u1 ) + (log u2 ) ;
22 = 4 valeurs extrêmes possibles qui sont : ~0;0 ; ~0;1 ; ~+1;0 et ~+1;1 pour la
discordance médiane. Par suite la valeur moyenne est donné par
~0;0 + ~0;1 + ~+1;0 + ~+1;1
C = = 0:75:
4
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE70
Conclusion
t 1 2 2 log t 2+ 2 log t
D (t) = 1+t 2 2
t
Extension symétrique du modèle logistique de Tajvidi
C 1; 2 (u1 ; u2 ) =
h 2
i1 1
C = 0:1875
avec 0 < 2 2( 1 1); 2 2; voir Tajvidi ([22])
1
1
1
D 1; 2 (t) = 1+t
t 1
+1+ 2t 2
où = ( 1; 2; 3)avec 1 0; 2 1; 3 1 C = 0:125
h i 1
1 3 3
D 1; 2; 3 (t) = 1+t
1 1 + 2 t+
3
1 + ( 2 t)
modèle introduit par Tawn (voir [24])
Modèle asymétrique, négatif et logistique (voir [13])
( )
h i 1
1
C (u1 ; u2 ) = u1 u2 exp ( 1 u~1 ) 3 + ( 2 u~2 ) 3 3 ~C = 1
3+ 3 3
2 1 2
1 u1 ~
où q = ; 2 > 0; 1 > 0 et Be(q; 1 ; 2 ) C = C (q)
1 u 1 + 2 u2
étant la loi Beta calculée au point q( 1 ; 2 ).
h i
t (1 B(q; 1 +1; 2 ))
D 1 ; 2 (t) = 1+t t
+ B(q; 1 ; 1 + 2 ) 1
Modèle bilogistique et negatif (voir [16])
C 1; 2 (u1 ; u2 ) = u1 u2 exp u~1 q 1+ 1 + u~2 (1 q)1+ 2
~C = 1 2q
1+ 1 +(1 q)1+ 2 1
1; 2 > 0 ;q = q(u1 ; u2 ; 1; 2 ) étant les racines de l’
2 C = 0:75
équation (1 + 1 )u1 q
1
(1 + 2 )u2 (1 q) =0
1
D 1; 2 (t) = 1 q 1+ 1
t(1 q)1+ 2
1+t
Tab. 3.2 – Discordance des modèles logistiques de copules bivariées et ex-
tensions (suite)
CHAPITRE 3. DÉPENDANCE CONDITIONNELLE EXTRÊME MULTIVARIÉE73
C ~C = 1 2( 2 1):2 1
2 (u1 u2 ) = u1 u2 exp
2
1; 1
u
~1 1 +~
u 1 1
2
1 C = 0:75
1
D 1; 2 (t) = 1+t
1 2 1+t 1 1 ; 1 0 ,0 < 2 1
avec 0; +3 0; + 1 et +2 1 C = 0:79
1 1 2 1 2 1 2
1 2
D 1; 2 (t) = (1+t)2
(1 + t) (1 1 2) + 1 +
1+t
Tab. 3.3 –Fonction de discordance des modèles mixtes de copules bivariées
et extensions
Chapitre 4
4.1 Introduction
Dans l’approche des blocs des maxima, les distributions des valeurs ex-
trêmes multivariées résument le comportement asymptotique des lois des vec-
teurs des maxima convenablement normalisés et dont les composantes uni-
variées sont supposées i.i.d. Cependant, il faut noter que le choix de la taille
des blocs est très critique dans l’application de cette approche à un ensemble
de données, car l’on reste partagé entre le risque de l’existence d’un biais et
celui d’obtenir une variance assez importante. En e¤et, le choix d’une taille
très petite pour les composantes viole l’hypothèse selon laquelle les modèles
des extrêmes s’obtiennent par approximation asymptotique des maxima nor-
malisés, conduisant ainsi à la présence d’un biais dans l’estimation. D’autre
part, considérer des composantes de très grande taille procure peu de valeurs
maximales et donc conduit à une grande variance. Par ailleurs, l’hypothèse
74
CHAPITRE 4. APPLICATIONS AUX MODÈLES GÉNÉRALISÉS DE PARETO75
pourrait se demander s’il existe une autre approche qui permet de prendre en
compte beaucoup plus de données pour assurer beaucoup plus de précision
dans l’estimation des paramètres. C’est à cette question que l’approche des
modèles issus de cette approche sont sensibles aux perturbations des données.
F (y + u) F (u)
Fu (y) = P (X u < y=X > u) = ; (4.1)
1 F (u)
avec 0 y xF u où xF est le point terminal droit de F.
F (x) F (u)
Fu (x) = P (X < x=X > u) = pour x u:
1 F (u)
CHAPITRE 4. APPLICATIONS AUX MODÈLES GÉNÉRALISÉS DE PARETO76
Si = 0, loi exponentielle
1 ( nx+ n)
n f1 ( nx + n )g = ! exp ( x)
1 ( n)
d’où
n
n exp ( x)
lim ( nx + n) = lim 1 = exp ( exp ( x))
n !+1 n !+1 n
c’est à dire que la loi limite du maximum est la loi de Gumbel. En terme
1
de loi des excès, en posant (u) = alors on obtient
u
(u + (u) z) (u)
!1 exp ( z) lorsque u ! +1:
1 (u)
Remarque 3.1
Le problème essentiel que l’on rencontre dans l’étude des modèles de Pa-
reto dans un contexte multivarié est le sens à donner à la notion d’excès
au delà d’un seuil. Quels types d’événements peuvent être caractérisés d’ex-
cédentaires ? S’agirait-il d’excès au delà d’un vecteur u2 Rm dès qu’une
composante X j devient assez grand, si k des m composantes deviennent très
grandes simultanément ou une combinaison linéaire X; 6= 0; excède un
certain seuil …xé et assez élevé ? Ou peut-être le vecteur X atteint une région
assez éloignée de l’origine.
Dans cette section nous rappelons les principales propriétés d’une loi mul-
tivariée de Pareto. Une caractérisation est ensuite faite via l’approche condi-
tionnelle de la discordance.
CHAPITRE 4. APPLICATIONS AUX MODÈLES GÉNÉRALISÉS DE PARETO79
i) Soit G est une distribution des VEM, m-dimensionnelle avec 0 < G(0) <
1. Si F 2 M DA(G); alors il existe une courbe continue et croissante
u avec
lim F [u(t)] = 1
t !+1
lim F [u(t)] = 1
t !+1
Théorème 3.3
Pour toute distribution MGP m-dimensionnelle H, il existe une fonction
convexe AH dé…nie sur le simplexe Sm 1 telle que
0 1 9
( m ) >
X B C >
>
>
>
B y1 (x1 ) 1) C =
H(x) = 1 + yi (xi ) AH B X
m ; : : : ; ym
Xm
1 (xm
C
@ A (4.4)
i=1 yi (xi ) yi (xi ) >
>
>
>
i=1 i=1
>
;
m
= 1 + log G(x) pour tout x = (x1 ; : : : ; xm ) 2 R
Dans les sections 2.2 et 2.3 ci-dessus, nous avons rappelé les principaux
résultats sur la caractérisation des lois extrêmes généralisés par la fonction
de Pickands et par la fonction copule. Dans cette section, nous donnons la
caractérisation des distributions MGPs par la discordance, via la fonction de
queue stable et la mesure exponentielle. Rappelons que, d’après la remarque
2.4, le choix du type de marge univariée n’a¤ecte pas la caractérisation de
la distribution. Pour ce faire, suivons Michel (dans [15]) en considérant des
marges unitaires de Fréchet telles que
1
Fj (yj ) = exp ; j = 1; :::; m:
xj
Dé…nition 3.2
avec
Z
qj
V (y1 (x1 ) ; : : : ; ym (xm )) = max dS (q1 ; :::; qm ) ;
Tp xj
véri…ant la contrainte
Z
qj dS (qj1 ) = 1 pour j = 1; :::; m:
Tp
CHAPITRE 4. APPLICATIONS AUX MODÈLES GÉNÉRALISÉS DE PARETO82
Dans le cas bivarié et avec des marges unitaires de Fréchet, cette mesure
exponentielle est liée à la dépendance de Pickands par la relation :
x2 V (x1 ; x2 )
AH = où xi > 0:
x1 + x2 x1 1 + x2 1
Exemple 3.2
Pour le modèle logistique asymétrique proposé par Tawn ( [24]) avec des
marges unitaires de Fréchet, la mesure exponentielle correspondante est don-
née par :
" #1
3 3 3
1 1 1 2 1 2
V (x1 ; x2 ) = + + + ;
x1 x2 x1 x2
1 1
H (x1 ; :::; xm ) = 1 V ; :::; : (4.7)
x1 xm
où
1 1
V~ (x1 ; :::; xm ) = V ; :::; :
x1 xm
xi
En posant ti = P
m dans la relation précédente on obtient :
xi
i=1
! (m+1)
@ mV X
m
(t1 ; :::; tm ) = ti l (t1 ; :::; tm 1 ) (4.9)
@x1 :::@xm i=1
Par suite, la relation (3.6) est obtenue en remplaçant (3.9) dans (3.8)
CHAPITRE 4. APPLICATIONS AUX MODÈLES GÉNÉRALISÉS DE PARETO84
Comme dans l’approche des maxima, le modèle logistique est le plus im-
portant dans la famille de distributions multivariées de Pareto. Les distri-
butions de cette famille dérivent le plus souvent d’extensions symétriques,
imbriquées ou asymétriques du modèle logistique. Dans cette section, nous
utilisons la fonction de discordance pour redé…nir et caractériser chacune de
ces trois sous-familles. La fonction de discordance est construite, en particu-
lier, pour les familles usuelles dans un contexte tridimensionnel.
Théorème 3.5
2 ! 31 "m 2 #1
X1
m X1
m X
D (t)= 4 ti + 1 ti 5 + (1 t1 ) ti
1 t1
+ 1 tm 1
1 t1
i=1 i=1 i=2
(4.11)
CHAPITRE 4. APPLICATIONS AUX MODÈLES GÉNÉRALISÉS DE PARETO85
n 1 o
H (x1 ; x2 ; x3 ) = 1 + y1 (x1 ) + y2 (x2 ) + y3 (x3 )
h i1 h i1
D (t1 ; t2 ) = t1 + t2 + (1 t1 t2 ) t2 + (1 t2 ) :
CHAPITRE 4. APPLICATIONS AUX MODÈLES GÉNÉRALISÉS DE PARETO86
H 1; 2; 3 (x) = 1 +
n h i
1 y1 1 y1
[y1 + y2 + y3 ] + y1 1
+ 2
1
log y2
+ 3
+ 3
2
log y3
1 1 y2 1 2 y2
+y2 + log + + log
1 2 y1 2 2 y3
1 3 y3 1 2 y3
+y3 + log + + log
3 2 y1 2 2 y2
Z y3
1 2 t 1 3 t
+ 2 + log ; + log ; dt ;
0 2 2 y1 3 2 y2
h i
1 t1 1 t1
D (t1 ; t2 ) = 2 t1 1
+ 1
2
log t2
+ 3
+ 2
3
log 1 t1 t2
1 1 t2 1 2 t2
t2 + log + + log 1 t1 t2
1 2 t1 2 2
1 1 t1 t2 1 1 t1 t2
(1 t1 t2 ) + 3
2
log t1
+ 2
+ 2
2
log t2
3
1 2 t2 1 1 t2
t2 + log (1 t2 ) 2
2
log t2
2 2 1 t2 2
+R(t1 ; t2 ; ) où R est un reste intégral.
kxk 1; 2
= k(x1 ; x2 ; x3 )k 1; 2
= k(x1 ; x2 )k 1 ; x3
2
CHAPITRE 4. APPLICATIONS AUX MODÈLES GÉNÉRALISÉS DE PARETO88
où k:k est la norme usuelle avec la convention que la valeur absolue est
considérée si l’indice n’est pas précisé.
Pour cette famille, la discordance associée est modélisée, pour tout (t1 ; t2 ) 2
S2 ; par
1
2 2
2
D 1; 2 (t1 ; t2 ) = t11 + t21 1 + (1 t1 t2 ) + t2 1;
1
2 2
t2 + (1 t1 t2 ) 2 :
CHAPITRE 4. APPLICATIONS AUX MODÈLES GÉNÉRALISÉS DE PARETO91
Conclusion
Conclusion générale
Cette thèse avait pour objectif d’apporter des éléments de réponse es-
sentiellement à une question relative à la modélisation des valeurs extrêmes
multivariées : comment construire une structure qui modélise la dépendance
multivariée conjointe des modèles extrêmes univariés, laquelle structure pren-
drait en compte les di¤érentes contraintes que subissent les supports de ceux-
ci ? Etant donné la relation très étroite entre les modèles extrêmes multivariés
et ceux généralisés de Pareto, alors il s’en suit la question suivante : quels
sont les e¤ets d’une telle structure sur la caractérisation de lois multivariées
des excès ?
94
CHAPITRE 5. CONCLUSION GÉNÉRALE 95
Annexe
Annexe A
La théorie des valeurs extrêmes utilise beaucoup d’outils tels que les lois
alpha-stables, les fonctions à variation lente ou les fonctions à variation ré-
gulière. Pour une meilleure compréhension de nos résultats, il nous a paru
nécessaire de rappeler succinctement ces notions et de donner leurs propriétés
fondamentales.
96
ANNEXE A. ENVIRONNEMENT DES EXTRÊMES UNIVARIÉS 97
Une des particularités de ces lois est le fait que leur fonction caractéris-
tique s’exprime comme une fonction puissance d’une autre fonction caracté-
ristique.
Proposition A.1
Une distribution F est indé…niment divisible si, pour tout > 0, F est
aussi une distribution.
Les familles des lois indé…niment divisibles sont liées à celles des lois
stables.
Dé…nition A.2
loi Sn n
Sk = nX + n i.e lim P x = P (X x) :
n !+1 n
Z
itX
X (t) = E e = eitx f (x) dx: (A.1)
R
où 2 R; > 0; 2 [0; 2] et 2 [ 1; 1]
On appelle les lois stables des lois stables car le paramètre déter-
mine l’essentiel de leurs propriétés. Leur moment d’ordre 2 est …ni dès que
2 [0; 2] : De la relation (A.1), on peut retrouver la fonction densité f par
transformation de Fourrier
Z
1
f (x) = eitx X (t; ; ; ; ) dt; x 2 R:
2 R
Cas particuliers
1
Si = 2
et = 1; alors on obtient la loi de Lévy, de densité
r
1
f (x) = exp ; x > 0 i.e Levy ( ; ) S 1 ( ; 1; ) :
2 (x )3=2 2 (x ) 2
En dehors de ces trois lois, les autres lois stables n’ont pas une forme
fermée, leur fonction densité n’ayant pas d’expression analytique.
Les fonctions à variation régulière sont une sous-famille des lois à queues
épaisses.
Dé…nition A.3
Soit F une fonction mesurable et positive. On dit que F est à variation
régulière (en l’in…ni) d’indice ; 2 R et on note F 2 V R( ); si :
Cas particuliers
Le théorème suivant est l’un des résultats les plus appliqués dans l’étude
des fonctions à variation régulière.
Soit L une fonction à variation lente et localement bornée sur [xo ; +1[
pour x0 0: Alors,
Rx x +1
pour > 1; lim x0
t L (t) dt =
L (x) ;
x !+1 +1
R +1 x +1
pour < 1; lim x t L (t) dt = L (x) :
x !+1 +1
ANNEXE A. ENVIRONNEMENT DES EXTRÊMES UNIVARIÉS 103
1
Rx L(t)
Le résultat reste toujours vrai pour = 1 car lim dt =
x !+1 L(x) x0 t
Rx
+1 où x0 L(t)
t
dt est une fonction à variation lente.
Théorème A.4
On dit qu’une variable aléatoire X, de fonction de distribution F et de
transformée de Laplace LF ; est à variation régulière d’indice ; 0; si
l’une des conditions équivalentes suivantes est véri…ée.
La copule indépendante
La copule minimale
104
ANNEXE B. QUELQUES MODÈLES EXTRÊMES MULTIVARIÉS 105
La copule maximale
La copule Gaussienne
1 1
CR;n (u1 ; :::; un ) = R;n (u1 ); :::; (un ) ; (u1 ; :::; un ) 2 I n
1
où est la fonction inverse de la loi normale standard N(0,1).
où
v+1
Z x
2 1 dt
T (x) = v p v+1 ;
1 v 2
t 2
2 1+
v
et
v+n
Z x1 Z xn
2 1 dt1 :::dtn
TR;v (x1 ; :::; xn ) = ::: v n p v+n :
1 1 (v ) 2 detR tT Rt 2
2 1+
v
v+n
Y T RY 2
v+n v n 1 1+
2 2 v
c (u1 ; :::; un ) = v+1 n
p v+1 ;
2
detR n
Yi2 2
1+ v
i=1
ANNEXE B. QUELQUES MODÈLES EXTRÊMES MULTIVARIÉS 107
1
où Y = (Yi ) ; i = 1; ::; n avec Yi = T (ui ) :
1 (k)
8t 0 et 8k 0; ( 1)k (t) 0:
1 (k) 1
où est la dérivée d’ordre k de :
tout (u1 ; u2 ) 2 I 2 ;
n 1 o
C (u1 ; u2 ) = exp ( ln u1 ) + ( ln u2 ) ; (u1 ; u2 ) 2 I 2
2. Normalisation : 1 (X1 ; X2 ) 1
(
-1 si et seulement si X 1 et X 2 sont co-monotones.
3. (X1 ; X2 ) =
1 si et seulement si X 1 et X 2 sont contre-monotones.
4. Soit T : R ! R, une transformation strictement monotone sur l’en-
semble des valeurs de X 1 ; alors
(
(X1 ; X2 ) si T est croissante.
(T (X1 ) ; X2 ) =
(X1 ; X2 ) si T est décroissante.
2
Cov (X1 ; X2 ) X2 min E [(X2 (aX1 + b))]
(X1 ; X2 ) = p = 2
V (X1 ) V (X2 ) X2
S
(X; Y ) = 3P [(X1 ; Y1 )(X2 ; Y3 ) > 0] P [(X1 ; Y1 )(X2 ; Y3 ) < 0]
S
(X; Y ) = (FX (X) ; FY (Y ))
Théorème B.1
Dans cette section nous donnons quelques familles de copules des valeurs
extrêmes multivariées. Les fonctions de dépendance de Pickands sont don-
nées.
ANNEXE B. QUELQUES MODÈLES EXTRÊMES MULTIVARIÉS 112
h i 1
négative 1
1
A 1; 2 (t) = 1 t 1
+ (1 t) 1
t 1 2
+ (1 t) 1 2 2
avec 1 1; 2 >0
G (x1 ; x2 ) =
n h io
1 x1 1 x2
exp x1 + 2
log x2
+ x2 + 2
log x1
Gauss 1
1 t 1 1 t
A (t) = t + 2
log 1 t
+ (1 t) + 2
log t
avec 0:
G 1; 2; 3 (x1 ; x2 ) =
( )
h i1
3
Tawn exp (1 2 ) x1 + (1 1 ) x2 + ( 1 x1 ) 3 + ( 2 x2 ) 3
;
h i1
3 3 3
A 1; 2; 3 (t) = 1 ( 1 2) t 1 + 1
3
(1 t) + ( 2 t)
( " #)
1 1
G 1; 2 (x1 ; x2 ) = exp x1
+ x2
2
1 ;
Tajvidi x11 +x21 1
1
A 1; 2 (t) = 1 t + (1 t) avec 1 1; 2 2 [0; 1]
i=1 i<j
)
X
m X
k
+ ( 1)k+1 B1:::k (xi ; :::; xk ; 12 ; :::; 1k ;
k=3 i=1
X1
m X1
m im
7
+ @ti im
+ 1 ti A 5 + R(t1 ; :::; tm 1 ; 12 ; :::; 1m );
i=1 i=1
(
X
m X n
1 ij xi
G (x) = exp xi + xi + xj xi ij
+ 2
log xj
i=1 1 i<j m
9
o X Z xik =
xj
xj 1
+ ij
2
log xi
+ ( 1)jSj+1 k 1 log x
xi
+ 2
2
; dx ;
ij
0 ij ;ik ;
S:jSj 3
!
X1
m X1
m
A (t) = 1 ti 1 ti
i=1 i=1
1
X2
m
ij tj ij
1 ij ti 1
+ ti + tj ti + 2
log tj
tj + log ti
i=1;i<j
ij ij 2
0 0 0 11
X1
m
+ @ti + tm ti @ 1
+ im
log @ ti AA
im 2 mP1
i=1 1 tk
k=1
0 0 P1
m 111
! 1 tk
X1
m
B B CCC
1 tk B 1
+ ij
log B k=1 CCC + R(t1 ; :::; tm 1 ; 12 ; :::; 1m );
@ ij 2 @ ti AAA
k=1
[1] Beirlant, J., Goegebeur, Y., Segers, J., and Teugels, J. (2005). Statistics
of Extremes : theory and application -Wiley, Chichester, England.
[2] Carreau J. (2004). Estimation de densité conditionnelle lorsque l’hyp-
pothèse de normalité est insatisfaisante - thèse de doctorat
[3] Clauss, P. (2008). Théorie des copules - Eléments de cours sur les copules
multivariées- ENSAI
[4] Coles, S. (2001). An introduction to statistical modeling of extreme
values- Springer-Verlag (London), 2001.
[5] Coles, S., Tawn, J. (1991). Modelling Extreme Multivariate Events -
Journal of the Royal Statistical Society 53, pp. 377-392.
[6] Degen M. (2006). On Multivariate Generalised Pareto Distributions and
High Risk Scenarios - thesis, Department of Mathematics, ETH Zü-
rich.
[7] Fougères, A., L (1996). Estimation non paramétrique de densités unimo-
dales et de fonctions de dépendance- thèses doctorat de l’Université
Paul Sabatier de Toulouse.
[8] Frahm et al., (2005). Estimating the tail dependence coe¢ cient- Insu-
rance : Mathematics and Economics 37, 80-100.
[9] Galambos, J. (1987). The Asymptotic Theory of Extreme Order
Statistics-2nd ed. Krieger, Malabar.
[10] Genest, C., Mackay, J. (1993). Copules archimédiennes et familles de lois
bidimensionnelles dont les marges sont données - Canadian Journal
117
BIBLIOGRAPHIE 118
4 février 2017
1
Dédicace
i
Remerciements
Le moment est venu pour moi d’exprimer toute ma gratitude au Pr Blaise SOME
et au Dr Longin SOME, Maître de Conférences de l’Université de Ouaga 1- Professeur
Joseph Ki-Zerbo, à qui j’adresse mon profond respect. Ils m’ont accueilli au sein du
Laboratoire L.A.N.I.BIO. (Laboratoire d’Analyse Numérique d’Informatique et de
Biomathématiques).
Je remercie mon Directeur de thèse, Dr Diakarya BARRO Maître de Conférences
à l’Université Ouaga 2, pour m’avoir donner ce thème et accepter de m’encadrer.
Je le remercie pour son enthousiasme et son soutien sans faille au cours de nos
travaux. Malgré ses occupations, il a toujours été disponible pour m’inculquer sa
grande rigueur.
Je remercie les rapporteurs et les membres du Jury pour avoir accepté d’apprécier
ce travail. Leurs critiques et suggestions seront d’un grand apport dans l’amélioration
de ce travail.
Je remercie l’Union Économique et Monétaire Ouest Africaine (UEMOA) pour
leurs soutiens à notre laboratoire (LANIBIO).
Je remercie l’État malien qui, à travers la Faculté des Sciences Économique et
de Gestion (F ESG) et le Programme de Formation de Formateur (P F F ), m’avoir
soutenu financièrement.
Je remercie la Direction Générale de la Météorologie du Burkina Faso pour avoir
mis à ma disposition des données.
Je remercie aussi Dr Mamadou Souleymane SANGARE, Maître de Conférences
à L’École Normale Supérieure de Bamako et Dr Youssouf PARE, Maître de confé-
rences de l’Université de Ouaga 1- Professeur Joseph Ki-Zerbo, pour leurs conseils
et encouragements.
Je remercie tous mes camarades Burkinabé, pour leur accueil fraternel et leur
collaboration, en particulier Yacouba SIMPORE qui m’a ouvert ses portes pendant
mes séjours à Ouagadougou.
Qu’il me soit permis de remercier toute ma famille pour leurs amour et encourage-
ment, particulièrement mon épouse Wassa KEITA et mes enfants pour leur patience
pendant mes absences. Je remercie également mes frères maliens avec qui j’ai par-
tagé mes moments de joie et de tristesses durant les quelques mois. En particulier, je
remercie Lassana COULIBALY et Sinaly DISSA grâce à qui j’ai connu le LANIBIO.
ii
Résumé
iii
Abstract
iv
Table des matières
Dédicace i
Remerciements ii
Résumé iii
Introduction Générale 1
v
TABLE DES MATIÈRES vi
Annexes 91
Bibliographie 100
Table des figures
vii
Table des figures viii
4.12 Évolution des paramètres estimés des distributions GEV en fonction des
mois, dans les différentes stations. . . . . . . . . . . . . . . . . . . . . . . 80
4.13 Évolution des paramètres d’échelle estimés des distributions GEV en
fonction des mois, dans les différentes stations. . . . . . . . . . . . . . . . 81
4.14 Évolution des niveaux de retour thermique dans la zone Sahélienne . . . 82
4.15 Évolution des niveaux de retour thermique dans zone Soudano-sahélienne 82
4.16 Évolution des niveaux de retour thermique dans la zone Soudanienne . . 83
4.17 Dépendance spatiale par paire de stations . . . . . . . . . . . . . . . . . 84
4.18 Densités marginales et les période de retour marginales du pair de stations{B, D} . 86
4.19 Estimation des courbes de dépendance bivariées de la pair de station {B, D} 86
4.20 Dépendance bivariée thermique de la paire de stations {Bobo-Fada} . . . 94
4.21 Dépendance bivariée thermique de la paire de stations {Bobo-Ouaga}. . 94
4.22 Dépendance bivariée thermique de la paire de stations {Po-Ouaga}. . . 95
4.23 Dépendance bivariée thermique de la paire de stations {Dori-Fada}. . . 95
4.24 Dépendance bivariée thermique de la paire de stations {Dori-Ouaga}. . . 96
4.25 Dépendance bivariée thermique de la paire de stations {Dori-Po}. . . . . 96
4.26 Dépendance bivariée thermique de la paire de stations {Ouaga-Fada}. . 97
4.27 Dépendance bivariée thermique de la paire de stations {Po-Fada}. . . . 97
4.28 Dépendance bivariée thermique de la paire de stations {Bobo-Dori}. . . 98
Liste des tableaux
4.1 Les paramètres des distributions GEV et leurs erreurs standard corres-
pondante relativement aux sites . . . . . . . . . . . . . . . . . . . . . . 73
4.2 Résumé des statistiques de Kolmogorov des ajustements GEV . . . . . . 73
4.3 Résumé des températures terminales annuelles des stations . . . . . . . 76
4.4 Coefficients des polynômes d’interpolation des paramètres de localisation 79
4.5 Résumé du test de Kolmogorov des paramètres de localisation . . . . . . 79
4.6 Coefficients des polynômes d’interpolation des paramètres d’échelle . . . 80
4.7 Résumé du test de Kolmogorov des polynômes d’interpolation des para-
mètres d’échelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
4.8 Informations des distributions bivariées paramétriques relativement au
pair de site Bobo-Dori . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
4.9 Résumé des coefficients de dépendance par pairs de stations . . . . . . . 87
ix
Sigles, Abréviations et Notations
Sigles Significations
cc : Changement climatique
GIEC : Groupes d’Experts Intergouvernementaux sur l’Évolution du Climat
CILSS : Comité permanent Inter-États de Lutte Contre la Sécheresse dans le Sahel
GES : Gaz à Effet de Serre
IPCC : Intergovernmental Panel on Change climate
AIC : Akaike Information criterion
GEVD : General Extreme Value
EVT : Extreme Value Theory
GPD : General Pareto Distribution
POT : Peack Over Threshold
i.e : C’est à dire
MDA : Domaine d’attraction
iid : identiquement et indépendamment distribué
v.a : variable aléatoire
FDST : Fonction de dépendance spatio-temporellle
x
Liste des tableaux xi
Notations
xF et x : F
points terminaux (inférieur et supérieur)
x: réalisation de la v.a X
X : Variable aléatoire
{Xt , t ∈ T } : processus aléatoire indexé par t
L (., x) : log-vraisemblance conditionnelle aux données observées x
F (.) : Fonction de répartition
Fu (.) : Fonction de répartition des dépassements d’un seuil u
F̂ (.) : Fonction de répartition estimé
F̃ (.) : Fonction de répartition empirique
F −1 (.) : Fonction de répartition inverse
F̄ (.) : Fonction de survie
F ← (.) : inverse généralisé de la fonction de répartition
ξ (.) : paramètre de forme GEV
σ (.) : paramètre d’échelle
µ (.) : Paramètre de localisation
Γ (.) : Fonction Gamma
Λ (.) : Fonction de répartition de Gumbel
ψ (.) : Fonction de répartition de Weibull
Φ (.) : Fonction de répartition de Fréchet
A (.) : Fonction de dépendance de Pickands
θ : Coefficient extrémal
U
λ : Coefficient de dépendance à droite
λL : Coefficient de dépendance à gauche
cov (., .) : Covariance
Bθ (.) Fonction de dépendance Spatio-temporelle
Introduction Générale
1
Figure 0.1 – Représentation schématique de l’effet possible du changement clima-
tique sur les températures extrêmes (GIEC 2012)
2
cadre de la modélisation de la dépendance multivariée, les copules n’en restent pas
moindre. Elles ont été introduites suite à des insuffisances observées de certaines
mesures de dépendance classiques.
Hormis l’introduction et la conclusion générales, cette étude s’articule autour de
quatre chapitres.
• Le premier chapitre présente notre cadre de travail. Dans le contexte spatial,
nous exposons un aperçu général de la théorie des valeurs extrêmes. En plus, quelques
outils de la statistique spatiale y sont présentés.
• Le chapitre 2 est un aperçu sur les copules. Quelques propriétés des copules y
sont exposées. Un accent particulier est mis sur les copules Archimax.
• Le chapitre 3 est consacré à des modèles de valeurs extrêmes multivariés dans
le contexte spatio-temporel.
• Le chapitre 4 est une modélisation des occurrences, à partir de données ex-
trêmes réelles thermiques.
3
Chapitre 1
4
CHAPITRE 1. CADRE ET OUTILS DE TRAVAIL 5
La loi d’un champ aléatoire est totalement caractérisé par les distributions finies-
dimensionnelles. Pour toutes valeurs de n et tout ensemble de n−uplets on a : ∀si ∈
Rd , i = 1, . . . , n;
Notons que, si ces deux conditions ne sont pas vérifiées, alors il ne peut pas exister
de champs aléatoire sur Rd ayant les lois Fs1 ,...,sn−1 comme lois fini-dimensionnelles.
En particulier pour tous les sites s ∈ S, le vecteur aléatoire (Z (s1 ) , . . . , Z (sk ))
est caractérisé par une fonction de répartition qui dépend de k arguments :
L’ensemble des fonctions de répartition, pour tous les entiers k et tous les choix
possibles de (z1 , . . . , zn ) ∈ Rn , constitue la loi spatiale de le fonction aléatoire.
En fait, chaque site s est déterminé par ses coordonnées géographiques. L’ espace
d’étude D peut être
• la droite réelle si d = 1,
• un plan si d = 2
• un espace si la dimension est supérieure ou égale à trois, on a un champ aléatoire
lorsque d ≥ 2.
Dans notre contexte, on suppose que l’ensemble des sites S est fini et la valeur
régionalisée z (s) est une réalisation du champs aléatoire Z (s). En outre, le champ
aléatoire sera supposé stationnaire au second ordre, c’est à dire que la moyenne de
Z est constate et sa covariance c est invariante par translation :
Nous rappelons que la fonction moment d’ordre k ∈ N∗ (s’il existe) du champ aléa-
toire Z est défini sur Rd dans R par :
ˆ
∀s ∈ R , mk (s) = E Z (s) =
d k
xk dFs (x) , k ∈ N∗ .
R
n o
soit identique à celle de {Z (s) ; s ∈ S} avec S = si ∈ Rd ; 1 ≤ i ≤ n, n ∈ N − {0, 1} .
CHAPITRE 1. CADRE ET OUTILS DE TRAVAIL 7
Par conséquent, la fonction FMsj est dégénérée lorsque n → +∞. L’issue probante
reste un modèle estimé uniquement à partir des données extrêmes. Pour une telle
étude asymptotique, il est donc intéressant de passer par une normalisation linéaire
de la variable Mn,sj , j ≥ 1.n o n o
Pour tout j ≥ 1, soit an,sj > 0, n ≥ 1 et bn,sj , n ≥ 1 deux suites de norma-
lisation. La distribution du maximum normalisé, Mn,sj − bn,sj /an,sj , est donnée
par,
Mn,sj − bn,sj n o
P ≤x = P Mn,sj ≤ an,sj x + bn,sj = Fsnj an,sj x + bn,sj (1.1)
.
an,sj
Démonstration. Pour un site fixé sj , j ≥ 1, supposons que Fsj ∈ M DA Hsj .
n o n o
Par conséquent, il existe deux suites an,sj > 0 et bn,sj ∈ R telles que
Fsnj an,sj x + bn,sj −→ Hsj (x) pour n → +∞, ∀x ∈ R. (1.4)
ce qui donne
n o
n log 1 − F̄sj an,sj x + bn,sj −→ log Hsj (x) lorsque n → +∞.
Or pour n → +∞ ,F̄sj an,sj x + bn,sj −→ 0.
Au voisinage de 0, log (1 − u) ≈ −u. Par suite, (1.4) devient
nF̄sj an,sj x + bn,sj −→ − log Hsj (x) . (1.5)
n o n o
Réciproquement, supposons qu’il existe deux suites an,sj > 0 et bn,sj ∈ R rela-
tivement au site fixé sj , j ≥ 1,
telles que la convergence en (1.3) soit établie.
Puisque F̄sj an,sj x + bn,sj −→ 0, n → +∞, on a :
n o
n log 1 − F̄sj an,sj x + bn,sj ≈ −nF̄sj an,sj x + bn,sj −→ log Hsj (x) . (1.6)
alors Gsj est de même type 2 que l’une des fonctions de distributions suivantes :
2. Deux variables X et Y sont de même type si elles sont égales à une translation près, i.e il
6 0 et β ∈ R telles que : FX (αx + β) = FY (x) ; x ∈ R.
existe des constantes α =
CHAPITRE 1. CADRE ET OUTILS DE TRAVAIL 10
n o
Λ (x) = exp −e−x , x ∈ R, Gumbel (1.8)
n o
exp −x−1/ξ(sj ) , si x > 0
Φξ(sj ) (x) = , ξ (sj ) > 0 Fréchet (1.9)
0 si x≤0
n o
exp − (−x)1/ξ(sj ) , si x ≤ 0
Ψξ(sj ) (x) = , ξ (sj ) > 0. Weibull (1.10)
1 si x > 0
En fait, les distributions Λsj ,Φξ(sj ) et Ψξ(sj ) sont les représentations standard 3
des fonctions de distribution des valeurs extrêmes relativement à un site sj , j ≥
1. Autrement dit, la distribution des valeurs extrêmes associée au site sj , j ≥ 1,
est respectivement l’une de ces trois représentations à un paramètre d’échelle et de
localisation près. Pour un site donné sj , j ≥ 1, le paramètre de forme ξ (sj ) contrôle
la classe du modèle des valeurs extrêmes.
Jenkinson et Von Mises ont établi une version paramétrique unifiée des trois types
de lois (1.11), appelée distribution généralisée des valeurs extrêmes associée au site
sj , j ≥ 1,
h i−1/ξ(sj )
exp − 1 + ξ (sj ) x−µ(sj )
, si ξ (sj ) 6= 0
Hξ(sj ) (x) = n h
σ(sj ) +
io = GEV (x)
exp − exp − x−µ(sj )
, si ξ (sj ) = 0
σ(sj )
(1.11)
avec κ+ = max (κ, 0) .
Théorème 2. Une distribution est max-stable si et seulement si elle est une distri-
bution des valeurs extrêmes.
0 si y ≤ 0
1 − F (u + y)
∀y ∈ R, Fu (y) = 1 − si 0 < y < xF − u .
1 − F (u)
1 si y ≥ xF − u
1 − 1 + ξ y −1/ξ
si ξ 6= 0
Gξ,σ(u) (y) = σ(u)
1 − exp − y si ξ = 0
σ(u)
σ (u)
où y ≥ 0 pour ξ ≥ 0 et 0 ≤ y ≤ − pour ξ < 0.
ξ
Soit X une variable aléatoire de fonction de répartition F inconnue appartenant
au M DA d’une distribution GEV , de paramètre de forme ξ ∈ R, alors la distribu-
tion des excès de X au-delà d’un certain seuil u converge uniformément vers une
distribution GP D, de même paramètre de forme.
CHAPITRE 1. CADRE ET OUTILS DE TRAVAIL 12
Alors ( −1/ξX )
x − µX
P ∗
Mx,n ≤ x = exp − 1 + ξX , ξX ∈ R.
σX +
−1/ξX
X − µX
La distribution de la variable Z (s) = 1 + ξX est Fréchet unitaire,
σX +
FZ(s) (z) = exp (−1/z), z > 0.
Il faut noter que ce choix n’est nullement pas restrictif puisque la transformation
fonctionnelle
Par suite,
soit
T {([0, x] × [0, y])c } = {(r, w) : r ≥ 1/ max [w/x, (1 − w) /y]} .
Puisque V est homogène d’ordre −1, r > 0, 0 ≤ w ≤ 1 on a :
1 1
!
x y
V (x, y) = V , = V (w, 1 − w) . (1.17)
x+y x+y x+y r
CHAPITRE 1. CADRE ET OUTILS DE TRAVAIL 14
L’équation (1.17) montre que V est une mesure produit. Elle traduit l’indépendance
des variables R = X + Y et W = X/R.
Par ailleurs,
1
µ ◦ T −1 {[r, ∞) × A} = 2Q (A) , r > 0, A ⊂ [0, 1] ,
r
où 2H (w) = V (w, 1 − w).
Par conséquent,
En posant Axy = ([0, x] × [0, y])c et Arw = T (Axy ) = {(r, w) : r > 1/ max [w/x, (1 − w) /y]} ,
il vient que
µ {([0, x] × [0, y])c } = µ ◦ T −1 ◦ T {([0, x] × [0, y])c }
ou encore
Soit
ˆ ˆ ˆ
µ {([0, x] × [0, y]) } = 2
c
r drQ (dw) = 2
−2
1/ max[w/x,(1−w)/y] Q (dw) .
[−1/r]+∞
Arw
Et finalement, on obtient
ˆ 1
µ {([0, x] × [0, y]) } = 2
c
max [w/x, (1 − w) /y] Q (dw) .
0
Dans le cas bivarié, il existe une gamme de familles paramétriques extrêmes dé-
terminées par densité spectrale. Par exemple,
• la densité spectrale du modèle logistique est donnée par,
1 −1 n oα−2
q (w) = α − 1 {w (1 − w)}−1−1/α w−1/α + (1 − w)−1/α ,
2
avec 0 < w < 1, 0 < α ≤ 1.
• pour le modèle de Dirichlet, la densité spectrale est donnée par,
avec α, β > 0.
CHAPITRE 1. CADRE ET OUTILS DE TRAVAIL 15
où ˆ 1
A (t) = 2 max {w (1 − t) , (1 − w) t} Q (dw) .
0
Cette fonction de Pickands ne présente pas à priori de paramètre spatial. Cependant
pour toute paire de sites si et sj de S, on peut écrire
1 1
( ! " #)
x
P (Z (si ) ≤ x, Z (sj ) ≤ y) = exp − + Ahi,j (1.18)
x y x+y
||h||→ + ∞, ρ(||h||) → 0.
1
γ (si , sj ) = V ar [Z (si ) − Z (sj )] .
2
Lorsque le champ aléatoire est stationnaire au second ordre, le variogramme ne
dépend que du vecteur écart entre les sites. Dans ce cas il s’écrit comme, pour tout
site si
1
γ (h) = V ar [Z (si ) − Z (si + h)] ,
2
avec h ∈ R . En particulier, dans le cas isotropique, cet outil ne dépend que de la
d
∀h ∈ R2 , M (h) ≥ M (0R2 ) = 0,
∀h ∈ R2 , M (h) = M (−h) ,
M (h + k) ≤ M (h) + M (k) .
par suite,
par conséquent,
M (h + k) ≤ M (h) + M (k)
avec ( −1/ξ )
z−µ
∀z ∈ R, F (z) = P [Z (s) ≤ z] = exp − 1 + ξ
σ +
Puisque F [Z (s)] suit la loi uniforme sur [0, 1], E {F [Z (s)]} = 1/2. Il nous reste à
évaluer E {max (F [Z (s + h)] , F [Z (s)])}. Il nous faut la distribution de la variable
max = max (F [Z (s + h)] , F [Z (s)]), soit Fmax cette distribution,
CHAPITRE 1. CADRE ET OUTILS DE TRAVAIL 20
on a,
n h io
Fmax (u) = P {max (F [Z (s + h)] , F [Z (s)]) ≤ u} = exp −Vh F −1 (u) , F −1 (u)
ou encore
P {max (F [Z (s + h)] , F [Z (s)]) ≤ u} = uVh (1,1) .
Par suite, en posant Vh (1, 1) = θh , on a
ˆ 1
θh
E {max (F [Z (s + h)] , F [Z (s)])} = θh uθh du = .
0 θh + 1
Par conséquent,
2θh
2MF (s2 − s1 ) = − 1,
θh + 1
d’où la relation (1.19)
De la proposition ci-dessus, il ressort que pour les champs aléatoires max-stables
stationnaires ayant des lois de probabilité marginales univariées convergeant vers
la loi de Fréchet unitaire, comme celles des modèles de Smith et de Schlather, il
serait plus convenable d’utiliser le F −madogramme pour l’estimation du coefficient
extrémal bivarié au lieu du madogramme.
K
F (x1 , . . . , xn ) = P (X1 (s1 ) > x1 , . . . , Xn (sn ) > xn ) = 1 + (−1) FK (xk , k ∈ K)
X
K∈P
où les Fi et Fi,j sont respectivement les marges univariées par rapport à la variable
Xi et bivariées par rapport au pair de variable {Xi , Xj } , 1 ≤ i 6= j ≤ 3.
1 − P {Xs+h ≤ x, Xs ≤ x}
λUh (x) = 2 −
1 − P (Xs ≤ x)
soit
Par conséquent, pour des réalisations assez grandes (les valeurs extrêmes) la fonction
du coefficient de dépendance de queue supérieure ne dépend que de la distance entre
les sites.
Avec ce résultat, on peut écrire : λUh (x) = λ (h) . Le nombre réel Vh (1, 1) = θ (h)
représente le coefficient extrémal relatif à deux sites séparés de h unités de distance.
A une distance h fixée, lorsque les données spatiales extrêmes sont parfaitement
dépendantes λ (h) = 1 et complètement indépendant au cas où λ (h) = 0.
Conclusion
Ce premier chapitre se veut être considéré comme une boîte à outils. Il s’agissait de
brèves présentations des outils techniques nécessaires pour la compréhension de nos
résultats. Il se décline en trois axes principaux. La première section intitulée « champ
aléatoire max-stable » introduit le concept de la max-stabilité spatiale. Cette notion
de max-stabilité permet d’aborder la théorie des valeurs extrêmes, dans la deuxième
section. La problématique de la dépendance spatiale nécessite un aperçu sur les outils
d’origine géostatistique dans les sections 3.
Chapitre 2
Copules Archimédiennes et
dépendance spatiale
23
CHAPITRE 2. COPULES ARCHIMÉDIENNES - DÉPENDANCE SPATIALE 24
où
F ← (t) = inf {x ∈ R|F (x) ≥ t, 0 ≤ t ≤ 1}
avec la convention inf ∅ = −∞.
Cette réciproque du théorème de Sklar offre une méthode de construction assez
simple d’une copule connaissant la distribution jointe et les distributions marginales.
La méthode de construction basée sur celle-ci est la méthode d’inversion. L’exemple
suivant en est une application dans un cas de fonction bivariée.
Exemple 2. Soit F la fonction bivariée, de paramètre θ > 0, définie de R2 dans
[0, 1] par −1/θ
F (x1 , x2 ) = exp − e−x1 + e−x2 − e−θx1 + e−θx2 (2.3)
Les lois marginales sont symétriques et on a : lim F (xi , xj ) = exp (e−xi ) avec
xj →+∞
i = 1, 2. Par suite pour tout u ∈ [0, 1], on a :
où 0 ≤ α, β ≤ 1 et α + β ≤ 1.
En outre, une combinaison convexe de copules peut être vue sous l’angle d’une
moyenne de collection finie de copules. Cette manière de voir revient à considérer un
ensemble infini de copules indexées par une variable continue λ. Ainsi
Ils montrent que dans l’équation (2.7), si H et Λ sont connues avec lim+ Λ (λ) = 1
λ→0
alors F existe. En fait, elle s’obtient comme suit :
CHAPITRE 2. COPULES ARCHIMÉDIENNES - DÉPENDANCE SPATIALE 26
F1 (x1 |λ) = [F1 (x1 )]λ et F2 (x2 |λ) = [F2 (x2 )]λ .
Par suite,
ˆ +∞ n o
G (x1 , x2 ; θ) = exp −λ ϕ−1 [G1 (x1 )] + ϕ−1 [G2 (x2 )] dΛθ (λ) .
0
Enfin,
n o
G (x1 , x2 ; θ) = ϕ ϕ−1 [G1 (x1 )] + ϕ−1 [G2 (x2 )] ; θ . (2.8)
On fait apparaître un terme hétérogène non observé λ dans chaque distribution
marginale. La distribution de cette variable non observée dépend d’un paramètre
inconnu θ qui contrôle la dépendance entre x1 et x2 dans leur distribution jointe.
Marshall et al. [26] montre que l’équation (2.8) est la transformée de Laplace de la
fonction de distribution jointe G. Par suite, elle est appelée copule Archimédienne
que nous verrons dans la section suivante. Mais avant, nous attirons l’attention sur
une des propriétés intrinsèque des copules formulée dans la proposition suivante.
ou encore,
i (ui ) = ϕi Fi
G−1 (ui ) , ui ∈ [0, 1] .
−1
Par suite,
n o
C∗ (u1 , . . . , ud ) = P X1 ≤ F1−1 (u1 ) , . . . , Xd ≤ Fd−1 (ud ) ;
Exemple 3. Si les X1j , . . . , Xdj , 1 ≤ j ≤ n sont indépendantes alors les max {Xi1 , . . . , Xin } , 1 ≤
i ≤ d sont aussi indépendantes. Donc la copule max-stable associée est
" d #n d
Y 1/n
Π(n) (u1 , . . . , ud ) = =
Y
ui ui .
i=1 i=1
lorsque n → +∞ pour (u1 , . . . , ud ) ∈ [0, 1]d . On dit que C∗ est dans le domaine
d’attraction de C.
CHAPITRE 2. COPULES ARCHIMÉDIENNES - DÉPENDANCE SPATIALE 29
Proposition 8. L’ensemble des copules extrêmes coïncide avec l’ensemble des co-
pules max-stables.
Démonstration. Il est trivial de voir qu’une copule max-stable est une copule des
valeurs extrêmes. Démontrons sa réciproque. Autrement dit prouvons qu’une copule
des valeurs extrêmes est une copule max-stable.
Soit C une copule des valeurs extrêmes, il existe donc une copule C∗ qui satisfait
l’équation (2.11). Par suite, pour tout réel r strictement positif, on a
1/r 1/r 1/rn 1/rn
C r u1 , . . . , ud = lim C∗rn u1 , . . . , ud (2.12)
n→+∞
H (rx, ry) = C (exp (−rx) , exp (−ry)) = C r (exp (−x) , exp (−y))
h ir
= H (x, y)
soit,
H (x, y) = C r {exp (− (1 − t)) , exp (−t)} ,
ou encore n h io
H (x, y) = exp r ln C e−(1−t) , e−t .
CHAPITRE 2. COPULES ARCHIMÉDIENNES - DÉPENDANCE SPATIALE 30
h i
Posons A (t) = − ln C e−(1−t) , e−t , et puisque (r, t) = (x + y, y/ (x + y)) on a
ln v
( !)
C (u, v) = exp ln (uv) A . (2.14)
ln (uv)
Théorème 7. Une copule C : [0, 1]d −→ [0, 1] est une copule extrême si et seulement
si il existe une mesure finie H sur le simplexe de Rd , Sd , telle que
(" d # !)
u1 ud
C (u1 , . . . , ud ) = exp log ui A Pd
X
, . . . , Pd .
i=1 i=1 log ui i=1 log ui
L’intérêt que nous portons à cette construction de Pickands réside dans le faite qu’elle
conduit à une famille de copule plus grande que les deux premières vue jusque là. Il
s’agit de la famille des copules Archimax.
CHAPITRE 2. COPULES ARCHIMÉDIENNES - DÉPENDANCE SPATIALE 31
P (Xi ≤ xi |Θ) = GΘ
i (x)
soit
d d
! !
G (x1 , . . . , xd ) = E P (Xi ≤ xi |Θ) = E GΘ (xi )
Y Y
i
i=1 i=1
ou encore
d d
! !
G (x1 , . . . , xd ) = E exp [−Θ (− log Gi (xi ))] = ψ − log Gi (xi )
Y X
i=1 i=1
soit
C (u1 , . . . , ud ) = ψ ψ −1 (u1 ) + · · · + ψ −1 (ud ) .
Cette copule est appelée copule archimédienne de générateur φ = ψ −1 .
En bref, une copule est dite archimédienne lorsqu’elle peut s’écrire sous la forme
où ϕ : [0, 1] −→ [0, ∞] est une fonction décroissante convexe telle que ϕ (1) = 0.
La fonction ϕ est appelée générateur de la copule. On parle de copule archimé-
dienne stricte lorsque ϕ (0) = +∞, autrement dit lorsque le générateur est stricte-
ment croissant.
CHAPITRE 2. COPULES ARCHIMÉDIENNES - DÉPENDANCE SPATIALE 32
n h i o
C (C (u, v) , w) = ϕ[−1] ϕ ϕ[−1] (ϕ (u) + ϕ (v)) + ϕ (w)
n o
= ϕ[−1] ϕ (u) + ϕ ϕ[−1] [ϕ (v) + ϕ (w)] .
Par suite,
Finalement,
C (C (u, v) , w) = C (u, C (v, w)) .
Sur la généralité relative aux copules, plusieurs autres propriétés des copules
sont disponibles dans l’ouvrage de Nelsen[32]. En particulier, dans cette section nous
avons rappelé les propriétés des copules Archimédiennes. Une des particularités de
cette famille de copule est leur flexibilité. Cette dernière propriété nous sert dans la
description de la structure de dépendance des classes de variogramme. Ces résultats
sont exposés dans la section qui suit.
ln u1
( !)
Cϕ,A (u1 , u2 ) = exp (ln u1 + ln u2 ) A .
ln u1 + ln u2
plusieurs modèles théoriques d’ajustement sont établis et implémenter dans des pa-
ckages de R. Ces modèles sont à majorité paramétriques. Dans certaines études, ces
paramètres sont choisis de façons arbitraire. Le problème qui se pose est le degré de
tolérance d’un choix.
Cette problématique nous amène à poser les hypothèses suivantes :
1. la structure spatiale satisfait aux conditions de la stationnarité second ordre.
→
−
2. le variogramme dépend seulement de la distances h = h entre deux sites.
Dans cette étude, nous dirons que deux variogrammes γ1 et γ2 sont de même
types si et seulement si
associée à chacune des deux classes, est une fonction de distribution. En effet,
lim F (x) = γ (0) = F (0) = 0, lim F (x) = lim γ (x) = 1 et lim F (x) = 0.
x→0 x→+∞ x→+∞ x→−∞
Et puisque γ est continue et croissante, F est une fonction de distribution. Cette re-
marque nous permet de construire la fonction génératrice de la copule Archimédienne
de chacune des deux classes.
Par suite, les copules CI et CD (figure 3.1) seront nos copules des références. Il
s’agira d’étudier la similarité des copules associées aux deux classes de variogramme
exponentiel et gaussien, notées respectivement par CE et CG (FIGURE 3.2).
En fait, compte tenu de notre enjeu et rôle des variogrammes dans la prédiction
spatiale, la copule indépendante traduirait que deux variogrammes d’une même classe
peuvent donner des écarts aussi importants dans la prédiction spatiale, même avec
une différence aussi petite soit elle entre ces variogrammes. Par contre, la copule de
dépendance signifierait quasiment le contraire.
s (A, B) = 1
⇐⇒ exp − max aij − bij =1
1≤i≤n,1≤j≤m
⇐⇒ aij = bij , 1 ≤ i ≤ n, 1 ≤ j ≤ m.
Donc s (A, B) = 1 ⇔ A = B.
2. Symétrique
Puisque aij − bij = bij − aij , s (A, B) = s (B, A). La relation s est donc
symétrique.
3. Condition de minimalité
Pour A 6= B il existe au moins un couple (i, j) ∈ {1, . . . , n} × {1, . . . , m} tel
que aij 6= bij . Autrement dit, il existe un couple (i, j) ∈ {1, . . . , n} × {1, . . . , m}
tel que aij − bij 6= 0. Donc
A 6= B ⇐⇒ exp − max aij − bij <1
1≤i≤n,1≤j≤m
⇐⇒ s (A, B) < s (A, A)
Par conséquent s est une mesure de similarité. Pour des mesures de simplicité,
nous dirons que deux matrices A et B de Mn,m sont similaires lorsque s (A, B) = 1.
Quant à deux copules similaires, la définition est donnée comme suit,
Définition 13. Soit C1 et C2 deux copules définie de [0, 1]2 dans [0, 1]. On dira que,
ces deux copules sont similaires si et seulement si pour tout couple (n, m) ∈ N∗ × N∗ ,
les matrices
M1 = m1ij et M2 = m2ij
1≤i≤n,1≤j≤m 1≤i≤n,1≤j≤m
En effet, les couple (ui , vj ) , 0 ≤ ui , vj ≤ 1 peuvent être vus comme les coordonnées
des nœud des points de la grille de la discrétisation du carré [0, 1]2 .
CHAPITRE 2. COPULES ARCHIMÉDIENNES - DÉPENDANCE SPATIALE 38
L’objectif est d’évaluer le degré de similarité de chacune des copules CγE et CγG
par rapport à chacune des copules CI et CD .
et
CγG (u, v) ≤ CI (u, v) ≤ CD (u, v) . (2.22)
Par suite, comparons CγE (u, v) et CI (u, v) , pour 0 ≤ u, v ≤ 1.
Supposons qu’au moins des arguments u ou v est nul , on a
pour 0 < u, v ≤ 1.
Des inégalités (2.21,2.22 et 2.23), on déduit que pour 0 < u, v ≤ 1,
Les figure 2.5 et 2.6 mettent en lumière le contraste possible d’une prédiction via
deux variogrammes gaussiens comparativement à celle relative à deux variogrammes
exponentiels. Cependant, il peut arriver que ce contraste entre les cartes de prédic-
tion relatives à deux variogrammes gaussiens (sans pépite et avec pépite proche de
zéro) soit raisonnable (figure 2.7). D’où le caractère indépendant dans la classe des
variogrammes gaussien.
CHAPITRE 2. COPULES ARCHIMÉDIENNES - DÉPENDANCE SPATIALE 42
Conclusion
L’étude de la dépendance dans ces classes s’est déroulée avec une mesure de
similarité et les propriétés. Nous sommes arrivés à la conclusion que tout choix du
paramètre de l’effet pépite différent, aussi petite qu’il soit, de variogramme affecte
les prédictions spatiales. Cependant la classe des variogrammes exponentiels est plus
tolérante que de la classe des variogrammes gaussiens.
Chapitre 3
Modélisation de dépendance
géostatistique
43
CHAPITRE 3. MODÉLISATION DE DÉPENDANCE GÉOSTATISTIQUE 44
i=1
S’il existe un réel m > 0 tel que : φs (1 − 1/x) ∈ RV (−m) , alors toutes les marges
bivariées sont de la forme
!
X φs (Fis (xsi ))
s
Fi,j xsi , xsj = φ−1 φs (Fks (xsk )) A∗s,m .
k=i,j φs (Fk (xk ))
s P s s
k=i,j
où A∗s,m est une fonction spatiale convexe de [0, 1] dans [1/2, 1]m−1 .
´ +∞
où φs est tel que φ−1
x (1 − t/r) ∈ RV (−α) avec φ−1
x (t) = t
(1 − t/r)m−1 dr.
D’après le théorème de Sklar pour tous 1 ≤ i, j ≤ m, on a
n o
Cφs ,A Fis (xi ) , Fjs (xj ) = Fi,j
s
xsi , xsj .
Dans le contexte spatial cette égalité devient, pour tous i, j ∈ {1, . . . , n},
φs (Fis (xsi ))
!
X
Cφs ,A Fis (xi ) , Fjs (xj ) = φ−1 φs (Fks (xsk )) A∗s,m
k=i,j φs (Fk (xk ))
s P s s
k=i,j
Démonstration. Supposons que Cφs soit une copule archimédienne spatiale relative-
ment au site s ∈ S. Pour tout u1 , . . . , un ∈ [0, 1]n ,
s̆ s̆
h i
Cφs us̆1 , . . . , us̆n = φ−1
s φs us̆1 + . . . + φs us̆n . (3.2)
CHAPITRE 3. MODÉLISATION DE DÉPENDANCE GÉOSTATISTIQUE 47
Puisque une copule est une fonction distribution, de marge uniforme, considérons
Ceφt la distribution de survie de C φt . Ainsi,
Ceφs us̆1 , . . . , us̆n = P F1s̆ xs̆1 > us̆1 , . . . , Fns̆ xs̆n > us̆n
= C φs 1 − us̆1 , . . . , 1 − us̆n
D’après Charpentier et al., on a
n
Ceφs us̆1 , . . . , us̆n = (−1)
k
Cφs (ν1 , . . . , νn ) (3.3)
X X
k=0 ν (us̆1 ,...,us̆n )∈Zs (n−k,n,ε)
n o
où Zs (M, N, ε) représente l’ensemble ν ∈ [0, 1]n ; νi ∈ {us , ε} , i=1 1{ε} (νi ) = M .
Pn
On a
n
Ceφs us̆1 , . . . , us̆n = (−1)k Cφs us̆i1 , . . . , us̆in ; ij ∈ Sk (3.4)
X X
k=0 Sk ⊂N
k=0 Sk ⊂N
Par suite,
C φs (1 − us , . . . , 1 − us )
λU,k = lim
us →1 1 − us
ou encore,
Xn
(−1) k n
λU,k = lim φ−1 ;
X X
φs us,ij
1 − us
us →1 s
k=0 Sk ⊂N j=1
Ce résultat décrit la relation des extrêmes supérieurs entres les sites. Il résume la
dépendance de l’ensemble des sites par rapport à leurs maxima. Un autre résultat,
non moins important, est établi sur la relation des extrêmes inférieurs entre les sites.
Ce dernier est présenté dans la sous-section ci-après.
CHAPITRE 3. MODÉLISATION DE DÉPENDANCE GÉOSTATISTIQUE 48
Cn (u, . . . , u)
!
λ L,k
= lim , ∀u ∈ [0, 1] (3.7)
u→0 Cn−k (u, . . . , u)
Proposition 14. Soit φs le générateur bi-marginale d’un processus Archimax {Xs , s ∈ S}.
Pour tout s ∈ S et k (k < n), le T DC à gauche, λL,k
s , est donné par,
i)
λL,k
s ≤ lim+ R (φs (us )) (3.8)
u→0
où R est un ratio particulier dans ]0, 1[ si Cφs est une copule Archimé-
dienne stricte.
ii)
λL,k
s = lim+ exp {−Dφs (us )} (3.9)
u→0
avec Dφs une mesure conditionnelle particulière si Cφs est une copule Ar-
chimax stricte.
Cφs (us , . . . , us )
!
λL,k = lim , ∀us ∈ [0, 1] (3.10)
s us →0 C φs ,n−k (us , . . . , us )
où Cφs est une copule Archimax. En d’autres termes, Cφs est soit considérée comme
une copule Archimédienne stricte ou satisfait les propriétés de max-stabilité.
i) Supposons que Cφs est soit considérée comme une copule Archimédienne stricte,
on a,
P
i=1 φs (us )
k
φ−1
s
λL,k
s = lim P ; (3.11)
us →0 φ−1
s
n
i=k+1 φs (us )
Ce qui donne,
s (kφs (us ))
φ−1
" #
λL,k = lim
s ((n − k) φs (us ))
s us →0 φ−1
CHAPITRE 3. MODÉLISATION DE DÉPENDANCE GÉOSTATISTIQUE 49
avec ues,i = log us,i et AC est une fonction de dépendance de Pickands. Par suite,
Xk n
λL,k = lim exp ues,i AC (wi , . . . , wn−1 ) − (wk+1 , . . . , wn−1 )
X
s ues,i ACn−k
us →0
i=1 i=k+1
(3.13)
us,j
avec wj = Pne
u
, j = 1, . . . , n − 1 et ACn−k est la fonction de dépendance de Pi-
i=1 s,i
e
2
ckands relative à Cn−k . Enfin, il s’en suit que la mesure convexe Dφs de [(R ∪ {±∞})n ]
dans [0, 1] définie par,
k n
Dφs (us ) = ues,i AC (wi , . . . , wn−1 ) − ues,i ACn−k (wk+1 , . . . , wn−1 ) , (3.14)
X X
i=1 i=k+1
donc
λL,k
s = lim exp {−Dφs (us )}
us →0
Par suite,
soit
C (G1 (x1 ) , G2 (x2 )) = 1 − u1 − u2 + C (u1 , u2 )
avec C la copule associée.
De façon générale, considérons C une copule d−dimensionnelle. Pour tout (u1 , . . . , ud ) ∈
[0, 1]d , sa copule de survie C est
d
C (u1 , . . . , ud ) = (−1)
k
C (1, . . . , 1, 1 − ui1 , 1, . . . , 1, 1 − uik , 1, . . . , 1) .
X X
k=1 i1 ,...,ik
La copule de survie est souvent appelée copule duale. En fait, si les distributions
marginales de C sont U1 , . . . , Ud alors celles de son duale sont 1 − U1 , . . . , 1 − Ud .
j=1 j=1
= C1 {(u1 )α1 , . . . , (un )αn } × . . . × Cm {(u1 )α1 , . . . , (un )αn }
soit
m
Cj {hj,1 (u1 ) , . . . , hj,n (un )} = C1 {(u1 )α1 , . . . , (un )αn }×. . .×Cm {(u1 )α1 , . . . , (un )αn }
Y
j=1
est une copule. Et puisque les copules Cj,φs ,1 ≤ j ≤ m, sont des copules extrêmes,
on a
k
Cj,φs
(u s , vs ) = C j,φs u k
s , vs
k
, (us , vs ) ∈ [0, 1]2 , k > 0. (3.17)
En utilisant (3.17) dans (3.16), pour tout (α1 , . . . , αm ) ∈ 4m , on a
Et comme chacune des copules Ci,φs , 1 ≤ i ≤ n, est un modèle des valeurs extrêmes,
l’équation (3.20) devient
Cφks ,α (us , vs ) = C1,φ
α1
s
αm
uks , vsk × . . . × Cm,φs
uks , vsk = Cφs ,α uks , vsk .
Par suite,
α αm
Cφks ,α (us , vs ) = C 1,φ
1
s
uks , vsk × . . . × C m,φs uks , vsk .
Par conséquent Cφs ,α est une copule des valeurs extrêmes, donc Cφs ,α est une copule
max-stable.
CHAPITRE 3. MODÉLISATION DE DÉPENDANCE GÉOSTATISTIQUE 52
Dans cette section, nous avons établi des propriétés intéressantes relatives à des
copules paramétriques et la queue de dépendance dans un contexte spatial. Les pro-
priétés obtenues concernent la dépendance spatiales d’un processus aléatoire dans le
cas où les fonctions marginales sont bivariées et dans la classe Archimax.
Nous avons apporté une réponse à la problématique relative à l’extension, dans
un contexte spatial, du coefficient de dépendance de queue supérieure et de queue
inférieure. En fait, la caractérisation spatiale du coefficient de dépendance de queue
supérieure a été faite avec des copules Archimédiennes. Nous avons aussi caractérisé
le coefficient de dépendance de queue inférieure dans un espace n dimensionnel avec
des fonctions marginales bivariées de la classe Archimax.
En somme, il s’agissait d’une étude de comportements des valeurs extrêmes en te-
nant compte des caractéristiques spatiales. Le résultat obtenu, sert à faire un résumé
de l’inter-dépendance entre les sites de prélèvement par rapport aux grandes valeurs
qui y sont observées. Dans cette étude, deux grandes variations sont donc prise en
compte. Il s’agit de la variation des grandes réalisations et de la variation spatiale.
Dans la prochaine section, nous poursuivons notre étude des comportements des réa-
lisations extrêmes spatiales. Cette fois, on y prend en compte la variation temporelle.
σt (si ) h i
yt (si ) = µt (si ) + yt (si )ξt (si ) − 1 pour i = 1, ..., m. (3.21)
ξt (si )
Pour des raisons de simplicité, nous adopterons la notation de Barro et al. par
Y (t, s) = Ytš (pour faire la différence avec Yts comme la puissance sème de Yt ). Alors,
CHAPITRE 3. MODÉLISATION DE DÉPENDANCE GÉOSTATISTIQUE 53
sous cette notation, la fonction de distribution jointe spatialisée de Y est Ftš donné
par
Ftš ytš = P Ytš ≤ ytš .
avec ytš = (yt (s1 ) , ..., yt (sm )) une réalisation de Ytš . Dans notre cadre d’étude,
nous rappelons que la relation d’inégalité « ≤ » se fait composante par composante.
En outre, le théorème de Sklar nous permet de déduire la copule spatio-temporelle
Ctš associée à la distribution Ftš . Elle est donnée par
−1 −1
Ctš (u1 ; ...; um ) = Ftš Ftš1 (u1 ); ...; Ftšm (um ) ,
avec (u1 , . . . , um ) ∈ ([0, 1] × T )m .
Aussi, pour tout m ∈ N et l’ensemble des sites donné, on appelle (m − 1) −simplexe
unitaire spatio-temporelle l’ensemble définit comme suit,
n o
∆št,m = ytš = (yt (s1 ) , ..., yt (sm )) ∈ Rm
+ ; yt =
š m
(si ) = 1 . (3.22)
X
i=1 yt
Une fois ces outils nécessaires réunis, nous présentons une caractérisation princi-
pale d’un processus multivarié des valeurs extrêmes. Précisément, ilns’agit de la distri-
o
bution d’un processus des valeurs extrêmes multivariées (M EV ) Ytš , s ∈ S, t ∈ T
variant dans le temps et dans l’espace. Cette caractérisation est résumé dans le théo-
rème qui suit.
n o
Théorème 9. Soit Ytš , s ∈ S, t ∈ T un champs aléatoire spatio-temporel de distri-
bution paramétrique Htš = Htš1 , . . . , Htšm . Les propriétés suivantes sont vérifiées,
1. Une condition suffisante pour que Htš soit une distribution multivariée
n deova-
leurs extrêmes, est qu’il existe deux suites spatio-temporelles αn,t > 0 et
š
n o
š
βn,t ∈ R telles que
Mtši − βtši
" !#
n
lim P ∩ š(i)
≤ yt (si ) = Htš1 [yt (s1 )] , . . . , Htšm [yt (sm )]
n−→∞ i=1 αt
š(i)
où Mt est une marge spatio-temporelle de composantes maxima
h i h iT
š
Mt,1 š
, ..., Mt,n = max Ytšk (s1 ) ,..., max Ytšk (sn ) .
1≤k ≤m 1 ≤ k ≤m
Proposition 16. Soit G une distribution m−variée avec des marges continues "
Gi ,i = #−1
−1
1, ..., m. Considérons les transformations ψi de Gi telles que ψi (yt (si )) = avec
log Gi (yt (si ))
yt (si ) > 0,
m
1. La distribution spatio-temporelle Gšt définie sur (R+ × S × T ) par
Gšt (yt (s1 ) ; ...; yt (sm )) = G (ψ1 (yt (s1 )) , ..., ψm (yt (sm ))) , yt (si ) ≥ 0
Démonstration. (théorème 8)
1) Supposons que la loi multivariée H est une distribution M EV dont ses marges
Hi satisfont (1.8,1.9 ou 1.10). Il suffit donc de montrer que pour tout site s et un temps
t donnés,
n Htš respecte
o n la propriétéo de max-stabilité dans le cadre spatio-temporel.
Soit αn (t) > 0 et βn (t) ∈ R deux suites de normalisation spatio-temporelles de
š š
Par suite,
ou encore,
d’où
Mnš (t) − βnš (t)
" ( )#
m
lim P ∩ ≤ yt (si ) = (H1 (yt (s1 )) , ..., Hn (yt (sm ))) .
n→∞ i=1 αnš (t)
i=1
où Btš λs1 , ..., λsm−1 = D λs1 y1š (t) , ..., λsm ym
š
(t) + (1 − t) D λs2 y2š (t) , ..., λsm ym
š
(t)
−q i
et λsi (t) = Pm š .
i=1 i (t)
y
Par conséquent,
š
š −qm−1 ym−1
−q1 y1 (t)
Pm š (t)
Btš λs1 , ..., λsm−1 = D Pm š yi (t)
,..., y (t)
+
i=1 i=1 i
š š
−qm−1 ym−1
−q2 y2 (t)
Pm š
Pm š (t)
−q y (t) š yi (t) y (t)
1 − Pm1 1 š(i) DN̄1 ;...; (3.25)
i=2 i=2 i
,
−q1 y1š (t) š
−qm−1 ym−1
y
1− 1− Pm š (t)
i=1 t Pm
i=2 i
y š (t) y (t)
i=2 i
Théorème 10. Soit Gšt une distribution M EV d’un processus spatio-temporel max-
stable {Xts }. Si Htš est la distribution multivariée GP associée au même échantillon,
alors pour tout site s0 et temps t0 donnés,
Gšt (yts +yts ) Gšt (yts )
Htš (yts ) = −1
log 0
= 1 − log ;
log Gšt (yts )
0
Gšt (min(yts ,yts0 )) Gšt (min(yts ,yts ))
0
pour tout yts0 ∈ support Gšt .
Soit H la distribution
multivariée
de Pareto correspondante. Ainsi pour tout point
s(1) s(m) s(i)
donné yt0 = yt0 , ..., yt0
s
avec yt0 > 0 et α > 0, il résulte que
−α
yts
Htš (yts ) = 1 − s(1) .
yt0
CHAPITRE 3. MODÉLISATION DE DÉPENDANCE GÉOSTATISTIQUE 57
s(1) s(1)
En particulier, pour yt > yt0 , on a
1
donc, nous avons : an (s) = G −1
1− = n1/α yts0 .
n
Par suite,
!−α n
n1/α ytš
lim P (Mn (s) ≤ an (s0 ) yts ) = lim 1 −
n→+∞ n↑+∞ ytš0
autrement dit,
h i
lim P (Mn (s) ≤ an (s0 ) yts ) = lim 1 − n1/α yt−sα ;
n→+∞ n↑+∞
G(yts )
!
1 − log si yts ≥ 0
Htš (yts ) = G (min(y s s
t , yt0 )) ,
0 sinon
− 1 1
θ1 θ2 θ1 θ2 θ2 θ1
š(1) š(2)
− ỹt + ỹt
CHAPITRE 3. MODÉLISATION DE DÉPENDANCE GÉOSTATISTIQUE 59
xt h 1−θ1 i
š
Bθ,t (x) =
q + xt (1 − q)1−θ2 + 1 , 0 < θ1 , θ2 < 1.
1 + xt
On retrouve le modèle logistique lorsque les paramètres des dépendances θ1 et θ2
sont égaux. La dépendance complète est obtenue lorsque θ1 = θ2 s’approche de 0. En
outre, l’indépendance parfaite est atteinte lorsque l’un au moins des deux paramètres
s’approche de 1.
1 + xt
avec θ3 ≥ 1 et 0 ≤ θ1 , θ2 ≤ 1. On retrouve le modèle logistique lorsque θ1 = θ2 = 1.
On observe une indépendance totale lorsque θ = 1 ou l’un au moins des paramètres
d’asymétrie s’annule. Pour avoir la dépendance parfaite il faut que non seulement θ
s’approche de 0 mais aussi θ1 = θ2 = 1.
1 1
(2) θ θ (2) θ θ
(1) (2)θ (1) (2) (1)
š
Bθ,t (x) = xt θ + xt + 1− xt − xt − xt θ + 1− xt − xt .
1 1
" ! !#
θ3 θ2
š(1)
š(2)
ỹ ỹ
− š(3) Φ
1
+ log tš(3) +Φ + log tš(3) + I Φ̄2 , θ, ρ
ỹt θ3 2 ỹt θ2 2 ỹt
ˆ −1
1 1
!
y3 θ2
š(1) θ3
š(4)
où I = 0 Φ̄2 + log ỹt ; + log ỹt ; ρ dt
θ2 2 θ3 2
0 2 −2
P3 !
i=1 θi
et ρ =
2 −2
0
P3
i=1 θi
CHAPITRE 3. MODÉLISATION DE DÉPENDANCE GÉOSTATISTIQUE 62
k=3 i=1
Xm−1 m−1 m−2
(i) (i) X (i) θij (j) θij
Ašθ,t (x) = + 1- xt + + xt
X
xt xt
i=1 i=1 i<j
1
θ
−1 θ
m−1
im θim
m−1
(i) θim X (i)θij
+ + 1- xt + R(t1 , ..., tm−1 , θ), θ = (θ12 , ..., θ1k ) .
X
xt
i=1 i=1
CHAPITRE 3. MODÉLISATION DE DÉPENDANCE GÉOSTATISTIQUE 63
m−1 m−1 m−2
−(i)
n
(i) (i) (j) (i) δij
Ašθ,t (x) = 1 − − 1 − xt + xt + xt − xt Φ + log
X X X
1 xi
xt δij 2 xj
i=1 i=1 i=1,i<j
!) −1
δij δij
(i)
(j) xt
−xt Φ 1
+ log
2
δij (j)
xt
−1
m−1 m−1
X (i) (m) (i) 1 (i) (k)
+ +xt − xt Φ θim + θim log xt 1 −
X
x xt
t 2
i=1 k=1
m−1
! m−1
(k) δij (k) −(k)
− 1− Φ δ1ij + log 1 −
X X
xt 2
xt xt
k=1 k=1
(i) (m−1)
+R xt , ..., xt , θ12 , ..., θik
1 m
(
X (i)θij (j)θij (i)θij
Ašθ,t (x) = + p j xt θij
+
X
p i xt νi p i x t
J i=1
θij θ1ij
(i)θij X (k)θij
+ + pj 1-
X
pi xt xt
I 1≤ k ≤ m−1
où I = {1 ≤ i < j ≤ m − 1} et 1 ≤ i ≤ m − 1
θθim θ−1
im
X (i)
+p−θ
m
ij
1 − x t
.
1≤i≤m−1
Conclusion
Dans ce chapitre, il était question de surmonter le problème de dépendance
spatio-temporelle au-delà de dimension deux. Particulièrement, nous nous sommes
penchés sur les coefficients de queues sous l’hypothèse que le champs aléatoire est
bi-marginalement Archimax et ayant une fonction marginale bivariée commune. Cet
outil renseigne sur la dépendance asymptotique entre les données de deux groupes
de sites parmi lesquels un groupe est considéré comme la référence. En outre, nous
avons abordé une approche plus fine qui considère la référence comme tout l’ensemble
des sites sauf un. Par cette dernière approche nous avons déterminé la fonction de
dépendance de queue spatio-temporelle relativement aux distributions multivariée
couramment utilisées.
Dans l’optique de son utilisation à des fins pratiques, l’inférence de ces outils nous
semble champs de recherche attractif.
Chapitre 4
Au cours de ces dernières décennies, dans nos pays, les rejets des Gaz à Effet
de Serre (GES) n’ont cessé d’augmenter à l’échelle planétaire. Par rapport à la
quantité estimée de GES dans l’atmosphère, une étude de GIEC (rapport 2007)
prévoit une poursuite très probable de la croissance de température globale moyenne
de la surface de la terre au cours de ce XXI ème siècle. Cette croissance entraîne
la fréquence des phénomènes extrêmes climatiques pour les prochaines années. Ces
phénomènes extrêmes se manifestent de divers façons en divers endroits de la terre
(en fonction de la position géographique), d’où la nécessité des études locales pour
mieux comprendre leur comportement.
En Afrique de l’Ouest, les phénomènes extrêmes climatiques les plus remarquables
sont les inondations, comme celle subite par Ouagadougou en Septembre 2009 (figure
4.1), et les sécheresses. Ces sécheresses sont caractérisées par une pluviométrie quasi
nulle observée pendant plusieurs semaines et une intensité de température relative-
ment forte. Elles menacent la sécurité alimentaire dans cette partie de la terre où
l’économie est essentiellement basée sur l’agriculture. Ainsi dans l’optique de sur-
vivre à la prochaine catastrophe sans précédente, nous devons élaborer des méthodes
d’adaptation. Plus on est informé sur leurs survenues et leurs intensités, mieux on
s’y prépare. A cet effet, dans le cadre d’une adaptation efficace à long terme pour
65
CHAPITRE 4. MODÉLISATION DES EXTRÊMES CLIMATIQUES 66
notre agriculture, il est nécessaire d’avoir des renseignements sur les occurrences des
températures extrêmes. La théorie des valeurs extrêmes offrent des familles de mo-
dèles paramétrés dans le cas où les variables sont identiquement et indépendamment
distribuées. D’où le problème de son application dans la modélisation des extrêmes
climatiques à cause de leurs variabilités saisonnières.
Dans ce chapitre, nous étudions les comportements des extrêmes thermiques dans
certaines localités 1 du Burkina Faso, en tenant compte de leurs caractéristiques
spatio-temporelles. Dans un premier temps, nous exposons quelques éléments néces-
saires pour la compréhension du climat au Burkina Faso. Ensuite, nous présenterons
notre base de données. Enfin, nous allons construire des modèles adéquats dans le
but de faire des prédictions.
1 m m
!
Yi − µ Yi − µ
X
ln L (x; σ, µ, ξ) = −m ln (σ) + +1 ln 1 + ξ 1+ξ
X
− ,
ξ i=1 σ i=1 σ
Yi − µ
pour 1+ξ > 0,
σ
— cas où ξ = 0,
m m
Yi − µ Yi − µ
ln L (x; σ, µ, ξ) = −m ln (σ) − exp −
X X
− .
i=1 σ i=1 σ
CHAPITRE 4. MODÉLISATION DES EXTRÊMES CLIMATIQUES 69
i=1
" n !β
n n
#
β xi
= (xi )β−1 exp −
Y X
.
ηnβ i=1 i=1 η
avec !
∂2
M (θ) = E − 2 L (θ; x1 , . . . , xn )
∂θ
où L est la fonction log-vraisemblance.
Dans la pratique, on remplace M (θ) par
l’information observée Mo θ̂ = −L θ̂ pour n → +∞. Ainsi, pour un intervalle
00
de confiance à 95%, on a
h i
θ ∈ θ̂ − 1, 96Mo−1/2 θ̂ , θ̂ + 1, 96Mo−1/2 θ̂ .
En réalité, la matrice variance covariance Mo θ̂ est la matrice Hessienne évaluée
en θ̂ et la région de confiance est une ellipsoïde. Cependant, si l’on note m̂ij , 1 ≤
i, j ≤ n, les composantes de Mo θ̂ , alors les intervalles de confiance définis par
−1
la figure 4.3. En outre, les histogrammes de la figure 4.4 renseignent sur la fréquence
de températures par classes et par stations.
Figure 4.4 – Histogrammes des maxima mensuels des températures par station
Cette description donne un aperçu général sur la répartition des maxima mensuels
des températures par station. Pour une description assez précise nous étudions les
lois de probabilité de ces extrêmes.
On peut remarquer que tous les paramètres de forme sont négatifs. Par consé-
quent, les distributions GEV associées aux différentes stations sont toutes du do-
maine d’attraction de Weibull. Avant l’usage de ces modèles, il faut passer aux tests
de validation.
Les valeurs dans le tableau 4.2 sont des arrondis d’ordre 3. Pour un échantillon
de taille 30, la statistique de Kolmogorov à un seuil de 0, 05 est de 0, 24. Pour chaque
station, on a DKS ≤ 0, 24. Par conséquent, on peut dire que les ajustements sont
fidèles à 95% aux données relatives.
La seconde méthode est basée sur la comparaison des lois empirique et théorique
estimé. Nous rappelons que, son principe est plus basé sur le visuel. Il s’agit des
courbes « probability plot » et « quantile plot » présentés dans la deuxième section
de ce chapitre. En plus de ces deux courbes particulières, nous y avons ajouté les
courbes des densité empirique et théorique estimé. Ces illustrations graphiques sont
fournies par les figures (4.5,4.6, 4.7, 4.8 et 4.9).
CHAPITRE 4. MODÉLISATION DES EXTRÊMES CLIMATIQUES 74
Figure 4.5 – Les courbes « probability plot » « quantile plot » et les courbes des
densités empirique et théorique de la station de Bobo
Figure 4.6 – Station de Dori : Les courbes « probability plot », « quantile plot » et
les courbes des densités empirique et théorique.
Figure 4.7 – Station de Fada : Les courbes « probability plot », « quantile plot » et
les courbes des densités empirique et théorique.
CHAPITRE 4. MODÉLISATION DES EXTRÊMES CLIMATIQUES 75
Figure 4.8 – Station de Ouaga : Les courbes « probability plot », « quantile plot »
et les courbes des densités empirique et théorique.
Dans ces différentes figures, les courbes de « probability plot », de « quantile plot »
et de la densité estimée sont en couleur bleue. Dans les sous-figures ( (a) et (b) ) les
tirets représentent l’intervalle de confiance et (c) représente la densité empirique.
En fait, une estimation parfaite conduirait à la juxtaposition des densités dans les
sous-figures (c) et l’alignement des points sur le diagonal du carré dans les sous-figures
((a) et (b)). Cette situation parfaite n’est observée dans aucune figure. Néanmoins,
on peut remarquer la proximité de ces points le long des premières bissectrices.
A l’issu de ces tests, on peut accepter les ajustements faits dans les stations. Ces
résultats nous permettent d’exploiter des informations des distributions estimées en
lieu et place des échantillons. Ceci nous conduit à la prédictions de la survenance de
quelques températures extrêmes locales.
Figure 4.10 – Courbes des niveaux de retour en fonction des périodes de retour des
différentes stations.
Dans la figure 4.10, les courbes en traits pleins sont les estimations théoriques et
les points bleus représentent la version empirique.
Cette première analyse décrit le processus des températures extrêmes dans cha-
cune des cinq stations. Elle s’est déroulée dans un contexte où les paramètres spa-
tiaux et temporels sont fixés. Bien que les modèles d’ajustement soient tous de la
famille de Weibull, ils sont différents d’une station à un autre. Ceci laisse croire à
une évolution spatiale des processus des maxima de température. Il serait intéressant
de comprendre cette évolution dans l’espace, d’où la nécessité d’une analyse de la
dépendance spatiale.
Dans la section précédente, nous avons décrit le comportement probabiliste des
occurrences des maxima annuels de températures dans les cinq stations. Cette pre-
mière étude permettait de faire des prédictions sans tenir compte de la variation
saisonnière.
Figure 4.11 – Variations des paramètres GEV par mois et par station
Dans la figure 4.11, les modèles décrivant l’évolution des paramètres par an sont
des fonctions affines par morceaux. Pour des modèles plus pratiques, nous proposons
une interpolation de base polynomiale. Il s’agit d’une régression linéaire en fonction
des monômes. En effet, le degré du meilleur polynôme d’interpolation est inférieur
ou égal à n, où n est le nombre de points à interpoler.
Dans notre cas, pour une station donnée, nous déterminons le polynôme de degré
inférieur à 12, avec une certaine confiance d’adéquation appréciée par le test de Kol-
mogorov. Pour ce faire, nous avons fait varier le degré du polynôme progressivement.
Ceci nous conduit à un polynôme de degré cinq comme suit,
dont les coefficients sont récapitulés dans les tableaux 4.4 et 4.5.
Dans la formule (4.5) %̂s (t) désigne la fonctions d’ajustement du paramètre de
localisation ou d’échelle dans la localité s (représentant une station) pendant l’instant
t.
CHAPITRE 4. MODÉLISATION DES EXTRÊMES CLIMATIQUES 79
On note que les p−value sont toutes supérieures à 0, 05. Par conséquent, on peut
accepter l’hypothèse d’adéquation à 95%. Relativement aux paramètres de localisa-
tions par station, la figure 4.11 donne un aperçu sur les variations des polynômes
d’interpolation et la fonction affine par morceaux reliant tous les points.
CHAPITRE 4. MODÉLISATION DES EXTRÊMES CLIMATIQUES 80
Figure 4.12 – Évolution des paramètres estimés des distributions GEV en fonction
des mois, dans les différentes stations.
Quant aux paramètres d’échelle, les coefficients d’interpolations sont résumé dans
le tableau 4.6. Les résultats issus du test de Kolmogorov sont récapitulés dans le
tableau 4.7.
Les p−values étant tous supérieures au seuil 0, 05, on accepte le modèles avec
un degré de confiance de 95%. Relativement aux paramètres d’échelle par station,
la figure 4.13 donne un aperçu sur les variations des polynômes d’interpolation et la
fonction affine par morceaux reliant tous les points.
Figure 4.13 – Évolution des paramètres d’échelle estimés des distributions GEV en
fonction des mois, dans les différentes stations.
Pour l’estimation des niveaux de retour thermiques sur l’année, nous retiendrons
les modèles polynomiaux (résumés par les tableaux 4.4 et 4.6) qui décrivent la va-
riation des paramètres d’échelles et ceux de localisations.
Par suite, pour une station donnée s, les quantiles thermiques sont donnés par la
formule suivante
si ξˆ0 (s, t) 6= 0
0
µ̂ (s, t) − σ̂(s,t) 1 − {− log (1 − p)}−ξ̂ (s)
ẑp (t) = ξˆ0 (s)
µ̂ (s, t) − σ̂ (s, t) log [− log (1 − p)] si ξˆ0 (s, t) = 0
forme ξˆ0 (s) = ξˆ (s), où ξˆ (s) sont donnés dans le tableau 4.1 à cause la propriété de
max-stabilité des distributions GEV.
Pour des temps de retour allant de 10 à 100 ans, les figures ci-après donnent un
aperçu sur l’évolution des quantiles extrêmes en fonction des moments de l’année.
Figure 4.14 – Évolution des niveaux de retour thermique dans la zone Sahélienne
Figure 4.15 – Évolution des niveaux de retour thermique dans zone Soudano-
sahélienne
CHAPITRE 4. MODÉLISATION DES EXTRÊMES CLIMATIQUES 83
Figure 4.16 – Évolution des niveaux de retour thermique dans la zone Soudanienne
Notons que les canicules les plus sévères sont attendues, dans toutes les zones
climatiques, pendant tout le mois d’Avril jusqu’au plutôt la première quinzaine du
mois Mai. Les canicules les moins sévères de l’année s’étendent autour du mois de
Août.
Les intensités thermiques diffèrent d’une zone à une autre. Par exemple, au mois
d’Août à Dori, l’intensité thermique de retour centennal est 40◦ C pendant que pour
la même échéance à Bobo , on a 31◦ C. Au fur et mesure que les périodes de retour
deviennent de plus en plus grandes les lignes thermiques se déforment. Ces défor-
mations signifient que l’intensité thermique se retarde ou arrive plutôt au cours de
l’année.
En outre, on peut remarquer que les amplitudes des périodes moins chaudes de
l’année se rétrécissent lorsque la période de retour devient de plus en plus longue. Par
contre les canicules les plus sévères sont attendues aux voisinages du mois d’Avril.
Ces dernières s’amplifient en intensité et durent lorsque la période de retour de vient
de plus en plus grande.
Cette analyse résume l’évolution des grandes valeurs thermiques au cours d’une
année pour des périodes de retour allant de 10 a 100 ans. Elle laisse à prévoir une
augmentation probable du nombre de jours très chauds et une diminution du nombre
de jours relativement plus froids. En d’autre termes, elle envisage une augmentation
probable de la fréquence et la durée des canicules ( ou épisodes de chaleurs).
CHAPITRE 4. MODÉLISATION DES EXTRÊMES CLIMATIQUES 84
Notons que, plus le nuage de points s’éloigne des axes du repère, mieux on s’ap-
proche de la dépendance totale entre les marges. Cette première méthode graphique
donne une idée générale sur les dépendances entre les marges des différents pairs.
Pour des détailles relativement précis sur ces dépendances, il faut une évaluation
numérique. Dans cette section, ces dépendances sont évaluées via des modèles para-
métriques.
Nous disposons de neufs modèles paramétriques candidats pour l’ajustement bi-
varié, relativement aux différents pairs de site. L’approche par le maximum de vrai-
semblance est utilisée pour estimer les paramètres de chacun d’entre eux. Donc un
critère de sélection est nécessaire .
a) Critère de sélection
Un critère de sélection est basé sur une mesure de vraisemblance et d’une mesure
de pénalité. En générale, on supposons que Li (.) la log-vraisemblance du ième modèle
CHAPITRE 4. MODÉLISATION DES EXTRÊMES CLIMATIQUES 85
b) Modèles sélectionnés
Le tableau 4.8 donne les différents AIC correspondant aux modèles candidats
à l’ajustement de la distribution du pair {Bobo-Dori}. En fait, moins est l’AIC
meilleur est le modèle.
D’après nos résultats résumés partiellement dans la tableau 4.8, le modèle logis-
tique est le meilleur parmi les candidats modèles. D’autres critères visuels appuient
ce choix, comme les ajustements des distributions marginales empirique (voir Figures
4.18 et 4.19 ) et théorique. Par ailleurs, nous avons l’ajustement de la fonction de
dépendance de Pickands empirique par rapport à sa version théorique.
La figure 5.18 nous donne les ajustements des fonctions densités (empirique et
théorique) et les périodes de retour relativement aux différentes marges. Les courbes
empiriques et théoriques sont respectivement en pointillées et en trait plein.
3. On a aussi le critère de Schawtz (appelé encore BIC) pour lequel h (N ) = log (N ) ou le critère
de Hannan-Quinn pour lequel h (N ) = log (log (N ))
CHAPITRE 4. MODÉLISATION DES EXTRÊMES CLIMATIQUES 86
Dans la figure 5.19, les sous-figures (a), (b) (c) et (d) sont respectivement les lignes
de niveaux de la densité bivariée, la fonction de dépendance de Pickands (empirique
en pointillé bleu et théorique est trait continu noir), les lignes de niveaux de la
fonction de répartition bivariée et la fonction de la densité spectrale.
Comme ce résultat, le modèle logistique est le choix optimal pour les neuf autres
pairs de sites. En outre le tableau 4.9 résume les forces dépendance entre les distri-
butions marginales, via le coefficient de dépendance extrémale.
Pour des mesures de simplicité du tableau, nous notons par B, O, P , F et D
les stations respectives de Bobo-Dioulasso, la station de Ouagadougou, la station
de Pô, la station de Fada N’Gourman et celle de Dori. Les paramètres θij et λuij
i 6= j ∈ {O, B, P, F, D} désignent respectivement les coefficients de dépendance
extrémal et le coefficient de dépendance de queue à droite relativement aux pairs
{i, j}. Le paramètre de la distribution logistique est représenté par αij .
Rappelons que plus le coefficient extrémal est proche de 1, plus les marges sont
dépendantes. Dans le cas de dépendance, les données radiales se cumulent autour
de 1/2 pendant qu’elles se répartissent sur les bords {0} et {1} dans une situation
d’indépendance. Graphiquement, la dépendance s’illustre par une courbe de densité
spectrale en forme de « cloche » (figures (4.22, 4.25 et 4.26)) et en forme de « U »
pour l’indépendance (figures (4.19,4.21 et 4.28)).
Conclusion
Ce chapitre a été consacré essentiellement à l’analyse des occurrences des grandes
intensités thermiques dans cinq localités du Burkina Faso. A cet effet, nous avons
déterminé d’abord les modèles adéquats (avec une grande marge de fidélité). A partir
de ces modèles, il ressort que les extrêmes thermiques sont variables dans le temps et
dans l’espace, mais elles ne peuvent dépasser un certain seuil critique (tableau 4.3).
Nous nous sommes aussi intéressés aux quantiles extrêmes thermiques pour des
périodes de retour allant de 10 à 100 ans. De cette analyse, nous notons que ces
niveaux thermiques restent quasiment constants, à un entier près. Cependant, force
est de savoir que les plages des périodes caniculaires s’élargissent pendant que les
CHAPITRE 4. MODÉLISATION DES EXTRÊMES CLIMATIQUES 88
amplitudes des périodes relativement moins chaudes se rétrécissent (voir les lignes
de niveaux thermiques des figure 4.13, 4.14 et 4.15).
Il ressort de l’analyse des dépendances inter-site qu’il est probable qu’un événe-
ment thermique extrême observé à Ouagadougou se réalise à Pô et Fada (vice-versa).
Par contre il est improbable qu’un événement thermique extrême observé à Dori se
réalise (au même moment) ni à Bobo encore moins à Po (vice versa).
Conclusion Générale
89
CHAPITRE 4. MODÉLISATION DES EXTRÊMES CLIMATIQUES 90
Supposons par simplicité que la loi X1 possède la densité f > 0. Alors, la loi de
Mn possède la densité nF (x)n−1 f (x) d’après (2.3). On a donc :
ˆ !
n h io x − λn
In = E g δn (Mn − λn ) =
−1
g nF (x)n−1 f (x) dx
R δ n
n−1
v
Remarquons que 1 − 1]0,n] (v) converge en croissant vers e−v 1{v>0} .
n
91
Comme par hypothèse In converge pour tout g, il est naturel, mais erroné à priori,
de penser que pour tout v > 0, la suite de terme
n
U − λn
Jn (v) = v
δn
converge. Supposons malgré tout que cette convergence ait lieu. On déduit en
1
considérant Jn − Jn (1) que pour tout w > 0,
w
U (wn) − U (n)
−→ h (w) .
δn n→+∞
Comme la variable W est non triviale cela implique que la fonction h n’est pas
égale à constante. Comme la fonction U est croissante, la fonction h est également
croissante. Supposons que plus généralement, on ait pour tout w > 0,
U (wx) − U (x)
−→ h (w) ,
δ (x) n→+∞
92
t Si ξ = 0 on obtient l’équation fonctionnelle
h (w1 w2 ) = h (w2 ) + h (w1 )
En particulier, on a
h (w1 ) 1 − w2ξ = h (w2 ) 1 − w1ξ
h (w)
Cela implique que h (w) = 0 et w = 1, et sinon est constant.
1 − w
ξ
Par conséquent, on obtient h (w) = c wξ − 1 . A un changement d’échelle
1
près, on peut choisir c = et à une translation près, on peut choisir U (n) = bn
ξ
En définitive, il vient que
n
v − 1 si ξ =
−ξ
U − λn 1
6 0
lim v =h = ξ
n→+∞ δn v
−log (v) si ξ = 0
v −ξ − 1
où on a posé y = si ξ 6= 0 et y = log (v) si ξ = 0
ξ
−1/ξ
Ainsi, la distribution de la loi limite est Hξ (x) = e−(1+ξx) .
93
Figure 4.20 – Dépendance bivariée thermique de la paire de stations {Bobo-Fada}
94
Figure 4.22 – Dépendance bivariée thermique de la paire de stations {Po-Ouaga}.
95
Figure 4.24 – Dépendance bivariée thermique de la paire de stations {Dori-Ouaga}.
96
Figure 4.26 – Dépendance bivariée thermique de la paire de stations {Ouaga-Fada}.
97
Figure 4.28 – Dépendance bivariée thermique de la paire de stations {Bobo-Dori}.
98
Posons
ˆ +∞
I (w) = exp −x2 dx.
w/2
On a
"ˆ +∞ # "ˆ +∞ # ˆ ˆ +∞
I (w) =
2
exp −y 2
dy exp −x 2
dx = exp −x2 − y 2 dxdy.
w/2 w/2 w/2
ˆ
1 +∞
ψ (w) = exp [− (w + 1/a) t] dt = (aw + 1)−1 .
a 0
99
Bibliographie
[1] Beirlant J., Goegebeur, Y., Segers, J., and Teugels, J. (2005), Statistic of ex-
tremes theory and application- Wiley, Chichester, England.
[2] Capéràa, P., A-L. Fougères et C. Genest (2000), Bivariate distributions with
given extreme value attractor, Journal of Multivariate Analysis, 72, 30-49.
[3] Charpentier, A. and Segers, J. (2009). Tails of multivariate Archimedean copulas.
J. Multivariate Anal. 100, 1521-1537, doi :10.1016/j.jmva.2008.12.015
[4] Cherubini, U., Luciano, E. and Vecchiato, W, (2004), Copula Methods in Fi-
nance Wiley Finance Series. John Wiley & Sons Ltd., Chichester.
[5] Ciaccio Di A. et al. (ads.) (2012), Advanced Statistical Methods for the Ana-
lysis of Large Data-Sets, Studies in Theoretical and Applied Statistics, doi
10.1007/978-3-642-21037-2 26, Springer-Verlag, Berlin Heidelberg
[6] Coles, S. (2001). An introduction to statistical modeling of extreme values-
Springer-Verlag (London), 2001.
[7] Cooley, Daniel S. , (2005), Statistical Analysis of Extremes Motivated by Weather
and Climate Studies : Applied and Theoretical Advances.
[8] Davison, A. (2003), Statistical Models. Cambridge : Cambridge University Press.
[9] Degen M. (2006). On Multivariate Generalised Pareto Distributions and High
Risk Scenarios-thesis, Department of Mathematics, ETH Zurich.
[10] Diakarya B. (2009) conditional Dependence of Trivariate Generalized Pareto
Distribution. Asian Journal of Mathematics & Statictics Year : 2009|volume :2|
Issue : 2| Page No. :20-32. DOI : 10.3923/itj.2012.76.84
[11] Diakarya B. (2012), Analysis of Stochastic Spatial Processes via Copula and
Measures of Extremal Dependence. Archives Des Sciences, Vol 65, No 12, Dec
2012, pp 665-673.
[12] Diakarya B., Moumouni D. and Remi G. B., (2016), Spatial Tail Dependence
and Survival Stability in a Class of Archimedean Copulas, International Journal
of Mathematics and Mathematical Sciences, vol. 2016, Article ID 8927248, 8
pages, 2016. doi :10.1155/2016/8927248.
[13] Durante F., C. Sempi (2016). Principles of copula theory, Chapman & Hall-CRC,
Boca Raton FL.
100
BIBLIOGRAPHIE 101
[14] Embrechts P., Klüppelberg C. and Mikosh T. (1997), Modelling Extremal Events
for Insurance and Finance. Springer. Berlin
[15] Evanesce, Extreme value analysis employing statistical copula estimation, by
René Carmona. Available via www.orfe.princeton.edu/~rcarmona.
[16] Ferreira, H. and Ferreira, M. (2012) Fragility Index of block
tailed vectors. ScienceDirect. Elsevier vol.142 (7), 1837-1848
http ://dx.doi.org/10.1016/j.bbr.2011.03.031
[17] Fougères, A., L (1996). Estimation non paramétrique de densités uni-modales
et fonctions de dépendance- thèses doctorat de l’Université Paul Sabatier de
Toulouse.
[18] Genest C. and MacKay R.J., (1986), Copula archimédiennes et familles de lois
bidimensionnelles dont les marges sont données. Canadian J. of Statistics 14,
145-159.
[19] Genest C., Ghoudi K. and Rivest L.P., (1995) A semiparametric estimation pro-
cedure of dependence parameters in multivariate families of distributions, Bio-
metrika (1995) 82 (3) : 543-552. doi :10.1093/biomet/82.3.543
[20] Hofert M. and Scherer M. (2011), DCO pricing with nested Archimedean copu-
las, Quantitative Finance 11, (5) 775-787 doi : 10.1080/1469760903508479
[21] Husler, J., Reiss, R.-D. (1989). Extreme value theory- Proceeding of a conference
held in Oberwolfach, Dec. 6-12-1987. Springer, Berlin etc. Lenz, H.
[22] Joe, H. (1990), Families of min-stable multivariate exponential and multivariate
extreme value distributions. Statistics and Probability Letters 9, 75-81.
[23] Joe, H., (1997). Multivariate Models and Dependence Concepts. Monographs on
Statistics and Applied Probabily 73, Chapman and Hall, London. ISBN 978-0-
412-7331.
[24] Junker, M. and A. May (2005), Measurement of aggregate risk with copulas.
Econometrics Journal 8, 428-454.
[25] Liebscher, E. (2006). Modelling and estimation of multivariate copulas, Working
paper, University of Applied Sciences Merseburg.
[26] Marshall, A. W. and I. Olkin (1988), Families of multivariate distributions.
Journal of the American Satistical Association 83, 834-841.
[27] Matheron G., (1969), cours de géostatistique, Les cahiers du Centre de Morpho-
logie Mathématique.
[28] McNeil, J., A. and Nes̆lehová J., (2009), Multivariate Archimedean copulas,
D-monotone functiona and l1 − norm symmetric distributions. The Annals of
Statistics 2009, Vol. 37, No. 5B, 3059-3097 doi :10.1214/07-AOS556.
BIBLIOGRAPHIE 102
[29] Mendez J. Fernando, Menendez Melisa, Luceño Alberto and Medina Raúl,
(2008), An extreme value model for wave climate considering duration and sea-
sonality, published in an international journal of research and developpement,
Elsevier.
[30] Michel, R. (2006). Simulation and Estimation in Multivariate Generalized Pa-
reto Distributions- Dissertation, Fakultät Würzburg, Würzburg.
[31] Nadarajah, Kotz, S., S. (2000). Extreme Value Distributions, Theory and Appli-
cations - Imperial College Press-[48] S. Lang, Linear Algebra.
[32] Nelsen, R. B. (2006), An Introduction to Copulas. 2nd edition. New York :
Springer.
[33] Nelsen R.B (1999)- An Introduction to copulas. Springer Series in Statistics.
Springer, New York, second edition.
[34] J. Pickands.(1981) Multivariate extreme value distributions. M. Bull. Internat.
Statist. Int. Proc. 43d. Session (Buenos Aires), pages 859-878.
[35] J. Pickands.(1989), Multivariate negative exponential and extreme value distri-
butions. In J. Hsler and R.D. Reiss, editors, Extreme Value Theory. Springer
Verlag.
[36] Resnick, S.I. (1987). Extreme Values, Regular Variation and Point Processes-
Springer- Verlag.
[37] Schmitz, V. (2003). Copulas and Stochastic Processes, Aachen University, PhD
distsertation
[38] F. Schmid, R. Schmidt, Th. Blumentritt, S. Gaier and M. Ruppert (2009),
Copula-based measures of multivariate association, in P. Jaworski, F. Durante,
W. Hardle, T. Rychlik, Copula theory and its applications, Proceedings of the
Workshop help in Warsaw, 25-26 Sptember 2009, Springer, Berlin-Heidelberg,
2010, pp. 209-236.
[39] Sedogo Laurent, (2007), Programme d’action national d’adaptation à la varia-
bilité et aux changements climatiques (PANA du Burkina Faso), Ministère de
l’environnement et du cadre de vie.
[40] Shepard, R.N (1987), Toward a universal low of generalisation for psychological
science : Science,237,1317-1323.
[41] Tajvidi, N. (1996a)- Confidence Intervals and Accuracy Estimation for Heavy-
tailed Generalized Pareto Distribution - Thesis article, Chalmers University of
Technology. http :// www.maths.lth.se/matstat/staff/~nader/.
[42] Whelan (2004), Sampling from Archimedean Copulas, Quantitative Finance 4,
339-352.
UNIVERSITÉ OUAGA I PR JOSEPH KI-ZERBO
-------------------
École Doctorale
Sciences et Technologies
-------------------
Laboratoire d’Analyse Numérique d’Informatique et
de Biomathématiques
No d’ordre : 551
Thèse Présentée
Par Remi Guillaume BAGRE
Pour obtenir le grade de
Dédicaces VIII
Remerciements IX
Résumé et Abstract XI
Introduction générale 1
I
SOMMAIRE
II
SOMMAIRE
Publications 82
Article 1 83
Article 2 92
III
SOMMAIRE
B Simulations 118
B.1 Représentation des copules (Chapitre 1) . . . . . . . . . . . . . . . . . . . 118
B.2 Codes R des figures de l’application (Chapitre 2) . . . . . . . . . . . . . . 120
Bibliographie 124
IV
LISTE DES TABLEAUX
2.1 Intervalle de confiance à 95% des niveaux de retour pour des périodes de
retour données (en mois). . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.2 Périodes de retour, en mois, des événements t pour les stations de Ouaga-
dougou et Yamoussoukro. . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
V
TABLE DES FIGURES
VI
TABLE DES FIGURES
VII
DÉDICACES
A mon Père
A ma Mère
A ma femme Jacqueline Wendin-so,
A mes chers enfants Esdras Ethan et Mael Brunel Mathisse.
VIII
REMERCIEMENTS
C’est un immense plaisir pour moi de pouvoir remercier ici les personnes qui, durant
ce travail de recherche, m’ont soutenu et guidé statistiquement ou non, de près ou de loin...
Messieurs les professeurs Alioune DIOP , Bisso SALEY et Youssouf PARE ont accepté
d’être rapporteurs de cette thèse. Je les remercie pour le soin avec lequel ils ont examiné
ce travail et pour l’intérêt qu’ils lui ont porté.
Pour finir, mes pensées vont enfin à tous mes proches, mon père, ma mère, ma femme,
mon frère, ma sœur et à toute ma famille et ma belle-famille pour le soutien qu’ils m’ont
apporté tout au long de la préparation de cette thèse. Merci à la grande famille et aux
amis pour leur soutien et leurs encouragements. Un grand merci à mes parents pour leur
IX
sempiternel “et ta thèse, où en est-tu ?”. Cette soutenance apporte, sans nul doute, une
réponse à cette intérrogation.
Merci à tous ceux dont les noms n’ont pu être cités dans ce document. Voilà, avec un
tel entourage, on ne pouvait que faire au mieux ! !
X
RÉSUMÉ ET ABSTRACT
Résumé
Cette thèse a pour but le développement de certains aspects de la modélisation des
risques climatiques en dimension plus grande que un. Elle s’articule essentiellement autour
de trois chapitres auxquels s’ajoutent une introduction et une conclusion. Dans le premier
chapitre, nous rappelons des notions de base utilisées en théorie des gestions des risques
multivariés pour une compréhension plus aisée des chapitres qui suivants. Le deuxième
chapitre concerne la modélisation de la dépendance de queue des copules Archimax en
dimension plus élevée dans un domaine spatial. Spécialement, nous proposons une ca-
ractérisation des marges bivariées de la copule spatiale d’Archimax où les coefficients de
dépendances de queue multivariée supérieure et inférieure spatiale sont modélisés, res-
pectivement, pour les copules Archimédiennes et les copules Archimax. Une propriété de
stabilité est donnée en utilisant des transformations convexes de la copule spatiale de
survie d’une famille archimédienne. Nous présentons également les résultats obtenus sur
plusieurs jeux de données réelles. Le troisième chapitre présente des propriétés de la valeur
à risque conditionnelle et de l’écart type. De plus, nous caractérisons une nouvelle version
des scénarii de haut risque via l’approche des copules.
XI
Abstract
The aim of this thesis is to develop some aspects of climate risk modelling in higher
dimension. It is revolved mainly around three chapters in addition with an introduction
and a conclusion. The first chapter deals with some basic concepts used in the multiva-
riate risk theory which are preliminaries for the following chapters. The second chapter
investigates properties of extensions of the tail dependence of Archimax copulas to high
dimensional analysis in a spatialized framework. Specifically, we propose a characteriza-
tion of bivariate margins of spatial Archimax processes while spatial multivariate upper
and lower tail dependence coefficients are modeled, both, for Archimedean copulas and
Archimax ones. A property of stability is given using convex transformations of survival
copulas in a spatialized Archimedean family. We also present the results of simulation of
real data. The third chapter investigates some properties of derivative measures of the
Value at Risk (VaR) of random variables modeling the stochastic behavior of a portfolio
asset. Specifically, coherentness and convex properties of the conditional, the tail VaR and
the standard deviation are established. Moreover, a new version of high risk scenario is
characterized and bivariate densities are modeled via copula approach.
XII
SIGLES, ABRÉVIATIONS ET
NOTATIONS
Sigles
• GP : Généralisée de Pareto.
• GVE : Généralisée des valeurs extrêmes.
• VaR : Valeur à Risque.
• TVE : Théorie des Valeurs Extrêmes.
• MDA : Max-Domaine d’attraction.
• TVaR : Tail Value-at-Risk.
• CVaR : Conditional Value-at-Risk.
• XTVaR : Excess Tail Value-at-Risk.
Abréviations
Notations
XIII
• P(A) : La probabilité de l’événement A.
• P(A|B) : La probabilité de l’événement A sachant l’événement B.
• I =[0,1] : L’intervalle unitaire.
• E(X) : L’espérance mathématique de la v.a X.
• Var(X) : La variance de la v.a X.
• σ(X) : L’écart type de la v.a X.
• Cov(X,Y) : La covariance de X et Y .
D
• X =Y : Les deux v.a X et Y sont égales en distribution.
p.s
• Xn −→ X : La suite de v.a (Xn )n converge presque sûrement vers X .
• min(A) : Le minimum de l’ensemble A.
• inf(A) : La borne inférieure de l’ensemble A.
• sup(A) : La borne supérieure de l’ensemble A.
• X ∧Y : Le minimum de X et Y .
• X ∨Y : Le maximum de X et Y .
• D(F ) : Le domaine d’attraction de la distribution F .
• 1A : La fonction indicatrice de A.
• (a, b] : {x; a < x ≤ b}
• [a, b) : {x; a ≤ x < b}
• (a, b) : {x; a < x < b}
• % : Croissant
• & : Décroissant
XIV
INTRODUCTION GÉNÉRALE
Le risque se définit et se mesure. Le problème est qu’on ne s’entend toujours pas sur
ce que le mot risque veut dire. Le dictionnaire Littré le définit ainsi
«Étymologie : a. italien risco, risque, prob. du latin resecum, objet coupant, écueil, d’où
risque couru par les navires, de resecare, couper
«Risque, n. m. Péril dans lequel entre l’idée de hasard. « Encore même qu’on ne court
1
nul risque de la vie », Pascal. »
2
Dans le premier chapitre, nous rappelons des notions de base utilisées en théorie des
gestions des risques multivariés, de la théorie des valeurs extrêmes et de la théorie des
copules pour une compréhension plus aisée des chapitres qui suivent.
Dans le troisième chapitre nous présentons les propriétés des mesures dérivées de la
VaR, des propriétés de la TVaR et de l’écart type. De plus, nous caractérisons une nouvelle
version des scénarii de haut risque via l’approche des copules.
3
CHAPITRE 1
ENVIRONNEMENT ET OUTILS DE
TRAVAIL
Sommaire
1.1 Éléments de dépendance stochastique . . . 5
1.1.1 Mesures de dépendance linéaire . . . . . . . . . . . . . . . . . . 5
1.1.2 Mesures de corrélation non linéaire . . . . . . . . . . . . . . . . 8
1.1.3 Dépendance de queue . . . . . . . . . . . . . . . . . . . . . . . 9
1.2 La copule comme outils de dépendance sto-
chastique . . . . . . . . . . . . . . . . . . . . . 10
1.2.1 Préliminaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.2 Présentation des copules multidimensionnelles . . . . . . . . . . 12
1.2.3 La copule dans la dépendance stochastique . . . . . . . . . . . 13
1.2.4 Propriétés élémentaires des fonctions copules . . . . . . . . . . 14
1.2.5 Copules, corrélation non linéaire et dépendance de queue . . . 17
1.2.6 Quelques familles de copules paramétriques . . . . . . . . . . . 20
1.2.7 La famille de copules des valeurs extrêmes . . . . . . . . . . . . 29
1.3 Éléments de la statistique des extrêmes . . 31
1.3.1 Préliminaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.3.2 Modèle des blocs des maxima . . . . . . . . . . . . . . . . . . . 34
1.3.3 Modèle de dépassement de seuil . . . . . . . . . . . . . . . . . . 37
4
1.1 Éléments de dépendance stochastique
5
1.1 Éléments de dépendance stochastique
où
Cov (X1 , X2 ) = E (X1 X2 ) − E (X1 ) E (X2 )
est la covariance des deux variables.
Propriétés 1.1
Soient X1 et X2 deux variables aléatoires de lois F1 et F2 respectivement.
(i) Si X1 et X2 sont indépendantes alors ρ (X1 , X2 ) = 0, mais la réciproque est fausse
(ii) ρ n’intègre que la dépendance linéaire entre les deux variables.
(iii) ρ est invariant par transformation linéaire des variables. Cependant ρ ne l’est pas
pour toute transformation monotone.
(iv) Par ailleurs ρ vérifie l’inégalité de Tchen :
h i h i
Cov F1−1 (U ) , F2−1 (1 − U ) Cov F1−1 (U ) , F2−1 (U )
q ≤ ρ (X1 , X2 ) ≤ q
V (X1 ) V (X2 ) V (X1 ) V (X2 )
Preuve.
En effet,
• (i) Pour X1 N (0, 1) et X2 = X12 , on vérifie que cov (X1 , X2 ) = E (X13 ) = 0 or
X1 et X2 ne sont pas indépendantes. En particulier
Janos Aczel a montré que la solution de l’équation est telle que X1 et X2 sont de lois
gaussiennes.
• (ii) Le coefficient peut être élevé alors qu’il n’y a aucune relation de cause à effet
entre les deux variables.
• (iii) Il faut noter que la propriété (iii) signifie en particulier que ρ dépend des
distributions marginales. Plus généralement, soit f et g des transformations (fonctions).
La solution de l’équation est telle que fX1 (x1 ) = ax1 + b et fX2 (x2 ) = cx2 + d avec
ac > 0. En effet,
r(aX1 + b; cX2 + d) = sign(ac)r(X1 , X2 )
C’est pourquoi cette mesure est dite linéaire
6
1.1 Éléments de dépendance stochastique
1.1.1.2 Concordance
Les notions de concordance et d’association sont strictement aussi des concepts de
dépendance.
7
1.1 Éléments de dépendance stochastique
ou encore
Z
τXY = 2P [(X1 − X2 )(Y1 − Y2 ) > 0] − 1 = 4 F dF − 1.
ou encore Z Z
ρs = ρ(F1 (X), F2 (Y )) = 12 F1 (X)F2 (Y )dF (X, Y )
[0,1]2
8
1.1 Éléments de dépendance stochastique
n
X n
X
Où Ri = 1{xk ≤xi } est le rang de xi , Si = 1{yk ≤yi } celui de yi , R̄ et S̄ en sont des
k=1 k=1
moyennes respectives.
λS = lim P (X1 > t|X2 > t) = lim− P (H1 (X1 ) > u|H2 (X2 ) > u) .
t→+∞ u→1
λI = lim P (X1 < t|X2 < t) = lim+ P (H1 (X1 ) < u|H2 (X2 ) < u) .
t→−∞ u→0
C’est donc la probabilité que X2 soit extrême sachant que X1 est déjà extrême. En
particulier
· Si λS = 0 alors X1 et X2 sont asymptotiques indépendantes (l’apparition d’un extrême
en X1 n’a pas d’influence sur l’apparition d’un extrême en X2 ).
· Si 0 < λS ≤ 1 alors X1 et X2 ont une dépendance asymptotique, les extrêmes sont
parfaitement dépendants ou corrélés.
Soit X1 , . . . , Xn un vecteur aléatoire de fonction de répartition F = (F1 , . . . , Fn ). En
dimension multiple, le coefficient de dépendance de queue multivariée se généralise comme
suit.
9
1.2 La copule comme outils de dépendance stochastique
1.2.1 Préliminaires
1.2.1.1 Inverse généralisé d’une fonction de répartition
Soit X une v.a de fonction de répartition F . On prolonge F à R̄ = R∪ {−∞, +∞}
par F (−∞) = 0 et F (+∞) = 1. Par suite ; pour une v.a continue, F R̄ = [0, 1] = I ,
l’intervalle unitaire.
• Si F est continue et strictement croissante sur R alors elle admet un inverse F −1
défini sur [0, 1] à valeurs dans R̄.
• Dans les autres cas, on définit un pseudo-inverse ou inverse généralisé F (−1) de F de
la façon suivante
(
(−1) x ∈ R̄ /F (x) = t, si t ∈ ImF
F (t) =
inf {x/F (x) ≥ t} = sup {x/F (x) ≤ t} , si t ∈
/ ImF,
Remarque 1.1 Si la fonction F est strictement croissante alors la notion de pseudo-
inverse coincide avec la notion d’inverse c-à-d F (−1) ≡ F −1 .
La fonction pseudo-inverse possède les propriétés suivantes
n o
(i) {F (x) ≤ t} ⇐⇒ x ≤ F (−1) (t) (en effet, si F est% alors F −1 %)
(ii) Si t ∈ F R̄ alors F F (−1) (t) = t et F (−1) (F (x)) = x, x ∈ R̄.
10
1.2 La copule comme outils de dépendance stochastique
∆(i)
xi ,yi F (t) = F (t1 , ..., ti−1 , yi , ti+1 , ..., tn ) − F (t1 , ..., ti−1 , xi , ti+1, ..., tn ) .
Remarque 1.2 · La propriété (ii) signifie en particulier que F est croissante par rapport
à chaque variable. Dans le cas bidimensionnel équivaut à l’inégalité du rectangle que doit
vérifier toute fonction de répartition F c-à-d sur tout rectangle :
[x1 ≤ x2 ] × [x01 ≤ x02 ] avec (x1 , x2 ) ∈ R2 , (x01 , x02 ) ∈ R2 .
on a :
F (x01 , x02 ) − F (x01 , x2 ) − F (x1 , x02 ) + F (x1 , x2 ) ≥ 0
• Lorsque les variables X1 , ..., Xn sont mutuellement indépendantes, alors on a
n n
F (x) = Π P (Xi ≤ xi ) = Π Fi (xi ) ,
i=1 i=1
11
1.2 La copule comme outils de dépendance stochastique
Propriétés 1.2
La fonction C est une copule de dimension n, bien définie de [0, 1]n dans [0, 1] et vérifie
les propriétés suivantes :
(Pi ) C(u1 , . . . , ui−1 , 0, ui+1 , . . . , un ) = 0 pour tout vecteur aléatoire u ∈ [0, 1]n .
(Pii )
C(1, . . . , 1, ui , . . . , 1) = ui ∀ ui ∈ [0, 1], i = 1, . . . , n
(Piii ) C est n-croissante c’est-à-dire ∀ u ∈ [0, 1]n tels que ui ≤ vi pour i = 1, . . . , n on a :
2 2
(−1)i1 +i2 +...+in × C(xi1 , . . . , xin ) ≥ 0
X X
...
i1 =1 id =1
Proposition 1.1
∀u, v ∈ I la fonction (u, v) = uv définit une copule.
Q
12
1.2 La copule comme outils de dépendance stochastique
En effet,
1. ∀ u, v ∈ I on a
Q Q
(u, 0) = (0, v) = 0
2. ∀ u, v ∈ I
Q Q
(u, 1) = u et (1, v) = v
3. ∀ u1 , u2 , v1 , v2 ∈ I avec u1 ≤ v1 ; u2 ≤ v2 on a :
v1 (v2 − u2 ) ≥ u1 (v2 − u2 ) ⇒ v1 v2 − v1 u2 ≥ u1 v2 − u1 u2
Y Y Y Y
⇒ (v1 , v2 ) − (v1 , u2 ) ≥ (u1 , v2 ) − (u1 , u2 )
Y Y Y Y
⇒ (v1 , v2 ) − (v1 , u2 ) − (u1 , v2 ) + (u1 , u2 ) ≥ 0
Q
Par suite est une copule.
Preuve.
• Dans le cas où les variables aléatoires sont continues, on rappelle qu’alors Fi (R) =
[0, 1], ∀ i = 1, . . . , d. La propriété 1.2 montre alors l’existence d’une fonction copule.
L’unicité résulte du fait que si pour deux copules C et C 0 nous avons
13
1.2 La copule comme outils de dépendance stochastique
ainsi,
∀ ui ∈ [0, 1] ∃xi ∈ R Fi (xi ) = ui
donc
∀ u1 , u2 , . . . , ud ∈ [0, 1] C(u1 , . . . , ud ) = C 0 (u1 , . . . , ud )
• Dans le cas où les variables aléatoires peuvent être discontinues c-à-d Fi (R) peut
être strictement inclus dans [0, 1]. La propriété 1.2 montre Y
l’existence et l’unicité d’une
fonction C qui vérifie les axiomes des fonctions copules sur Fi (R).
i
Nous allons donc prolonger cette fonction
Y à tout [0, 1]d . En général, il n’y a pas d’unicité.
Comme C est lipschitzienne sur Fi (R), C se prolonge naturellement en une fonction
i
Y
lipschitzienne sur Fi (R). Le complémentaire dans [0, 1] de chaque Fi (R) est un ouvert
i
qui s’écrit donc comme réunion dénombrable d’intervalles ouverts deux à deux disjoints.
d
Y (k) (k)
Nous venons donc de prolonger C sur chacun de ces pavés ]ai , bi [ pour k = 1, 2, . . .,
i=1
d
Y
il suffit de la faire sur le premier pavé ]ai , bi [. On montre que le prolongement par
i=1
interpolation linéaire convient c-à-d :
d
Y
pour x ∈ ]ai , bi [ xi = λi ai + (1 − λi )bi pour λi ∈]0, 1[
i=1
0n a :
Il reste à montrer que (ii) et (iii) de la propriété 1.2 sont vraies pour C.
Y (1) (2)
• Il suffit de montrer que la fonction d’ensemble µ définies sur les pavés ]xi , xi ]
i
par :
d
X
d
! ij
Y (1) (2) X (i ) (i )
µ ]xi , xi ] = (−1)j=1 C(F1 (x1 1 ), . . . , Fd (xd d ))
i=1 (i1 ,...,id )∈{1,2}d
peut bien s’étendre sur une tribu borélienne de Rd en une mesure de probabilité et que
les marginales ont les fonctions de répartitions Fi
14
1.2 La copule comme outils de dépendance stochastique
d
∂ dC Y
f (x1 , . . . , xd ) = (F1 (x1 ), . . . , Fd (xd )) fi (xi ) (1.10)
∂u1 . . . ∂ud i=1
15
1.2 La copule comme outils de dépendance stochastique
où Φ−1
i ; i = 1, 2 est la fonction quantile de la loi N (mi , σi ).
En particulier si X1 ≡ X2 N (0, 1) loi normale standard de corrélation ρ on obtient la
copule de Gauss de corrélation ρ.
Z Φ−1 (u) Z Φ−1 (v) ( )
1 x2 − 2ρxy + y 2
Cρ (u, v) = √ exp − dxdy
2π 1 − ρ2 −∞ −∞ 2(1 − ρ2 )
Comme sa distribution, la copule de Gauss est souvent caractérisée par sa densité cρ .
Soit hρ la densité associée à la distribution Hρ ,de sa représentation canonique on déduit
que : ∀x, y ∈ R; hρ (x, y) = f (x)g(y)cρ (F (x), G(y)); d’où
( ) ( )
n
x2 −2ρxy+y 2
o 1 x2 1 y2
hρ (x, y) = √1 exp − 2(1−ρ2 )
= √ exp − √ exp − cρ (F (x), G(y)).
2π 1−ρ2 2π 2 2π 2
d’où le résultat suivant
La densité de la copule normale bivariée de corrélation ρ est donnée par suite pour
tous réels x, y on a :
2 −2ρxy+y 2 x2 +y 2
n o
cρ (F (x), G(y)) = √ 1 exp − x 2(1−ρ2 )
+ 2
1−ρ2
En effet on a :
(
C(u, v) ≤ C(u, 1) = u
∀ u, v ∈ [0, 1] ⇒ C(u, v) = min(u, v) = M (1.12)
C(u, v) ≤ C(1, v) = v
16
1.2 La copule comme outils de dépendance stochastique
Proposition 1.2
Soient deux v.a. continues X et Y de copule associée CXY. et α et β des fonctions définies
sur Im(X) et Im(Y ) respectivement.
i) Si α et β sont des fonctions strictement croissantes alors on a : Cα(X)β(Y ) = CXY.
ii) Si α est strictement croissante (%) et β strictement décroissante (&) alors
∀u, v ∈ I;
Cα(X)β(Y ) (u, v) = u − CXY (u, 1 − v).
iii) Si α est strictement & et β strictement % alors
17
1.2 La copule comme outils de dépendance stochastique
ii) Q concerve l’ordre c-à-d si C1 < C10 et C2 < C20 alors Q(C1 , C2 ) < Q(C10 ,C20 )
iii) Q est invariante par rapport à la survie c-à-d Q(C1 , C2 ) = Q(Cb1 , Cb20 )
18
1.2 La copule comme outils de dépendance stochastique
1 − 2α + C(α, α)
Et on établit alors que : λ(α) =
1−α
En effet, c’est la probabilité conditionnelle que X2 soit supérieure au quantile F2−1 (α)
sachant que X1 est supérieure au quantile F1−1 (α). Ces deux quantiles correspondent au
même seuil α. Nous avons
Théorème 1.10
Si une copule bivariée C est telle que :
1. La limite
C(u, u) 1 − 2u + C(u, u)
lim− = lim− =λ (1.16)
u−→1 1−u u−→1 1−u
existe, alors C a une dépendance de queue (upper tail dependence) si λ ∈ (0; 1] et
n’a pas de dépendance de queue si λ = 0.
2. La limite
C(u, u)
lim+=λ (1.17)
u−→0 u
existe, alors C a une dépendance de queue (lower tail dependence) si λ ∈ (0; 1] et
n’a pas de dépendance de queue si λ = 0.
19
1.2 La copule comme outils de dépendance stochastique
Les copules archimédiennes peuvent être définies via un conditionnement par une
variable de structure Z. A cet effet, on se donne une variable aléatoire positive Z dont la
transformée de Laplace 1 est ψ = ϕ−1 .
1. La transformée de Laplace LΘ d’une variable aléatoire Θ à valeurs dans [O, +∞[ avec une fonction
R +∞
de distribution FΘ est définie par LΘ = E(e−sΘ ) = 0 e−st dFΘ (s)
20
1.2 La copule comme outils de dépendance stochastique
L’idée importante ici est que, via un conditionnement, on retrouve la situation d’indépen-
dance.
Le tableau suivant regroupe les caractéristiques des familles archimédiennes les plus
connues. On rappelle que le paramètre θ mesure le degré de dépendance entre les risques.
Plus il est élevé plus la dépendance est forte et une valeur positive de θ indique une
dépendance positive.
• La copule de Franck permet de modéliser les dépendances aussi bien positives que né-
gatives. On note qu’il n’existe pas de dépendance de queue pour cette copule.
21
1.2 La copule comme outils de dépendance stochastique
22
1.2 La copule comme outils de dépendance stochastique
23
1.2 La copule comme outils de dépendance stochastique
Définition 1.13
Une fonction bivariée est une copule Archimax si et seulement si elle est de la forme :
" !#
−1 φ(u)
Cφ,A (u, v) = φ (φ(u) + φ(v))A (1.22)
φ(u) + φ(v)
avec u, v ∈ [0, 1] . C’est la forme générale des copules des valeurs extrêmes.
• En choisissant A ≡ 1 on retrouve la forme générale des copules archimédiennes
c’est-à-dire :
24
1.2 La copule comme outils de dépendance stochastique
b) La copule gaussienne
La copule associée à la distribution normale est dite la copule Gaussienne ou la copule
normale.
Définition 1.16 ([17])
Soit X = (X1 , . . . , Xd ) un vecteur aléatoire gaussien (X ∼ N (0; Σ)), avec Σ une matrice
de covariance. Notons par ΦΣ et Φ les fonctions de distributions de X et Xi , i = 1, . . . , d
respectivement. Le vecteur aléatoire Gaussien possède une copule donnée par
CΣ (u) = ΦΣ (Φ−1 (u1 ), . . . , Φ−1 (ud )) ∀ u = (u1 , . . . , ud ) (1.28)
appelée copule Gaussienne.
25
1.2 La copule comme outils de dépendance stochastique
Cov(X, Y )
avec ρ = le coefficient de corrélation de Pearson.
σX σY
Proposition 1.3 ([17])
Dans le cas bivariée, la copule Cρ associée à une loi Gaussienne, de coefficient de corré-
lation ρ ∈ [0; 1], est donnée par :
Z Φ−1 (u1 ) Z Φ−1 (u2 ) " #
1 (s2 + t2 − 2ρst)
Cρ (u1 , u2 ) = q exp − dsdt. (1.33)
−∞ −∞ 2π (1 − ρ2 ) 2(1 − ρ2 )
Cas particuliers
1. Le cas où ρ = 0 correspond au cas d’indépendance et la copule C0 = uv.
2. Si ρ = −1 alors C−1 = W .
3. Si ρ = 1 alors C1 = M .
26
1.2 La copule comme outils de dépendance stochastique
27
1.2 La copule comme outils de dépendance stochastique
On utilise les mêmes étapes que la copule Gaussienne pour trouver la densité de la copule
de Student :
28
1.2 La copule comme outils de dépendance stochastique
29
1.2 La copule comme outils de dépendance stochastique
La famille des copules des valeurs extrêmes peut être interprétée comme limites des
copules C∗ quand n tend vers l’infini.
30
1.3 Éléments de la statistique des extrêmes
Dans le cas bivarié, nous identifions le simplexe unitaire 41 = {(1 − t, t), t ∈ [0, 1]}.
avec 0 ≤ uj ≤ 1.
31
1.3 Éléments de la statistique des extrêmes
32
1.3 Éléments de la statistique des extrêmes
T −→ E
t 7−→ Xt (ω)
où E est l’espace d’arrivée des variables aléatoires Xt . Passer des variables aléatoires aux
processus stochastiques revient à passer en analyse des points aux fonctions. Les situations
réelles pouvant être modélisés par des processus stochastiques sont nombreuses. En voici
quelques exemples : Problème de la ruine, problème de l’extinction d’une population,
séries temporelles ou chronologiques, file d’attente, etc.
Définition 1.22
Un processus max-stable Z(x) est le processus limite des maxima de champs aléatoires
Yi (x) i.i.d, x ∈ Rd . Plus précisément :
Les processus max-stable sont la généralisation des distributions des valeurs extrêmes
au contexte spatial. Ce sont donc des candidats idéaux pour la modélisation des extrêmes
spatiaux
33
1.3 Éléments de la statistique des extrêmes
Cas particuliers
· si α = 0, F est dite fonction à variation lente.
· si α = +∞, F est dite fonction à variation rapide
Par conséquent, on vérifie aisément que toute fonction F à VR(α) a la représentation
suivante : F (x) = xα L (x) où L est une fonction à variation lente. Les résultats suivants
résument les propriétés fondamentales de représentation et de stabilité des fonctions à
variations régulières.
34
1.3 Éléments de la statistique des extrêmes
Proposition 1.4
La fonction de répartition Fi:d de Xi:d est donnée pour tout x ∈ R, par :
d
Cdi [F (x)]i [1 − F (x)]d−i
X
Fi:d (x) = P (Xi:d ≤ x) = (1.45)
i=1
et la densité fi:d de Xi:d est liée à la densité commune f des Xi par :
d!
fi:d (x) = [F (x)]i−1 [1 − F (x)]d−i f (x) (1.46)
(i − 1)!(d − i)!
Les lois des statistiques extrêmes Md et Wd s’en déduisent aisément, x ∈ R par :
• FMd (x) = [F (x)]d et fM (x) = d[F (x)]n−1 f (x) (pour la loi du maximum)
• FWd (x) = 1 − [1 − F (x)]d et fW (x) = d[1 − F (x)]d−1 f (x) (pour la loi du minimum)
def
Y = aX + b
35
1.3 Éléments de la statistique des extrêmes
x−µ
• Λ(x) = exp − exp − avec −∞ < x < +∞ (Loi de Gumbel)
σ
1
−
x−µ
exp − 1 + ξ ξ si x > 0
σ +
• Φξ (x) =
(Loi de Fréchet)
0 si x < 0
( −θ )
x−µ
exp − − si x < µ
σ
+
• Ψθ (x) = (Loi de Weibull)
1 si x ≥ µ
Définition 1.25
Une loi de probabilité est dite une distribution multivariée de valeurs extrêmes du maxi-
mum si sa fonction de répartition F peut s’obtenir comme limite de la suite de distribution
de maxima convenablement normalisé c’est-à-dire s’il existe des vecteurs de suite de nor-
malisation an = {(an,1 , . . . , an,d ); an,j ∈ R} ; bn = {(bn,1 , . . . , bn,d ); bn,j ∈ R+
∗ } tels que :
! !
Mn − bn Mn,1 − bn,1 Mn,d − bn,d
lim P ≤x = lim P ≤ x1 , . . . , ≤ xd
n−→+∞ an n−→+∞ an,1 an,d
= lim [F (an,1 x1 + bn,1 , . . . , an,d xd + bn,d )]n
n−→+∞
!
Mn − bn
lim P ≤x = F ∗ (x1 , . . . , xd ) (1.47)
n−→+∞ an
avec F ∗ est la fonction de répartition de Mn dont les lois marginales F1∗ , . . . , Fd∗ as-
sociées à Mn,1 , . . . , Mn,d ne sont pas dégénérées, alors F ∗ est appelée loi multivariée de
valeurs extrêmes de maximum. On dit alors que la fonction de répartition F ∈ M DA(F ∗ ).
36
1.3 Éléments de la statistique des extrêmes
37
1.3 Éléments de la statistique des extrêmes
Alors sous ces conditions, pour un seuil suffisamment élevé u, la fonction de distribution
de (X − u) conditionnée à X > u est approximativement :
!−1/ξ
ξx
H(x) = 1 − 1 + (1.50)
σ + ξ(u − µ)
où
σ̃ = σ + ξ(u − µ) (1.52)
Nous pouvons obtenir une loi limite lorsque ξ −→ 0. Cela nous conduit à la formule sui-
vante (ξ −→ 0) :
x
FX (x) = 1 − exp(− ) (1.53)
σ
Si les maxima de blocs ont approximativement une distribution GEV, alors les excès de
seuil ont une distribution approximative correspondante appartenant à la famille géné-
ralisée Pareto. L’approche utilisée pour ajuster un modèle GPD aux données consiste à
effectuer la procédure suivante : nous possédons des réalisations x1 , . . . , xd supposées indé-
pendantes et censées parvenir d’une distribution commune FX . Les événements extrêmes
sont identifiés en fixant un seuil élevé u et en déterminant les observations qui excèdent
le seuil u.
38
CHAPITRE 2
MODÉLISATION DE LA DÉPENDANCE
SPATIALE PAR LES COPULES
Sommaire
2.1 Géostatistique et copules spatiales . . . . . 40
2.1.1 Statistique spatiale et géostatistique . . . . . . . . . . . . . . . 40
2.1.2 La copule comme modèle de dépendance spatiale . . . . . . . . 41
2.2 Modèle de dépendance spatiale et asymp-
totique . . . . . . . . . . . . . . . . . . . . . . 42
2.2.1 Caractérisation des processus stochastiques Archimax . . . . . 42
2.2.2 Copules et dépendance de queue multivariée spatiale . . . . . . 44
2.2.3 Dépendance spatiale et queue des copules Archimédiennes . . . 45
2.2.4 Dépendance spatiale et queue des copules Archimax . . . . . . 47
2.2.5 Stabilité spatiale des copules Archimédiennes de survie . . . . . 48
2.3 Applications aux données climatiques . . . 50
2.3.1 Données : analyse préliminaire . . . . . . . . . . . . . . . . . . 50
2.3.2 Transformation des données . . . . . . . . . . . . . . . . . . . . 51
39
2.1 Géostatistique et copules spatiales
es données à référence spatiale sont de plus en plus exploitées, et ce, dans divers
D domaines de recherche. Qu’il s’agisse de précipitations mesurées à des stations mé-
téorologiques, de la densité d’un minerais dans des échantillons de sol ou de la concentra-
tion de gaz carbonique dans l’air en certains sites, ces données possèdent toutes un point
en commun : elles sont localisées dans l’espace géographique. Le traitement statistique
de ce type de données demande une attention particulière car l’hypothèse classique selon
laquelle les observations sont indépendantes et identiquement distribuées est rarement
vérifiée. Des méthodes statistiques adaptées à l’analyse de données à référence spatiale
ont été développées (Ripley, (1981) ; Cressie, (1993)).
En statistiques spatiales, les données sont collectées en des lieux dont on a relevé la
position géographique dans le but d’utiliser cette information spatiale dans la modélisa-
tion statistique. En particulier, on cherche à modéliser ce que l’expérience courante nous
enseigne : deux données proches géographiquement tendent à être similaires en valeur.
Cette modélisation nous permettra de réaliser des prédictions spatiales ou de tester des
hypothèses en intégrant explicitement cette dépendance spatiale dans les calculs.
40
2.1 Géostatistique et copules spatiales
41
2.2 Modèle de dépendance spatiale et asymptotique
Définition 2.2
Un processus {Xs , s ∈ S} est dit « 2-marginalement Archimax » si et seulement si pour
s
tout couple (Xis , Xjs ) la distribution bimarginale Fi,j = (Fis , Fjs ) est une copule Archimax
Cϕ,A avec un générateur complètement monotone ϕs .
Cm,ϕ (us1 , . . . , usm ) = ϕ[ϕ−1 (us1 ) + ϕ−1 (Cm−1,ϕ (us2 , . . . , usm ))]. (2.1)
pour tout (us1 , . . . , usm ) ∈ [0, 1]m où Cm,ϕ est une copule archimédienne de générateur ϕ.
Dans le cas où ϕθ (xi ) = (− ln xi )θ , θ ≥ 1, la copule bimarginale est alors le modèle de
Gumbel, tel que, pour tout site s ∈ S et pour tout i, j ∈ {1, . . . , d}
h i1/θ
Cs,θ (usi , usj ) = exp − (− ln usi )θ + (− ln usj )θ . (2.2)
42
2.2 Modèle de dépendance spatiale et asymptotique
Proposition 2.1
Soit {Xs , s ∈ S} un processus « 2-marginalement Archimax » avec une distribution jointe
Fs et generée par Z
ϕs (t) = e−w dFs,1 (w), (2.5)
K
s’il existe m > 0 tel que ϕs (1 − 1/x) ∈ RV (−m), alors toute distribution marginale
s
bivariée Fi,j de Fs avec 1 ≤ i, j ≤ s est donnée par
X ϕ (F s (xs ))
s
s
Fi,j (xsi , xsj ) = ϕ−1 ϕs (Fks (xsk )) .A∗s,m X i s i s ; (2.6)
s
k=i,j
ϕs [Fk (xk )]
k=i,j
où A∗s,m est une fonction convexe spatiale définie de [0; 1] à valeurs dans [1/2; 1]m−1
Preuve. Supposons que les processus {Xs , s ∈ S} ont une distribution bimarginale
commune, ainsi pour chaque site s ∈ S,
s
Fi,j = (Fis , Fjs ) = (F1s , F2s ) avec i, j ∈ {1, . . . , d} (2.7)
Z +∞
où ϕs est tel que ϕ−1
x (1 − t/r) ∈ RV (−α) avec ϕ−1
x = (1 − t/r)m−1 dr.
t
Selon le théorème de Sklar via la relation (1.8), pour tout 1 ≤ i, j ≤ d, il vient que
43
2.2 Modèle de dépendance spatiale et asymptotique
De plus, Genest et al [15] montrent que si une copule Archimax C ∗ de fonction de dé-
pendance A∗ appartenant au domaine d’attraction (MDA) d’une autre copule Archimax
donnée, alors il existe α ∈ [0, 1] ; tel que
" #
t1/α
A∗ (t) = [t1/α + (1 − t)1/α ]α A1/α (2.11)
t1/α + (1 − t)1/α
En particulier, dans le contexte spatial bivarié, il vient que, pour tout i, j ∈ {1, . . . , d}
X ϕ (F s (xs ))
s
Cϕs ,A (Fis (xi ), Fjs (xj )) = ϕ−1 ϕs (Fks (xsk )) .A∗s,m X i i
(2.13)
s s s
k=i,j
ϕs (Fk (xk ))
k=i,j
Définition 2.3 La fonction A∗s,m est appelée fonction de dépendance spatiale d’Archimax.
Par analogie, la dépendance de queue inférieure est définie, si elle existe, par
λL = lim + P Y < FY−1 (α) X < FX−1 (α) (2.16)
α−→0
44
2.2 Modèle de dépendance spatiale et asymptotique
λU,k = lim− P (X1 > F1−1 (u), . . . , Xk > Fk−1 (u)|Xk+1 > Fk+1
−1
(u), . . . , Xd > Fd−1 (u))
u−→1
(2.17)
Par analogie, la dépendance de queue inférieure est définie, par
Proposition 2.2
Soit {Cϕs , s ∈ S} une copule spatiale archimédienne de générateur ϕs , alors pour tout k,
k < d, le coefficient de dépendance de queue supérieure est donné analytiquement par
d
(−1)k X
λU,k
X
= 1 + lim Cϕs (us,ik ); ik ∈ Sk (2.20)
k=1 1 − us,k
us,i −→1
sk ⊂N
pour des éléments spécifiques de l’ensemble Sk qui est un sous ensemble non vide de
N = {1, . . . , d}.
Preuve. Supposons que la copule Cϕs est une copule spatiale archimédienne, pour un
s ∈ S donné. Ceci signifie en particulier que, pour tout (us1 , . . . , usd ) ∈ [0, 1]d ,
De plus, étant donné que toute copule est une fonction de répartition avec des marges
uniformes, notons alors Ceϕt la co-copule de X (c’est-à-dire la distribution de survie de la
distribution C).
45
2.2 Modèle de dépendance spatiale et asymptotique
Ceϕs (us1 , . . . , usd ) = P (F1s (xs1 ) > us1 , . . . , Fds (xsd ) > usd )
soit
Ceϕs (us1 , . . . , usd ) = C ϕs (1 − us1 , . . . , 1 − usd ) (2.22)
De plus, d’après Charpentier et al (voir [2]), il vient que
d
Ceϕs (us1 , . . . , usd ) k
X X
= (−1) Cϕs (v1 , . . . , vd ) (2.23)
k=0 v(us1 ,...,usd )∈Zs (d−k,n,1)
d
X
où Zs (M, N, ε) représente l’ensemble {v ∈ [0, 1]d ; vi ∈ {us , ε}, 1{ε} (vi ) = M }.
i=1
Alors, pour (us1 , . . . , usd ) ∈ [0, 1]d , nous pouvons réécrire plus simplement la formule
(2.8) comme suit
d
Ceϕs (us1 , . . . , usd ) k
Cϕs (us1 , . . . , usd );
X X
= (−1) ij ∈ Sk (2.24)
k=0 Sk ⊂N
C ϕs (1 − us , . . . , 1 − us )
λU,k = lim
us −→1 1 − us
soit
d k d
X (−1)
λU,k = ϕ−1 s
X X
lim ϕs s (1 − u ij ) (2.27)
us −→1 1 − us
k=0 Sk ⊂N j=1
46
2.2 Modèle de dépendance spatiale et asymptotique
Proposition 2.3
Soit ϕs un générateur Archimax bivarié de processus {Xs , s ∈ S}. Pour tout k < d le
coefficient de dépendance de queue inférieure se généralise comme suit
(i)
λL,k
s ≤ lim+ R(ϕs (us )) (2.29)
u−→0
Pour une mesure conditionnelle spécifique Dϕs si Cϕs est strictement extréme.
avec ϕ−1
s (y) = inf{t ∈ [0, 1], ϕs (t) ≤ y}. Alors, il vient que
!
k
X
ϕ−1 ϕs (us )
s
i=1
λL,k
ss = lim
us −→0 Xd
ϕ−1 ϕs (us )
s
i=k+1
47
2.2 Modèle de dépendance spatiale et asymptotique
soit
ϕ−1
" #
s (kϕs (us ))
λL,k
s = lim −1
(2.33)
us −→0 ϕs ((d − k)ϕs (us ))
où ϕs vérifie (2.32).
Alors, ϕ−1 est strictement croissante de [0, +∞] −→ [0, 1] et ϕ(0) = 1 et alors
λL,k
s = R(ϕs (us )) < 1 est vérifiée.
(ii) Supposons que Cϕs est une copule des valeurs extrêmes.
La version spatiale de la représentation de Pickands donne
( d !)
X ues,i ues,d−1
C(u1 , . . . , ud ) = exp ues,i AC Pd , . . . , Pd (2.34)
i=1 i=1 ues,i i=1 u
es,i
48
2.2 Modèle de dépendance spatiale et asymptotique
(k)
où (φ−1 ) est la dérivée d’ordre k de φ−1 ,avec l’inverse généralisé ϕ−1 (y) = inf{t ∈
[0, 1], ϕ(t) ≤ y} tel que
Proposition 2.4
Soit Xs = {(X1,s , . . . , Xd,s ), s ∈ S} un processus « 2-marginalemnt » Archimax de ge-
nerateurs l’ensemble {ϕs , s ∈ S} associée aux copules {Ci,ϕs ; s ∈ S; 1 ≤ i ≤ d}.
Soit {C i,ϕs ; s ∈ S; 1 ≤ i ≤ d} l’ensemble des copules de survie spatiales des copules
{Ci,ϕs ; s ∈ S; 1 ≤ i ≤ d}. Sous les conditions des copules extrêmes strictes Ci,ϕs et pour
tout α = (α1 , . . . , αm ) ∈ ∆m , la combinaison géométrique
1α 2 α m−1 α αm
Cϕs ,α (us , vs ) = C 1,ϕ s
(us , vs ) × C 2,ϕ s
(us , vs ) × . . . × C m−1,ϕ s
(us , vs ) × C m,ϕs (us , vs ) (2.38)
ce qui donne
m
Cj (gj,1 (us1 ), . . . , gj,d (usd )) = C1 ((us1 )α1 , . . . , (usd )αd )×. . .×Cm ((us1 )α1 , . . . , (usd )αd ) (2.40)
Y
j=1
est toujours une copule pour toute famille d dimensionnelles de copules C1 , . . . , Cm radia-
lement symétrique.
Par conséquent, dans le cas bivarié spatial, la transformation suivante est toujours une
copule :
Cϕs ,α (us , vs ) = C1,ϕs (uαs 1 , vsα1 )×C2,ϕs (uαs 2 , vsα2 )×. . .×Cm−1,ϕs (uαs m−1 , vsαm−1 )×Cm,ϕs (usαm , vsαm )
(2.41)
De plus, chaque copule Ci,ϕs est une copule des valeurs extrêmes et est max-stable. On a
la propriété suivante dans le cas bivarié
k
Cj,ϕs
(us , vs ) = Cj,ϕs (uks , vsk ) ∀ (us , vs ) ∈ [0, 1]2 , k > 0. (2.42)
49
2.3 Applications aux données climatiques
Une condition suffisante est de montrer que Cϕs ,α vérifie la propriété de max-stabilité,
pour tout k > 0,
kα kα kα
m−1 kαm
Cϕs ,α (us , vs ) = C 1,ϕ1s (us , vs ) × C 2,ϕ2s (us , vs ) × . . . × C m−1,ϕ s
(us , vs ) × C m,ϕs (us , vs ). (2.45)
Utilisons encore le fait que Ci,ϕs sont des modèles des valeurs extrêmes.
Ainsi, pour tout (u1 , . . . , ud ) ∈ [0, 1]d et k > 0
α1 α
Cϕs ,α (us , vs ) = C1,ϕ s
(uks , vsk ) × C2,ϕ
α2
s
(uks , vsk ) × . . . × Cm−1,ϕ
m−1
s
(uks , vsk ) × Cm,ϕ
αm
s
(uks , vsk ). (2.47)
Ainsi Cϕs ,α satisfait (2.42) qui caractérise les copules des valeurs extrêmes
Cette étude examine les changements régionaux dans des séries de température ex-
trêmes en Afrique de l’ouest, dont la modélisation multivariée est réalisée par des fonctions
50
2.3 Applications aux données climatiques
copules. L’analyse multivariée des températures extrêmes sera illustrée par des applica-
tions (cas bivarié) dans la zone notée A. les stations de la zone A sont les stations de
Ouagadougou et de Yamoussoukro.
Dans une région donnée contenant d stations, considérons le vecteur aléatoire (X1 , . . . , Xd )
de dimension d. Par exemple, Xi représente la variable aléatoire « température maximale
mensuelle à la station i ». Nous nous intéressons ici à la loi jointe F du vecteur aléatoire :
F (x1 , . . . , xd ) = P (X1 ≤ x1 , . . . , Xd ≤ xd )
51
2.3 Applications aux données climatiques
Nous possédons donc sur chacun des deux sites 30 × 12 = 360 maxima mensuels.
Après estimation des paramètres par le maximum de vraisemblance, nous arrivons aux
résultats suivants :
1. Pour le site de Ouagadougou,
ˆ = (34.1938292, 2.6661321, −0.2629578)
(µ̂, σ̂, ξ)
52
2.3 Applications aux données climatiques
53
2.3 Applications aux données climatiques
La valeur maximale de la log-vraisemblance est atteinte pour ξ < 0. Ainsi, les données
sont ajustées par la loi de Weibull.
54
2.3 Applications aux données climatiques
```
Periodes
`` ``` de retour
10 50 100
Sites
```
``` `
Ouagadougou [38.34346, 39.10123] [39.98106, 41.41654] [40.38850, 42.22818]
Yamoussokro [27.96830, 28.49234] [29.09832, 30.43245] [29.45319, 31.30124]
Table 2.1 – Intervalle de confiance à 95% des niveaux de retour pour des périodes de
retour données (en mois).
Figure 2.6 – Test d’adéquation des ajustements par la GEV de la zone A (site de Oua-
gadougou à gauche et le site de Yamoussoukro à droite).
55
2.3 Applications aux données climatiques
56
2.3 Applications aux données climatiques
Après transformation des données on remarque une dépendance positive. Une fois les
données rendues uniformes nous procédons à une estimation paramétrique des copules.
Nous choisissons l’estimation par la méthode de vraisemblance et on obtient les valeurs
suivantes :
1. Pour la copule Gaussienne on a ρ̂ = 0.88569.
2. Pour la copule de Gumbel on a θ̂ = 2.915 ;
3. Pour la copule de Student on a ρ̂ = 0.88634 et ν̂ = 15.65979 ≈ 16.
4. Pour la copule de Franck on a θ̂ = 10.9535.
Ainsi, à partir des paramètres estimés ci-dessus on obtient les graphiques suivants :
57
2.3 Applications aux données climatiques
58
2.3 Applications aux données climatiques
59
2.3 Applications aux données climatiques
Figure 2.14 – Densités des copules Gaussienne, Gumbel, Student et Franck ajustées aux
séries de températures max mensuelles (1981-2010) des stations de Ouagadougou et de
Yamoussoukro.
60
2.3 Applications aux données climatiques
Table 2.2 – Périodes de retour, en mois, des événements t pour les stations de Ouaga-
dougou et Yamoussoukro.
Figure 2.15 – Quantile plot des marges après ajustement par la copule de Gumbel.
Figure 2.16 – Quantile plot des marges après ajustement par la copule de student.
61
2.3 Applications aux données climatiques
de Student et Gumbel semblent mieux modéliser la dépendance des valeurs rares que la
copule gaussienne et la copule de Franck. Le tableau 2.2 montre que les conséquences du
choix de la copule sur les périodes de retour sont importantes. Par exemple, pour l’évé-
nement (t1 , t2 ), la période de retour est estimée à 207 mois pour la copule Gaussienne, et
à 80.12 mois pour la copule de Gumbel, soit plus du double. Ce qui est logique puisque
on se trouve alors dans la catégorie des événements rares dépendants, et que la copule
Gaussienne suppose l’indépendance de tels événements.
Conclusion
Les copules de Student et de Gumbel semblent mieux modéliser la dépendance des
valeurs rares que la copule gaussienne et la copule de Franck. Les figures 2.15 et 2.16 per-
mettent d’affirmer que La copule de Gumbel devrait être la mieux adaptée pour modéliser
la dépendance des températures extrêmes.
62
CHAPITRE 3
QUELQUES APPROCHES DE
MODÉLISATION DES RISQUES
Sommaire
3.1 Généralités sur les risques . . . . . . . . . . 64
3.1.1 Quelques types de risques . . . . . . . . . . . . . . . . . . . . . 64
3.1.2 Quantification des risques . . . . . . . . . . . . . . . . . . . . . 66
3.2 Approche de la Valeur à Risque . . . . . . . 67
3.2.1 Caractérisation de la valeur à risque . . . . . . . . . . . . . . . 67
3.2.2 Extension multivariée de la VaR . . . . . . . . . . . . . . . . . 68
3.2.3 Les bornes de la VaR . . . . . . . . . . . . . . . . . . . . . . . 69
3.2.4 La VaR et certaines mesures de risque . . . . . . . . . . . . . . 70
3.2.5 Pseudo-convexité des mesures dérivées de la VaR . . . . . . . . 72
3.2.6 Propriétés de la déviation standard empirique . . . . . . . . . . 74
3.3 Approche géométrique des scénarios de risques 75
3.4 Approches de la période de retour . . . . . 79
3.4.1 Notion de période de retour . . . . . . . . . . . . . . . . . . . . 79
3.4.2 Interprétation de la période de retour . . . . . . . . . . . . . . 80
63
3.1 Généralités sur les risques
a perception du risque est très importante et capitale dans toute activité de ges-
L tion. La gestion ou management du risque peut se définir comme une démarche qui
consiste à identifier les risques, les évaluer et définir des mesures de prévention si on estime
que le risque est trop grand. La gestion des risques traite les risques méthodiquement, de
manière coordonnée et économique tout en mettant l’accent sur l’identification des as-
pects fragiles d’un dispositif pour en estimer la pobabilité de survenance d’une situation
risquée.
Dans la modélisation stochastique, il existe plusieurs procédés pour gérer un risque en
passant par l’identification et l’évaluation pour permettre de réduire l’impact des certains
événements extrêmes. La maîtrise des risques est ainsi devenue un sujet de préoccupation
dans les sciences climatiques et se prémunir contre les risques devient alors très préoccu-
pant afin d’anticiper des crises. Il faut noter cependant qu’une des plus grandes difficultés
de l’analyse stochastique en général et dans celle des risques en particulier réside dans
la mesure de la dépendance entre les variables modélisant ces risques. Et étant donné le
fait que toute fonction de répartition continue peut être paramétrée par une copule via
la relation de Sklar (voir relation 1.8), on comprend alors aisément le rôle important que
joue l’utilisation des copules dans l’analyse stochastique des risques.
Dans ce chapitre, nous rappelons d’abord quelques généralités sur les risques avant de
proposer quelques propriétés de la valeur à risque. Une propriété vient étendre la notion
des scénarios à haut risque aux copules dérivées.
64
3.1 Généralités sur les risques
le prix d’actifs sur les marchés financiers ou encore la santé financière de contrepartie de
transaction avec la firme.
Pour qu’un risque soit qualifié de financier, il doit comporter trois éléments :
1. un individu (ou une organisation) qui est exposé(e) à une perte.
2. un actif ou un revenu dont la destruction (ou la perte) causera une perte financière.
3. un danger qui peut causer la perte.
On distingue essentiellement trois grands types de risques financiers
• Le risque de crédit ou de contrepartie
C’est l’incapacité d’un client (entreprise, institution financière, particulier ....) à res-
pecter et remplir ses obligations financières vis à vis de l’établissement financier
• Le risque de marché
C’est le risque de perte suite à une évolution défavorable des paramètres de marché
impactant négativement les positions de l’établissement financier. Ce risque est composé
entre autre du risque de taux d’intérêt, du risque d’échange et du risque de modèle.
• Le risque opérationnel
C’est un risque résultant d’une inadéquation ou d’un échec au niveau des processus,
des personnes, des systèmes (erreurs humaines, pannes systèmes, fraudes, litiges etc) ou
pertes résultant d’événements externes (catastrophes naturelles, incendies ...).
65
3.1 Généralités sur les risques
réponse adaptée du système de santé. Par exemple, le risque sanitaire intervient lorsque
les eaux sont polluées et deviennent impropres à l’utilisation qui en est faite : la consom-
mation de l’eau, de produits vivants. Parmi ces risques, on recense notamment les risques
infectieux pouvant entrainer une contamination de la population (Ébola, pandémie grip-
pale...).
Définition 3.1
On appelle mesure de risque une fonction R associant à X un réel positif ou nulle :
R : X → R+
De grandes valeurs de R(X) indiqueront que X est dangereux R(X) peut être vu comme
le capital à détenir pour faire face aux pertes X.
Pour deux risques quelconques X et Y , les propriétés suivantes peuvent être formulées :
L
1. Invariance en loi : Si X = Y alors R(X) = R(Y ).
2. Invariance par translation : R(X + c) = R(X) + c. Ajouter un certain montant au
risque implique l’ajout de ce même montant à la mesure du risque.
3. Homogénéité positive : R(λX) = λR(X) pour λ ≥ 0. Le fait de mesurer une
proportion d’un risque revient à considérer la proportion de la mesure du risque
seul.
66
3.2 Approche de la Valeur à Risque
Définition 3.2
La VaR d’une variable aléatoire X de fonction de répartition FX sur un horizon donné T
et pour un niveau de confiance α ∈ [0, 1] est défini par :
V aR(X; α) = − inf{x ∈ R/FX (x) > 1 − α} (3.1)
correspondant au capital minimal pour éviter d’être en ruine avec une probabilité 1 − α.
De manière similaire nous avons :
V aR(X; α) = inf{x ∈ R/FX (x) > α} (3.2)
Ceci peut être représenté en fonction de la quantile FX−1 nous avons par suite :
V aR(X; α) = −FX−1 (1 − α) = FX−1 (α) (3.3)
où FX est une fonction continue et strictement croissante.
La VaR est stable par transformation croissante (non linéaire) : quels que soient le niveau
de probabilité α ∈ [0, 1] et la fonction croissante et continue h on a
V aR[h(X); α] = h(V aR[X; α]) (3.4)
67
3.2 Approche de la Valeur à Risque
Pour mieux cerner le concept de la VaR, il semble logique de spécifier trois paramètres
très importants pour l’interprétation du chiffre de la VaR.
68
3.2 Approche de la Valeur à Risque
3.2.2.1 Définition
Soit X une variable aléatoire de fonction de répartition (donc F (x) = P (X ≤ x) )
modélisant par exemple, un gain ou une perte.
Rα (X) = V aR(x; α) = xα où P (X ≤ xα ) = α.
Théorème 3.1
Soient deux v.a X et Y de distributions FX et FY respectivement.
1. Pour tout z ∈ R, on a :
69
3.2 Approche de la Valeur à Risque
Il faut remarquer que dans le cas où X et Y sont obtenues l’une de l’autre par une
transformation monotone, on a :
Mais il existe des cas où V aR[X + Y ; α] est beaucoup plus grande que la somme des
quantiles uni-variés V aR[X; α] + V aR[Y ; α]. Cela s’explique par le fait que VaR n’est pas
sous-additive.
70
3.2 Approche de la Valeur à Risque
où z ≥ V aRα .
Pour un niveau de confiance α ∈]0, 1[, Rockafellar et al. [22] caractérise la CVaR par
71
3.2 Approche de la Valeur à Risque
Proposition 3.2
La CVaR est une mesure de risque cohérente dans le sens basique. De plus, pour un niveau
de confiance α ∈]0, 1[, il existe une fonction QX telle que la combinaison pseudo-convexe
suivante soit vérifiée
(1 − α)QX (α) + αQX (1 − α) = 0. (3.15)
Preuve. La cohérence de la CVaR est déjà prouvée dans [22]. Mais nous apportons une
autre approche de la démonstration afin de prouver la proposition.
· Pour toute constante C, on a : CV aRα (C) = C.
Par définition,
1Zα
CV aRα [(1 − λ)X + λY ] = V aRβ ((1 − λ)X + λY )dβ
α 0
ce qui donne
1Zα 1Zα
CV aRα ((1 − λ)X + λY ) ≤ V aRβ ((1 − λ)X) dβ + V aRβ (λY ) dβ
α 0 α 0
De plus, on vérifie aisément que
Z α Z α Z α Z α
V aRβ ((1 − λ)X)dβ+ V aRβ (λY )dβ = (1 − λ) V aRβ (X)dβ+λ V aRβ (Y )dβ
0 0 0 0
c’est à dire
soit alors,
72
3.2 Approche de la Valeur à Risque
et
E(−X) = −αCV aR1−α (X) + (1 − α)CV aRα (−X)
alors,
−αCV aR1−α (−X) + (1 − α)CV aRα (X) = −αCV aR1−α (X) + (1 − α)CV aRα (−X);
Proposition 3.3
La CV aRα est une combinaison pseudo-convexe de la VaR, la TVaR et de la XTVaR.
Preuve. La XTVaR est la somme de deux mesures de risque cohérentes dans le sens
basique. On a :
XT V aRα (X) = T V aRα (X) − V aRα (X)
alors, il vient que
1
T V aRα (X) − V aRα (X) = (CV aR1 (X) − CV aRα (X)) − V aRα (X).
1−α
Ce qui est équivalent à :
1
T V aRα (X) − V aRα (X) = (CV aR1 (X) − CV aRα (X)) − V aRα (X)
1−α
en outre,
1
XT V aRα (X) = (CV aR1 (X) − αAV aRα (X)) − V aRα (X)
1−α
alors il vient que,
1
XT V aRα (X) = (CV aR1 (X) − αAV aRα (X) − (1 − α)V aRα (X)).
1−α
Ainsi
CV aR1 (X) = (1 − α)(XT V aRα (X) + V aRα (X)) + αAV aRα (X)
est une pseudo-combinaison de la VaR, la TVaR et de la XTVaR
73
3.2 Approche de la Valeur à Risque
alors,
(E[((1 − λ)X + λY )2 ] − E[(1 − λ)X + λY ]2 )1/2 = ((1 − λ)2 E(X 2 ) + 2λ(1 − λ)E(XY )
−(1 − λ)2 (E(X))2 − 2λ(1 − λ)E(X)E(Y ) − λ2 (E(Y ))2 )1/2
finalement,
!1/2 !1/2
2 2 2 2
σ((1 − λ)X + λY ) ≤ (1 − λ) (E(X ) − E (X)) + λ (E(Y ) − E (Y ))
alors,
1/2
!
− E((X − X k )2 ) + 2E(X k )E(X − X k ) + E((X k )2 )
74
3.3 Approche géométrique des scénarios de risques
donc
!1/2
k 2 2 k k k k k
σ(X) ≤ E((X ) ) − E (X ) − 2(E(X (X − X )) + E(X )E(X − X ))
La fonctionnelle σ(X) est appelée une mesure de risque monétaire dans le sens basique si
cov(X, Y ) = 0 et cov(X, X − X k ) = 0. q
La dernière propriété devient évidente. En effet, σ(λX) = E([λX − E(λX)]2 )
q q
σ(λX) = λ2 E([X − E(X)]2 ) = λ E([X − E(X)]2 ) = λσ(X).
On conclut alors que σ(X) est une mesure de déviation dans le sens basique
Proposition 3.5
Soit Z un vecteur aléatoire de Rd et H ⊂ Rd un demi-plan fermé avec P (Z ∈ H) > 0 et
C une copule multivariée associée à Z. Le scenario de haut risque Z H est défini comme le
75
3.3 Approche géométrique des scénarios de risques
Corollaire 3.1
Soit Z ∈ Rd de densité f et c la densité de la copule multivariée C. Soit H un demi-plan
fermé tel que P (Z ∈ H) = α > 0. Alors Z H a pour densité
d
f H (z1 , . . . , zd ) = c(z¯1 , . . . , z¯d )
Y
1Hi (zi )f (zi )/αi (3.19)
i=1
76
3.3 Approche géométrique des scénarios de risques
ce qui donne :
d
f H (z1 , . . . , zd ) = c(F1H1 (z1 ), . . . , FdHd (zd )) Hi
Y
fi (zi )
i=1
et finalement
d
f H (z1 , . . . , zd ) = c(F1H1 (z1 ), . . . , FdHd (zd ))
Y
1Hi (zi )f (zi )/αi
i=1
Proposition 3.6
Soient Z un vecteur de Rd , H = H1 × . . . × Hd ⊂ Rd un demi plan fermé avec P (Z ∈
H) > 0, C une copule multivariée et supposons que zi ∈ ℵ = H1 ∩ . . . ∩ Hd , pour tout
i = 1, . . . , d. Si les distributions marginales des scenarios de haut risque π H sont toutes
continues, alors la densité de la copule C est donnée par
Hd
1H dπ ūH
1 , . . . , ūd
1
/π(H)
c(u1 , . . . , ud ) = (3.20)
dπ1 ūH
1
1
× . . . × dπd ūH
d
d
/(π1 (H1 ) × . . . × πd (Hd ))
Preuve. Supposons que les marges des scénarios de haut risque π1H1 , . . . , πdHd sont conti-
nues. En utilisant la relation (3.17), il vient que
dπ H (z1 , . . . , zd )
c(π1H1 (z1 ), . . . , πdHd (zd )) = d
Y
1Hi (zi )dπi (zi )/πi (Hi )
i=1
ce qui donne
1H dπ (π1H1 )(−1) (u1 ), . . . , (πdHd )(−1) (ud ) /π(H)
c(u1 , . . . , ud ) =
1ℵ dπ1 (π1H1 )(−1) (u1 ) × . . . × dπd (π1Hd )(−1) (ud ) /(π1 (H1 ) × . . . × πd (Hd ))
77
3.3 Approche géométrique des scénarios de risques
ou encore
1H dπ (π1H1 )(−1) (u1 ), . . . , (πdHd )(−1) (ud ) /π(H)
c(u1 , . . . , ud ) =
dπ1 (π1H1 )(−1) (u1 ) × . . . × dπd (π1Hd )(−1) (ud ) /(π1 (H1 ) × . . . × πd (Hd ))
d
\
puisque 1ℵ = 1, alors il vient que zi ∈ ℵ = Hi . Finalement, on obtient
i=1
Hd
1H dπ ūH
1 , . . . , ūd
1
/π(H)
c(u1 , . . . , ud ) =
dπ1 ūH
1
1
× . . . × dπd ūH
d
d
/(π1 (H1 ) × . . . × πd (Hd ))
Corollaire 3.2
La fonction de densité du modèle de Gauss bivariée et de coefficient de corrélation ρ est
tel que, pour tout (u1 , u2 ) ∈ [0, 1]2 ,
(ūH H2 2 H1 H2
(ūH H2 2
( )
1 2 1 2
F1 (H1 )F2 (H2 ) 1 ) + (ū2 ) − 2ρū1 ū1 1 ) + (ū2 )
cρ (u1 , u2 ) = √ exp − +
F (H) 1 − ρ2 2(1 − ρ2 ) 2
(3.21)
soit
( )
1 x2 + y 2 − 2ρxy
√ exp − si (x, y) estdansH
2πF (H) 1 − ρ2 2(1 − ρ2 )
fρH (x, y) = .
0 sinon
78
3.4 Approches de la période de retour
Comme pour la distribution de Gauss, la copule gaussienne est souvent caractérisée par
sa densité cρ . Alors, on peut écrire, pour tout (x, y) ∈ R2
ce qui équivaut
( )
1H (x, y) x2 + y 2 − 2ρxy
fρH (x, y) = √ exp −
2πF (H) 1 − ρ2 2(1 − ρ2 )
ou encore
( ) ( )
1H1 (x) x2 1H2 (y) y2
fρH (x, y) = √ exp − √ exp − cρ (F1H1 (x), F2H2 (y)).
F1 (H1 ) 2π 2 F2 (H2 ) 2π 2
Par ailleurs, on a :
soit ( ) ( )
1H1 (x) x2 1H2 (y) y2
fρH (x, y) = √ exp − √ exp − cρ (F1H1 (x), F2H2 (y))
F1 (H1 ) 2π 2 F2 (H2 ) 2π 2
De plus,
H1 ∩ H2 = R+ =⇒ 1H1 (x)1H2 (y) = 1et1H (x, y) = 1.
Ainsi,
( )
k x2 + y 2 − 2ρxy x2 + y 2
cρ (F1H1 (x), F2H2 (y)) =√ exp − + (3.22)
1 − ρ2 2(1 − ρ2 ) 2
En posons F1H1 (X1 ) = U et F2H2 (X2 ) = V alors (U, V ) ⊂ [0, 1]2 , alors la relation (3.22)
devient
(ūH H2 2 H1 H2
(ūH H2 2
( )
1 2 1 2
k 1 ) + (ū2 ) − 2ρū1 ū1 1 ) + (ū2 )
cρ (u1 , u2 ) = √ exp − +
1 − ρ2 2(1 − ρ2 ) 2
79
3.4 Approches de la période de retour
après un certain temps ou alors, au contraire, étant donné une probabilité d’occurrence,
on aimerait bien connaître la période pour laquelle il serait probable qu’un seuil donné soit
dépassé au moins une fois durant cette période. Cela nous permettrait d’établir des pré-
dictions sur la fréquence des éventuels risques au cours du temps. Les termes fréquemment
utilisés sont connus sous les noms de période de retour et de niveau de retour.
Définition 3.8
On définit la période de retour T d’une variable aléatoire X, associée à son niveau de
retour Z, comme étant l’intervalle de temps moyen entre deux événements, dont l’intensité
atteint ou dépasse un certain seuil s.
Cela veut dire que sur un intervalle de temps T , il y’a en moyenne un événement
d’intensité supérieure ou égale à s. T est comptée dans une unité de temps arbitraire ;
dans l’étude des événements extêmes climatiques c’est le plus souvent l’année. On a :
1 1 1
T = = =
p P (X > x) 1 − P (X ≤ x)
où p est la probabilité d’occurrence.
80
3.4 Approches de la période de retour
Remarque 3.1
Soit u∗ un événement extrême climatique de periode de retour centennale (ou 100 ans)
d’une variable aléatoire X de fonction de répartition FX . On a :
1 1
∗
F X (u ) = ⇐⇒ u∗ = FX−1 1 − = V aR(X, 0.99)
100 100
81
PUBLICATIONS
82
ARTICLE 1
83
Hindawi Publishing Corporation
International Journal of Mathematics and Mathematical Sciences
Volume 2016, Article ID 8927248, 8 pages
http://dx.doi.org/10.1155/2016/8927248
Research Article
Spatial Tail Dependence and Survival Stability in
a Class of Archimedean Copulas
Copyright © 2016 Diakarya Barro et al. This is an open access article distributed under the Creative Commons Attribution License,
which permits unrestricted use, distribution, and reproduction in any medium, provided the original work is properly cited.
This paper investigates properties of extensions of tail dependence of Archimax copulas to high dimensional analysis in a spatialized
framework. Specifically, we propose a characterization of bivariate margins of spatial Archimax processes while spatial multivariate
upper and lower tail dependence coefficients are modeled, respectively, for Archimedean copulas and Archimax ones. A property
of stability is given using convex transformations of survival copulas in a spatialized Archimedean family.
[3]) provides a list of common one-parameter Archimedean 2.1. Multivariate Tail Dependence Coefficient. The concept
generator functions while Whelan [7] and Hofert and Scherer of tail dependence of two random variables is related to
[8] studied algorithms for sampling Archimedean copulas. the magnitude of the occurrence that one component is
The class of Archimedean copulas started a wide range of extremely large assuming that the other component is also
applications for a number of properties like their computa- extremely large. For two random variables 𝑋 and 𝑌 with
tional tractability and their flexibility to model dependences joint distribution function 𝐹𝑋,𝑌 = (𝐹𝑋 , 𝐹𝑌 ), the upper tail
between random variables. One of the most salient properties dependence coefficient (TDC) is the conditional probability
is the exchangeability induced by the algebraic associativity; 𝜆 𝑈 (if it exists) that 𝑌 is greater than the 100𝛼th percentile of
that is, in bivariate case, 𝐹𝑌 given that 𝑋 is greater than the 100𝛼th percentile of 𝐹𝑋 as
𝛼 approaches 1; that is,
𝐶 (𝑢1 , 𝐶 (𝑢2 , 𝑢3 )) = 𝐶 (𝐶 (𝑢1 , 𝑢2 ) , 𝑢3 )
(4) 𝐹𝑌−1 (𝛼)
∀ (𝑢1 , 𝑢2 , 𝑢3 ) ∈ [0, 1]3 . 𝜆 𝑈 = lim− 𝑃 (𝑌 > > 𝐹𝑋−1 (𝛼)) . (7)
𝛼→1 𝑋
However, for many other applications like risk managment, Similarly, the lower TDC is defined, if it exists, by
the exchangeability turns out to be restrictive. To overcome
this drawback researchers have developed other approaches 𝐹𝑌−1 (V)
of modeling. For example, Joe [2] and Hofert and Scherer [8] 𝜆 𝐿 = lim+ 𝑃 (𝑌 < < 𝐹𝑋−1 (V)) . (8)
V→0 𝑋
use Laplace Transforms (LT) to derive more asymmetric and
flexible extensions of multivariate Archimedean copulas. In Several approaches of generalization of TDC to high
the same vein and with the aim to construct Archimedean dimensional cases have been proposed.
copulas belonging to given domain of attraction, Charpentier
et al. (see [9]) introduced, in bivariate context, the family Definition 1 (see Diakarya [12] or [13]). A multivariate gen-
of Archimax copulas by combining the extreme values and eralization of the TDC consists in considering 𝑘 (𝑘 < 𝑛)
Archimedean copulas classes into a single class. A member of variables and to quantify the conditional probability that each
this class with generator 𝜙 has the following representation: of the 𝑘 variables takes values from the tail given that the
remaining 𝑛 − 𝑘 variables take values from the tail too. For
𝜙 (𝑢) a given 𝑘, the corresponding generalized upper TDC is given
𝐶𝜙,𝐴 (𝑢, V) = 𝜙−1 {(𝜙 (𝑢) + 𝜙 (V)) 𝐴 ( )} ,
𝜙 (𝑢) + 𝜙 (V) (5)
by
2
(𝑢, V) ∈ [0, 1] , 𝜆𝑈,𝑘 = lim− 𝑃 (𝑋1 ≻ 𝐹1−1 (𝑢) ; . . . ; 𝑋𝑘 ≻ 𝐹𝑘−1 (𝑢) | 𝑋𝑘+1
𝑢→1
(9)
where 𝜙 satisfies relation (1) and 𝐴 is a convex dependence −1
≻ 𝐹𝑘+1 (𝑢) ; . . . ; 𝑋𝑛 ≻ 𝐹𝑛−1 (𝑢)) .
function mapping [0, 1] to [1/2, 1] and verifying max (𝑡; 1 −
𝑡) ≤ 𝐴(𝑡) ≤ 1. Similarly, the lower TDC is given by
Particularly, in stationary geostatistical context, we have
𝜆 𝐿,𝑘 = lim+ 𝑃 (𝑋1 ≤ 𝐹1−1 (𝑢) ; . . . ; 𝑋𝑘 ≤ 𝐹𝑘−1 (𝑢) | 𝑋𝑘+1
−1 −1 𝑢→0
𝑃 (𝑋 < 𝑥, 𝑌 < 𝑦) = 𝐶𝜙,𝐴 ℎ (𝜙 (𝑥) , 𝜙 (𝑦)) , (6) (10)
−1
≤ 𝐹𝑘+1 (𝑢) ; . . . ; 𝑋𝑛 ≤ 𝐹𝑛−1 (𝑢)) .
where ℎ = |𝑥 − 𝑦| is the distance between the two sites.
The main contribution of this paper is to model multi-
variate tail dependence by extending this asymptotic result 2.2. Radial Symmetry of Survival Distributions Functions. In
to spatial framework. Property of spatial stability of survival multivariate modeling with Archimedean copulas in actu-
Archimax copulas is also proved. The paper is organized as arial fields or duration analysis in economics, it is more
follows: Section 2 gives the basic definitions and properties appropriate to use the stochastic behaviours by means of
that will be needed for our results. Section 3 presents our survival function 𝐹 of the distribution 𝐹 associated with the
main results. Thus, the parametric tail dependence is also underlying copula.
generalized. Specifically, the upper parameter is analytically
modeled via the LT-generator of the process and the lower Definition 2 (Cherubini et al. [14]). The survival function
parameter is characterized both for strictly Archimedean and of the cumulative distribution function 𝐹 associated with
for strictly extremal subclasses in parametric context. a random vector denoted as 𝐹 represents, if evaluated at
𝑥 = (𝑥1 , . . . , 𝑥𝑛 ), the joint probability that 𝑋 is greater than
2. Materials and Methods 𝑥1 , . . . , 𝑥𝑛 , respectively,
In this section we collect the important definitions and prop- 𝐹 (𝑥1 , . . . , 𝑥𝑛 ) = 𝑃 [𝑋1 > 𝑥1 , . . . , 𝑋𝑛 > 𝑥𝑛 ]
erties on multivariate tail dependence and survival Archimax (11)
copulas that turn out to be necessary for our approach. = 1 + ∑ (−1)|𝐾| 𝐹𝐾 (𝑥𝐾 , 𝐾 ∈ ∇) ,
𝐾∈∇
The reader which is interested in bivariate statements of
Archimedean copulas is referred to Genest and MacKay [10] where ∇ is the set of nonempty subsets of {1, 2, . . . , 𝑛} while
and the software R and Evanesce [11] implements Archimax {𝐹𝐾 , 𝐾 ∈ ∇} denotes the set of lower marginal distributions
models proposed by Joe [2]. of 𝐹.
International Journal of Mathematics and Mathematical Sciences 3
Thus, we derive from relation (11) the survival version of Definition 3. The process {𝑋𝑠 , 𝑠 ∈ 𝑆} is called 2-marginally
Sklar’s representation (1) as Archimax if for all 𝑖, 𝑗 ∈ {1, . . . , 𝑛} every bivariate marginal
𝑠̌
−1 −1
distribution 𝐹𝑖,𝑗 = (𝐹𝑖𝑠̌; 𝐹𝑗𝑠̌) can be associated with an Archi-
𝐶 (𝑢1 , . . . , 𝑢𝑛 ) = 𝐹 [(𝐹1 (𝑢1 ) , . . . , 𝐹𝑛 (𝑢𝑛 ) ] , max copula 𝐶𝜙𝑠 ,𝐴 with a completely monotone function 𝜙𝑠 .
(12)
∀ (𝑢1 , . . . , 𝑢𝑛 ) ∈ [0, 1]𝑛 , Consider, for example, the process {𝑋𝑠 , 𝑠 ∈ 𝑆} whose
underlying copula is the following nested model:
−1
where 𝐹𝑖 are the generalized pseudoinverses of 𝐹𝑖 (see Joe
[2]). 𝐶𝑚,𝜙 (𝑢1𝑠̌ , . . . , 𝑢𝑚
𝑠̌
)
Note that, in stochastic analysis, care needs to be taken (17)
when dealing with survival concept in multivariate case. = 𝜙 [𝜙−1 (𝑢1𝑠̌ ) + 𝜙−1 (𝐶𝑚−1,𝜙 (𝑢2𝑠̌ , . . . , 𝑢𝑚
𝑠̌
))]
Indeed, it follows that, for 𝑛 ≥ 2,
for all (𝑢1𝑠̌ , . . . , 𝑢𝑚
𝑠̌
) ∈ [0, 1]𝑚 , where 𝐶𝑚,𝜙 is an 𝜙-Archimedean
𝐹 (𝑥1 , . . . , 𝑥𝑛 ) = 𝑃 (𝑋1 > 𝑥1 , . . . , 𝑋𝑛 > 𝑥𝑛 ) copula. For the simple case where 𝜙𝜃 (𝑥𝑡 ) = (− ln 𝑥𝑡 )𝜃 , 𝜃 ≥
1, the bivariate marginal copulas are the models of Gumbel,
≠ 1 − 𝐹 (𝑥1 , . . . , 𝑥𝑛 ) , (13) such that, for all site 𝑠 ∈ 𝑆 and for all 𝑖, 𝑗 ∈ {1, . . . , 𝑛},
∀𝑥 = (𝑥1 , . . . , 𝑥𝑛 ) ∈ R𝑛 . 𝜃 𝜃 1/𝜃
𝐶𝑠,𝜃 (𝑢𝑖𝑠̌; 𝑢𝑗𝑠̌ ) = exp {− [(− ln 𝑢𝑖𝑠̌) + (− ln 𝑢𝑗𝑠̌ ) ] } , (18)
By analogy, in copulas framework, there is no confusion
between the suvival copula 𝐶 of 𝑋 (the copula of the survival which belongs to the class of Archimax models for 𝐴(𝑠) ≡
function of 𝑋) and the cocopula 𝐶 ̃ of 𝑋 (the survival 1, 𝑠 ∈ [0, 1] with 𝑖, 𝑗 ∈ {1, .., 𝑛}.
distribution of the distribution 𝐶). Consider a 2-marginally Archimax process {𝑋𝑠 , 𝑠 ∈ 𝑆}
Then, for all (𝑢1 , . . . , 𝑢𝑛 ) ∈ [0, 1]𝑛 , it follows that with joint distribution function 𝐹𝑠 . Assume that 𝑋𝑠 satisfies
the regularly varying property with index 𝛼 (𝛼 > 0),
̃ (𝑢1 , . . . , 𝑢𝑛 ) = 𝑃 (𝑈1 > 𝑢1 , . . . , 𝑈𝑛 > 𝑢𝑛 )
𝐶 written as 𝐹𝑠 ∈ RV(𝛼). That means particularly that there
(14) exists a random vector 𝑌𝑠 , distributed on the unit spatialized
= 𝐶 (1 − 𝑢1 , . . . , 1 − 𝑢𝑛 ) . parametric simplex,
𝑛
Particularly in analysis with Archimedean copulas, sur- Δ 𝑠,𝑛 = {𝑥𝑠 ∈ R𝑛+ ; 𝑥𝑠 = ∑𝑥𝑠,𝑖 = 1} (19)
vival distributions are often used to characterize exchange- 𝑖=1
ability or the radial symmetry which is a key tool among the
possibilities in which sense random vectors are symmetric. such that, for any 𝑠 > 0 and any Borel-set 𝐵𝑠 ⊂ Δ 𝑠,𝑛 ,
Following Nelsen [3], the random vector (𝑋1 , . . . , 𝑋𝑛 ) is said
𝑃 (𝑋𝑠 > 𝑡𝑦𝑠 , 𝑌𝑠 / 𝑌𝑠 ∈ 𝐵𝑠 ) V
to be radially symmetric about (𝑎1 , . . . , 𝑎𝑛 ) ∈ R𝑛 if its joint → 𝑃 (𝑌𝑠 ∈ 𝐵𝑠 ) 𝑡−𝛼 , (20)
𝑃 (𝑌𝑠 > 𝑦𝑠 ) 𝑦𝑠 →+∞
distribution function 𝐹 satisfies
where V symbolizes vague convergence and ‖⋅‖ is an arbitrary
𝐹 (𝑥1 + 𝑎1 , . . . , 𝑥𝑛 + 𝑎𝑛 ) = 𝐹 (𝑎1 − 𝑥1 , . . . , 𝑎𝑛 − 𝑥𝑛 ) norm of R𝑛 (see Nelsen [3]).
(15)
∀ (𝑥1 , . . . , 𝑥𝑛 ) ∈ R𝑛 , The following result characterizes the bivariate marginal
distributions of Archimax processes.
where 𝐹 is the survival function of 𝐹. In terms of copulas Proposition 4. Let {𝑋𝑠 , 𝑠 ∈ 𝑆} be a 2-marginally Archimax
relation (15) means that process, with joint distribution 𝐹𝑠 , and generated by
𝐶 (𝑢1 , . . . , 𝑢𝑛 ) = 𝐶 (𝑢1 , . . . , 𝑢𝑛 ) +∞
(16) 𝜙𝑠 (𝑡) = ∫ 𝑒−𝑤 𝑑𝐹𝑠,1 (𝑤) . (21)
𝑛 0
∀ (𝑢1 , . . . , 𝑢𝑛 ) ∈ [0, 1] .
If there exists 𝑚 > 0 such as 𝜙𝑠 (1 − 1/𝑥) ∈ 𝑅𝑉(−𝑚), then every
𝑠̌
3. Main Results bivariate marginal distribution 𝐹𝑖,𝑗 of 𝐹𝑠 , related to (𝑖, 𝑗) with
1 ≤ 𝑖, 𝑗 ≤ 𝑠, is given by
3.1. Spatial Dependence of Marginal Archimax Process. Let
𝑋𝑠 = {(𝑋𝑠,1 , . . . , 𝑋𝑠,𝑛 ), 𝑠 ∈ 𝑆} be a continuous stochastic ran-
dom vector observed at a finite number of locations 𝑆𝑚 = {𝑠1 ,
𝑠̌
𝐹𝑖,𝑗 (𝑥𝑖𝑠̌, 𝑥𝑗𝑠̌ ) = 𝜙𝑠−1 [( ∑ 𝜙𝑠 (𝐹𝑘𝑠̌ (𝑥𝑘𝑠̌ )))
. . . , 𝑠𝑚 }, 𝑠𝑖 ∈ R2 , with joint distribution 𝐹𝑠 = (𝐹𝑠,1 , . . . , 𝐹𝑠,𝑛 ) [ 𝑘=𝑖,𝑗
whose underlying parametric copula is {𝐶𝑠 , 𝑠 ∈ 𝑆}. (22)
For simplicity reasons, let us note 𝑋𝑠,𝑖 = 𝑋𝑖𝑠̌ (which is 𝜙𝑠 (𝐹𝑖𝑠̌ (𝑥𝑖𝑠̌))
⋅ 𝐴∗𝑠,𝑚 ( )] ,
different from 𝑋𝑖𝑠 , the 𝑠th power of 𝑋𝑖 ). ∑𝑘=𝑖,𝑗 𝜙𝑠 [𝐹𝑘𝑠̌ (𝑥𝑘𝑠̌ )]
Under this notational assumption, the process 𝑋𝑠 is given ]
by 𝑋𝑠 = {(𝑋1𝑠̌ , . . . , 𝑋𝑛𝑠̌ ), 𝑠 ∈ 𝑆} and 𝐹𝑠 = (𝐹1𝑠̌, . . . , 𝐹𝑛𝑠̌ ). We where 𝐴∗𝑠,𝑚 is a space-varying, convex appropriate function
extend the concept of Archimax copula as follows. mapping [0, 1] to [1/2, 1]𝑚−1 .
4 International Journal of Mathematics and Mathematical Sciences
Proof. Suppose that the processes {𝑋𝑠 , 𝑠 ∈ 𝑆} have a common In particular, in a bivariate spatial context, it follows that,
bivariate marginal distribution; that is, for any site 𝑠 ∈ 𝑆, for all 𝑖, 𝑗 ∈ {1, .., 𝑛},
𝑠̌
𝐹𝑖,𝑗 = (𝐹𝑖𝑠̌, 𝐹𝑗𝑠̌) = (𝐹1𝑠̌, 𝐹2𝑠̌) with 𝑖, 𝑗 ∈ {1, . . . , 𝑛} (23) 𝐶𝜙𝑠 ,𝐴 (𝐹𝑖𝑠̌ (𝑥𝑖 ) , 𝐹𝑗𝑠̌ (𝑥𝑗 )) = 𝜙𝑠−1 [[ ∑ 𝜙𝑠 (𝐹𝑘𝑠̌ (𝑥𝑘𝑠̌ ))]
[[𝑘=𝑖,𝑗 ]
and let 𝐶𝜙𝑠 ,𝐴 denote the Archimax copula associated with the (29)
common bivariate margins of 𝐹𝑠 . 𝜙𝑠 (𝐹𝑖𝑠̌ (𝑥𝑖𝑠̌))
Then, it follows that, for all 𝑖, 𝑗 ∈ {1, . . . , 𝑛}, ⋅ 𝐴∗𝑠,𝑚 ( )] ,
∑𝑘=𝑖,𝑗 𝜙𝑠 (𝐹𝑘𝑠̌ (𝑥𝑘𝑠̌ ))
]
𝐴∗ is the Pickands dependence function to which the copula
[[ 𝑠̌ −1 in its domain of attraction 𝐶 belongs.
𝐶𝜙𝑠 ,𝐴 (𝑢𝑖𝑠̌, 𝑢𝑗𝑠̌ ) [ ∑ 𝜙𝑠 ([𝐹𝑘 ] (𝑢𝑘 ))]
𝑠̌
= 𝜙𝑠−1
𝑘=𝑖,𝑗 Finaly, by combining (1) and (29), we have the following
[[ ]
where 𝐴∗ is expressed in terms of 𝐴∗𝑠,𝑚 :
(24)
−1
𝜙𝑠 ([𝐹𝑖𝑠̌] (𝑢𝑖𝑠̌)) ]
⋅ 𝐴( −1
)] 𝑠̌
𝐹𝑖,𝑗 (𝑥𝑖𝑠̌, 𝑥𝑗𝑠̌ ) = 𝜙𝑠−1 [[ ∑ 𝜙𝑠 [𝐹𝑘𝑠̌ (𝑥𝑘𝑠̌ )]]
∑𝑘=𝑖,𝑗 𝜙𝑠 ([𝐹𝑘𝑠̌ ] (𝑢𝑘𝑠̌ ))
] [[𝑘=𝑖,𝑗 ]
(30)
𝜙𝑠 (𝐹𝑖𝑠̌ (𝑥𝑖𝑠̌))
whenever 𝜙𝑠 is such that 𝜙𝑥−1 (1 − 𝑡/𝑟) ∈ RV(−𝛼) with 𝜙𝑥−1 (𝑡) = ⋅ 𝐴∗𝑠,𝑚 ( )] .
+∞
∫𝑡 (1 − 𝑡/𝑟)𝑚−1 𝑑𝑟. ∑𝑘=𝑖,𝑗 𝜙𝑠 [𝐹𝑘𝑠̌ (𝑥𝑘𝑠̌ )]
]
According to Sklar’s theorem via relation (1), for all 1 ≤
Thus, we obtain (22) which is satisfied as asserted.
𝑖, 𝑗 ≤ 𝑛, it comes that
Definition 5. The function 𝐴∗𝑠,𝑚 is called a spatial dependence
𝐶𝜙𝑠 ,𝐴 ([𝐹𝑖𝑠̌] (𝑥𝑖 ) , [𝐹𝑗𝑠̌] (𝑥𝑗 )) = 𝑠̌
𝐹𝑖,𝑗 (𝑥𝑖𝑠̌, 𝑥𝑗𝑠̌ ) . (25) Archimax function.
Therefore, for all (𝑥𝑖 , 𝑥𝑗 ) ∈ R2 , 3.2. Spatial Upper Tail Dependence of Archimedean Copulas.
One of the key properties of copulas is that they remain
invariant under strictly increasing transformations of the
marginal laws. Therefore, the tail dependence parameter
𝑠̌
𝐹𝑖,𝑗 (𝑥𝑖𝑠̌, 𝑥𝑗𝑠̌ ) = 𝜙𝑠−1 [[ ∑ 𝜙𝑠 (𝐹𝑘𝑠̌ (𝑥𝑘𝑠̌ ))] becomes a pure property of the copula associated with the
[[𝑘=𝑖,𝑗 ] random vector, that is, independent of marginal laws. Then,
(26) from Durante and Sempi [1] the copula-based version of
𝜙𝑠 (𝐹𝑖𝑠̌ (𝑥𝑖 )) relation (9) is given by
⋅ 𝐴( )] .
∑𝑘=𝑖,𝑗 𝜙𝑠 (𝐹𝑘𝑠̌ (𝑥𝑘𝑠̌ ))
] 𝐶𝑘 [1 − 𝑢, . . . , 1 − 𝑢]
𝜆𝑈,𝑘 = lim− ( ) ∀𝑢 ∈ [0, 1] , (31)
𝑢→1 𝐶𝑛−𝑘 [1 − 𝑢, . . . , 1 − 𝑢]
Furthermore, while characterizing extensions of Archi-
max distributions, Genest et al. [15] showed that if an where 𝐶 is the survival copula of 𝐶. Then, in parametric
Archimax copula 𝐶∗ with Pickands dependence function 𝐴∗ context it follows this result.
belongs to the max-domain of attraction (MDA) of another
given Archimax copula 𝐶, then there exists 𝛼 ∈ [0, 1], such Proposition 6. Let {𝐶𝜙𝑠 , 𝑠 ∈ 𝑆} be a spatial Archimedean
that copula with generator 𝜙𝑠 . Then, for all 𝑘, 𝑘 < 𝑛, the parametric
generalization to 𝑘 of the upper TDC is given analytically by
𝛼 𝑡1/𝛼 𝜆𝑈,𝑘 = 1
𝐴∗ (𝑡) = [𝑡1/𝛼 + (1 − 𝑡)1/𝛼 ] 𝐴1/𝛼 [ ] . (27)
𝑡1/𝛼 + (1 − 𝑡)1/𝛼
𝑛
(−1)𝑘 (32)
Consequently, combining (1) and (5), it follows that, for + lim [ ∑ ( ∑ 𝐶𝜙𝑠 (𝑢𝑠,𝑖𝑘 ) ; 𝑖𝑘 ∈ 𝑆𝑘 )] ,
𝑢𝑠,𝑖 →1 1 − 𝑢𝑠,𝑘 𝑆 ⊂𝑁
all (𝑥𝑖 , 𝑥𝑗 ) ∈ R2 , [𝑘=1 𝑘 ]
for specific elements 𝑆𝑘 of the set of nonempty subsets of
{1, 2, . . . , 𝑛}.
𝐶𝜙𝑠 ,𝐴 (𝐹𝑖𝑠̌ (𝑥𝑖 ) , 𝐹𝑗𝑠̌ (𝑥𝑗 )) = 𝜙𝑠−1 [[ ∑ 𝜙𝑠 (𝐹𝑘𝑠̌ (𝑥𝑘𝑠̌ ))]
Proof. Assume that the copula 𝐶𝜙𝑠 is a spatial Archimedean
[[𝑘=𝑖,𝑗 ]
(28) one, for a given 𝑠 ∈ 𝑆. That means particularly that, for all
𝜙𝑠 (𝐹𝑖𝑠̌ (𝑥𝑖 )) (𝑢1𝑠̌ , . . . , 𝑢𝑛𝑠̌ ) ∈ [0, 1]𝑛 ,
⋅ 𝐴( )] .
∑𝑘=𝑖,𝑗 𝜙𝑠 (𝐹𝑘𝑠̌ (𝑥𝑘𝑠̌ )) 𝐶𝜙𝑠 (𝑢1𝑠̌ , . . . , 𝑢𝑛𝑠̌ ) = 𝜙𝑠−1 [𝜙𝑠 (𝑢1𝑠̌ ) + ⋅ ⋅ ⋅ + 𝜙𝑠 (𝑢𝑛𝑠̌ )] . (33)
]
International Journal of Mathematics and Mathematical Sciences 5
Moreover, noting that every copula is also a cumulative Furthermore, using relation (17) in a parametric case, it
̃𝜙 be
distribution function (with uniform margins), we let 𝐶 follows that
𝑡
Furthermore, from Charpentier et al. (see in [9]), it comes 3.3. Spatial Lower Tail Dependence of Archimax Copulas.
that While modeling stochastic dependence Schmitz (see in [16])
established the consistency of the copulas associated with
𝑛 stochastic processes. Particularly, that means in a Archime-
̃𝜙 (𝑢𝑠̌ , . . . , 𝑢𝑠̌ ) = ∑ [(−1)𝑘
𝐶 dean class that the lower marginal copulas are still Archi-
𝑠 1 𝑛
𝑘=0
[ medean copulas.
(35) Similarly, the copula-based version of relations (10) is
given by
⋅( ∑ 𝐶𝜙𝑠 (V1 , . . . , V𝑛 ))] ,
V(𝑢1𝑠̌ ,...,𝑢𝑛𝑠̌ )∈𝑍𝑠 (𝑛−𝑘,𝑛,1) ] 𝐶𝑛 (𝑢, . . . , 𝑢)
𝜆𝐿,𝑘 = lim ( ) , ∀𝑢 ∈ [0, 1] , (40)
𝑢→0 𝐶𝑛−𝑘 (𝑢, . . . , 𝑢)
𝑛
where 𝑍𝑠 (𝑀, 𝑁, 𝜀) denotes the set {V ∈ [0, 1] ; V𝑖 ∈ {𝑢𝑠 ,
𝜀}, ∑𝑛𝑖=1 1{𝜀} (V𝑖 ) = 𝑀}. where 𝐶𝑛−𝑘 is the marginal copula underlying the marginal
Then, for (𝑢1𝑠̌ , . . . , 𝑢𝑛𝑠̌ ) ∈ [0, 1]𝑛 , we can rewrite more vector of (𝑛 − 𝑘) components 𝑋 ̃ 𝑠,𝑛−𝑘 such that 𝑋
̃ 𝑠,𝑛−𝑘 =
𝑠̌ 𝑠̌
simply formula (24) such that (𝑋𝑘+1 , . . . , 𝑋𝑛 ). The following result generalizes the space-
varying lower TDC in a marginal Archimax field.
̃𝜙 (𝑢𝑠̌ , . . . , 𝑢𝑠̌ )
𝐶 1 𝑛
𝑡
Proposition 7. Let 𝜙𝑠 be the generator of a 2-marginally
𝑛 (36) Archimax process {𝑋𝑠 , 𝑠 ∈ 𝑆}. Then, for all 𝑠 ∈ 𝑆 and 𝑘 (𝑘 < 𝑛),
= ∑ [(−1)𝑘 ( ∑ 𝐶𝜙𝑠 (𝑢𝑖𝑠1̌ , . . . , 𝑢𝑖𝑠𝑛̌ ) ; 𝑖𝑗 ∈ 𝑆𝑘 ))] , the generalized lower TDC, 𝜆𝐿,𝑘
𝑠 , is given by the following:
𝑘=0 𝑆𝑘 ⊂𝑁
[ ] (i)
where 𝑆𝑘 = {𝑖1 , . . . , 𝑖𝑘 } contains 𝑘 elements of the set of
𝜆𝐿,𝑘
𝑠 ≤ lim+ 𝑅 (𝜙𝑠 (𝑢𝑠 )) , (41)
nonempty subsets of 𝑁 = {1, 2, . . . , 𝑛} with 𝑢𝑖𝑠𝑗̌ = 1 for all 𝑢→0
𝑖𝑗 ∉ 𝑆𝑘 .
Therefore, using simultaneously (35) and (36), it comes where 𝑅 is a specific ratio in ]0, 1[ if 𝐶𝜙𝑠 is strictly
that, for all (𝑢𝑖𝑠1̌ , . . . , 𝑢𝑖𝑠𝑛̌ ) ∈ [0, 1]𝑛 , Archimedean.
(ii)
𝐶𝜙𝑡 (𝑢1𝑠̌ , . . . , 𝑢𝑛𝑠̌ )
𝜆𝐿,𝑘
𝑠 = lim+ exp {−𝐷𝜙𝑠 (𝑢𝑠 )} (42)
𝑢→0
𝑛 (37)
= ∑ [(−1)𝑘 ( ∑ 𝐶𝜙𝑡 (1 − 𝑢𝑖𝑠1̌ , . . . , 1 − 𝑢𝑖𝑠𝑛̌ ))] ,
𝑘=0 𝑆𝑘 ⊂𝑁 for a specific conditional measure 𝐷𝜙𝑠 if 𝐶𝜙𝑠 is strictly
[ ]
extremal.
where 𝑆𝑘 is rather such as 𝑢𝑖𝑗 = 0 for all 𝑖𝑗 ∉ 𝑆𝑘 .
Proof. From formula (40) in a parametric and spatial context,
Specifically, by replacing in (37) the Archimedean copula it follows that
by its analytical form (33), it comes that
𝐶𝜙𝑠 (𝑢𝑠 , . . . , 𝑢𝑠 )
𝜆𝐿,𝑘
𝑠 = lim ( ), ∀𝑢𝑠 ∈ [0, 1] , (43)
𝐶𝜙𝑠 (𝑢1𝑠̌ , . . . , 𝑢𝑛𝑠̌ ) 𝑢𝑠 →0 𝐶𝜙𝑠 ,𝑛−𝑘 (𝑢𝑠 , . . . , 𝑢𝑠 )
𝑛 𝑛 (38) where 𝐶𝜙𝑠 in Archimax copulas. In other terms, 𝐶𝜙𝑠 can either
= ∑ [(−1)𝑘 ( ∑ 𝜙𝑠 ( ∑ 𝜙𝑠−1 (1 − 𝑢𝑖𝑠𝑗̌ )))] . take a strictly Archimedean form or satisfy the max-stability
𝑘=0 𝑆𝑘 ⊂𝑁 𝑗=1
[ ] property of extremal copulas.
6 International Journal of Mathematics and Mathematical Sciences
(i) Let 𝐶𝜙𝑠 be strictly Archimedean copulas and so satisfy (ii) Suppose that 𝐶𝜙𝑠 are rather extreme values copulas.
formula (2); then it follows that Then the canonical representation of Pickands (see in [14])
shows that
𝜙−1 (∑𝑘𝑖=1 𝜙𝑠 (𝑢𝑠 )) 𝐶 (𝑢1 , . . . , 𝑢𝑛 )
𝜆𝐿,𝑘 = lim [ 𝑠 𝑛
]
𝑠 𝑢𝑠 →0 𝜙−1 (∑
𝑠 𝑖=𝑘+1 𝜙𝑠 (𝑢𝑠 ))
[ ] (44)
𝑛
̃ 𝑠,𝑖
𝑢 ̃ 𝑠,𝑛−1
𝑢
̃ 𝑠,𝑖 𝐴 𝐶 (
= exp {∑𝑢 𝑛 ,..., )} (45)
𝜙−1 (𝑘𝜙𝑠 (𝑢𝑠 )) 𝑖=1 ∑𝑖=1 𝑢̃ 𝑠,𝑖 ∑𝑛𝑖=1 𝑢
̃ 𝑠,𝑖
= lim [ −1 𝑡 ],
𝑢𝑠 →0 𝜙 [(𝑛 − 𝑘) 𝜙 (𝑢 )]
𝑠 𝑠 𝑠 ̃ 𝑠,𝑖 = log 𝑢𝑠,𝑖 ,
with 𝑢
when the function 𝜙𝑠 belongs to class (2). where 𝐴 𝐶 is the Pickands function of 𝐶 defined on 𝑆𝑛 and
Then, 𝜙−1 is stricly increasing from [0, +∞] to [0, 1] and subject to valid properties given in (Nelsen [3]).
𝜙(0) = 1 and then 𝜆𝐿,𝑘
𝑠 = 𝑅(𝜙𝑠 (𝑢𝑠 )) < 1 as asserted. Thus, formula (45) gives
𝑘 𝑛
̃𝑖
𝑢 ̃ 𝑛−1
𝑢 ̃ 𝑘+1
𝑢 ̃ 𝑛−1
𝑢
𝜆𝐿,𝑘 = lim [exp {∑𝑢
̃ 𝑠,𝑖 𝐴 𝐶 ( ,..., ̃ 𝑠,𝑖 𝐴 𝐶𝑛−𝑘 (
)− ∑ 𝑢 𝑛 ,..., 𝑛 )}] , (46)
𝑢𝑠 →0
𝑖=1 ∑𝑘𝑖=1 ̃ 𝑠,𝑖
𝑢 ∑𝑘𝑖=1 ̃ 𝑠,𝑖
𝑢 𝑖=𝑘+1
∑𝑖=𝑘+1 𝑢̃ 𝑠,𝑖 ∑𝑖=𝑘+1 𝑢̃ 𝑠,𝑖
where 𝐴 𝐶𝑛−ℎ is instead the Pickands function of 𝐶𝑛−𝑘 . 𝑛-dimensional fields for all 𝛼 = (𝛼1 , . . . , 𝛼𝑚 ) ∈ 𝑆𝑚 and for all
Finally, it follows that a convex measure 𝐷𝜙𝑠 mapping (𝑢1 , . . . , 𝑢𝑛 ) ∈ [0, 1]𝑛 , the geometric transformation
[(R ∪ {±∞})𝑛 ]2 to [0, 1] is as follows:
𝑚
Then 𝜆𝐿,𝑘 = lim𝑢𝑠 →0 exp{−𝐷𝜙𝑠 (𝑢𝑠 )} as asserted. ∏𝐶𝑗 (𝑔𝑗,1 (𝑢1𝑠̌ ) , . . . , 𝑔𝑗,𝑛 (𝑢𝑛𝑠̌ ))
𝑗=1
𝛼1 𝛼𝑛 (50)
3.4. Stability of Survival and Spatialized Archimedean Copulas. = 𝐶1 ((𝑢1𝑠̌ ) , . . . , (𝑢𝑛𝑠̌ ) ) × ⋅ ⋅ ⋅
Let {𝑋𝑠 , 𝑠 ∈ 𝑆} be a 2-marginally Archimax process with
generator 𝜙𝑠 . We obtain the following property. 𝛼1 𝛼𝑛
× 𝐶𝑚 ((𝑢1𝑠̌ ) , . . . , (𝑢𝑛𝑠̌ ) )
Proposition 8. Let {𝜙𝑠 ; 𝑠 ∈ 𝑆} be the generator of a 2-
marginally Archimax process 𝑋𝑠 = {(𝑋1,𝑠 ; ...; 𝑋𝑛,𝑠 ), 𝑠 ∈ 𝑆} with is still a copula for any family like in time series of 𝑛-
copulas {𝐶𝑖,𝜙𝑠 ; 𝑠 ∈ 𝑆; 1 ≤ 𝑖 ≤ 𝑛}. Let moreover {𝐶𝑖,𝜙𝑠 ; 𝑠 ∈ dimensional copulas 𝐶1 , . . . , 𝐶𝑚 radially symmetric.
𝑆; 1 ≤ 𝑖 ≤ 𝑛} denote the survival spatial copulas of the copulas Therefore, in a bivariate and space-varying framework,
𝐶𝑖,𝜙𝑠 of the process. Then, under the strictly extremal assumption the following transformation is still a copula:
of the copulas {𝐶𝑖,𝜙𝑠 } and for all 𝛼 = (𝛼1 , ..., 𝛼𝑚 ) ∈ Δ 𝑚 , the
geometric combination 𝐶𝜙𝑠 ,𝛼 (𝑢𝑠 ; V𝑠 ) = 𝐶1,𝜙𝑠 (𝑢𝑠𝛼1 ; V𝑠𝛼1 ) × 𝐶2,𝜙𝑠 (𝑢𝑠𝛼2 ; V𝑠𝛼2 ) × ⋅ ⋅ ⋅
𝛼
1
𝐶𝜙𝑠 ,𝛼 (𝑢𝑠 ; V𝑠 ) = 𝐶1,𝜙
𝛼 2
(𝑢𝑠 ; V𝑠 ) × 𝐶2,𝜙
𝛼
(𝑢𝑠 ; V𝑠 ) × ⋅ ⋅ ⋅ × 𝐶𝑚−1,𝜙
𝑚−1
𝑠
(𝑢𝑠𝛼𝑚−1 ; V𝑠𝛼𝑚−1 ) (51)
𝑠 𝑠
(48)
𝛼
𝑚−1 𝑚 𝛼 × 𝐶𝑚,𝜙𝑡 (𝑢𝑠𝛼𝑚 ; V𝑠𝛼𝑚 ) .
× 𝐶𝑚−1,𝜙𝑠
(𝑢𝑠 ; V𝑠 ) × 𝐶𝑚,𝜙𝑠
(𝑢𝑠 ; V𝑠 )
Moreover, any copula 𝐶𝑖,𝜙𝑠 is extremal one by assumption and
provides a space-parameter bivariate extremal copula.
therefore verifies particularly the copula-based max-stability
Proof. Proof of Proposition 8 consists in establishing first property given in bivariate parametric case as
that, for every 𝛼, the copula 𝐶𝜙𝑠 ,𝛼 is also an extreme value 𝑘
copula. Following Diakarya [12] or Liebscher [17], one can 𝐶𝑗,𝜙𝑠
(𝑢𝑠 ; V𝑠 ) = 𝐶𝑗,𝜙𝑠 (𝑢𝑠𝑘 ; V𝑠𝑘 )
use transformations 𝑔𝑗𝑖 for 𝑗 ∈ {1, . . . , 𝑚} and 𝑖 ∈ {1, . . . , 𝑛}, (52)
mapping [0, 1] to [0, 1] such as 𝑔𝑗𝑖 (𝑠) = 𝑠𝛼𝑗 to show that, in ∀ (𝑢𝑠 , V𝑠 ) ∈ [0, 1]2 , 𝑘 > 0.
International Journal of Mathematics and Mathematical Sciences 7
Then, using relation (52), it follows, for all (𝛼1 , . . . , 𝛼𝑚 ) ∈ Δ 𝑚 , computability. Moreover, these results allow us to extend
that stochastic processes analysis to marginal Archimax families.
𝛼 𝛼 The particularity of our paper in stochastic processes analysis
𝐶𝜙𝑠 ,𝛼 (𝑢𝑠 ; V𝑠 ) = 𝐶1,𝜙
1
𝑠
(𝑢𝑠 ; V𝑠 ) × 𝐶2,𝜙
2
𝑠
(𝑢𝑠 ; V𝑠 ) × ⋅ ⋅ ⋅ is that it investigates both survival and conditional properties
(53) of Archimax copulas in a parametric spatial and parametric
𝛼 𝛼
× 𝐶𝑚−1,𝜙
𝑚−1
𝑠
(𝑢𝑠 ; V𝑠 ) × 𝐶𝑚,𝜙
𝑚
𝑠
(𝑢𝑠 ; V𝑠 ) . context.
Furthermore, using the radial symmetry of the copulas
{𝐶𝑖,𝜙𝑠 avec 1 ≤ 𝑖 ≤ 𝑛} we derive from (52) that Competing Interests
1𝛼 2 𝛼 The authors declare that there are no competing interests
𝐶𝜙𝑠 ,𝛼 (𝑢𝑠 ; V𝑠 ) = 𝐶1,𝜙𝑠
(𝑢𝑠 ; V𝑠 ) × 𝐶2,𝜙𝑠
(𝑢𝑠 ; V𝑠 ) × ⋅ ⋅ ⋅
(54) regarding the publication of this paper.
𝑚−1 𝛼 𝑚 𝛼
× 𝐶𝑚−1,𝜙𝑠
(𝑢𝑠 ; V𝑠 ) × 𝐶𝑚,𝜙𝑠
(𝑢𝑠 ; V𝑠 ) .
References
A sufficient condition is to prove that 𝐶𝜙𝑠 ,𝛼 verifies the
copula-based max-stability property, for all 𝑘 > 0, [1] F. Durante and C. Sempi, Principles of Copula Theory, Chapman
& Hall-CRC, Boca Raton, Fla, USA, 2016.
𝑘𝛼 𝑘𝛼
𝐶𝜙𝑠 ,𝛼 (𝑢𝑠 ; V𝑠 ) = 𝐶1,𝜙1𝑠 (𝑢𝑠 ; V𝑠 ) × 𝐶2,𝜙2𝑠 (𝑢𝑠 ; V𝑠 ) × ⋅ ⋅ ⋅ [2] H. Joe, Multivariate Models and Dependence Concepts, vol. 73 of
(55) Monographs on Statistics and Applied Probabilty, Chapman and
𝑚−1 𝑘𝛼 𝑘𝛼 Hall, London, UK, 1997.
× 𝐶𝑚−1,𝜙𝑠
(𝑢𝑠 ; V𝑠 ) × 𝐶𝑚,𝜙𝑚𝑠 (𝑢𝑠 ; V𝑠 ) ,
[3] R. B. Nelsen, An Introduction to Copulas, vol. 139 of Springer
which then gives, due to formula (53), for all 𝑘 > 0, Series in Statistics, Springer, New York, NY, USA, 2nd edition,
1999.
𝑘𝛼 𝑘𝛼 [4] A. Charpentier and J. Segers, “Tails of multivariate Archi-
𝐶𝜙𝑠 ,𝛼 (𝑢𝑠 ; V𝑠 ) = 𝐶1,𝜙1𝑠 (𝑢𝑠 ; V𝑠 ) × 𝐶2,𝜙2𝑠 (𝑢𝑠 ; V𝑠 ) × ⋅ ⋅ ⋅
medean copulas,” Journal of Multivariate Analysis, vol. 100, no.
(56)
𝑘𝛼 𝑘𝛼 7, pp. 1521–1537, 2009.
× 𝐶𝑚−1,𝜙
𝑚−1
𝑠
(𝑢𝑠 ; V𝑠 ) × 𝐶𝑚,𝜙𝑚𝑠 (𝑢𝑠 ; V𝑠 ) .
[5] A. J. McNeil and J. Nešlehová, “Multivariate Archimedean
copulas, d-monotone functions and ℓ1 -norm symmetric distri-
Let us use again the fact that 𝐶𝑖,𝜙𝑠 are extreme values models.
butions,” The Annals of Statistics, vol. 37, no. 5, pp. 3059–3097,
So, for all (𝑢1 , . . . , 𝑢𝑛 ) ∈ 𝐼𝑛 and 𝑘 > 0, 2009.
𝛼 𝛼 [6] A. Di Ciaccio, M. Coli, and J. M. Angulo Ibanez, Eds., Advanced
𝐶𝜙𝑠 ,𝛼 (𝑢𝑠 ; V𝑠 ) = 𝐶1,𝜙
1
𝑠
(𝑢𝑠𝑘 ; 𝑢𝑠𝑘 ) × 𝐶2,𝜙
2
𝑠
(𝑢𝑠𝑘 ; 𝑢𝑠𝑘 ) × ⋅ ⋅ ⋅ Statistical Methods for the Analysis of Large Data-Sets, Selected
(57) Papers of the Statistical Societies, Springer, Berlin, Germany,
𝛼 𝛼
× 𝐶𝑚−1,𝜙
𝑚−1
𝑠
(𝑢𝑠𝑘 ; 𝑢𝑠𝑘 ) × 𝐶𝑚,𝜙
𝑚
𝑠
(𝑢𝑠𝑘 ; 𝑢𝑠𝑘 ) . 2012.
[7] N. Whelan, “Sampling from Archimedean copulas,” Quantita-
Using a second time (27) it follows that tive Finance, vol. 4, no. 3, pp. 339–352, 2004.
𝛼 𝛼 [8] M. Hofert and M. Scherer, “CDO pricing with nested
1
𝐶𝜙𝑠 ,𝛼 (𝑢𝑠 ; V𝑠 ) = 𝐶1,𝜙 (𝑢𝑠𝑘 ; 𝑢𝑠𝑘 ) × 𝐶2,𝜙
2
(𝑢𝑠𝑘 ; 𝑢𝑠𝑘 ) × ⋅ ⋅ ⋅
𝑠 𝑠 Archimedean copulas,” Quantitative Finance, vol. 11, no. 5, pp.
(58) 775–787, 2011.
𝛼 𝛼
𝑚−1
× 𝐶𝑚−1,𝜙 (𝑢𝑠𝑘 ; 𝑢𝑠𝑘 ) × 𝐶𝑚,𝜙
𝑚
(𝑢𝑠𝑘 ; 𝑢𝑠𝑘 ) .
𝑠 𝑠 [9] A. Charpentier, A.-L. Fougères, C. Genest, and J. G. Nešlehová,
“Multivariate archimax copulas,” Journal of Multivariate Analy-
Hence 𝐶𝜙𝑠 ,𝛼 satisfies relation (52) which characterizes the sis, vol. 126, pp. 118–136, 2014.
extremal copulas.
[10] C. Genest and R. J. MacKay, “Copules archimédiennes et
familles de lois bidimensionnelles dont les marges sont
4. Conclusion and Discussion données,” The Canadian Journal of Statistics, vol. 14, no. 2, pp.
145–159, 1986.
The results of this study provide important properties on [11] EVANESCE Extreme value analysis employing statistical copula
parametric copulas and tail dependence in a spatial context. estimation, by René Carmona, http://www.orfe.princeton.edu/
Properties have been proposed on spatial dependence for ∼rcarmona.
stochastic processes with bivariate marginal copulas in the [12] B. Diakarya, “Analysis of stochastic spatial processes via copulas
Archimax class. More specifically, in a spatialized framework and measures of extremal dependence,” Archives des Sciences,
the characterization of the tail dependence concept has been vol. 65, no. 12, pp. 665–673, 2012.
extended to multivariate Archimedean copulas, for the upper [13] F. Schmid, R. Schmidt, Th. Blumentritt, S. Gaier, and M. Rup-
coefficient, and to 𝑛-dimensional copulas with Archimax pert, “Copula-based measures of multivariate association,” in
bivariate marginal, for the lower tail coefficient. Otherwise Copula Theory and Its Applications: Proceedings of the Workshop
spatialized bivariate Archimedean copulas have been shown Held in Warsaw, 25–26 September 2009, vol. 198 of Lecture Notes
to be stable under geometric combinations. in Statistics, pp. 209–236, Springer, Berlin, Germany, 2010.
These are very interesting results for a number of rea- [14] U. Cherubini, E. Luciano, and W. Vecchiato, Copula Methods in
sons. For example, the characterization of the tail depen- Finance, Wiley Finance Series, John Wiley & Sons, Chichester,
dence parameters provides an explicit form involving more UK, 2004.
8 International Journal of Mathematics and Mathematical Sciences
92
Far East Journal of Mathematical Sciences (FJMS)
© 2017 Pushpa Publishing House, Allahabad, India
http://www.pphmj.com
http://dx.doi.org/10.17654/MS101040909
Volume 101, Number 4, 2017, Pages 909-929 ISSN: 0972-0871
UFR-ST
UK. BP 376 Koudougou
Burkina Faso
e-mail: [email protected]
Abstract
1. Introduction
⎛ E[ X 1 | X ∈ ∂L(α )] ⎞
⎜ ⎟
VaRα ( X ) = E[ X | X ∈ ∂L(α )] = ⎜ ⎟; (1.2)
⎜ E[ X | X ∈ ∂L(α )]⎟
⎝ m ⎠
Multivariate Risks Modeling for Financial Portfolio Management … 911
⎡ m ⎛ M j, n − μ j, n ⎞⎤
n → +∞ ⎢ ∩
lim P ⎢ ⎜⎜
σ j, n
≤ x j ⎟⎟⎥ = lim FXn (σ n x + μ n ) = G ( x ) , (1.3)
⎠⎥⎦ n → +∞
⎣ j =1 ⎝
properties of derivative risks measures such as conditional VaR, the Tail VaR
and the empirical standard deviation are established. In Section 4, a new
version of high risk scenario is characterized and multivariate dependence is
modeled via copula approach.
[0, 1]n ,
C X (u1 , ..., u n ) = FX ( F1−1 (u1 ), ..., Fn−1 (u n )). (2.1)
axioms:
R3. Positive homogeneity: For any positive constant λ > 0, R(λX ) >
λR( X ). Thus the risk exposure of a company proportionately
increases or decreases by an equal proportionate value.
F jn (σ j , n x j + μ j , n ) → G j ( x j )
⎧ ⎧ −1 ⎫
⎪ ⎡
⎪exp − 1 + ξ ⎜ ⎛ x j − μ j ⎞ ⎤ ξ j ⎪
⎪⎪ ⎨ ⎢ j⎜ ⎟⎟⎥ ⎬ if ξ j ≠ 0,
= ⎨ ⎪⎩ ⎣ ⎝ σ j ⎠⎦ ⎪ (2.4)
⎭
⎪ ⎧ ⎧ ⎛ x j − μ j ⎞ ⎫⎫
⎪exp⎨− exp⎨− ⎜⎜ ⎟⎟⎬⎬ if ξ j = 0.
⎩⎪ ⎩ ⎩ ⎝ σ j ⎠ ⎭⎭
According to the Fisher-Tippet Theorem (see [21]), every margin Gi may
be a univariate extremal distribution and so is of the type1 of a family of the
following three distribution functions: Φ α (Fréchet), Ψα (Weibull), Λ
(Gumbel).
While modeling risk with multivariate GPDs and point process models of
risk scenarios, Degen [13] has introduced the concept of closed half space H
associated to a random vector Z as follows.
dπ H ( z ) = δ H ( z ) dπ( z ) π( H ) , (2.5)
P( Z H ≤ z Z ∈ H ) (2.5)
for some risk level α = P( Z ∈ H ) tending to zero and shown how this leads
to an alternative multivariate theory of exceedances.
1
Two distribution functions FX and FY are of the same type if there exist a > 0 and b ∈ R
such that X = aY + b.
916 Yves Bernadin Vini Loyara et al.
FXα ( z ) − α
CVaRα ( X ) = ∫R zFXα ( zdz ) with FXα ( z ) =
1− α
, where z ≥ VaRα .
The CVaR has superior mathematical properties versus VaR such that
risk management with CVaR functions can be done very efficiently. For a
given confidence level α ∈ ] 0, 1 [, Rockafellar [23] characterized the CVaR
by
⎧ E ( X − a )+ ⎫
CVaRα ( X ) = E{X | X ≥ VaRα ( X )} = inf ⎨a + ; a ∈ R ⎬ , (3.1)
⎩ 1 − α ⎭
(1 − α ) Q X (α ) + αQ X (1 − α ) = 0. (3.2)
which gives
1 α 1 α
CVaRα ((1 − λ ) X + λY ) ≤
α 0∫VaRβ ((1 − λ ) X ) dβ +
α 0 ∫
VaRβ (λY ) dβ.
1 α 1 α
VaRβ ( X ) ≤ VaRβ (Y ) ⇒
α 0∫VaRβ ( X ) dβ ≤
α 0 ∫
VaRβ (Y ) dβ.
Therefore
CVaRα ( X ) ≤ CVaRα (Y ). (3.3)
CVaRα ( X ) = CVaRα ( X − X k + X k ).
CVaRα ( X k ) ≤ 0.
Then
CVaRα ( X ) ≤ CVaRα ( X − X k ).
( R5 ) For λ > 0;
1 α 1 α
CVaRα (λX ) =
α 0∫VaRβ (λX ) dβ = λ
α 0 ∫
VaRβ ( X ) dβ.
Thus, we conclude that the CVaR is a coherent risk measure and deviation
for basic sense (see Rockafellar [23]).
Moreover, we have:
= αCVaR1− α ( X ) + (α − 1) CVaRα (− X ).
Multivariate Risks Modeling for Financial Portfolio Management … 919
⎡ α ⎤
∫
1
=
1− α ⎢ E ( X ) − 0 VaRα ( X , ξ ) dξ⎥ . (3.4)
⎣ ⎦
Proof. The XTVaR being the sum of two a coherent risk measure and
deviation for basic sense, then XTVaR is a coherent risk measure and
deviation for basic sense showing that it does not check the property under
additivity
that is
So,
Therefore,
σ((1 − λ ) X + λY ) = (1 − λ ) σ( X ) + λσ(Y ).
2(E[ X k ( X − X k )] + E[ X k ] E[ X − X k ])1 2 .
+ E[ X k ] E[ X − X k ]) − (E[ X − X k ])2 )1 2 .
Therefore,
+ E[ X k ] E[ X − X k ]))1 2 ,
922 Yves Bernadin Vini Loyara et al.
which is equivalent to
(4.1)
Hi
where πi are the marginals distributions functions of the distribution π H
and c is the density of the copula C.
Proof. From the Sklar theorem, it yields that the density function f =
( f1, ..., f d ) associated to any continuous cdf F is linked with the density of
Multivariate Risks Modeling for Financial Portfolio Management … 923
∂ nC ( F1 ( x1 ), ..., Fm ( xm ))
f (x) =
∂x1 ∂xm
= c( F1 ( x1 ), ..., Fm ( xm )) f1 ( x1 ) f m ( x m ). (4.2)
In other words, for all (u1 , ..., u n ) ∈ [0, 1]n it comes that
where Fi
Hi
( zi ) = ~zi , for all i = 1, ..., d are the marginals of the cdf F H .
Proof. Let H be a closed half space so that P( Z ∈ H ) = α > 0. We
remark that P( Z i ∈ H i ) = αi , ∀i = 1, ..., d . Then
∂ m C ( F1 1 ( z1 ), ..., FmH m ( z m ))
H
f H ( z1 , ..., z m ) =
∂z1 ∂z m
924 Yves Bernadin Vini Loyara et al.
which gives:
m
f H
( z1 , ..., z d ) = c( F1 1 ( z1 ),
H
..., FmH m ( z m )) ∏
i =1
f i i ( z i ).
H
And finally
m
f H ( z1 , ..., z d ) = c( F1 1 ( z1 ), ..., FmH m ( z m ))
H
∏
i =1
δ H i ( z i ) f i ( zi ) α i .
Let us consider Fi
Hi
( zi ) = ~zi , for all i = 1, ..., d , then we have
m
f H
( z1, ..., z m ) = c(~z1, ..., ~z m ) ∏
i =1
δ H i ( z i ) f ( zi ) α i . ~
The following result gives the relation between Z and associated copula.
( πiH1 ).
H H
Proof. Suppose that the high risk scenarios margins π1 1 , ..., π d d are
continuous. Using the relation, it comes that
dπ H ( z1 , ..., z d )
c( π1 1 ( z1 ), ..., π d d ( z d )) =
H H
.
∏i =1 δ H ( zi ) dπi ( zi ) πi ( H i )
d
i
Multivariate Risks Modeling for Financial Portfolio Management … 925
d
Since δℵ = 1, it follows that zi ∈ ℵ = ∩i =1 H i .
Finally, we obtain
g n ⎧⎨ ( x − μ )t Σ −1 ( x − μ )⎫⎬ for
cn 1
X En (μ, Σ, φ ) , where ϕ( x ) =
det (Σ ) ⎩ 2 ⎭
F (H ) F (H )
cρ (u1 , u 2 ) = 1 1 2 2
F ( H ) 1 − ρ2
1 ⎧ x 2 + y 2 − 2ρxy ⎫
f ρ ( x, y ) = exp⎨− ⎬.
2π 1 − ρ 2 ⎩ 2(1 − ρ 2 ) ⎭
F1 ( H1 ) F2 ( H 2 )⎧ x 2 + y 2 − 2ρxy x 2 + y 2 ⎫
cρ ( F1 1 ( x ), F2 ( y )) =
H H2
exp ⎨− + ⎬.
F ( H ) 1 − ρ2 ⎩ 2(1 − ρ 2 ) 2 ⎭
(4.6)
f ρH ( x, y ) = δ H ( x, y ) f ρ ( x, y ) F ( H )
⎧ 1 ⎧ x 2 + y 2 − 2ρxy ⎫
⎪⎪ exp ⎨− ⎬ if ( x, y ) ∈ H ,
= ⎨ 2πF ( H ) 1 − ρ 2 ⎩ 2(1 − ρ 2 ) ⎭
⎪
⎪⎩0 otherwise.
f ρH ( x, y ) = f1 1 ( x ) f 2 ( y ) cρ ( F1H1 ( x ), F2H 2 ( y ))
H H2
δ H ( x, y ) ⎧ x 2 + y 2 − 2ρxy ⎫
= exp ⎨− ⎬.
2πF ( H ) 1 − ρ 2 ⎩ 2(1 − ρ 2 ) ⎭
Multivariate Risks Modeling for Financial Portfolio Management … 927
δ H1 ( x ) ⎧ x2 ⎫ δH2 ( y)
= exp⎨− ⎬
F1 ( H1 ) 2π ⎩ 2 ⎭ F2 ( H 2 ) 2π
⎧ y2 ⎫
⎬ cρ ( F1 1 ( x ), F2 2 ( y )) ,
H H
× exp⎨−
⎩ 2 ⎭
H1 ∩ H 2 = R + ⇒ δ H1 ( x ) δ H 2 ( y ) = 1 and δ H ( x, y ) = 1.
Hence,
k ⎧ x 2 + y 2 − 2ρxy x 2 + y 2 ⎫
cρ ( F1 1 ( x ), F2 ( y )) =
H H2
exp⎨− + ⎬. (4.7)
1 − ρ2 ⎩ 2(1 − ρ 2 ) 2 ⎭
Let F1 1 ( X 1 ) = U and F2
H H2
( X 2 ) = V . Then (U , V ) ⊂ [0, 1]2. The relation
(4.7) becomes
cρ (u , v )
F (H ) F (H )
where k = 1 1 2 2 . ~
F (H )
References
ans ce travail de thèse, nous avons apporté des contributions aux thèmes de la mo-
D délisation et de l’estimation des risques multidimensionnels. Plus précisement dans
le deuxième chapitre, nous avions étudié la dépendance de queue spatiale dans une classe
de copule archimédienne. Ainsi, nous nous sommes intérréssés au problème de l’indépen-
dance asymptotique dans le cas spatial.
Les perspectives de ces travaux sont nombreuses. Elles peuvent être essentiellement
fondées sur des développements théoriques des résultats présentés dans cette thèse ou
bien sur la mise au point dans des procédures d’évaluation de risque dans des contextes
d’assurance, de finance ou encore d’actuariat. Nous essayons ici d’explorer davantage dans
le détail quelques pistes possibles.
En ce qui concerne la théorie des scénarii de hauts risques, faire d’autres hypothèse
sur l’ensemble H (domaine à risque) : qu’obtient-on si le domaine n’est pas un demi-plan
fermé ? Une technique pour la détermination du domaine H.
114
ANNEXE A
ESTIMATION DE COPULES
a mise en oeuvre d’un modèle utilisant les copules nécessite l’élaboration d’une mé-
L thode capable d’estimer la structure de dépendance à partir des informations re-
cueillies sur le problème à modéliser. Les premiers travaux à ce sujet nous viennent de
Genest en 1987 et portait sur la copule de Franck. Il y a eu aussi l’article de Genest-Luis
Rivest en 1993 sur l’inférence des copules Archimédiennes. Dans la suite nous nous inté-
resserons aux principales méthodes d’inférences statistiques des copules, en les regroupant
en deux catégories : les méthodes paramétriques et non paramétriques.
Nous notons {xj:n,1 , . . . , xj:n,d } les statistiques d’ordre et {rj1 , . . . , rjd } les statistiques
de rang. Nous avons la correspondance suivante :
115
A.2 Estimation paramétrique
avec n
1 X
vj = 1{x <x ,x <x } (A.8)
n − 1 k=1 k,1 j,1 k,2 j,2
116
A.2 Estimation paramétrique
117
ANNEXE B
SIMULATIONS
library(acopula)
library(climextRemes)
library(copula)
library(evd)
library(extRemes)
La copule de Student
t.cop = tCopula(c(0.5), dim = 2, dispstr = "toep", df = 1, df.fixed = TRUE)
t.cop
dCopula(c(0.5, 0.5), t.cop)
118
B.1 Représentation des copules (Chapitre 1)
u = rCopula(100, t.cop)
plot(u)
dCopula(u, t.cop)
pCopula(u, t.cop)
persp (t.cop, dCopula, col="grey")
contour(t.cop, dCopula, col="grey")
persp (t.cop, pCopula, col="grey")
contour(t.cop, pCopula, col="grey")
La copule de Clayton
ge = genClayton(parameters=6)
dCopula(c(0.3,0.5),ge)
x = seq(0,1,length.out=20)
y = seq(0,1,length.out=20)
persp(x,y,matrix(dCopula(expand.grid(x,y),ge),nrow=length(x)),col="grey",r=2,zlab="densité")
contour(x,y,matrix(dCopula(expand.grid(x,y),ge),nrow=length(x)),col="grey",r=2,zlab="")
pCopula(c(0.3,0.5),ge)
x = seq(0,1,length.out=20)
y = seq(0,1,length.out=20)
persp(x,y,matrix(pCopula(expand.grid(x,y),ge),nrow=length(x)),col="grey",r=2,zlab="")
contour(x,y,matrix(pCopula(expand.grid(x,y),ge),nrow=length(x)),col="grey",r=2,zlab="")
La copule de Gumbel
ge = genGumbel(parameters=6)
dCopula(c(0.3,0.5),ge)
x = seq(0,1,length.out=20)
y = seq(0,1,length.out=20)
persp(x,y,matrix(dCopula(expand.grid(x,y),ge),nrow=length(x)),col="grey",r=2,zlab="densité")
contour(x,y,matrix(dCopula(expand.grid(x,y),ge),nrow=length(x)),col="grey",r=2,zlab="")
pCopula(c(0.3,0.5),ge)
x = seq(0,1,length.out=20)
y = seq(0,1,length.out=20)
persp(x,y,matrix(pCopula(expand.grid(x,y),ge),nrow=length(x)),col="grey",r=2,zlab="")
contour(x,y,matrix(pCopula(expand.grid(x,y),ge),nrow=length(x)),col="grey",r=2,zlab="")
La copule de Clayton
ge = genClayton(parameters=6)
dCopula(c(0.3,0.5),ge)
x = seq(0,1,length.out=20)
y = seq(0,1,length.out=20)
persp(x,y,matrix(dCopula(expand.grid(x,y),ge),nrow=length(x)),col="grey",r=2,zlab="densité")
contour(x,y,matrix(dCopula(expand.grid(x,y),ge),nrow=length(x)),col="grey",r=2,zlab="")
119
B.2 Codes R des figures de l’application (Chapitre 2)
pCopula(c(0.3,0.5),ge)
x = seq(0,1,length.out=20)
y = seq(0,1,length.out=20)
persp(x,y,matrix(pCopula(expand.grid(x,y),ge),nrow=length(x)),col="grey",r=2,zlab="")
contour(x,y,matrix(pCopula(expand.grid(x,y),ge),nrow=length(x)),col="grey",r=2,zlab="")
La copule de Franck
ge = genFrank(parameters=6) dCopula(c(0.3,0.5),ge)
x = seq(0,1,length.out=20)
y = seq(0,1,length.out=20)
persp(x,y,matrix(dCopula(expand.grid(x,y),ge),nrow=length(x)),col="grey",r=2,zlab="densité")
contour(x,y,matrix(dCopula(expand.grid(x,y),ge),nrow=length(x)),col="grey",r=2,zlab="")
pCopula(c(0.3,0.5),ge)
x = seq(0,1,length.out=20)
y = seq(0,1,length.out=20)
persp(x,y,matrix(pCopula(expand.grid(x,y),ge),nrow=length(x)),col="grey",r=2,zlab="")
contour(x,y,matrix(pCopula(expand.grid(x,y),ge),nrow=length(x)),col="grey",r=2,zlab="")
120
B.2 Codes R des figures de l’application (Chapitre 2)
xi-ouaga = gevouaga$estimate[3]
q-ouaga = max(maxouaga)
m-ouaga = min(maxouaga)
Intervalles de confiances
ci(fevd(maxouaga), alpha = 0.05, type="parameter", return.period = c(10,50,100),period.basis
= "month")
ci(fevd(maxouaga), alpha = 0.05, type="parameter")
ci(fevd(maxouaga), alpha = 0.05,period.basis = "month", type="return.level", return.period
= c(10,50,100))
Études bivariées
Lois extrêmes bivariées
ouagaciv=cbind(Tempouaga,Tempciv)
length(Ouagaciv)
M1 = fbvevd(ouagaciv)
121
B.2 Codes R des figures de l’application (Chapitre 2)
M1
abvevd(dep = M1$estimate , model = "log", plot = TRUE)
abvnonpar(data = ouagaciv, add = TRUE, lty = 2)
plot(M1)
la copule de Gumbel
u.hat=pgev(Tempouaga,mu-ouaga,sigma-ouaga,xi-ouaga)
v.hat=pgev(Tempciv,mu-civ,sigma-civ,xi-civ)
n.cop=gumbelCopula(dim=2)
fit.n.cop=fitCopula(n.cop,cbind(u.hat,v.hat))
fit.n.cop
gof.test=gofCopula(n.cop,cbind(u.hat,v.hat))
gof.test
copgumbel = mvdc ( gumbelCopula(fit.n.cop$estimate),c("gev","gev"),
list( list(loc=mu-ouaga,scale=sigma-ouaga,shape=xi-ouaga), list(loc=mu-civ,scale=sigma-
civ,shape=xi-civ)))
persp(copgumbel,pMvdc, xlim = c(20,45),ylim=c(20,45), col="grey",main="Loi jointe")
contour(copgumbel,pMvdc, xlim = c(20,45),ylim=c(20,45), col="grey",main="Contour de
la loi jointe")
persp(copgumbel,dMvdc, xlim = c(20,45),ylim=c(20,45), col="grey",main="Densité de la
loi jointe")
122
B.2 Codes R des figures de l’application (Chapitre 2)
La copule de Student
u.hat=pgev(Tempouaga,mu-ouaga,sigma-ouaga,xi-ouaga)
v.hat=pgev(Tempciv,mu-civ,sigma-civ,xi-civ)
n.cop=tCopula(dim=2)
fit.n.cop=fitCopula(n.cop,cbind(u.hat,v.hat))
fit.n.cop
gof.test=gofCopula(n.cop,cbind(u.hat,v.hat))
gof.test
copstudent = mvdc ( tCopula(c(fit.n.cop$estimate[1]),df=fit.n.cop$estimate[2]),c("gev","gev"),
list( list(loc=mu-ouaga,scale=sigma-ouaga,shape=xi-ouaga), list(loc=mu-civ,scale=sigma-
civ,shape=xi-civ)))
persp(copstudent,pMvdc, xlim = c(20,45),ylim=c(20,45), col="grey",main="Loi jointe")
contour(copstudent,pMvdc, xlim = c(20,45),ylim=c(20,45), col="grey",main="Contour
de la loi jointe")
persp(copstudent,dMvdc, xlim = c(20,45),ylim=c(20,45), col="grey",main="Densité de
la loi jointe")
contour(copstudent,dMvdc, xlim = c(30,41),ylim=c(24,31), col="grey",main="Copule de
Student")
Copule de Franck
u.hat=pgev(Tempouaga,mu-ouaga,sigma-ouaga,xi-ouaga)
v.hat=pgev(Tempciv,mu-civ,sigma-civ,xi-civ)
n.cop=frankCopula(dim=2)
fit.n.cop=fitCopula(n.cop,cbind(u.hat,v.hat))
fit.n.cop
gof.test=gofCopula(n.cop,cbind(u.hat,v.hat))
gof.test
copfrank = mvdc ( frankCopula(fit.n.cop$estimate),c("gev","gev"),
list( list(loc=mu-ouaga,scale=sigma-ouaga,shape=xi-ouaga), list(loc=mu-civ,scale=sigma-
civ,shape=xi-civ)))
persp(copfrank,pMvdc, xlim = c(20,45),ylim=c(20,45), col="grey",main="Loi jointe")
contour(copfrank,pMvdc, xlim = c(20,45),ylim=c(20,45), col="grey",main="Contour de
la loi jointe")
persp(copfrank,dMvdc, xlim = c(20,45),ylim=c(20,45), col="grey",main="Densité de la
loi jointe")
contour(copfrank,dMvdc, xlim = c(30,41),ylim=c(24,31), col="grey",main="Copule de
Franck")
123
BIBLIOGRAPHIE
[4] Balkema, A. A. and Embrechts, P. (2005). High risk scenarios and extremes. A
geometric approach. Preprint, ETH Zürich.
[6] Barro D. (2012). Analysis of Stochastic Spatial Process via copulas and
measures of Extremal Dependence. Archives Des sciences,Vol 65, No 12, Dec
2012,pp 665-673
[7] Barro D., Ouédraogo J-E, and Somé L. (2013). Survival Analysis by Sampling
Mixtures of Extremal Copulas. Int. J. Stat. Econ Vol 11, No.2 ; pp 73-82.
[8] Beirlant, J., Goegebeur, Y., Segers, J. and Teugels, J. (2004). Statistics of
Extremes. Wiley, Chichester.
124
BIBLIOGRAPHIE
[10] Diakarya Barro, Moumouni Diallo, and Remi Guillaume Bagré. Spatial Tail
Dependence and Survival Stability in a Class of Archimedean Copulas. Interna-
tional Journal of Mathematics and Mathematical Sciences. Volume 2016, Article
ID 8927248, 8 pages.
[11] E. Liebscher, Modelling and estimation of multivariate copulas, working paper,
University of applied Sciences Mersebug, 2006.
[14] Geert van der Wulp,Using Copulas in Risk Management, Thèse de Mas-
ter,(2003).
[15] Genest C., Ghoudi K. and Rivest L.P., ( 1995). A semiparametric estimation
procedure of dependence parameters in multivariate families of distributions,
Biometrika (1995), vol.82,no 3, pp 543-552.
[18] Matthias Degen, March 10, 2006. On Multivariate Generalised Pareto Distri-
butions and High Risk Scenarios. Diploma Thesis.
[21] Nelsen, R.B. An introduction to copulas, 2nd ed. New york : Springer (2006).
125
BIBLIOGRAPHIE
[23] Resnick, S.I. (1987). Extreme Values, Regular Variation and Point Processes.
Springer, New york.
126
UNIVERSITE
ro OUAGA I PR JOSEPH KI-ZERBO
---------------
École Doctorale
Sciences et Technologies
---------------
Laboratoire d’Analyse Numérique d’Informatique
et de Bio-Mathématiques (LANIBIO)
N° d’ordre ………..
Thèse Présentée
Président : Pr Blaise SOME, Professeur Titulaire, Université Ouaga I, Pr Joseph KI-ZERBO Burkina Faso
(Examinateur)
Membres :
Pr Bisso SALEY, Professeur Titulaire, Université Abdou Moumini de Niamey (Rapporteur externe)
Pr Sado TRAORE, Professeur Titulaire, Université Nazi Boni de Bobo Dioulasso, Burkina Faso
(Rapporteur interne)
Pr Diakarya BARRO, Professeur titulaire, Université Ouaga II, Burkina Faso (Directeur de Thèse).
Dr Longin SOME, Maître de conférences, à l’Université Ouaga I, Pr Joseph KI-ZERBO Burkina Faso
(Examinateur)
A
LOYARA Abdine Jacques (1993-2001).
i
R EMERCIEMENTS
Dans les lignes suivantes, j’adresse mes remerciements et ma gratitude à des personnes et
responsables de structures qui ont concouru à l’aboutissement de ce document. Sans leurs aides,
il ne fait guère doute que ce mémoire n’aurait vu le jour. A ce titre,
Je tiens à remercier tout d’abord le Directeur du Laboratoire d’Analyse Numérique d’Infor-
matique et de Biomathématiques (LANIBIO), le Professeur Blaise SOME, Professeur titulaire
de mathématiques à l’Université de Ouaga I Pr Joseph KI-ZERBO. Merci pour m’avoir accepté
comme étudiant au LANIBIO. Merci également pour avoir accepter de présider ce jury de thèse.
Mes sincères remerciements à mon Directeur de thèse, Professeur Diakarya BARRO, Profes-
seur titulaire de mathématiques appliquées à l’Université Ouaga II, pour tout ce qu’il m’a apporté
au cours de ces quatre dernières années de thèse ; notamment pour l’aide scientifique et le soutien
humain, pour les encouragements constants et les nombreuses discussions que nous avons pu
avoir.
Je tiens à remercier chaleureusement les professeurs ; Gane Samb LO, Professeur Titulaire, à
Université Gaston Berger du Sénégal (Rapporteurs externe), Bisso SALEY, Professeur Titulaire,
à l’Université Abdou Moumini de Niamey (Rapporteurs externe), Sado TRAORE, Professeur
Titulaire, à l’Université Nazi Boni (UNB) de Bobo Dioulasso (Rapporteurs interne). Pour avoir
accepté la lourde et contrainte tâche d’instruire cette thèse. La qualité de vos rapports m’a permis,
à travers les critiques et suggestions, d’améliorer très significativement la valeur scientifique du
document.
Je tiens à remercier également, Dr. Longin SOME, Maître de conférences, à l’Université
Ouaga I, Pr Joseph KI-ZERBO, pour sa participation en qualité d’examinateur. Merci beaucoup
monsieur le « Ministre ».
Aux enseignants chercheurs du LANIBIO qui n’ont ménagé aucun effort pour m’aider à at-
teindre mes objectifs, je dis merci pour leurs disponibilités.
ii
Mme Nadège Adeline LOYARA/BASSIERE ma femme et ma fille Métis, merci pour la com-
préhension et la patience dont vous avez fait preuve pendant ces dernières années.
Mes camarades et amis de l’Institut des Sciences Exactes et Appliquées (ISEA) aujourdhui
UFR des Sciences et Technologie (UFR-ST) de l’UNB ; Rodrigue SANOU, Lucas GNANOU,
Boukary KIENTEGA, Satafa SANOGO, Soulémane DIALLO, Arouna KIRAKOUYA, Cédric
SOME, SOMA MIFIAMBA, Dafoura Paul MILLOGO, Aziz COULIBALY, Karim SANKARA
etc. Merci pour la collaboration et les bons moments passés ensemble pendant nos deux premiers
cycles universitaires à Nasso.
Enfin, toutes les personnes qui ont contribué d’une manière ou d’une autre à ce projet de thèse
unique et qui n’ont pas été citées, recevez ici l’expression de ma profonde reconnaissance.
iii
Résumé
L’objectif principal de cette thèse est l’étude des mesures de risque et leurs applica-
tions en gestion de portefeuille . Pour ce faire, nous avons utilisé un outil de la théorie
des probabilités : la copule. Une nouvelle relation a été établie par l’intermédiaire de
la VaR et de ses mesures dérivées. Nous avons utilisé le produit scalaire pour mettre en
évidence un lien entre la copule conditionnelle et la notion de normes. Nous avons égale-
ment établi une relation entre la copule conditionnelle dépendante du temps et la valeur
à risque. Nous avons abordé la notion de titrisation en évoquant la notion de dérivé de
crédit et des outils connexes (ABS). Une autre contribution de notre travail porte sur les
copules archimédiennes imbriquées. Nous avons donné des expressions analytiques à
l’ordre quatre et l’ordre cinq de la copule archimédienne récursive. Ensuite, nous nous
intéressons à la corrélation par défaut de certaines copules archimédiennes. Nous nous
sommes inspirés des résultats existant sur les copules archimédiennes et les facteurs de
risque pour établir des majorations afin d’avoir d’intéressantes relations qui pourront
être interprétées en finance dans le cadre d’une optimisation.
Mots clés : Mesure de risque, Copules, dépendance, Valeur à risque, Porte-
feuille, Risque financier, CDO, CDS.
Abstract
The main objective of this thesis is the study of risk measures and their applications
in portfolio management. To do this, we use a tool of probability theory; the copula. A
new relationship has been established through VaR and its derived measures. We used
the scalar product to highlight a link between the conditional copula and the notion of
norms. We also established a relationship between conditional time-dependent copula
and value-at-risk. We discussed the notion of securitization by referring to the notion
of credit derivatives and related tools (ABS). Another contribution of our work is on
Archimedean copula. We have given analytic expressions to order four and order five
from recursive Archimedean copula. Next, we are interested in the default correlation
of some Archimedean copulas. We used Archimedean copula results and risk factors to
build up on them so that we could have interesting relationships that could be interpreted
in finance as part of an optimization.
Key words : Risk Measure, Copulas, dependence, Value at Risk, Portfolio,
Financial risk, CDO,CDS.
iv
Sigles et abréviations
ABS : Asset-Backet-Securities.
APT : Arbitrage Pricing Theory.
c-a-d : c’est à dire.
CBO : Collateralized Bond Obligation.
CDO : Collateralized Debt obligation.
CDS : Credits Defaults Swaps.
cfd : conditional function distribution.
CLO : Collateralized Loan Obligation.
CMBS : Commercial Mortage Backed Securities.
CVaR : Conditional Value-at-Risk.
ESPK : Ecole Supérieure Polytechnique de Kaya.
ETL : Expected Tail Loss.
i.i.d : indépendant et identiquement distribuées.
MEDAF : Modèle d’Équilibre des Actifs Financiers.
MLE : Méthode du maximum de vraisemblance.
RMBS : Résidential Mortage Backed Securities.
PP : Profit and Loss.
p.s : presque sûrement.
PWM : Pulse Width Modulation.
SPV : Special Purpose Vehicle.
TVaR : Tail Value-at-Risk.
TVE : Théorie des Valeurs Extrêmes.
v.a : variable aléatoire.
VaR : Valeurs à Risque.
XTVaR : Excess Tail Value-at-Risk.
POT : Pesks-Over-Thesholds
v
Notations
vi
Table des matières
Dédicace i
Remerciements ii
Résumé iv
Notations vi
vii
1.4.1 Copule empirique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.4.2 Procédure de Genest et Rivest . . . . . . . . . . . . . . . . . . . . . . 35
1.4.3 Estimation des paramètres d’une copule . . . . . . . . . . . . . . . 36
1.4.4 Estimation semi-paramétrique . . . . . . . . . . . . . . . . . . . . . 39
1.5 Cadre financier de la modélisation des risques. . . . . . . . . . . . . . . . . 41
1.5.1 Notion de risque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
1.5.2 Notion de portefeuille financier . . . . . . . . . . . . . . . . . . . . . 41
viii
3 Copules Archimédiennes et modèles de Facteurs de risques 82
3.1 Récursivité sur les copules archimédiennes . . . . . . . . . . . . . . . . . . 82
3.1.1 Rappels et exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
3.1.2 Extension de la copules archimédienne imbriquée . . . . . . . . . . 84
3.1.3 Corrélations par défaut dans un cadre de récursivité . . . . . . . . 86
3.2 Tarification des facteurs de risque . . . . . . . . . . . . . . . . . . . . . . . . 87
3.2.1 Éléments de base de la tarification . . . . . . . . . . . . . . . . . . . 87
3.2.2 Facteurs d’escompte, primes prévues et primes par défaut d’un CDS 89
3.2.3 Tranche de trésorerie de la CDO annualisée . . . . . . . . . . . . . . 92
3.3 Modèle numérique de facteurs de risque . . . . . . . . . . . . . . . . . . . . 96
3.3.1 Primes prévues et primes par défaut du portefeuille CDS . . . . . . 96
3.3.2 Bonus actualisé escompté et la tranche CDO par défaut . . . . . . . 100
3.4 Rendements et distribution de Pertes et Profits d’un portefeuille . . . . . 103
3.4.1 Mesures de rendements et la distribution de Pertes et Profits . . . 104
3.4.2 Applications à des données boursières . . . . . . . . . . . . . . . . . 105
ix
Table des figures
x
Liste des tableaux
xi
Liste des Algorithmes
1
Introduction générale
Pour Poncet. Portrait R [34], la théorie moderne du portefeuille a pour père fonda-
teur Harry Markowitz . Ce dernier introduit pour la première fois cette théorie (1952)
en partant du principe que le risque d’un portefeuille peut être correctement évalué à
l’aide de la variance de sa rentabilité. Mais Benoît Mandelbrot, à travers ses études sur
l’historique du cours du marché du coton pendant plus d’un siècle, remet totalement
en question la validité de la théorie de Harry Markowitz et de sa nouvelle version, le
Modèle d’Équilibre des Actifs Financiers (MEDAF), initié par William F. Sharpe. Benoît
Mandelbrot souligne que : Ces théories, venues de l’École de Chicago, aussi élégantes
soient-elles en apparence et si simples dans leur application, sont totalement déconnec-
tées de la réalité des marchés financiers. Plusieurs fois, leurs efficacités ont été remises
en cause. Les différents krachs boursiers sont bien un exemple de leurs incapacités à pré-
voir les événements non linéaire et qui ne suivent pas nécessairement une dispersion
normale.
C’est en 1959 que Abe Sklar [41] introduit pour la première fois la notion de copule
dans l’analyse stochastique. Les copules sont une solution aux problèmes de probabi-
lité énoncé par Maurice Fréchet dans le cadre des espaces métriques aléatoires (travaux
avec Berthold Schweizer). La copule est un outil de modélisation de la structure de dé-
pendance de plusieurs variables aléatoires. Il existe une grande diversité de copules
permettant ainsi la modélisation de la dépendance conjointe entre plusieurs variables
aléatoires. Un des paramètres de dépendance particulièrement utilisé dans le cadre de
2
la dépendance linéaire où l’univers est supposé gaussien, est la corrélation linéaire de
Bravais-Person. La mesure de dépendance la plus utilisée dans la modélisation de la dé-
pendance, est la corrélation linéaire de Bravais Pearson (1896). Cette corrélation évalue
la relation linéaire entre deux variables aléatoires X et Y , et peut prendre toute valeur
de l’intervalle [0; 1]. Il est beaucoup plus pratique avec les familles de distributions ellip-
tiques. En effet, pour ces distributions la non corrélations implique l’indépendance. Cet
indicateur étant pris dans un cadre linéaire ne répond pas à toutes les situations en fi-
nance. En particulier, pour les cas non linéaires, d’autres indicateurs de dépendance sont
mis au point. Il s’agit entre autres essentiellement du tau de Kendall, Rhô de Spearman,
la mesure de dépendance de queue.
Modéliser le risque de portefeuille multivarié, c’est aussi d’une part faire le choix des
outils mathématiques adéquats d’interprétation des données d’un portefeuille ; d’autre
part de fournir une interface au monde financier. Mais entre ces deux étapes un travail
rigoureux et précis devrait être mené. Le présent mémoire de thèse comporte essentielle-
ment trois (3) chapitres en dehors de l’introduction et de la conclusion.
Dans le chapitre 1, nous rappelons dans un premier temps les définitions et proprié-
tés fondamentales des copules en explicitant quelques copules paramétriques ou non
paramétriques. Par la suite notre intérêt se porte sur la Valeur-à-Risque (VaR) et nous
abordons le thème de mesure de risque monétaire.
Dans le chapitre 2, nous établissons quelques relations d’ordre analytique entre la va-
leur à risque et la copule conditionnelle. Ces relations ont été possibles grâce à certaines
propriétés métriques des espaces euclidiens (processus de Gram-Schimdt, Inégalité de
Cauchy-Schwartz). Nous terminons ce chapitre avec quelques simulations sur la valeur
à risque qui nous a été inspiré des travaux de John Muteba Mwanba [25]. Dans le cha-
pitre 2 également, une nouvelle notion de pseudo-convexité qui est une relation entre la
VaR et quelques mesures dérivées de la VaR.
Dans le chapitre 3, notre intérêt se porte dans un premier temps sur le calcul du ren-
dement géométrique (Rt ) et de la valeur-à-risques des Rt des actions et des obligations
de la Bourse régionale des valeurs (BRVM). Ensuite nous y développons de nouvelles
propriétés sur les défauts d’échange de crédit en anglais Crédit Default Swap (CDS) et
les tranches d’obligation adossé à des actifs en anglais Collateralized debt obligations
(CDO). Nous abordons également dans ce chapitre, la notion de copule Archimédienne
récursive. Les facteurs de risque et quelques essais de simulations sur des fonctionnelles
qui sont intrinsèquement liées aux facteurs de risques font l’objet de cette partie.
3
Chapitre 1
4
" #
n n
P ( Xi ≤ x i ) = ∏ P [ Xi ≤ x i ] .
\
i =1 i =1
Il faut noter que la notion de corrélation est strictement liée à celle de covariance.
En rappel, la covariance d’un couple de variables aléatoires ou statistiques X et Y est la
variance conjointe de X et de Y.
p q
∑ ∑ nij ( xi − X̄ ) y j − Ȳ
i =1 j =1
Cov ( X, Y ) = = E [ XY ] − E [ X ] E (Y ) ;
n
∑ ni ( xi − x̄ ) (yi − ȳ) ∑ ni xi yi
Cov ( X, Y ) = = − x̄ ȳ.
n n
5
Corrélation de plusieurs variables aléatoires
E [ X i Y ] − E [ X i ] E (Y )
r x i y = r ( Xi , Y ) = r h irh i.
2 2
E [ Xi ] − (E [ Xi ])
2 E [Y ] − (E [Y ])
2
Dans ce cas, le carré du coefficient de corrélation multiple peut être calculé en utili-
sant le vecteur c tel que
R2 = c t R − 1
xx c,
où ct est la transposée de c et R− 1
xx la matrice inverse de R xx .
En particulier, si les composantes du vecteur sont indépendantes et identiquement
distribuées (i.i.d), alors la matrice de corrélation R xx est une matrice de covariance dont
les éléments diagonaux sont égaux à 1.
Tau de Kendall
τ ( X, Y ) = P Y − Ỹ > 0 − P X − X̃ Y − Ỹ < 0 ,
X − X̃ (1.1)
6
T
où X̃, Ỹ est un vecteur indépendant de ( X, Y ) T .
En particulier, pour une série de n observations bivariées, le tau de Kendall peut s’ex-
primer en fonction des observations, sous la forme :
2
n ( n − 1) ∑ ∑sign [(xi − xk ) (yi − yk )]
τ ( X, Y ) = (1.2)
i k
où
1 si z > 0
sign (z) = 0 si z = 0 .
−1 si z < 0
Rho de Spearman
ρS ( X, Y ) = 3 P X − X̃ Y − Y 0 > 0 − P X − X̃ Y − Y 0 < 0 ,
T T
où ( X, Y ) T , X̃, Ỹ et ( X 0 , Y 0 ) sont des vecteurs aléatoires indépendants.
En particulier, pour un échantillon ( x1 , y1 ) , ..., ( xn , yn ) de réalisations du couple ( X, Y ),
on a :
n
∑ ( Ri − R̄) (Si − S̄)
i =1
ρS ( X, Y ) = s s , (1.3)
n n 2
2
∑ ( Ri − R̄) × ∑ (Si − S̄)
i =1 i =1
n n
avec Ri = ∑ 1{ xk ≤ xi } est le rang de xi , Si = ∑ 1{yk ≤yk } le rang de yi et R̄ et S̄ sont les
k =1 k =1
moyennes respectives de R et S.
7
Kendall et le rho de Spearman qui mesurent la dépendance sur l’ensemble de la distri-
bution.
Soient X et Y deux v.a continues de fonctions de répartition F1 et F2 respectivement.
Le coefficient de dépendance de queue supérieure (upper tail dependent coefficient)
de X et Y est défini par :
Définition 1.2.1. Soient S1 , ..., Sn des sous ensembles non vides de R où R = [−∞, +∞] est la
droite réelle achevée. Soit H une fonction réelle de n variables définies sur DomH = S1 × ... × Sn .
Et pour tous a = ( a1 , ..., an ) et b = (b1 , ..., bn ) tel que a ≤ b (c’est à dire ak ≤ bk ; ∀ k ∈
{1, ..., n}), et B = [ a, b] = ([ a1 , b1 ] × ... × [ an , bn ]) un pavé de dimension n ayant ses sommets
dans DomH.
8
Alors le H − volume de B est donné par :
(
1 k pair
sgn (ck ) = .
−1 k impair
4bakk H (t) = H (t1 , ...tk−1 , bk , tk+1 , ..., tn ) − H (t1 , ...tk−1 , ak , tk+1 , ..., tn ) .
VH ( B) = H ( a, c) − H ( a, d) − H (b, c) + H (b, d) ≥ 0.
3. H (t1 , ..., ti−1 , 0, ti+1 , ..., tn ) = 0 pour i ∈ {1, ..., n} et H (∞, ..., ∞) = 1.
La kième fonction de répartition marginale d’une fonction de répartition H multivariée est la fonc-
tion Hk : [−∞, +∞] −→ [0, 1] telle que
Dans la pratique nous parlerons plutôt de ”loi marginale” pour évoquer cette notion
de fonction de répartition marginale.
Définition 1.2.3. (Copule) Une copule de dimension n est une fonction C définie sur [0, 1]n à
valeur dans [0, 1] possédant les propriétés suivantes :
1. C (1, ...1, u, 1, ..., 1) = u.
2. C (u) = 0 si au moins une des composantes de u est nulle (u = (u1 , ..., ui−1 , 0, ui+1 , ..., un )).
3. C est n − croissantes, c’est à dire
2 2
∑ ... ∑ (−1) k1 +...+k n
C u1k1 , ..., uknn ≥0
k 1 =1 k n =1
9
pour tout u1 = u11 , ..., u1n et u2 = u21 , ..., u2n tels que u1i ≤ u2i .
Les copules sont des fonctions des répartitions de la loi uniforme sur [0, 1]n . La copule C
induit une mesure de probabilité sur [0, 1]n via la relation suivante :
C’est une extension standard arbitraire (non nécessairement cubique) un sous ensemble
de Borel de [0, 1]n . Un résultat standard de la théorie des mesures dit qu’il existe une
unique mesure de probabilité sur le sous-ensemble de Borel de [0, 1]n qui coïncide avec
VC sur un ensemble cubique de dimension n de [0, 1]n . C’est la mesure de probabilité qui
définit VC .
En particulier, en dimension deux d’espace, la définition 1.2.3 donne ce qui suit.
Proposition 1.2.1. (Copule bivariée) Une copule bivariée est une fonction C définie de I 2 −→ I
qui possède les propriétés suivantes :
i) Pour tout u dans I,
C (u, 0) = C (0, u) = 0. (1.8)
iii) C est 2 − croissante c’est à dire que : Pour tout (u1 , u2 ) ∈ I 2 et (v1 , v2 ) ∈ I 2 avec
u1 ≤ v1 et u2 ≤ v2 . Alors,
C (u1 , u2 ) = P [U1 ≤ u1 , U2 ≤ u2 ] .
P [U1 ≤ 1, U2 ≤ u2 ] = P [U1 ≤ u1 , U2 ≤ 1] = u.
10
Cela signifie que C est une fonction de répartition bivariée avec des lois marginales
uniformes.
Théorème 1.2.1. Soit H une fonction de répartition n-dimensionnelle avec des marges H1 , ..., Hn .
n
Alors, il existe une n-copule C telle que pour tout x = ( x1 , ..., xn ) ∈ R ;
Si les H1 , ..., Hn sont toutes continues, alors C est unique. Sinon C est déterminée de manière
unique sur ImH1 × ... × ImHn . Inversement, si C est une n-copule et H1 , ..., Hn des fonctions
de distribution, alors la fonction H définie précédemment est n dimension et ses marges sont
H1 , ..., Hn .
Du théorème de Lars nous pouvons observer que pour les fonctions de distributions
multivariées continues, les marges uni-variées et la structure de dépendance multiva-
riée peuvent être séparées, et la structure de dépendance peut être représentée par une
copule.
Soient X1 , ..., Xn des variables aléatoires continues avec des fonctions de distribution
H1 , ..., Hn respectivement, et de distribution conjointe H. Alors ( X1 , ..., Xn ) T a une unique
copule C donnée par (1.11) .
Les transformations Xi 7→ Hi ( Xi ) utilisant la représentation ci-dessus sont habituelle-
ment utilisées pour les transformations intégrales de probabilités (pour les cas continus)
et comme outil dans les méthodes de simulation.
11
Propriétés élémentaires des fonctions copules
1. ∀ (u1 , ..., ud ) ∈ [0, 1]d les fonction u 7−→ C (u1 , ..., ui−1 , u, ui+1 , ..., ud ) sont crois-
santes.
2. Les fonctions copules sont lipschitziennes : u = (u1 , ..., uk ) et v = (v1 , ..., vk ) dans
[0, 1]n ,
n
|C (v) − C (u)| ≤ ∑ |vk − uk | , (1.13)
k =1
La copule indépendante
12
Cette copule n’admet pas de densité bien qu’elle soit dérivable presque par-
tout.
∑ ui + n − 1, 0
W (u1 , ..., un ) = max
définit une copule. C’est la copule maximale ou borne inférieure de Fréchet. Elle
vérifie (voir [17]), pour tout (u1 , ..., un ) ∈ I n
La copule archimédienne a été introduite pour la première fois par Christian GENEST
et John MACKAY [19]. La copule archimédienne de générateur ϕ ∈ L1 est la transforma-
tion ω (u) = exp (− ϕ(u)) appliquée aux marginales et rend les composantes indépen-
n
dantes : ω (C (u1 , ...., un )) = ∏ ω (ui ) .
i =1
n
dès lors que ∑ ϕ (ui ) ≤ ϕ (0) et C (u1 , ..., un ) = 0 sinon. Le générateur doit être choisi de classe
i =1
C2 de sorte que ϕ (1) = 0, ϕ0 (u) ≤ 0 et ϕ00 (u) > 0.
Les copules archimédiennes peuvent être également définies via un conditionnement par une
variable de structure. A cet effet, soit Z une variable aléatoire positive telle que :
la transformée de Laplace 1 de Z est : ψ = ϕ−1 conditionnellement à Z les variables aléatoires
Z
Xi sont indépendantes P ( Xi ≤ x/Z ) = ω HXi ( x )
alors la copule du vecteur ( X1 , ..., Xn ) est
où φ : [0, 1] −→ [0, +∞[ , appelé générateur archimédien, est une fonction continue
strictement décroissante telle que
— φ(1) = 0 et ϕ(0) = +∞ .
´ +∞
1. L{ f (t)} = 0− e− pt f (t) dt.
13
— φ−1 la pseudo-inverse de ϕ soit complètement monotone sur [0, +∞[ i.e
(k)
k −1
∀t ≥ 0 et ∀k ≥ 0, (−1) φ (t) ≥ 0.
(k)
où φ−1 est la dérivée d’ordre k de φ−1 .
En particulier, la copule C ⊥ (u, v) = uv est archimédienne, de générateur −ln(t), qui
est un cas limite de copule de Gumbel ; en effet, la copule de Gumbel est archimédienne
de générateur (−ln (t))θ , avec θ ≥ 1. Les copules de Clayton et de Franck sont également
archimédiennes. Le tableau suivant présente les copules archimédiennes usuelles.
14
F IGURE 1.2 – Densité et contour de la copule de Franck (respectivement à gauche et à
droite) avec θ = 6.
Définition 1.2.5. Soit Md (R) l’ensemble des matrices carrées réelles de taille d. Une loi conti-
nue est dite elliptique de paramètre de position µ = (µ1 , ..., µd ) ∈ Rd et de matrice, la forme
symétrique définie positive ∑ ∈ Md (R), si sa densité de probabilité f peut s’écrire, pour tout
x = ( x1 , ..., xd ) ∈ Rd :
−1 !
12 −1
f ( x ) = det ∑ g ( x − µ) ∑ ( x − µ)T . (1.16)
( x − µ)T étant la transposée du vecteur x − µ et g est une fonction à valeurs positives vérifiant
´ T dx = 1. On note ξ ( µ, , g ) cette famille de loi dite elliptique.
∑
Rd g xx
Il existe essentiellement deux grandes familles de copule elliptique ; la copule normale
et la copule de Student.
15
a) La copule Gaussienne
La copule Gaussienne d − dimensionnelle s’écrit pour tout (u1 , ...., ud ) ∈ [0, 1]d :
C (u1 , ..., ud ) = Φ∑ Φ−1 (u1 ) , ..., Φ−1 (ud ) ; (1.17)
où la fonction Φ−1 est l’inverse de la distribution normale centrée réduite uni variée, la
fonction h i
exp − 12 x ∑ x T
Φ∑ ( x ) = (1.18)
(2π )d/2 det (∑)1/2
est la fonction de répartition de la loi normale centrée réduite et ∑ sa matrice de variance
covariance (égale à la matrice de corrélation dans ce cas) . C’est à dire que
Cov( X1 ,X j )
Cov( X1 ,Xn )
Var ( X1 ) ··· q ··· √
Var ( X1 )Var ( X j ) Var ( X1 )Var ( Xn )
.. .. ..
..
. ···
. . .
Cov( Xi ,X j )
∑ √ Cov(Xi ,X1 ) ··· ··· √ Cov( Xi ,Xn )
= Var ( Xi )Var ( X1 )
q
Var ( Xi )Var ( Xn )
.
Var ( Xi )Var ( X j )
.. .. .. ..
.
. ··· . .
Cov( Xn ,X j )
√ Cov(Xn ,X1 ) ··· ···
q Var ( Xn )
Var ( Xn )Var ( X1 ) Var ( Xn )Var ( X j )
f ( x1 , x2 ) = c ( F1 ( x1 ) , F2 ( x2 )) × f 1 ( x1 ) × f 2 ( x2 ) ; x1 , x2 ∈ R,
16
pour déterminer l’expression de la densité de la copule normale
b) Copule de Student :
f v,∑ t− 1 −1 −1
v ( u1 ) , tv ( u2 ) , ...., tv ( ud )
c (u1 , ..., ud ) = . (1.21)
d
−1
∏ f v t v ( ui )
i =1
La fonction t− 1
v est l’inverse de la distribution de Student centrée réduite uni variée à
v degrés de liberté. La fonction f v,∑ est la densité de probabilité de la loi de Student
centrée réduite, ∑ sa matrice de corrélation et f v est la densité uni-variée de la loi de
Student centrée réduite (∑ = 1).
A titre de rappel sa densité s’écrit ,pour tout x = ( x1 , ..., xd ) ∈ Rd , par
v+d
Γ − v+2 d
x ∑ xT
2
f v,∑ ( x ) = q 1+ ; (1.22)
v d v
Γ (πv) det (∑)
2
17
− ν+d
ˆ ˆ
2
t− 1
v ( u1 ) t− 1
v (ud ) Γ ((ν + d) /2) 1 + w T ∑−1 w/ν
t
Cν,ρ (u1 , u2 , ..., ud ) = ...
d/2
dw1 ...dwd ,
∑1/2 Γ ν2 (νπ )
−∞ −∞
où w = (w1 , ..., wd ).
Dans le cas bi-varié, la copule est comme suit :
ˆ t− 1
v (u)
ˆ t− 1
v (v)
− ν+2 2
s2 − 2ρst + t2
t 1
Cν,ρ (u, v) = . 1+ dsdt, (1.23)
−∞ −∞ 2π (1 − ρ2 )
1/2 ν (1 − ρ2 )
Il existe plusieurs familles de copules. Vu le fait que dans ce travail, nous nous inté-
ressons à la modélisation des valeurs extrêmes multivariées, nous nous limiterons, dans
cette section à la définition et à la caractérisation des copules des valeurs extrêmes.
Définition 1.2.6. On appelle copule de valeurs extrêmes, toute copule C est telle que, pour tout
t > 0, (u1 , ..., un ) ∈ I n ;
1
C (u1 , ..., un ) = C t (u1t , ..., utn ).
L’appellation de ces copules s’explique par le fait que les distributions associées à ces copules
par le théorème de Sklar sont des modèles extrêmes multivariés (propriété de max-stabilité).
18
Par conséquent, toute copule des valeurs extrêmes peut être caractérisée par les me-
sures de dépendance associées à sa distribution. En particulier, on a le résultat suivant,
voir [6] ou [7] .
( ! )
n
∑ log ui
log u1 log um−1
C (u1 , ..., un ) = exp A ∑in=1 log ui
, ..., ∑n log ui
. (1.24)
i =1
i =1
Par exemple, la copule associée au modèle logistique est la copule de Gumbel définie
par " #1
θ
avec δ ∈ [1, ∞[. Cette copule peut être étendue à des dimensions plus grandes par la
méthode de composition.
19
b) La copule multivariée de Hüsler et Reiss
La copule bivariée de Hüsler et Reiss (Hüsler et Reiss [1989]) (voir [37]) est donnée
comme suit :
−1 1 ũ2 ũ1
Cδ (u1 , u2 ) = C (u1 , u2 ; δ) = exp −ũ1 Φ δ + δln − ũ2 δln ; (1.26)
2 ũ1 ũ2
La copule empirique
Soit Xi = ( X1,i ; ...; Xd,i ), pour tout i ≥ 1, une suite de vecteurs aléatoires indépendants,
identiquement distribués, de fonction de répartition F et de marges F1 , ..., Fd . Nous sup-
posons que F est continue afin que la copule C soit unique. Si δu correspond à la mesure
Dirac, nous définissons la mesure empirique d’un échantillon de taille n(n ≥ 1) engendré
par le vecteur aléatoire X de la façon suivante
1 n
n j∑
µ= δXj . (1.27)
=1
20
où
1 n
Fj,n ( x ) = ∑ 1{X ≤x } ; 1 ≤ j ≤ d. (1.29)
n i =1 ji j
Les rangs des observations sont liés aux fonctions de répartitions empiriques margi-
nales, pour i ∈ {1, ..., d}, par l’identité
nFj,n X ji = R ji . (1.30)
La copule empirique est basée sur un échantillon X1 , ..., Xn avec comme fonction de
répartition C˜ à lois marginales uniformes dans [0, 1]d qui peut s’exprimer en fonction des
statistiques de rangs.
Dans le cas particulier où d = 2, on définit la fréquence de la copule empirique par :
1 si
Xi,n , Yj,n ∈ {( Xk , Yk ) : 1 ≤ k ≤ n}
i i i i
cn , := ∆C̃ , = n
n n n n 0 sinon
ou X1,n ≤ .... ≤ Xn,n et Y1,n ≤ ... ≤ Yn,n désignent, respectivement les statistiques
d’ordre obtenues en rangeant par ordre croissant les n ≥ 1 premières observations des
suites X1 , ..., Xn et Y1 , ...., Yn de variables aléatoires indépendantes et de même loi. Dans
l’article de Deheuvels (1979), la relation entre les fonctions C e n et cn est donnée par :
i j
i i p q
C˜n ,
n n
= ∑ ∑ cn ,
n n
. (1.31)
p =1q =1
En général, il est difficile d’extraire de l’information de cn ; c’est pour cette raison qu’il
est préférable de construire un dépendogramme 3 . La copule empirique C˜ offre l’avan-
tage de s’affranchir des fonctions de répartition marginales. En revanche, l’estimateur
empirique naturel de la copule fait lui appel aux lois marginales et s’exprime par l’iden-
tité suivante :
h i
−1
C˜n (u) := Fn F1,n −1
(u1 ) , ..., Fd,n (ud ) ; u = (u1 , ..., ud ) ∈ [0, 1]d
3. Un dépendrogramme (du Grec dendron "arbre", -gramma "dessiner") est un diagramme fréquemment utilisé pour illustrer l’arrangement
de groupes générés par un regroupement hiérarchique ou hiérarchisant.
21
F IGURE 1.8 – Copules Empiriques
Copule Archimax
On considère une famille de copules introduite par Genest et al [2000] qui englobe les
copules Archimédiennes et toutes les copules de valeurs extrêmes. Cette nouvelle famille
offre plus de flexibilité pour la modélisation. Antoine Besat et al (2000)
Définition 1.2.7. Une fonction bivariée Cφ,A est une copule Archimax si et seulement si elle est
de la forme
φ( x )
Cφ,A ( x, y) = φ−1 [(φ( x ) + φ(y)) A( )]
φ( x ) + φ(y)
pour tout 0 ≤ x, y ≤ 1 avec,
— A : [0, 1] → [ 21 , 1] tel que max(t, 1 − t) ≤ A(t) ≤ 1 pour tout 0 ≤ t ≤ 1
— φ : (0, 1] → [0, ∞[ est une fonction convexe, décroissante qui vérifie φ(1) = 0. Nous
adapterons la convention φ(0) = limt→0+ φ(t) et φ−1 (s) = 0 pour s ≥ φ(0). φ est le
générateur de Cφ,A et A sa fonction de dépendance.
Remarque 1.2.1. Les copules Archimédiennes et celles de valeurs extrêmes sont des cas
particuliers des copules Archimax. En effet,
i) Pour φ(t) = ln( 1t ), nous obtenons
ln( x )
Cφ,A ( x, y) = C A ( x, y) = exp[ln( xy) A( )]
ln( xy)
pour tout 0 ≤ x, y ≤ 1. Qui est de la forme générale des copules bivariées de valeurs
extrêmes, relation (1.24) en dimension deux.
22
ii) Si on choisit maintenant de prendre A(t) = 1, on retrouve la forme générale des
copules Archimédiennes :
Remarque 1.2.2. si C est une copule de valeur extrême, alors elle est dans le max domaine
d’attraction. En effet, nous avons
1 1
lim C t (u1t , · · · , utn ) = lim C ((u1t )t , · · · , (unt )t )
t→∞ t→∞
= lim C (u1 , · · · , un )
t→∞
= C ( u1 , · · · , u n )
23
Théorème 1.2.4. Soient ( X1 , Y1 ) T et ( X2 , Y2 ) T des vecteurs aléatoires indépendants continues
avec pour loi conjointes H1 et H2 , respectivement, avec pour marges F (pour X et X̃) et G (
pour Y et Ỹ ). Soit C1 et C2 les copules de ( X1 , Y1 ) T et ( X2 , Y2 ) T , respectivement, telles que
H1 ( x, y) = C1 ( F ( x ) , G (y)) et H2 ( x, y) = C2 ( F ( x ) , G (y)). Soit Q la différence entre les
probabilités de concordance et de discordance de ( X1 , Y1 ) T et ( X2 , Y2 ) T , c’est à dire soit
Alors ; ˆ ˆ
Q=4 C2 (u, v) dC1 (u, v) − 1. (1.33)
[0,1]2
Les propriétés suivantes sont une conséquence du théorème 1.2.4. Elles sont obtenues
en considérant Q comme une fonction à deux variables et ses variables sont des copules.
Théorème 1.2.5. Soit ( X, Y ) T un vecteur aléatoire continue ayant pour copule C. Alors, le tau
de Kendall pour ( X, Y ) T est donné par :
ˆ ˆ
τ ( X, Y ) = Q (C, C ) = 4 C (u, v) dC (u, v) − 1.
[0,1]2
Remarquons que l’intégrale ci-dessus est la valeur attendue du couple aléatoire (U, V ),
ou U, V ∼ U (0, 1) avec pour fonction de distribution conjointe C, c’est-à-dire τ ( X, Y ) =
4E (C (U, V )) − 1.
Définition 1.2.9. Une mesure d’association κ entre deux variables aléatoires continues X et Y
dont la copule est C, est une mesure de concordance si elle vérifie les propriétés suivantes :
24
1. P1 ) : κ est définie pour tout couple de variables aléatoires ( X, Y ).
2. P2 ) : Symétrie : κ ( X, Y ) = κ (Y, X ).
3. P3 ) : Normalisation : −1 ≤ κ ( X, Y ) ≤ 1.
4. P4 ) : Les Bornes : κ (− X, X ) = −1 et κ ( X, X ) = 1.
5. P5 ) : κ ( X, Y ) = 0 si et seulement si X et Y sont indépendantes.
6. P6 ) : κ (− X, Y ) = κ ( X, −Y ) = −κ ( X, Y ) .
7. P7 ) : Si f et g sont deux transformations strictement monotones définies respectivement
sur Im ( X ) et Im (Y ) alors
κ ( f ( X ) , g (Y )) = κ ( X, Y ) . (1.34)
Cov ( X, Y ) E ( XY ) − E ( X ) E (Y )
ρ ( X, Y ) = = .
σ ( X ) σ (Y ) σ ( X ) σ (Y )
— P5 ) X et Y indépendantes implique que κ ( X, Y ) = 0. Puisque dans ce cas
E ( XY ) = E ( X ) E (Y ). La réciproque est fausse, en effet si nous prenons X
N (0, 1) et Y = X 2 on obtient
Cov ( X, Y ) = E X 3 = 0
ρ ( X, Y ) = 0 =⇒ E ( X, Y ) = E ( X ) E (Y )
La solution de cette équation en dehors du cas indépendant est telle que X,Y
N (0, 1) (J. Aczel 1990).
Remarque 1.2.4. La corrélation modélise la dépendance Gaussienne :
En effet
ρ ( X, Y ) = 0
X N ormale =⇒ X, Y sont indépendantes
Y N ormale
25
Les travaux de Jonas Aczel (travaux abordés dans [19]) montrent que si f , g sont affines
c’est à dire que f ( X ) = a1 X + b1 et g (Y ) = a2 Y + b2 telle que a1 × a2 > 0.
En effet, on a :
Cov ( X + b1 , Y + b2 ) = Cov ( X, Y )
et
Cov ( a1 X, Y ) = a1 × Cov ( X, Y )
Cov ( a1 X + b1 , a2 Y + b2 ) = a1 × a2 × Cov ( X, Y )
Aussi,
σ ( a1 X + b1 ) = | a1 | × σ ( X ) ,
et donc
a1 × a2 × Cov ( X, Y ) a × a2 × Cov ( X, Y )
ρ ( f ( X ) , g (Y )) = = 1 car a1 × a2 > 0
| a 1 | × | a 2 | × σ ( X ) σ (Y ) a 1 × a 2 × σ ( X ) σ (Y )
d’où
ρ ( f ( X ) , g (Y )) = ρ ( X, Y ) .
C’est pourquoi la mesure de corrélation est dite linéaire. Les mesures de concordance
sont des généralisations de la corrélation linéaire dans le cas où la distribution bivariée
n’est pas Gaussienne.
Théorème 1.3.1. (Fisher-Tippett) Soit ( Xi , i ≥ 1) une suite de variables aléatoires i.i.d. S’il
existe des suites de normalisation {σn > 0} et {µn ∈ R} et une distribution non-dégénérée G
26
vérifiant la relation (1.40), alors G est de la forme suivante :
x−µ
Gumbel, Λ ( x ) = exp −exp − ; x∈R
h σ
exp − 1 + ξ x−µ −1/ξ
i
si x > 0
Fr échet, Φξ ( x ) = σ
si x ≤ 0
0
(1.36)
1
exp − − x − µ
ξ
si x ≤ µ
Weibull, Ψξ ( x ) =
σ +
si x ≥ µ
1
Supposons par simplicité que la loi X1 possède la densité f > 0. Alors, la loi de Mn
possède la densité nF ( x )n−1 f ( x ) d’après la proposition 1.1. On a donc
h i ˆ
x − µn
−1
In = E g σn ( Mn − µn ) = g nF ( x )n−1 f ( x ) dx.
R σn
Comme f > 0, la fonction F est inversible et d’inverse connue. On pose pour t > 1
−1 1
U (t) = F 1− .
t
En particulier, on a
1 1
U (t) = x ⇐⇒ 1 − = F ( x ) ⇐⇒ P ( X > x ) = .
t t
v n
F ( x ) = 1 − , i.e x = U .
n v
27
On obtient ˆ !
n
U v − µn v n −1
In = g 1− 1]0,n] (v) dv.
R σn n
v n −1
Remarquons que 1 − 1]0,n] (v) converge en croissant vers e−v 1{v>0} . Comme par
n
hypothèse In converge pour tout g, il est naturel, mais érroné à priori, de penser que pour
tout v > 0, la suite de terme n
U − µn
Jn (v) = v
σn
converge.
Supposons
malgré tout que cette convergence ait lieu. On déduit en considé-
1
rant Jn − Jn (1) que pour tout w > 0,
w
U (wn) − U (n)
−→ h (w) .
σn n−→+∞
Comme la variable W est non triviale cela implique que la fonction h n’est pas égale à
une constante. Comme la fonction U est croissante, la fonction h est également croissante.
Supposons que plus généralement, on ait pour tout w > 0,
U (wx ) − U ( x )
−→ h (w) ,
σ (x) x →+∞
σ ( xw1 )
En faisant tendre x vers l’infini dans l’égalité ci-dessus, on obtient que converge
σ ( xw1 )
pour tout w1 > 0. En notant l (w1 ) la limite, il vient que
h ( w1 w2 ) = h ( w2 ) l ( w1 ) + h ( w1 ) (1.37)
Par ailleurs, la fonction l est mesurable et localement bornée. Comme la fonction h est
croissante et non constante, on en déduit que l est strictement positive. De plus en posant
yw0 = x, on a pour w0 > 0
l w0 w = l (w) l w0 ,
28
où l est une fonction strictement positive mesurable localement bornée. Le lemme précé-
dent garantit qu’il existe ξ ∈ R tel que l (w) = wξ , et donc de (1.7) on a
ξ
h (w1 w2 ) = h (w2 ) w1 + h (w1 ) pour tous w1 , w2 > 0.
h ( w1 w2 ) = h ( w2 ) + h ( w1 ) .
ξ ξ
h ( w1 w2 ) = h ( w2 ) w1 + h ( w1 ) = h ( w1 ) w2 + h ( w2 ) .
En particulier, on a
ξ ξ
h ( w1 ) 1 − w2 = h ( w2 ) 1 − w1 .
h (w)
Cela implique que h (w) = 0 si w = 1, et sinon est constant.
1 − wξ
Par conséquent, on obtient h (w) = c wξ − 1 . À un changement d’échelle près, on peut
choisir c = 1ξ et à une translation près, on peut choisir U (n) = bn .
En définitive, il vient que
v−ξ − 1
n
U v − µn 1 si ξ 6= 0
lim =h = ξ
n−→+∞ σn v
− log (v) si ξ = 0
v−ξ − 1
où on a posé y = si ξ 6= 0 et y = log (v) si ξ = 0.
ξ
−1/ξ
Ainsi, la distribution de la loi limite est Hξ ( x ) = e−(1+ξx) . C’est la forme standard
de la distribution définie plus loin par la relation (1.10)
29
1.3.2 Distributions extrêmes multivariées
Une distribution ou fonction de répartition m-dimensionnelle est une fonction F :
Rm → I = [0, 1] telle qu’il existe un espace de probabilité et un vecteur aléatoire X =
( X1 , ..., Xm ) tels que, pour toute réalisation x = ( x1 , ..., xm ) ∈ Rm de X, on a
F ( x ) = F ( x1 , ..., xm ) = P ( X ≤ x ) = P ( X1 ≤ x1 ; ...; Xm ≤ xm ) .
Le résultat suivant, démontré dans [13], résume les propriétés d’une distribution
multivariée.
(1) (1)
∆ x1 ,y1 ...∆ xm ,ym F (y1 , ..., ym ) ≥ 0 (1.38)
(i )
où l’opérateur ∆ xi ,yi est défini pour tout t∈ Rm par :
(i )
∆ xi ,yi F (t) = F (t1 , ..., ti−1 , yi , ti+1 , ..., tm ) − F (t1 , ..., ti−1 , xi , ti+1, ..., tm )
Remarque 1.3.1. La propriété (ii) signifie en particulier que F est croissante par rapport à
chaque variable.
Dans le cas bidimensionnel la relation (1.38) équivaut à l’inégalité du rectangle que
doit vérifier toute fonction de répartition bivariée F i.e
sous l’hypothèse
m m
F ( x ) = Π P ( Xi ≤ xi ) = Π Fi ( xi ) ,
i =1 i =1
30
Si en particulier X est un vecteur continu, alors, pour tout x = ( x1 , ...xm ) ∈ Rm , on a
ˆ x ˆ xm ˆ x1
F (x) = f ( x ) dx = ... f (t1 , ..., tm ) dtm ...dt1 ,
−∞ −∞ −∞
∂m F ( x1 , ..., xm )
f (x) = , x = ( x1 , ..., xm ) ∈ Rm .
∂x1 .....∂xm
Remarque 1.3.2. Il faut noter que dans l’analyse multivariée, le sens de fonction de survie requiert
une attention particulière. En effet, on a
F̄ ( x ) = P ( X > x ) 6= 1 − F ( x ) = P ( X 6≤ x ) , x = ( x1 , ...xm ) ∈ Rm .
F̄ ( x1 , x2 ) = P [ X1 > x1 , X2 > x2 ] = 1 − F1 ( x1 ) − F2 ( x2 ) + F ( x1 , x2 )
i.e
1 − F ( x1 , x2 ) = F̄1 ( x1 ) + F̄2 ( x2 ) − F̄ ( x1 , x2 ) .
31
Plus généralement, pour tout x = ( x1 , ...xm ) ∈ Rm , on a
où S est l’ensemble des sous-ensembles non vides de {1, 2, ..., m} et { Fs , s ∈ S} désignant l’en-
semble des distributions marginales de F.
1
θ θ
i =m −ξ
−
x µ
Gθ ( x1 , ..., xm ) = exp − ∑ 1 − ξ i i i i
; xi > 0; θ > 1.
i =1
σi +
Dans cette section nous donnons quelques familles de modèles des valeurs extrêmes
multivariées. Les fonctions de dépendance de Pickands sont données.
( )1
θ
Gθ ( x1 , ...xm ) = exp − ∑ xiθ ; xi > 0; θ ≥ 1
1≤ i ≤ m
−1
(
m
−θij −θij
− ∑ xi + ∑
θij
Gθ ( x1 , ...xm ) = exp xi + xj
i =1 i< j
)
m k
+ ∑ (−1)k+1 ∑ B1...k ( xi , ..., xk , θ12 , ..., θ1k ;
k =3 i =1
32
où θ1,j ≥ 0 est le paramètre de dépendance entre les variables marginales X1 et X j .
(
m n
− ∑ xi + ∑ xi
θij
Gθ ( x ) = exp xi + x j − xi Φ 1
θij + 2 log xj
i =1 1≤ i < j ≤ m
ˆ !
x o xi
∑
θij k
−xj Φ 1
θij + 2 log j
xi + (−1)|S|+1 Φ̄k−1 log x
xi + 2
δi2 ,i
;Γ dx ;
S:|S|≥3 0 j k
1
θij θ1ij
θij m θ
Gθ ( x ) = exp − ∑ pi xiθ + p j x θj + ∑ νi pi xi
θ
1≤i<j≤m i =1
# −1
i −1
"
m m θ
−θij θθ I j −δij θθ I j θij
h
Gθ ( x ) = exp − ∑ xi + ∑ (−1)|S|+1 ∑ xi−θ _ ∑ pi xi + pj xj .
i =1 S:|S|≥1 i ∈S i < j; i,j∈S
33
extraire ensuite la structure de dépendance.
Définition 1.4.1. Soit {( xt1 , · · · , xtn )}tT un échantillon d’un vecteur aléatoire X de dimen-
sion n, la fonction de répartition empirique est donnée par :
T
1
Fn ( x1 , · · · , xn ) =
T ∑ 1(Xi1 <x1,··· ,Xin <xn ) , (1.41)
i =1
La notion de la copule empirique a été introduite pour la première fois par Deheuvels
en (1979) dans [29], qui est connue sous le non " fonction de dépendance empirique ".
Définition 1.4.2. Soit {( xk , yk )}nk=1 un échantillon de taille n d’un couple de variables aléatoires.
La copule empirique est la fonction Ĉ donnée par :
Elle est parfois appelée " fréquence de la copule empirique" ; il existe une relation entre Ĉ et ĉ
donnée par :
i j
i j p q
Ĉ ( , ) =
n n ∑ ∑ ĉ( n , n ) (1.44)
p =1 q =1
et
i j i j i−1 j i j−1 i−1 j−1
ĉ( , ) = Ĉ ( , ) − Ĉ ( , ) − Ĉ ( , ) + Ĉ ( , ) (1.45)
n n n n n n n n n n
Les copules empiriques peuvent être exploitées pour estimer les mesures de dépendance
à savoir le ρ de Spearman et le τ de Kendall.
34
Théorème 1.4.1. Soient Ĉ et ĉ la copule empirique et sa fonction de densité respectivement de
l’échantillon {( xk , yk )}nk=1 . Le tau de Kendall et le rho de Spearman sont estimés par les formules
suivantes :
j −1
2n n n i−1 i j p q i q p j
τ̂ = ∑ ∑ ∑ ∑ [ĉ( , )ĉ( , ) − ĉ( , )ĉ( , )]
n − 1 i =2 j =2 p =1 q =1 n n n n n n n n
(1.47)
n n
12 i j ij
ρ̂ = ( ) ∑ ∑
n 2 − 1 i =1 j =1
[ Ĉ ( ,
n n
) −
n2
] (1.48)
Nous trouvons la démonstration de ce théorème dans Nelsen (2006) ou Deheubels (1979). (Fadhila,2011)
[19].
ϕ(u)
K (u) = u − (1.50)
ϕ0 (u)
T
1
K̂ (u) =
T ∑ 1 vt ≤u , (1.51)
t =1
où
T
1
vt =
T−1 ∑ 1{x1j ≤xt1,x2j ≤xt2 } (1.52)
j =1
35
1.4.3 Estimation des paramètres d’une copule
Nous nous plaçons dans le cas où la distribution conjointe dépend d’un paramètre
que l’on cherche à estimer. Plusieurs méthodes existent pour estimer ce paramètre. Dans
cette section, nous présentons la méthode du maximum de vraisemblance, la méthode
IFM (Inference Functions for Margins) et la méthode de moment
C’est la méthode d’estimation classique dont le principe est de maximiser une fonc-
tion dite fonction de vraisemblance de vraisemblance.
Soit l’échantillon {( x1t , · · · , xnt )}tT=1 des observations ; ` = (θ1 , · · · , θn , α) le vecteur de
paramètres à estimer avec θi le paramètre de la distribution marginale Fi et α le vecteur
de paramètres de copule C. Le théorème de Sklar nous donne les expressions suivantes :
F ( x1 , · · · , xn ) = C ( F1 ( x1 ), · · · , Fn ( xn ))
et
n
f ( x1 , · · · , xn , ) = c( F1 ( x1 ), · · · , Fn ( xn ); α) ∏ f i ( xi , θi )
i =1
où
∂C (u1 , · · · , un )
c ( u1 , · · · , u n ) =
∂u1 · · · ∂un
qui désigne la densité de la copule n-dimensionnelle C (u1 , · · · , un , `), et les f i les densités
de distributions marginales Fi . La fonction log-vraisemblance
T
L( x, `) = ∑ ln f (x1t , · · · , xnt )
t =1
de l’échantillon
{( x1t , · · · , xnt )}tT=1 est donnée par :
T n T
L( x, `) = ∑ ln c( F1 ( x1t ), · · · , Fn ( xnt ); α) + ∑ ∑ ln fi (xit , θi ) (1.54)
t =1 i =1 t =1
Cette expression de la vraisemblance pourrait être utilisée pour estimer les paramètres
des lois marginales et les paramètres de copules en une seule étape. L’estimateur de maxi-
mum de vraisemblance est donné par :
où Θ est l’espace des paramètres. On peut vérifier dans les conditions de régularité que
l’estimateur θ̂ ML existe, qu’il est sans biais, convergent, asymptotiquement efficace et
36
vérifie la propriété de la normalité asymptotique. On a alors
√
T (θ̂ ML − θ0 ) → N (0, I −1 (θ0 )) (1.56)
La méthode IFM ou méthode des fonctions d’inférence des marginales a été proposée
par Joe et Xu (1996) [24]. Elle consiste à séparer l’estimation des paramètres des lois mar-
ginales et ceux de la copule. Ainsi, la log-vraisemblance globale peut être exprimée de la
manière suivante :
T T n
L( x, θ ) = ∑ ln c( F1 ( x1t , θ1 ), · · · , Fn ( xnt , θn ); α) + ∑ ∑ ln fi (xit , θi ) (1.57)
t =1 t =1 i =1
T
θˆi = arg max ∑ ln f i ( xit , θi ) (1.58)
i =1
T
α̂ = arg max ∑ ln c( F1 ( x1t , θˆ1 ), · · · , Fn ( xnt , θˆn ); α) (1.59)
i =1
Cet estimateur θ̂ IFM = (θˆ1 , · · · , θˆn ; α̂) présente des propriétés statistiques légèrement dif-
férentes de l’estimateur du maximum de vraisemblance mais elle est également convergent,
sans biais et vérifie la propriété de la normalité asymptotique. On a alors
√
T (θ̂ IFM − θ0 ) → N (0, v−1 (θ0 ))
avec v(θ0 ) la matrice d’information de Godambé selon Joe (1997) évoqué dans [19], cette
matrice s’écrit de la manière suivante
v(θ0 ) = D −1 M ( D −1 )0 avec D = E[ ∂θ
∂
( g(θ )T )] ; M = E[ g(θ )T g(θ )]
∂L1 ∂Ln ∂L
g(θ ) = [ ,··· , ; ]
∂θ1 ∂θn ∂α
37
où
T
Lj = ∑ ln f (xi , θ j )
i =1
Cette méthode présente l’avantage de se reposer sur les calculs légers que ceux géné-
rés par la méthode de maximum de vraisemblance. Mais la détermination de la matrice
de Godambé pourrait s’avérer très délicat en raison des multiples calculs de dérivées.
Méthode de moment
c−d
τ̂ = (1.62)
c+d
38
1.4.4 Estimation semi-paramétrique
L’approche semi-paramétrique suppose un modèle paramétrique pour la copule, C =
C (., .α) et non-paramétrique pour les marginales. Celle que nous étudions ici est connue
sous le nom de la méthode de maximum de vraisemblance canonique ou encore méthode
de pseudo maximum de vraisemblance (PML).
L’une des étapes les plus importantes de l’utilisation pratique des copules est le choix
d’une meilleure copule. En effet, dans l’optique d’éviter un usage aveugle des copules,
cette sélection demeure indispensable car elle nous permet de choisir une copule répon-
dant aux exigences des données. Plusieurs approches sont disposées à guider cet choix.
Nous adoptons la méthode dite Test d’adéquation de Khi deux qui est basée sur un
ajustement bivariée entre la copule paramétrique et la copule empirique effectuée à par-
tir de la statistique de Khi-deux. Ce processus est décrit comme suit :
1. La première étape consiste à estimer le paramètre de la copule bivariée à partir de
la méthode CML afin de s’affranchir l’erreur de spécification des lois marginales.
On note Câcml (u1 ; u2 ) la copule paramétrique obtenue.
2. On définit un treillis d’ordre T adopté au nombre d’observation et aux contraintes
39
de temps de calcul puis on calcule la copule empirique bivariée sur ce treillis.
t T
t2 1
∑ 1x1t ≤x1(t1 ) ,x2t ≤x2(t2 )
1
Ĉ , = (1.65)
T T T t =1
(emp)
pi,j = Ĉâcml (bi , c j ) − Ĉâcml (bi−1 , c j ) − Ĉâcml (bi , c j−1 ) + Ĉacml (bi−1 , c j−1 ) (1.66)
avec i,j=1,...,k. De même les effectifs théoriques issues de la copule théorique sont
(th)
obtenus en multipliant les probabilités bivariées théoriques pi,j par le nombre
total des observations avec
(th)
pi,j = C (bi , c j ) − C (bi−1 , c j ) − C (bi , c j−1 ) + C (bi−1 , c j−1 ). (1.67)
5. Certains effectifs théoriques peuvent être très faibles voire proche de zéro, il faut
donc procéder à un regroupement de k × k intervalles initiaux en n classes per-
mettant de respecter le critère Cochran qui recommande d’avoir des effectifs théo-
riques au moins supérieurs à 1% du nombre total d’observations dans chaque
classe, et supérieurs à 5% du nombre total d’observations dans au moins 80% des
classes.
6. Après avoir défini le regroupement en n classe vérifiant le critère de Cochran, on
calcule la statistique bivariée de Khi-deux comme suit :
n
(Oi + Ei )2
χ2obs = ∑ Ei
(1.68)
i =1
40
1.5 Cadre financier de la modélisation des risques.
Une mesure de risque doit pouvoir être vérifiée par un certain nombre de propriétés
élémentaires. Dans cette section, nous donnons les différentes définitions et caractéris-
tiques (d’un portefeuille, des actifs sous-jacents et de la notion de mesure de risque).
Une caractéristique importante d’un portefeuille est son degré de diversification, qui
permet d’atteindre un juste milieu entre le risque, la volatilité et la rentabilité du porte-
41
feuille, tout en tenant compte de la durée prévue du placement (horizon de temps).
La répartition du portefeuille, tant en types d’actifs qu’en actifs individuels, est un
aspect crucial du placement boursier. Cette répartition va dépendre du degré d’aversion
au risque de l’investisseur.
Le portefeuille est dit équilibré, lorsqu’il prend peu de risques, mais qui peut assurer
un bon rendement à son détenteur (assez bonne diversification, valeurs “ sûres”...).
Un portefeuille dynamique (gestion active) est synonyme davantage de risques pour
son détenteur, mais peut conduire à des gains significatifs (l’investisseur choisit des en-
treprises de secteurs en pleine évolution ou en restructuration).
Un portefeuille dit sécurisé, est la traduction d’une sélection de valeurs représentant
des sociétés peu exposées aux variations cycliques de l’environnement économique.
Actions et obligations
Une action est un titre de propriété délivré par une société de capitaux. Par exemple
une société anonyme ou une société en commandite par actions. Elle confère à son dé-
tenteur la propriété d’une partie du capital, avec les droits qui y sont associés : intervenir
dans la gestion de l’entreprise et en retirer un revenu appelé dividende.
Une obligation est un titre de dette émis par une entreprise ou un état donnant droit
à l’investisseur au versement d’un intérêt annuel (coupon) et au remboursement du titre
à l’échéance. Il existe plusieurs types d’obligations : l’obligation d’état (on parle alors de
dette souveraine), l’obligation d’entreprise (on parle dans ce cas de dette corporatiste) et,
les obligations convertibles, forcément émises par une entreprise, auxquelles sont atta-
chées un droit de conversion qui permet à son propriétaire d’avoir la possibilité d’échan-
ger l’obligation en action de la société émettrice selon une parité de conversion préfixée
et durant une période prédéterminée.
Les actions et les obligations sont toutes deux des placements financiers rémunéra-
teurs. Mais les similitudes s’arrêtent ici, car les rendements, les risques et le statut de
leurs détenteurs sont bien différents. Les obligations représentent des titres de créance
(dette), tandis que les actions sont des titres de propriété (capital).
Titrisation
42
Le principal avantage de la titrisation est qu’elle répartit le risque de défaut de rem-
boursement sur un large ensemble d’acteurs. Le risque devient ainsi “ collatéral”. Cela
permet également aux banques de faire sortir l’ensemble des crédits des portefeuilles
titrisés de ses résultats, et donc d’améliorer ses résultats.
Le terme CDO, est une terme en anglais : ”Collateralized Dept Obligation” en anglais
, qui signifie en français : les tranches d’obligation adossé à des actifs en anglais . Ces
CDO sont généralement constitués de créances d’une même famille. Il s’agit de produits
de crédit structurés, composés d’un portefeuille d’actifs à revenus fixes ou variables. Afin
d’être équilibré, chaque portefeuille est constitué de plusieurs catégories d’obligations,
appelées “tranches” :
— Les « tranches equity » sont les plus risquées. Elles sont généralement achetées par un
hedge fund ou le gérant du CDO. Elles sont les premières à supporter le risque.
— Les « tranches mezzanine » sont intermédiaires. Elles sont généralement achetées par des
gérants d’actifs ou des investisseurs en compte propre.
— Les « tranches senior ou super-senior » sont les moins risquées. Elles sont en général
notées AAA par les agences de notation. Elles sont généralement achetées par des assureurs
monoline (Rehaussement de crédit).
43
F IGURE 1.9 – Les principaux intervenants dans la titrisation. La figure est issue du site
“Fimarkets” (de M. François Leroux)
44
La banque crée le SPV qui achète des créances qu’elle détient passivement à son bilan,
et les “repackage” pour en faire des titres qui seront ensuite vendus aux investisseurs.
Dans ce chapitre nous nous sommes donnés les outils nécessaires au développement
de nos travaux. Nous avons dans un premier temps abordé la notion de la dépendance
stochastique en énumérant les mesures de dépendance linéaire (le coefficient de corréla-
tion) et non linéaire (le rhô de Spearman et le tau de Kendall). Il faut noté que la modé-
lisation de la dépendance stochastique entre des variables aléatoires est importante dans
la modélisation de plusieurs domaines d’applications des probabilités. Une caractérisa-
tion des mesure d’association à été donnée après que l’on ait fait le tour sur la notion de
copule. Nous avons également abordé la notion de mesure de risque monétaire qui est
en réalité le contexte dans lequel nous souhaitons appliquer les outils abordés dans les
sections précédentes.
45
Chapitre 2
46
— une exposition en l’occurrence la détention d’un portefeuille d’instruments finan-
ciers
— une incertitude dans le cas du risque de marché l’incertitude réside dans l’évolu-
tion future de la valeur de marché des instruments détenus. En cas d’évolution
défavorable du marché, l’investisseur est exposé à réaliser une perte au lieu du
bénéfice escompté.
47
Ce risque est lié à l’évolution d’un cours sous-jacent par rapport à celui de sa couverture
(put, contrat future). Cette dernière n’étant pas toujours parfaitement adaptée, un écart
entre les prix peut se créer, ce qu’on appelle la base.
— Le risque idiosyncratique :
En gestion de portefeuille, le risque idiosyncratique est le risque lié à une position en
particulier. Plus un portefeuille est concentré, moins il y a de positions, plus ces positions
sont importantes et plus le risque idiosyncratique est élevé.
— Le risque pays :
De manière rigoureuse, le risque pays correspond à la probabilité qu’un pays n’assure
pas le service de sa dette extérieure. D’autre part, si un pays connaît une crise très grave
(guerre, révolution, faillites en cascade, etc.) alors même les entreprises “ de confiance”,
malgré leur crédibilité, vont se retrouver en difficulté. C’est un risque de contrepartie lié
à l’environnement de la contrepartie.
— Le risque météo :
C’est le risque de perte potentielle de chiffre d’affaires ou de profit dû aux variations de
la météorologie. Il concerne les quatre grandes familles climatiques que sont la tempé-
rature, les précipitations, l’ensoleillement et le vent. Le risque météorologie ne concerne
que les variations ordinaires de la météo. Il s’agit de l’impact potentiel sur la performance
d’une entreprise, d’une anomalie météo, c’est-à-dire de la fluctuation autour de sa valeur
moyenne. En météorologie, la moyenne (appelée aussi la normale) est en général calculée
sur 30 ans.
— Le risque de change :
C’est le risque sur les variations des cours des monnaies entre elles. Risque sensiblement
lié au facteur temps ;
On appelle modèle financier un espace probabilisé (Ω, A, P) où Ω est l’ensemble des prix, des
valeurs, ou encore des rendements possibles d’un ou des plusieurs produits financiers ; A est une
tribu 1 de Ω et P : A → [0, 1] est une mesure de probabilité.
1. Une tribu ou σ − algebre sur Ω est une famille de parties de Ω, contenant l’ensemble vide, stable par passage
au complémentaire, union dénombrable et intersection dénombrable.
48
Définition 2.2.2. (Facteur de risque)
Soit (Ω, A, P) un modèle financier. On appelle facteur de risque toute v.a A − mesurable à
valeurs réelles.
R : (Ω, A, P) → R
vérifiant les propriétés intéressantes suivantes. Si X et Y sont deux v.a définies sur l’espace pro-
babilisé (Ω, A, P) ;
Sous additivité
Une application ρ est dite sous additive si et seulement si pour toutes variables aléa-
toire X et Y : ρ ( X + Y ) ≤ ρ ( X ) + ρ (Y ) . La mesure du risque de la somme de deux
portefeuilles ne doit pas être supérieure à la somme des mesures de risque des porte-
feuilles.
Si cette propriété n’était pas respectée, une société ne respectant pas un certain niveau
requis de capital pourrait être incitée à se scinder artificiellement en deux entités afin de
réduire son besoin en capital.
49
Homogénéité positive
L’homogénéité positive pour une application ρ signifie que pour toute variable X :
ρ (λX ) ≤ λρ ( X ) , λ ≥ 0. De même qu’une fusion ne crée pas de risque supplémentaire,
une fusion sans diversification ne réduit pas le besoin global en capital.
Monotonie
Pour tout risque X, on établit que : ρ ( X ) ≤ max (− X ). Le besoin en capital est borné
par la perte maximale possible.
Conservatisme
Elle est définie par Artzner et al. (1999) [2] notamment pour la détermination du be-
soin en capital, et conduit à ne prendre en compte que les valeurs négatives de X, tradui-
sant ainsi une forte aversion au risque : ρ ( X ) = ρ ( X − ) o ù X − = min ( X, 0) .
Convexité
L’application ρ est une mesure de risque convexe si pour tout variable aléatoire X et Y
et pour λ ∈ [0, 1] nous avons : ρ (λX + (1 − λ) Y ) ≤ λρ ( X ) + (1 − λ) ρ (Y ) . La définition
de mesure convexe de risque est analogue à celle d’une fonction d’utilité. C’est une des
raisons pour laquelle le sujet s’est développé aussi rapidement, plusieurs énoncés étant
duaux à ceux de la théorie de l’utilité.
50
3. ρ (c) = c pour c scalaire, ce qui signifie que la mesure d’un montant certain est ce
montant lui même.
Nous nous intéressons maintenant à différentes propriétés que doit vérifier une mesure
pour qu’elle puisse être classée mesure de risque monétaire.
Positions acceptables
Soit X un espace gaussien 2 . Une position X n’est pas acceptable si ρ ( X ) > 0. Consi-
dérons Aρ = { X ∈ X /ρ ( X ) ≤ 0}.
Nous abordons par la suite, quelques propriétés sur les mesures de risque monétaire.
Soit ρ une mesure de risque monétaire. Nous avons :
1. Aρ 6= O/ ; sup {m ∈ R/m ∈ Aρ} < ∞ ; si X ∈ Aρ alors Y ≤ X implique Y ∈ Aρ .
2. λ ∈ [0, 1]; λX + (1 − λ) Y ∈ Aρ est un fermé de [0, 1] (éventuellement vide).
3. ρ( X ) = in f m ∈ R/X − m ∈ Aρ (ρ( X ) est le plus petit capital m tel que X − m
soit acceptable).
4. ρ convexe implique Aρ convexe.
5. ρ positivement homogène implique Aρ est un cône positif.
6. ρ cohérente implique Aρ est un cône positif convexe.
Pour la démonstration des propriétés précédente nous vous référons à Walid J. [48].
Nous pouvons aussi redéfinir la notion de mesure de risque à partir d’un ensemble
de positions acceptables. Soit A ⊂ X . On pose pour X ∈ X :
ρA ( X ) = in f {m ∈ R/X − m ∈ A} .
Nous avons utilisé ces notions pour vérifier si les différentes mesures de risque que
nous utilisons sont bien des mesures de risque cohérentes ou des déviations. Cela nous
a permis par la suite d’introduire les notion de “pseudo-convexité” sur les mesures de
risque.
2. i.e. pour tout n ≥ 1, X1 , ..., Xn ∈ X , alors ( X1 , ..., Xn ) est un vecteur gaussien.
51
Soit (Ω, F ) un espace mesurable. Soit X une fonction mesurable à valeurs réelles
définie sur Ω. Pour un scénario ω ∈ Ω, la position X (ω ) s’interprète comme une perte
(si X (ω ) < 0 alors − X (ω ) s’interprète comme un gain).
Dans une étude unidimensionnelle, Rockafellar [35] établit qu’une mesure de risque
cohérente R : L2 −→ ]−∞, ∞] satisfait aux propriétés suivantes :
1. R1 : R ( a) = a , pour toute constante a.
2. R2 : R ((1 − λ) X + λY ) ≤ (1 − λ) R ( X ) + λR (Y ) avec λ ∈ ]0, 1[ (convexité).
Cette propriété traduit la notion de diversification : le risque sur un portefeuille
est plus faible que la somme des risques individuels.
3. R3 : R ( X ) ≤ R (Y ) quand X ≤ Y (monotonie). Si la probabilité de perte sur un
portefeuille est toujours supérieure à celle d’un deuxième alors leurs mesures de
risque varient dans le même sens.
4. R4 : R ( X ) ≤ 0 quand X k − X 2 −→ 0 avec R X k ≤ 0 (Borné).
Une fonction R : L2 −→ ]−∞, ∞] est dite mesure de risque au sens large si elle
satisfait les axiomes R1 , R2 ,R4 , R5 et aussi R6 .
Mesure de déviation
52
4. Une fonction est dite mesure de déviation au sens basique si elle vérifie les condi-
tion D1 , D2 , D3 et de plus.
5. D4 : D (λX ) = λD ( X ) for λ > 0 ( homogénéité positive)
Une mesure de déviation au sens large ou basique est dite une mesure cohérente
au sens large ou basique si elle satisfait de plus.
6. D5 : D ( X ) ≤ supX − E [ X ] pour toute variable X (limite supérieure).
Les axiomes D1 , D2 , D3 , D4 sont vérifiées mais pas D5 . En d’autres termes, l’écart type
n’est pas une mesure d’écart cohérente.
Métriques paramétrique
a) Expansion de Edgeworth
− x2 /2
n x2 /2 de
Hn ( x ) = (−1) e . (2.1)
dx n
γH2 ( x ) (τ − 3) H3 ( x ) γ2 H5 ( x )
Φ (x) = F (x) − f (x) √ + + (2.2)
6 n 24n 72n
avec F la fonction de distribution de la loi normale, f la fonction de densité de la loi
normale, γ le moments d’ordre 3 et τ le moments d’ordre 4 de la variable X.
b) Expansion Cornish-Fisher
τ − 3 −1 γ2
2 3 3
γ −1
Φ − ( x ) = F −1 ( x ) + F (x) − 1 + F ( x ) − 3F −1 ( x ) + 2 F −1 ( x ) − 5F −1 ( x )
6 24 36
53
avec F la fonction de distribution de la loi normale, γ le moments d’ordre 3 et τ le
moments d’ordre 4. C’est une forme analytique fermée pour l’estimateur du quantiles.
La VaR peut être calculée directement.
Métriques non-paramétrique
a) Quantile
Les quantiles sont des mesures de position qui ne tentent pas nécessairement de dé-
terminer le centre d’une distribution d’observations, mais de décrire une position parti-
culière. Pour tout α entre 0 et 1, le quantile α de la distribution d’une variable aléatoire
continue X est un nombre réel xα tel que
P [ X < xα ] = α.
n
VaR − HD (n, p) = ∑ Wi ( p, n) Xi
i =1
Xi = P&L simulés et triés du pire au meilleur cas. Les poids Wi donnés par :
Wi ( p, n) = I i ( p(n + 1), (1−p)(n + 1))−I i−1 ( p(n + 1), (1−p)(n + 1)) (2.3)
n n
54
que la valeur-à-risque se définit comme un fractile de la distribution de pertes et profits
associée à la détention d’un actif ou d’un portefeuille d’actifs sur une période donnée.
Dès lors, la forme la plus simple consiste à présenter les données en termes de profits et
pertes. Ici nous aborderons les principales méthodes qui sont connues et plus ou moins
utilisées selon le contexte.
´∞
La valeur de ζ résout l’équation ζ Φs (u) du = ζ .
n
PP ' ∑ δi$ Ri = δ$0 R; (2.6)
i =1
où δ$ = δ$1 , ..., δ$n
est le vecteur des deltas de position nette et R = ( R1 , ..., Rn ) est
le rendement actualisé du sous-jacent. Il s’agit simplement d’une cartographie linéaire
basée sur les rendements des facteurs de risque. Le tableau suivant nous renseigne sur les
différentes expressions de la VaR selon que l’on suppose que la distribution est normale
multivariée ou multivariée de Student t.
55
Distributions Densités VaRα
h i
exp − 12 x ∑h x T q
Normale Φ∑ ( x )= Φ−
∑
1
(1 − α ) δ$0 ∑h δ$
(2π )d/2 det (∑h )1/2
− v+d
x ∑h x T
2
v+d
Γ 1+
2 v q
t −1 (1 − α ) δ$0 ∑h δ$
p
Student f v,∑ ( x )= v q ν −1 ( ν − 1 )
Γ (πv)d det (∑h )
2
où ∑h est la matrice de covariance de h jour des rendements actualisés sur l’actif sous-
jacent.
N
P(t) = ∑ θ i p i ( t ), (2.7)
i =1
où Pi (t) est le prix de l’actif i à la date t. Nous supposons que les facteurs de risque
sont des rendements des actifs ; la valeur p(t + 1) de portefeuille à l’instant t+1 est une
variable aléatoire.
la variation PP du prix de portefeuille entre les dates t et t+1 est donc donnée par :
N
P ∝ L = P ( t + 1) − P ( t ) = ∑ θi Pi (t)ri (t + 1) = θ ? (t)T r(t + 1) (2.8)
i =1
56
Nous obtenons donc
q
−1
VaR(α) = F (α) θ ?T Σθ ? (t) − θ ?T (t)µ
soit v
uN N N
VaR(α) = F (α)t ∑
−1
∑ θi θ j ρi,j σi σj Pi Pj − ∑ θi Pi µi
u
(2.10)
i =1 j =1 i =1
Cette expression est fonction des rendements moyens, des volatilités et des corrélations.
Il faut enfin souligner que cette méthode se base sur trois hypothèses essentielles dont la
normalité des rendements, la linéarité de la relation entre les prix des actifs et les facteurs
de risque et l’indépendance temporelle des variations de valeur de portefeuille.
Nous pouvons alors déterminer les variations potentielles, que nous assimilons à N
pertes potentielles ( certaines pertes sont en fait des gains). Ainsi, nous pouvons construire
une distribution empirique à partir de l’historique des variations quotidiennes des fac-
teurs de risque sur une période de temps donnée de laquelle on peut extraire le quantile
à α%. Cela revient à ranger les N pertes potentielles et prendre la valeur absolue de la
N × (1 − α)-ième plus petite valeur. Lorsque N × (1 − α) n’est pas entier on calcule VaR
par interpolation.
Cette méthode est très utilisée due au fait qu’elle est simple conceptuellement et facile
à être implémenter. Mais elle présente un risque lié à la taille des observations. Si celui-
ci est trop petit, on s’expose à un risque lié à l’insuffisance de données pour estimer
correctement le quantile à 99% ; la variance de l’ estimateur sera très grande. Par contre
si la taille est très élevée, dans ce cas on s’expose au risque que la distribution de facteurs
change induisant ainsi un risque sur l’estimation de quantile.
57
2.3.5 Estimation des bornes de la VaR par la copule
Dans l’optique de prendre en considération la VaR agrégeant plusieurs sources de
risques c’est-à-dire sur une position où le calcul fait appel au concept de la distribution
multidimensionnelle et compte tenu de la difficulté liée à la détermination d’une ap-
proche analytique permettant d’estimer la VaR sur cette position de manière générale.
Les chercheurs ont tenté de définir les bornes à l’intérieur desquelles la VaR agrégée
se situe. Particulièrement pour la somme de deux risques. Nous avons entre autres le
théorème de Makarov. Nous supposons que nous ne connaissons pas la structure de dé-
pendance du modèle.
Il faut remarquer que dans le cas où X et Y sont obtenues l’une de l’autre par une
transformation monotone, on a :
Mais il existe des cas où VaR[ X + Y; α] est beaucoup plus grande que la somme des
quantiles uni-variés VaR[ X; α] + VaR[Y; α]. Cela s’explique par le fait que VaR n’est pas
sous-additive.
1
{( x1 , · · · , x N ) ∈ R N /u1 = F1 ( x1 ), · · · , u N = FN ( x N ), C̄(u1 , · · · , u N ) < } (2.15)
t
où
N
C̄(u1 , · · · , u N ) = ∑ [(−1)n ∑ C(u)] (2.16)
n =0 u∈Z ( N −n,N )
58
sion 2 nous avons :
Le niveau de confiance
Il s’agit d’un paramètre compris entre 0 et 1 (en général 95% ou 99%) qui correspond
à la probabilité d’observer une perte de portefeuille ou de l’actif inférieure ou égale à la
VaR. Il intervient pour distinguer le niveau acceptable de niveau inacceptable de risque.
Plus le niveau de confiance est élevé, plus la VaR est importante. L’augmentation de
niveau de confiance diminue le nombre d’occurrences au-delà de la VaR, ce qui est un
inconvénient pour la mesure.
59
Horizon temporel choisi ou période de détention
Ce paramètre est fondamental tout comme le niveau de confiance car plus cet horizon
est long plus les pertes peuvent être importantes. Il correspond à la période sur laquelle
la variation de valeur du portefeuille est mesuré. D’une manière général, aucune règle
impose le choix de cette période de détention car ceci dépend de la nature des instru-
ments dans le portefeuille, de l’objectif de la modélisation, des besoins spécifiques des
sociétés et de l’horizon de gestion.
Cette distribution a souvent été considérée comme étant gaussienne or les données
des profits et des pertes à partir desquelles on calcule la VaR sont généralement expri-
mées sous forme de rendements qui par ailleurs dans la réalité du marché les distribu-
tions de rendements ne sont généralement pas normales. En effet, l’asymétrie de données
doit aussi être pris en compte.
Définition 2.4.1. La VaR d’une variable aléatoire X de fonction de répartition FX sur un horizon
donné T et pour un niveau de confiance α ∈ [0, 1] est définit par :
correspondant au capital minimal pour éviter d’être en ruine avec une probabilité 1 − α. De ma-
nière similaire nous avons :
Ceci peut être représenté en fonction de la quantile FX−1 nous avons par suite :
60
— de la même manière si h est une fonction strictement décroissante, continue à droite et si
FX est bijective on a :
E [ X − a]+
CVARα ( X ) = E [ X/X ≥ VaRα ( X )] = in f a+ ;a ∈ R , (2.24)
1−α
où u+ = max (u, 0). En outre, Sergy [24] a défini, en variant, la combinaison convexe
61
où CVaR+
α vérifie la relation :
CVaR+
α ( X ) = {CVaRα ( X ) /X > VaRα ( X )} ,
FX (VaRα ( X ))−α
avec λα ( X ) = 1− α . Nous proposons le résultat suivant.
Proposition 2.5.1. La CVaR est une mesure de risque cohérente au sens basique. En outre, pour
un niveau de confiance donné α ∈ ]0, 1[, il existe une fonction risquée Q X telle que la combinaison
pseudo convexe suivante est satisfaite :
(1 − α) Q X (α) + αQ X (1 − α) = 0 (2.26)
Démonstration. La cohérence de la CVaR a déjà été prouvée par Rockafellar [23]. Mais ici,
nous proposons une autre approche de la démonstration afin de prouver (2.26).
R1 ) Trivialement nous avons, pour toute constante C, CVaRα (C ) = C
R2 ) Convexité : Pour toutes variables X et Y, on a :
ˆ α
CVaRα ((1 − λ) X + λY ) = VaR β ((1 − λ) X + λY ) dβ
0
si bien que :
ˆ α
VaR β ((1 − λ) X + λY ) dβ ≤ (1 − λ) CVaRα ( X ) + λCVaRα (Y ) .
0
R3 ) Monotonie :
X ≤ Y ⇒ VaR β ( X ) ≤ VaR β (Y )
il vient que : ˆ ˆ
α α
VaR β ( X ) dβ ≤ VaR β (Y ) dβ
0 0
ce qui nous conduit à :
X ≤ Y ⇒ CVaRα ( X ) ≤ CVaRα (Y )
Soit
CVaRα ( X ) ≤ CVaRα X − X k + CVaRα X k .
62
Par ailleurs, comme CVaRα X k ≤ 0 alors
CVaRα ( X ) ≤ CVaRα X − X k .
De plus en considérant X k − X 2
−→ 0, nous obtenons :
CVaRα ( X ) ≤ CVaRα X − X k ≤ CVaRα X k − X −→ 0
2
où
CVaRα ( X ) ≤ 0.
´α
= λ 0 VaR β ( X ) dβ
soit
CVaRα (λX ) = λCVaRα ( X ) .
Ainsi, la CVaRα est une mesure de risque et une mesure de déviation au sens basique
. De plus nous avons :
E [X] = −αCVaR1−α (− X ) + (1 − α) CVaRα ( X )
E [− X ] = −αCVaR
1−α ( X ) + (1 − α ) CVaRα (− X )
alors, on obtient
ˆ 1
" ˆ 1 #
1 1
TVaRα ( X ) = VaRα ( X, ξ ) dξ = E [X] − VaRα ( X, ξ ) dξ . (2.27)
1−α α 1−α α
63
La XTVAR est le montant moyen de la ruine au-delà de la VaR :
Cette mesure de risque, aussi appelée “Mean Excess Loss” peut être obtenu comme la
différence entre la TVaR(CVaR) et VaR :
1
= 1− α [CVaR1 ( X ) − CVaRα ( X )] − VaRα ( X )
1
= 1− α [CVaR1 ( X ) − αAVaRα ( X )] − VaRα ( X )
1
XTVaRα = 1− α [CVaR1 ( X ) − αAVaRα ( X ) − (1 − α) VaRα ( X )] .
Ainsi, nous obtenons une relation entre ; XTVaR, CVaR, AVaR et VaR ;
d’où le résultat
64
2.6 Écart-type empirique et hauts risques géométriques
La sous section 2.6.1 est consacrée à la démonstration de la proposition 2.6.1 . Dans
la sous section 2.6.2 nous convergeons nos efforts sur le thème du risque géométrique de
haut niveau et certaines de ses propriétés.
Proposition 2.6.1. L’écart-type σ( X ) d’une variable X incertaine donnée est une mesure d’écart
au sens étendu.
D1 ) Soit C ∈ R σ (C ) = 0
D2 ) convexité : soient X et Y des vecteurs i.i.d et λ ∈ [0, 1]
1/2
2
σ ((1 − λ) X + λY ) = E [(1 − λ) X + λY − E [(1 − λ) X + λY ]] .
1/2
σ ((1 − λ) X + λY ) = (1 − λ)2 E X 2 − (E [ X ])2 + λ2 E Y 2 − (E [Y ])2 + λ (1 − λ) cov ( X, Y ) .
σ ((1 − λ) X + λY ) ≤ (1 − λ) σ ( X ) + λσ (Y ) .
D3 )
1/2
σ ( X ) = E X 2 − (E [ X ])2
65
Pour tout k ∈ N∗
2 h i2 1/2
k k k k
σ (X) = E X−X +X − E X−X +X
d’où
2 h i
2
h i2 h i h i h i2 1/2
σ (X) = E X − Xk − 2E X k X − X k + E X k − E X − Xk + 2E X k E X − X k + E X k
ce qui conduit à
2 h i2 h i
2 2 h i h i h i1/2
σ (X) = E X − Xk − E X − Xk + E Xk − E Xk − 2 E Xk X − Xk + E Xk E X − Xk ,
h 2 i
par suite, en faisant converger E X − Xk −→ 0 nous obtenons
2 2 2 1/2
h i
σ (X) ≤ E ( X k ) −(E[ X k ]) −2(E[ X k ( X − X k )]+E[ X k ]E[ X − X k ])−(E[ X − X k ])
soit h i
2 2 1/2
k k k
σ (X) ≤ E X − E X − 2cov X, X − X
si cov X, X − X k = 0 ,
h i 1/2
2 2
σ (X) ≤ E Xk − E Xk = σ Xk ≤ d
D4 ) λ ∈ R+ , X une v.a :
h i 1/2 h i 1/2
2 2 2 2
σ (λX ) = E (λX ) − (E [λX ]) = λ E ( X ) − λ (E [ X ])
2 2
soit
σ (λX ) = λσ ( X ) .
66
D. Barro et al. [12], il apparaît que la distribution de Pareto généralisé (GPD) H associée
au même échantillon de vecteur i.i.d. avec une distribution de valeurs extrêmes G définie
sur le domaine est donnée par
1 G (x)
H (x) = log si x ∈ supp ( G ) . (2.31)
−log ( G (0)) G (min ( x, 0))
Selon le théorème de Fisher-Tippet, chaque marge Gi peut être une distribution extrême
uni variée et est donc du type 1 d’une famille des trois fonctions de distribution suivante :
Φα (Fréchet), Ψα (Weibull), Λ (Gumbel).
δH (z) dπ (z)
dπ H (z) = (2.33)
π (H)
et à montrer comment cela conduit à une autre théorie multivariée des dépassements.
67
H
où πi i sont les fonctions de distribution marginales π H et c est la fonction de densité de la copule
C.
∂d C ( F1 ( x1 ) , ..., Fd ( xd ))
f (x) = = c ( F1 ( x1 ) , ..., Fd ( xd )) f 1 ( x1 ) × f d ( xd ) . (2.35)
∂x1 × ... × ∂xd
Corollaire 2.6.1. Soit f Z la densité f et c la densité de la copule multivariée C. Soit H une demi-
espace fermée de sorte que P ( Z ∈ H ) = α > 0. Alors, Z H a la fonction de densité
H
où Fi i (zi ) = z̃i , pour tout i = 1, ..., d sont les fonctions marginales de cdf F H .
ce qui donne
d
∏
H H
f H (z1 , ..., zd ) = c F1H1 (z1 ) , ..., Fd d (zd ) f i i ( zi ) ;
i =1
et finalement
d δHi (zi ) f (zi )
∏
H
f H (z1 , ..., zd ) = c F1H1 (z1 ) , ..., Fd d (zd ) .
i =1
αi
d
H
Considérons Fi i (zi ) = z̃i pour tout i = 1, ..., d, alors nous avons f H (z1 , ..., zd ) = c (z̃1 , ..., z̃d ) ∏
i =1
δHi (zi ) f (zi )
αi .
Le résultat suivant donne la relation entre Z et la copule associée.
68
Proposition 2.6.3. Soit Z un vecteur aléatoire dans Rd , H = H1 × ... × Hd ⊂ Rd est un
demi espace fermé avec P ( Z ∈ H ) > 0, C une copule multivariée et soit en supposant que
zi ∈ ℵ = H1 ∩ ... ∩ Hd , pour tout i = 1, ..., d . Si la fonction de distribution marginale de la
répartition des scénarios à risque élevé sont toutes continues, alors la fonction de densité de la
copule C est donnée par
H H
δH dπ ũ1 1 ,...,ũd d
π(H)
c (u1 , ..., ud ) = H
H (2.37)
dπ1 ũ1 1 ×...×dπd ũd d
π1 ( H1 )×...×πd ( Hd )
(−1)
H Hi
où ũi i = πi (ui ), les inverses des distributions marginales πiHi .
H
Démonstration. Supposons que les marges des scénarios à risque élevé π1H1 , ..., πd d sont
continues. Utilisons la relation (2.34) il vient que
dπ H (z1 , ..., zd )
c (u1 , ..., ud ) =
d δHi (zi )dπi (zi )
∏ πi ( Hi )
i =1
Hi (−1)
H
où πi i
(zi ) = ui et zi = πi ( u i ).
Cela nous donne
H
H
δH dπ ũ1 1 ,...,ũd d
π(H)
c (u1 , ..., ud ) = H
H
dπ1 ũ1 1 ×...×dπd ũd d
δℵ π1 ( H1 )×...×πd ( Hd )
d
si δℵ = 1, il s’ensuit que zi ∈ ℵ =
T
Hi .
i =1
Finalement, il vient que
H
H
δH dπ ũ1 1 ,...,ũd d
π(H)
c (u1 , ..., ud ) = H
H
dπ1 ũ1 1 ×...×dπd ũd d
π1 ( H1 )×...×πd ( Hd )
69
pour les processus elliptiques, Barro [11] a rappelé
Définition 2.6.2. Un vecteur aléatoire X de dimension n est distribué de manière ellip-
tique si, pour certains vecteurs µ = (µ1 , ..., µn ) ∈ Rn , soient une matrice symétrique ∑
de taille n × n et un fonction φ : R+ −→ R, la fonction caractéristique ϕ X −µ telle que
ϕ X −µ (t) = φ t T ∑ t . Nous pouvons écrire X En (µ, ∑, φ), ou
cn 1 −1
φ (x) = p
det (∑)
gn
2
( x − µ)t ∑ ( x − µ)
2 + y2 −2ρxy
h i
1√
exp −x 2(1− ρ2 )
si ( x, y) ∈ H
2πF ( H ) 1−ρ2
δH ( x, y) f ρ ( x, y)
f ρH ( x, y) = =
F (H)
0 sinon
70
et
2 2
δH1 ( x ) x δH2 (y) y
f ρH ( x, y) = √ exp − × √ exp − × cρ F1H1 ( x ) , F2H2 (y) ,
F ( H1 ) 2π 2 F ( H2 ) 2π 2
soit F1H1 ( X1 ) = U et F2H2 ( X2 ) = V. Alors (U, V ) ⊂ [0, 1]2 . La relation (2.40) devient alors
2 2 2 2
k ũ1H1 + − 2ρũ1H1 ũ2H2
ũ2H2 ũ1H1 + ũ2H2
c ρ ( u1 , u2 ) = p exp − +
1 − ρ2 2 (1 − ρ2 ) 2
(2.41)
F1 ( H1 ) F2 ( H2 )
avec k = F( H )
.
n n
Ft ( x1 , ..., xn ) = ∑ xi ( p0,i − pt,i ) = ∑ xi pt,i (ezt,i − 1) (2.42)
i =1 i =1
où Zt = (zt,1 , ..., zt,n ) est le vecteur de log prix telle que zt,i = logpt,i . En particulier, à
partir des transformations de probabilité intégrale que nous pouvons associer à Ft , la
71
copule paramétrique Ct telle que, pour tout (ut,1 , ..., ut,n ) ∈ [0, 1]n ,
Nous avons en nous plaçant dans un espace de euclidien les expressions suivantes :
s s
n n n
pt = ( p1,t , p2,t , ..., pn,t ) = ∑ h pi,t , ei i ei , k pt k = ∑ p2i,t = ∑ h p t , ei i2 .
i =1 i =1 i =1
Considérons
s s
n n n
Pt = ( p1,t ezt,1 , ..., pn,t ezn,1 ) = ∑ h pi,t ezt,i , ei i ei , k Pt k = ∑ p2i,t e2zt,i = ∑ h Pt , ei i2.
i =1 i =1 i =1
Proposition 2.7.1. Soit E un espace Euclidien et (e1 , ..., en ) une base de E. Alors il existe une
unique base ξ = (ξ 1 , ..., ξ n ) telle que si
n
VaRu ( X ) = (VaRu1 ( X1 ) , ..., VaRun ( Xn )) = ∑ hVaRui , ei i ei
i =1
alors
n
VaRui ϑi e
hVaRu ( X ) , ξ i − ∑ k ϑi k
= VaRu1 1
k e1 k
(2.44)
i =2
i
e1 ϑi + 1
où ξ 1 = k e1 k
et ∀i ∈ {1, ..., n − 1} , ξ i+1 = k ϑi + 1 k
avec ϑi+1 = ei+1 − ∑ hei+1 , ξ k i ξ k
k =1
72
Démonstration. Soit E un espace Euclidien et soit (e1 , e2 , ..., en ) une base de E telle que
s s
n n n 2
VaRu ( X )=(VaRu1 ( X1 ),...,VaRun ( Xn ))= ∑ hVaRui ,ei iei ⇒kVaRu ( X )k= ∑ VaR2ui = ∑ hVaRu ,ei i
i =1 i =1 i =1
i
e1 ϑi + 1
ξ1 =
k e1 k
et ∀i ∈ {1, ..., n − 1} , ξ i+1 =
k ϑi + 1 k
ave ϑi+1 = ei+1 − ∑ h ei +1 , ξ k i ξ k
k =1
(2.45)
n n
VaRui ϑi e
hVaRu ( X ) , ξ i = ∑ VaRui ξ i ⇒ hVaRu ( X ) , ξ i − ∑ = VaRu1 1
i =1 i =2
k ϑi k k e1 k
Théorème 2.7.1. Soit p0 = ( p0,1 , ..., p0,n ) la valeur initiale du portefeuille est donnée par
n
V0 = ∑ xi p0,i pour une réalisation x = ( x1 , ..., xn ) de X. A la date suivante t la fonction
i =1
incertaine Profit / Perte du portefeuille est donnée par
n n
Ft ( x1 , ..., xn ) = ∑ xi ( p0,i − pt,i ) = ∑ xi pt,i (ezt,i − 1)
i =1 i =1
Alors
Ct (u1 , ..., un ) = kVaRu ( X )k k Pt − pt k (2.46)
et
1
Ct (u1 , ..., un ) = kVaRu ( X ) + Pt − pt k2 + kVaRu ( X ) − ( Pt − pt )k2 (2.47)
4
où, Pt = ( p1,t ezt,1 , ..., pn,t ezn,1 ), et VaRu ( X ) = (VaRu1 ( X1 ) , ..., VaRun ( Xn )) est la Valeur à
risque de X et kk une norme quelconque.
73
Prenons Pt = ( p1,t ezt,1 , ..., pn,t ezn,1 ) et VaRu ( X ) = (VaRu1 ( X1 ) , ..., VaRun ( X )) nous obte-
nons
Ct (u1 , ..., un ) = hVaRu ( X ) , Pt − pt i
|hVaRu ( X ) , Pt − pt i| = kVaRu ( X )k k Pt − pt k
alors
Ct (u1 , ..., un ) = kVaRu ( X )k k Pt − pt k
1 2 2
hVaRu ( X ) , Pt − pt i = kVaRu ( X ) + Pt − pt k + kVaRu ( X ) − ( Pt − pt )k
4
1 2 2
Ct (u1 , ..., un ) = kVaRu ( X ) + Pt − pt k + kVaRu ( X ) − ( Pt − pt )k
4
Théorème 2.7.2. Soit pt = ( p1,t , p2,t , ..., pn,t ) à une date donnée mesurée à un instant t donné.
Par exemple ces risques représente des pertes potentielles dans des branche d’activité en relation
pour la compagnie d’assurance. La copule conditionnelle est donnée par
(−1) (−1)
∂FWt F1,Wt (u1 /wt ) , ..., Fn−1,Wt (un− /wt ) , wt
C (u1 , ..., un /wt ) = . (2.48)
∂wt
Alors
∂
Ct (u1 , ..., un /wt ) = f w−1 (wt ) (VaRu ( X/wt )) , pt − Pt (2.49)
∂wt
où Pt = ( p1,t ezt,1 , ..., pn,t ezn,1 ) et VaRu ( X/wt ) est la valeur à risque du vecteur aléatoire X
sachant wt et kk est la norme Euclidienne .
Pour la distribution normale nous avons :
√ ∂ (er f ((2ui − 1) /wt ))
C (u1 , ..., un /wt ) = f w−1 (wt ) × σ 2 ∑ pt,i e Zt,i − 1
∂wt
´ z − t2
avec er f (z) = √2 e dt.
2π 0
74
Démonstration. Soit FWt la distribution conditionnelle dépendante du temps avec comme
fonctions marginale { Fi,Wt ; 1 ≤ i ≤ n}. Alors il existe un unique copule C : [0, 1]n −→
[0, 1] tel que
(−1) (−1)
C (u1 , ..., un /wt ) = FWt F1,Wt (u1 /w) , ..., Fn,Wt (un /w) (2.50)
(−1)
où Fi,Wt (ui /w) = in f { x : Fi,Wt ( x/w) ≥ ui } pour chaque ui et wt ∈ Wt .
(−1) (−1)
∂FWt F1,Wt (u1 /wt ) , ..., Fn−1,Wt (un− /wt ) , wt
C (u1 , ..., un /wt ) =
∂wt
Si nous prenons l’égalité (2.42) avec
(−1) (−1)
C (u1 , ..., un /wt ) = FWt F1,Wt (u1 /wt ) , ..., Fn,Wt (un /wt ) /wt
il vient que
" #
n n
∂ (VaRui ( Xi /wt )) ∂ (VaRui ( Xi /wt ))
C (u1 , ..., un /wt ) = f w−1 (wt ) × ∑ ∂wt
pi,t ezt,i − ∑
∂w t
pi,t
i =1 i =1
Corollaire 2.7.1. Considérons maintenant les risques de pertes potentielles dans des branches
d’assurance interdépendantes. Pour la suite nous allons supposés être en dimension finie et ( E, h, i)
un espace Euclidien. La copule conditionnelle est donnée par
∂
C (u1 , ..., un /wt ) = f w−1 (wt ) (VaRu ( X/wt )) k Pt − pt k (2.51)
∂wt
de plus
!
2 2
1 ∂ ∂
C (u1 , ..., un /wt ) = f w−1 (wt ) (VaRu ( X/wt )) + ( Pt − pt ) + (VaRu ( X/wt )) − ( Pt − pt )
4 ∂wt ∂wt
(2.52)
75
nous avons
−1 ∂ ∂
f w ( wt ) (VaRu ( X/wt )) , Pt − pt = f w−1 (wt ) (VaRu ( X/wt )) k Pt − pt k
∂wt ∂wt
∂
C (u1 , ..., un /wt ) = f w−1 (wt ) (VaRu ( X/wt )) k Pt − pt k
∂wt
d’où
!
2 2
1 ∂ ∂
C (u1 , ..., un /wt ) = f w−1 (wt ) (VaRu ( X/wt )) + ( Pt − pt ) + (VaRu ( X/wt )) − ( Pt − pt )
4 ∂wt ∂wt
Corollaire 2.7.2. Si nous nous référons a la relation (2.53)sur la XTVaR avec α ∈ ]0, 1[ donné,
alors
D E
C (u1 , ..., un /wt ) = f w−1 (wt ) ∂w∂
t
( TVaR u ( X/w t )) , ( Pt − p t )
(2.54)
D E
− f w−1 (wt ) ∂
∂wt ( XTVaRu ( X/wt )) , ( Pt − pt )
Aussi
!
2 2
1 ∂ ∂
C (u1 , ..., un /wt ) = f w−1 (wt ) ( TVaRu ( X/wt )) − ( XTVaRu ( X/wt ))
2 ∂wt ∂wt
(2.55)
Démonstration. La relation (2.53) et le Corollaire 2.7.2 nous obtenons l’égalité (2.54) . Nous
pouvons
76
2
C (u1 , ..., un /wt ) = f w−1 (wt ) 41 ∂
∂wt ( TVaRu ( X/wt )) + ( Pt − pt )
2
− ∂
∂wt ( XTVaRu ( X/wt )) + ( Pt − pt )
2
2
= f w−1 (wt ) 41 2 ∂
∂wt ( TVaRu ( X/wt )) + k Pt − pt k
i
− 2 k XTVaRu ( X/wt )k2 + k( pt − Pt )k2
2 2
C (u1 , ..., un /wt ) = f w−1 (wt ) 12 ∂
∂wt ( TVaRu ( X/wt )) − ∂
∂wt ( XTVaRu ( X/wt ))
√
1 2
rt,T = µ − σ ( T − t) + A T z T − t, (2.56)
2
où rt,T est le vecteur des rendements obtenus entre le temps t et T , σ2 le vecteur corres-
pondant à la diagonale de la matrice de covariance ∑ et z MV N (0, I ) 4 .
σi2
En considérant que ui = 2 , i = 1, ..., n, alors
√
rt,T = A T z T − t (2.57)
Maintenant qu’on sait déjà générer les rendements, il est nécessaire de pouvoir si-
muler une fonction PP des instruments financiers qu’on detient. Par exemple si nous
détenons une option sur une action, la fonction perte et profit pour un rendement r d’un
4. MVN signifie en anglais multivariate normal.
77
jour s’écrit :
P1 − P0 = P0 (er − 1) . (2.58)
n
∑
Vj ( P1 ) − Vj ( P0 ) .
k =1
VaRα = −∆Vk .
Exemple de problème
78
la copule associée à la distribution conjointe est de Student. Le programme suivant nous
permet d’estimer la VaR avec un niveau de confiance α = 0.99 basé sur un échantillon de
taille n = 10000 pour simuler un portefeuille de log retours. Dans ce cas, la fonction de
profit perte s’écrit comme suit :
FL = ln w1 e X + w2 eY . (2.59)
D’où
VaRα = F−−L1 ES = E (− L/L > VaRα ) .
Un Diagramme Q-Q ou Q-Q plot est un outil graphique permettant d’évaluer la per-
tinence de l’ajustement d’une distribution donnée à un modèle théorique. La figure sui-
vante est une méthode d’ajustement par maximum de vraisemblance (ML). L’objectif de
79
F IGURE 2.2 – répresentation graphique “Q-Q plot” pour la méthode ML
cette méthode est de voir la répartition des données sur un plan afin de déterminer quelle
loi suivent les différents points.
Si les points sont concentrés au tour de la droit, nous pouvons dire que la variable
aléatoire qui correspond à la répartition spatiale des différents points suivent une cer-
taine loi. Le graphique suivant est méthode d’ajustement par méthode des moments
pondérés (PWM).
80
Les rendements finissent par devenir gaussiens lorsque les durées entre les observa-
tions augmentent (convergence vers la loi normale) . On remarque plus d’adéquations
des lois marginales avec la loi normale. les deux méthodes l’illustrent bien.
Les données dans le tableau suivant, nous les devons à John Muteba MWAMBA
(2011). Nous avons juste modifier la taille de son échantillon. De 1000 nous sommes allés
à 10000. Cela à donner plus de calcul à faire pour son programme.
Nous avons introduit dans ce chapitre une nouvelle expression sur la pseudo-
convexité. Nous avons également repris la démonstration de la propriété se-
lon laquelle l’écart type σ ( X ) d’une variable aléatoire incertaine est une me-
sure d’écart au sens large dans la proposition 2.6.1. Il est a remarquer que
la VaR présente plusieurs avantages qui expliquent son succès. Tout d’abord
c’est un indicateur synthétique qui donne une évaluation du risque d’un por-
tefeuille quels que soient les actifs qui le composent. Le fait de disposer d’un
indicateur synthétique unique permet également les comparaisons entre por-
tefeuilles. Ensuite c’est un indicateur lisible et facile à interpréter, même par
des non spécialistes, bien que la méthode de calcul soit très complexe. Cela en
fait un vecteur de communication, aussi bien interne qu’externe, permettant
de dialoguer avec le management ou les autorités de régulation. La principale
limite de la VaR réside dans le fait que quelle que soit la méthode utilisée, les
données injectées dans l’algorithme de calcul proviennent toujours plus ou
moins des valeurs de marché constatées dans le passé, qui ne sont pas néces-
sairement un reflet des évolutions futures possibles du portefeuille. La notion
de risque géométrique de haut niveau aborder dans la sous section 2.6.2 nous
a permis de comprendre et d’élaborer des relations entre le scénario de haut
risque, les copules et la fonction densité de la fonction copule.
81
Chapitre 3
82
3.1.1 Rappels et exemples
Une copule archimédienne C de dimension d est dite imbriquée si c’est une copule
archimédienne avec des arguments éventuellement remplacés par d’autres copules ar-
chimédiennes. En d’autres termes, une copule archimédienne est dite imbriquée si elle
est construite en imbriquant des copule archimédienne les une dans les autres.
S
où u ∈ [0, 1]d , usj ∈ [0, 1] , s ∈ {1, ..., S} , j ∈ {1, ..., ds } avec ∑ds = d.
s =1
Le théorème de Bernstein’s nous donne :
ˆ ∞ d ˆ ∞ d
∏ −1
∏ Γ0
C (u) = exp − xφ uj dF ( x ) = u j , x dF ( x ) (3.2)
0 j =1 0 j =1
pour u ∈ [0, 1]d , Γ0 u j ; x = exp − xφ−1 u j , u j ∈ [0, 1], x ∈ (0, ∞), et F = LS −1 [φ].
Par définition, les copules Archimédiennes imbriquées incluent les copules Archimé-
diennes comme cas particulier. La copule archimédienne C entièrement intégrée, la plus
simple, est obtenue pour d = 3.
soit
C (u) = φ0 φ0−1 (u1 ) + φ0−1 φ1 φ1−1 (u2 ) + φ1−1 (u3 ) , u ∈ [0, 1]3 . (3.3)
[C (·; φ0 )]
[C (·; φ1 )] [C (·; φ1 )]
[ u1 ] [ u2 ] [ u3 ]
83
F IGURE 3.1 – Arborescence d’une copule archimédienne entièrement imbriquée et triviale
u ∈ [0, 1], et
φ01 (t; x ) = exp − xφ0−1 (φ1 (t)) , t ∈ [0, ∞] . (3.5)
0
En supposant que φ0−1 ◦ φ1 est complètement monotone, alors il vient que :
— pour n = 4 ;
ˆ ∞
F ( x1 , ..., x4 ) = Γ0 (u1 ; x ) C (Γ0 (u2 ; x ) , Γ0 (C (u3 , u4 ) ; x ) ; φ01 (; x )) dF0 ( x )
0
(3.6)
— pour n = 5 ;
ˆ ∞
F ( x1 , ..., x5 ) = Γ0 (u1 ; x ) C (Γ0 (u2 ; x ) , Γ0 (C (u3, C (u4 , u5 )) ; x ) ; φ01 (; x )) dF0 ( x )
0
Démonstration. En supposant que Γi (u; x ) := exp − xφi−1 (u) pour tout i ∈ {4, 5}, u ∈
[0, 1], et
φij (t; x ) = exp − xφi−1 φj (t) , t ∈ [0, ∞] . (3.7)
84
alors, pour n = 4 nous avons :
F ( x1 , ..., x4 ) (u) = φ0 φ0−1 (u1 ) + φ0−1 φ1 φ1−1 (u2 ) + φ1−1 φ2 φ2−1 (u3 ) + φ2−1 (u4 )
et
ˆ ∞
F ( x1 ,...,x4 )= exp(− xφ0−1 (u1 ))exp(− xφ0−1 (φ1 (φ1−1 (u2 )+φ1−1 (φ2 (φ2−1 (u3 )+φ2−1 (u4 ))))))dF0 ( x ).
0
De manière analogue en considérant la relation (3.7) et Γi (u; x ) = exp − xφi−1 (u) , u ∈
[0, 1], il vient que
ˆ ∞
F ( x1 ,...,x4 )= Γ0 (u1 ;x )exp(− xφ0−1 (φ1 (φ1−1 (u2 )+φ1−1 (φ2 (φ2−1 (u3 )+φ2−1 (u4 ))))))dF0 ( x ).
0
Alors, on obtient
ˆ ∞
F ( x1 , ..., x4 ) = Γ0 (u1 ; x ) φ01 φ1−1 (u2 ) + φ1−1 φ2 φ2−1 (u3 ) + φ2−1 (u4 ) ; x dF0 ( x ) .
0
ce qui conduit à ;
ˆ ∞
−1 −1
F ( x1 , ..., x4 ) = Γ0 (u1 ; x ) φ01 φ01 (Γ0 (u2 ; x )) + φ01 (Γ0 (C (u3 , u4 ) ; x )) ; x dF0 ( x ) .
0
F ( x1 ,...,x5 )=φ0 (φ0−1 (u1 )+φ0−1 (φ1 (φ1−1 (u2 )+φ1−1 (φ2 (φ2−1 (u3 )+φ2−1 (φ3 (φ3−1 (u4 )+φ3−1 (u5 ))))))))
et donc
ˆ ∞
F ( x1 ,...,x5 )= exp(− xφ0−1 (u1 ))exp(− xφ0−1 (φ1 (φ1−1 (u2 )+φ1−1 (φ2 (φ2−1 (u3 )+φ2−1 (φ3 (φ3−1 (u4 )+φ3−1 (u5 ))))))))dF0 ( x )
0
(3.8)
Si nous nous referons à la définition (3.7) et Γi (u; x ) = exp − xφi−1 (u) , u ∈ [0, 1], on
85
vérifie que
ˆ ∞
F ( x1 ,...,x5 )= Γ0 (u1 ;x )exp(− xφ0−1 (φ1 (φ1−1 (u2 )+φ1−1 (φ2 (φ2−1 (u3 )+φ2−1 (φ3 (φ3−1 (u4 )+φ3−1 (u5 ))))))))dF0 ( x )
0
et
ˆ ∞
F ( x1 ,...,x5 )= Γ0 (u1 ;x )φ01 (φ1−1 (u2 )+φ1−1 (φ2 (φ2−1 (u3 )+φ2−1 (φ3 (φ3−1 (u4 )+φ3−1 (u5 )))));x )dF0 ( x )
0
ˆ ∞
−1 −1
F ( x1 , ..., x5 ) = Γ0 (u1 ; x ) φ01 φ01 (Γ0 (u2 ; x )) + φ01 (Γ0 (C (u3, C (u4 , u5 )) , x )) dF0 ( x )
0
Nous obtenons :
ˆ ∞
F ( x1 , ..., x5 ) = Γ0 (u1 ; x ) C (Γ0 (u2 ; x ) , Γ0 (C (u3, C (u4 , u5 )) ; x ) ; φ01 (; x )) dF0 ( x ) ,
0
p ( t ) 2− θ − p ( t ) + 2− θ − 1
ρs (t) = ,θ≥0 (3.11)
p (t) (1 − p (t))
86
Démonstration.
1. Le générateur archimédienne de la copule indépendante est φs (t) = −lnt ce qui
donne φs−1 (t) = e−t . Alors
2. Le générateur de la copule de Clayton est : φs (t) = t−θ − 1 ce qui donne φs−1 (t) =
(1 + t)−1/θ , alors
2−θ (1 + p (t)) − 1 − p2 (t)
ρs (t) = .
p (t) (1 − p (t))
Par ailleurs, si
(1+ p(t))−1− p2 (t)
(a) pour θ = 0 , ρs (t) = p(t)(1− p(t))
=1
(b) pour θ = 1,
1. L’intensité capitalistique d’un secteur d’activité économique est définie par le rapport entre les im-
mobilisations corporelles (valeur brute à la clôture de l’exercice) et les effectifs salariés moyens, ou bien
par le rapport entre les immobilisations corporelles et la valeur ajoutée.
87
et selon la probabilité par défaut p̄i est p̄i = 1 − pi .
La construction canonique de β i est donnée par β i = in f {t ≥ 0 : pi (t) ≤ Ui }. Pour
tout Ui U ([0, 1]), i ∈ {1, ..., I }. Après avoir désigné une variable aléatoire Ui , il suffit
de calculer β i via pi−1 (Ui ).
La modélisation du flux de paiement suppose un taux de récupération déterministe
identique pour toutes les entités. L’application f L (t) qui représente le processus de perte
de portefeuille peut ensuite être calculé par :
n
1−r
f L (t) =
n ∑ 1{τi ≤t} , t ∈ [0, T ] . (3.14)
i =1
Chacun des n emprunteurs dans le portefeuille est supposé verser 1/n à l’unité no-
minale du portefeuille. La durée d’échéance en années est désignée T. Les paiements de
primes sont effectués selon le calendrier de paiement
Sur la base de perte globale d’un portefeuille, la perte pour la tranche CDO j, avec j ∈
(1, ..., J ), est donnée
f L (t)
g N (t) = 1 − , t ∈ [0, T ] . (3.16)
1 − r (t)
Le nominal restant de la tranche CDO j, avec j ∈ {1, ..., J }, est déterminé par :
Soit giN (t) = 1{τi ≤t} le processus de comptage qui saute de 0 à 1 pour le débiteur par
défaut. Par la suite, nous pouvons obtenir la perte cumulative sur le portefeuille de ga-
88
ranties à l’époque t :
n
f L (t) = ∑ f i giN (t) (3.19)
i =1
Supposons que nous avons n portefeuilles avec un montant nominal h A (tk ) avec
k ∈ {0, ..., n}. Les différents montants nominaux peuvent être ajustés de telle sorte que
nous pouvons supposer que la relation entre deux montants nominaux peut être définie
comme suit : h (tk ) = (1 + ε) h (tk−1 ) , avec ε suffisamment petit. Si nous suivons ce prin-
cipe, la relation qui lie deux taux de récupération successifs r (tk ) et r (tk−1 ) est également
dans la même direction puisque le taux de récupération est lié au montant nominal. On
peut dire aussi r (tk ) = (1 + ε) r (tk−1 ).
et
n
g N ( t k −1 ) + g N ( t k )
γ2 (tk , tk−1 ) = ∑ ctk ∆tk ζ CDS ; (3.21)
k =1
2
on obtient :
n
g N ( t k −1 ) + g N ( t k )
Λ ( t k , t k −1 ) = ∑ c tk ∆tk ζ CDS L L
− f ( t k ) − f ( t k −1 ) .
k =1
2
(3.22)
Compte tenu du calendrier de paiement, la différence entre le portefeuille CDS et les
facteurs d’escompte, les primes prévues et les primes par défaut du portefeuille CDS sont
données par " #
n
γ¯1 (tk , tk−1 ) = E ∑ ctk f L (tk ) − f L (tk−1 ) ; (3.23)
k =1
et " #
n
g N ( t k −1 ) + g N ( t k )
γ¯2 (tk , tk−1 ) = E ∑ ctk ∆tk ζ CDS
2
(3.24)
k =1
La différence entre le portefeuille CDS et les facteurs d’escompte, les primes prévues
et les primes par défaut du portefeuille CDS sont attribuées par
89
" #
n
g N ( t k −1 ) + g N ( t k )
Λ̄ (tk , tk−1 ) = E ∑ c tk ∆tk ζ CDS
2
− f L ( t k ) − f L ( t k −1 )
k =1
(3.25)
respectivement, où ∆tk = tk − tk−1 et l’égalité (3.25) tient compte de l’intérêt accumulé .
Proposition 3.2.1. Considérons les relations (3.20) et (3.21) et supposant n assez grand, pour
tout ti ∈ β avec i ∈ {0, 1, ..., n} alors ;
et
γ̄2 (tk , tk−1 ) = nζ CDS (1 − h (t0 )) E [ctk ∆tk ] . (3.27)
k =1
f L ( t k −1 ) L
+ 1 − 1f−r((ttk ))
n 1− 1 − r ( t k −1 )
γ2 (tk , tk−1 ) = ∑ ctk ∆tk ζ CDS k ;
k =1
2
alors
n
1 A
γ2 (tk , tk−1 ) = ∑ ctk ∆tk ζ CDS 1− A
h ( t k −1 ) + h ( t k ) ;
k =1
2
d’où
" #
n
1
γ̄2 (tk , tk−1 ) = E ∑ ctk ∆tk ζ CDS 1 − (1 + ε ) k −1 (2 + ε ) h A ( t 0 )
2
.
k =1
90
La relation (3.26) est ainsi prouvée
n
h A ( t k ) + h A ( t k −1 )
Λ̄ (tk , tk−1 ) ≤ ∑ E ctk ∆tk ζ CDS 1− A
− (1 − r (tk )) h (tk ) − (1 − r (tk )) h (tk−1 ) A
k =1
2
n
(2 + ε ) h A ( t k −1 )
Λ̄ (tk , tk−1 ) ≤ ∑ E ctk ∆tk ζ CDS 1− − (r (tk−1 ) − (1 + ε) r (tk )) h (tk−1 ) A
.
k =1
2
" ! !#
n
(2 + ε ) (1 + ε ) k h A ( t0 )
Λ̄ (tk , tk−1 ) ≤ ∑ E ctk ∆tk ζ CDS 1− − r ( t k −1 ) − (1 + ε )2 r ( t k −1 ) (1 + ε ) k h A ( t 0 ) .
k =1
2
si ε −→ 0
n h i
Λ̄ (tk , tk−1 ) ≤ ∑ E ctk ∆tk ζ CDS 1 − h A (t0 ) ; (3.29)
k =1
on a ; ctk ≤ 1 alors
n
Λ̄ (tk , tk−1 ) ≤ ∑ E [∆tk ] ζ CDS 1 − h A (t0 ) .
k =1
¯ il vient que
Posons E [∆tk ] = ∆,
n
Λ̄ (tk , tk−1 ) ≤ ∑ ∆ζ
¯ CDS 1 − h A (t0 ) .
k =1
91
et
A
Λ̄ (tk , tk−1 ) ≤ T ζ CDS 1 − h (t0 ) ,
Par suite
n
Λ̄ (tk , tk−1 ) ≤ ∑ max {ctk (∆tk )} ζ CDS 1 − h A (t0 )
tk ∈ β
k =1
Il vient que :
Λ̄ (tk , tk−1 ) ≤ n × max {ctk (∆tk )} ζ CDS 1 − h A (t0 )
tk ∈ β
n
γ1 (tk , tk−1 ) = ∑ ctk
j
f jL (tk ) − f jL (tk−1 ) , (3.31)
k =1
g jN (tk−1 ) + g jN (tk )
!
n
γ2 (tk , tk−1 ) = ∑ ctk ∆tk ζ CDO
j
, (3.32)
k =1
2
et que
g jN (tk−1 ) + g jN (tk )
! !!
n
Λ j ( t k , t k −1 ) = ∑ c tk ∆tk ζ CDO − f jL (tk ) − f jL (tk−1 ) .
k =1
2
(3.33)
Le bonus actualisé escompté et la tranche CDO par défaut, j ∈ {1, ..., J }, sont donnés
92
par : " #
n
∑
j
γ̄1 =E c tk f jL (tk ) − f jL (tk−1 )
k =1
et
g jN (tk−1 ) + g jN (tk )
" !#
n
∑
j
γ̄2 = E ctk ∆tk ζ CDO
k =1
2
g jN (tk−1 ) + g jN (tk )
" ! !!#
n
Λ̄ j (tk , tk−1 ) = E ∑ c tk ∆tk ζ CDO
2
− f jL (tk ) − f jL (tk−1 )
k =1
Proposition 3.2.4. Considérons les relations (3.31) et (3.32) et supposant n assez grand, pour
tout ti ∈ β avec i ∈ {0, 1, ..., n} alors ;pour tout ti ∈ β avec i ∈ {0, 1, ..., n}, il vient alors que :
1. En posant f jL (t) = f L (t) − b j , on a ;
j
(a) γ̄1 (tk , tk−1 ) ≡ 0,
j
(b) γ̄2 (tk , tk−1 ) = nE [ctk ∆tk ] ζ CDO a j − 1 + r (t0 ) h A (t0 ) ,
et
g jN (tk−1 ) + g jN (tk )
!
n
γ2 (tk , tk−1 ) = ∑ ctk ∆tk ζ CDO
j
,
k =1
2
1. si f jL (t) = f L (t) − b j
n h i
γ1 (tk , tk−1 ) = ∑ ctk f L (tk ) − f L (tk−1 ) = γ1 (tk , tk−1 ) ,
j
k =1
et maintenant
j
γ̄1 (tk , tk−1 ) = γ̄1 (tk , tk−1 )
ε − 2 + 2ε + ε2 (1 + ε)k r (t0 )
" #
n
γ2 (tk , tk−1 ) = ∑ ctk ∆tk ζ CDO a j − 1 −
j k A
(1 + ε ) h ( t0 ) ,
k =1
2
93
Pour ε suffisamment petit , en faisant converger ε −→ 0 il vient que
n h i
γ̄2 (tk , tk−1 ) = ∑ E [ctk ∆tk ] ζ CDO a j − 1 + r (t0 ) h A (t0 ) ,
j
k =1
2. Si f jL (t) = a j − b j
j
γ1 (tk , tk−1 ) = 0
a j − b j − f jL (tk−1 ) + a j − b j − f jL (tk )
" #
n
γ2 (tk , tk−1 ) = ∑ ctk ∆tk ζ CDO
j
,
k =1
2
g jN (tk−1 ) + g jN (tk )
" !# " #
n n
Λ̄ j (tk , tk−1 ) = E ∑ ctk ∆tk ζ CDO − E ∑ ctk f jL (tk ) − f jL (tk ) .
k =1
2 k =1
f jL (tk ) + f jN (tk−1 )
" ! !#
n
Λ̄ j (tk , tk−1 ) ≤ ∑ E ctk ∆tk ζ CDO uj − lj − − f jL (tk ) − f jN (tk−1 ) .
k =1
2
n
!
E {
min , f N (tk )−l j ,u j −l j } − min{, f N (tk−1 )−bj a j −bj }
Λ̄ j (tk , tk−1 ) ≤ ∑ ctk ∆tk ζ CDO u j −l j − 2 2
k =1
min{, f N (tk )−b j ,a j −b j } min{, f N (tk−1 )−b j a j −b j }
− 2 − 2 .
94
De même sous la contrainte min f L (tk ) − l j , a j − b j = a j − b j , il vient que
sinon
" #
n
f L ( t k ) + f L ( t k −1 ) f L ( t k ) − f L ( t k −1 )
Λ̄ j (tk , tk−1 ) ≤ E ∑ c tk ∆tk ζ CDO aj −
2
−
2
.
k =1
n (1−r (tk ))h A (tk )+(1−r (tk−1 )) h A (tk−1 ) (1−r (tk ))h A (tk )−(1−r (tk−1 )) h A (tk−1 )
Λ̄ j (tk , tk−1 ) ≤ E ∑ ctk ∆tk ζ CDO aj − 2 − 2 .
k =1
D’où le résultat
L’inégalité (3.34) de la proposition 3.2.5 est multipliée par T qui est la borne maximale
du temps de payement. Dans la proposition 3.2.6, T est remplacé par n × max {ctk (∆tk )}.
tk ∈ β
Proposition 3.2.6. En considérant la relation (3.22), en prenant en compte les montants nomi-
naux h jA et un taux de recouvrement r j ; alors si min f L (tk ) − b j , u j − l j = f N (tk ) − l j et
A
Λ̄ j (tk , tk−1 ) ≤ n × max {ctk (∆tk )} ζ CDO a j − (1 − r (t0 )) h (t0 ) (3.35)
tk ∈ β
Démonstration. Pour cette preuve nous allons utiliser la relation (3.22), il vient que
n
Λ̄ j (tk , tk−1 ) ≤ ∑ E [ctk ∆tk ] ζ CDO a j − (1 − r (t0 )) h A (t0 ) ;
k =1
Dans les sections suivantes nous procédons à des simulations sur les fonctionnelles
95
qui ont fait l’objet de la présente section. Il s’agit des modèles que nous avons utilisés
pour estimer les primes par défaut et les primes par excès.
Nous proposons ici quelques lignes de codes R qui nous permettront, à travers des va-
riables prises de manière aléatoire de la relation (3.20), de générer un tableau de montants
nominaux.
1. La première étape consiste bien sûr à initialiser les différentes variables. Nous al-
lons prendre un taux constant de recouvrement, r = 40% .
2. Nous avons considéré dans le chapitre ?? que le montant nominal suivait une
séquence de suite géométrique de raison (1 + ε) que nous allons prendre (1 + ε) =
0, 2 et considérer que le montant nominal initial h A (t0 ) = 500000 FCFA. Notre
simulation sera constituée d’une vingtaine de montants nominaux. En partant du
postulat que 1 + ε = 0.2 et que r = 40% nous obtenons le résultat suivant pour les
montants nominaux :
550000.0 605000.0 665500.0 732050.0 805255.0
885780.5 974358.6 1071794.4 1178973.8 1296871.2
1426558.4 1569214.2 1726135.6 1898749.2 2088624.1
2297486.5 2527235.1 2779958.7 3057954.5 3363750.0
3. Pour le calendrier de paiement β, nous allons considérer qu’il y aurait vingt ver-
sements et que les tk ∈ β ∼ N (0, 1). Ce qui nous procure des données pour les tk
que nous avons regroupées dans un second tableau
0.1594331 0.8122814 0.5583381 1.1134288 0.9675491
1.3877812 0.2654133 0.1117348 1.3697297 1.2506262
1.9098103 0.3011226 1.3942141 1.2530195 0.1289579
1.5658966 0.4392502 0.1988391 1.5947587 0.2519386
96
TABLE 3.2 – Tableau calendrier de paiement
Cette figure fait le lien entre les données du tableau 3.1 et celles du tableau 3. Elle
nous renseigne par exemple que les 3363750 ont été réglé à la date 0,251 en unité
de temps.
4. Nous implémentons la fonction f L (tk ) avec t ∈ β. L’image des points tk par f L
nous renvoie les valeurs suivantes :
330000.0 363000.0 399300.0 439230.0 483153.0
531468.3 584615.1 643076.6 707384.3 778122.7
855935.0 941528.5 1035681.4 1139249.5 1253174.5
1378491.9 1516341.1 1667975.2 1834772.7 2018250.0
97
F IGURE 3.3 – Image des tk par la fonction des pertes f L
Dans cette sous section nous abordons le cas des primes par défaut. Nous allons consi-
dérer dans cette section la relation (3.21)
98
n
g N ( t k −1 ) + g N ( t k )
γ2 (tk , tk−1 ) = ∑ ctk ∆tk ζ CDS .
k =1
2
99
2. La valeur de γ2 (tk , tk−1 ) devient :
γ2 = 0
n
γ1 (tk , tk−1 ) = ∑ ctk
j
f jL (tk ) − f jL (tk−1 ) .
k =1
1. La première étape consiste bien sûr à initialiser les différentes variables. Nous al-
lons prendre un taux constant de recouvrement r = 40%.
2. Nous avons considéré dans le chapitre ?? que le montant nominal suivait une
séquence de suite géométrique de raison (1 + ε) que nous allons prendre (1 + ε) =
0, 2 et considérer que le montant nominal initial h A (t0 ) = 500000 FCFA. Notre
simulation sera constituée d’une vingtaine de montants nominaux. En partant du
postulat que 1 + ε = 0.2 et que r = 40% nous obtenons le résultat suivant pour les
montants nominaux :
550000.0 605000.0 665500.0 732050.0 805255.0
885780.5 974358.6 1071794.4 1178973.8 1296871.2
1426558.4 1569214.2 1726135.6 1898749.2 2088624.1
2297486.5 2527235.1 2779958.7 3057954.5 3363750.0
3. Pour le calendrier de paiement β , nous allons considérer qu’il y aurait vingt ver-
sements tels que les tk ∈ β et suivent une loi de student à 2 dégrés de liberté. Ce
qui nous donne des données pour les tk que nous avons régroupé dans un second
tableau
0.4447793 0.8703667 0.1100441 2.0504895 1.9012372
0.4568007 2.9101026 0.2424020 1.0276790 0.4892273
0.527005 1.5721197 0.2657413 1.7714070 1.2071657
1.7831991 1.9659642 0.1985962 0.2693535 0.1287397
100
TABLE 3.7 – Tableau calendrier de paiement
1 + j −1 × h A t j
bj =
101
F IGURE 3.6 – Fonction perte f jL (tk )
j
pour n = 20 on a γ1 = 3615075 avec ctk = exp(tk−1 − tk ).
g jN (tk−1 ) + g jN (tk )
!
n
= ∑ ctk ∆tk ζ CDO
j
γ2 (tk , tk−1 ) .
k =1
2
102
1. Nous obtenons pour les valeurs de g jN (tk ) avec tk ∈ β :
j
γ2 = −1329293.
103
(actions et obligation) de la BRVM a été fait sur la base de la proposition 3.4.1 et du
corollaire 3.4.1.
où σ (·) représente l’écart-type et E (·) la moyenne avec ∆t l’ensemble des paiements intermé-
diaires obtenus entre les dates t − 1 et t.
n
Pt = ∑ w j Sj,t . (3.37)
j =1
La valeur d’un portefeuille Pt au temps t est également une variable aléatoire. Soit
une période de temps, le profit dans l’intervalle [t, t + τ ] est donné par ( Pt+τ − Pt ).
Soit ∆t l’ensemble des paiements intermédiaires obtenus entre les dates t − 1 et t. Les
pertes et profits associés à la détention de l’actif sont alors définis par la différence : Les
pertes et profits (Pp ) associés à la détention de l’actif sont alors définis par la différence :
n
PP = Pt + ∆t − Pt−1 = ∑ wj S j,t − S j,t−1 + ∆t .
(3.38)
j =1
En effet sur les mêmes types de considérations de la section (??) (w et St sont liés), nous
avons en somme :
!1/2 !1/2
n n
∑ w2j ∑
2
PP = × S j,t − S j,t−1 + ∆t . (3.40)
j =1 j =1
Ces pertes et profits sont exprimés sous la forme d’un rendement géométrique noté
104
Rt : !1/2 !1/2
n n
∑ w2j × ∑ S2j,t + ∆t
Pt + ∆t
j =1 j =1
Rt = log = log . (3.41)
!1/2 !1/2
Pt−1 n n
∑ w2j × ∑ S2j,t−1
j =1 j =1
1 1/2
2 2
E St2 = (σ (St )) + (E (St )) ,
n
!
1/2
([ (σ(St ))2 +(E(St ))2 ]) n×∆t
Rt = log 2 2 1/2 + 1/2 1/2 . (3.42)
([(σ(St−1 )) +(E(St−1 )) ]) ([ (σ(w))2 +(E(w))2 ]) × ([(σ(St−1 ))2 +(E(St−1 ))2 ])
On suppose que le rendement à la date t, i.e. Rt , est une variable aléatoire réelle.
105
années Actifs E (w) σ (w) E ( St ) σ ( St )
1998 Actions 11073,409 19886,501 241030298,2 338277543,3
Obligations 11117,340 19894,717 241424584,6 338405522,2
Actions 32 004,8 159 145,210 355 810 266,2 1 052 471 119,3
1999
Obligations 32 133,313 159 128,235 357 261 884,8 1 052 220 659,8
Actions 6 466,054 20 316,42 161 896 352,0 360 932 298,234
2000
Obligations 3 942,116 21 382,781 91 348 640,99 389 309 776,504
Actions 2 247,353 2 619,134 37 792 196,077 40 439 016,488
2001
Obligations 2 835,766 24 053,078 37 467 441,161 253 149 317,441
Actions 2 851,635 11 059,095 44 291 307,267 205 070 942,815
2002
Obligations 464,688 2 660,750 5 364 395,753 26 724 274,024
Actions 3 776,176 21 960,062 50 564 429,4 189 401 002,588
2003
Obligations 665,614 5 490,761 6 819 382,176 54 800 713,168
Actions 6 767,653 33 044,495 95 315 850,157 293 237 696,386
2004
Obligations 5 108,438 58 174,976 51 343 769,845 581 713 973,842
Actions 75 902,261 168 841,667 248 552 508,869 468 785 952,031
2011
Obligations 7 313,970 45 036,286 71 607 925,421 441 762 089,429
Nous avons ici les valeurs des paiement intermédiaire ∆t et des valeurs du rendement
géométrique Rt . Les Rt ont été calculé à l’aide de la formule (3.36).
106
2002-2003 2003-2004 2004-2011
Actions 94855736,66 145880279,55 762023648,41
∆t
Obligations 12183777,92 636514687,01 1023476063,27
Actions 1,0713228447 0,196697231 1,7855246465
Rt
Obligations 1,1056023583 1,0242694014 1,631693008
E [ Rt ] σ ( Rt ) VaR0,05 ( Rt )
Actions 1,032397307886 0,5706464389861 0,9712435149961
Obligation 1,1246531656 0,3610242584408 0,9994415046241
TABLE 3.13 – Tableau récapitulatif de la VaR pour les actions et les obligations de la BRVM
107
Corollaire 3.4.1. Soient w = (w1 , ..., wn ) T ∈ Rn un portefeuille composé de n capitaux et
St = (S1,t , ..., Sn,t ) T le vecteur aléatoire non négatif représentant les capitaux à l’instant t. Alors
le rendement géométrique est :
n × ∆t
Rt (w) ' h i1/2 h i1/2 (3.44)
(σ (w))2 + (E (w))2 × (σ (St ))2 + (E (St ))2
où σ (·) représente l’écart-type et E (·) la moyenne avec ∆t l’ensemble des paiements intermé-
diaires obtenus entre les dates t − 1 et t.
Démonstration. En prenant en compte la relation (3.36) et en supposant que St et St−1 sont
de même nature, nous avons :
d’où le résultat.
Nous avons ici les valeurs des paiement intermédiaire ∆t et des valeurs du rendement
géométrique Rt . Les Rt ont été calculé à l’aide de la formule (3.44).
108
TABLE 3.15 – Rt des actions et obligations de la BRVM DCBR, activités de 2002-2011
Nous constatons que les valeurs du Tableau 3.4.2 sont largement différentes de celles
du Tableau 3.4.2. Cela est dû à deux choses :
— Nous avons considéré dans un premier temps que σ (St ) ' σ (St−1 ) et E (St ) '
E (St−1 ) . Ce qui n’est généralement pas le cas.
— Nous avons aussi considéré dans un voisinage de zéro, alors que les chiffres utili-
sés ne sont pas nuls.
La relation 3.44 est purement théorique et reste vraie que pour des données proches de
zéro.
109
Conclusion générale
Cette thèse avait pour objectif de proposer une contribution à la modélisation des
risques de portefeuille à l’aide des copules multivariées. C’est dans cette dynamique, que
nous avons dans un premier temps rappelé, dans le chapitre 1, tous les outils mathéma-
tiques stochastiques et financiers utilisés dans notre travail. Ce chapitre nous a permis
ainsi de situer, le contexte du travail et de définir le cadre et l’environnement de notre
étude.
Les chapitres 2 et 3 contiennent l’essentiel de nos contributions, nous avons étudié cer-
taines propriétés des mesures dérivées de la valeur à risque (VaR) de la variable aléatoire
modélisant le comportement stochastique des actifs du portefeuille. Plus précisément, la
cohérence et les propriétés convexes de la valeur-à-risque conditionnelle et l’écart-type
sont représentés. De plus, une nouvelle version du scénario à haut risque est caractérisée
et les densités bivariées sont modélisées par une approche avec les copules. Ces diffé-
rentes inégalités sont à prendre sur un point de vue purement théorique. L’hypothèse
selon laquelle les montants nominaux peuvent suivre une certaine loi récurrente entre
elle semble très irréelle et simpliste. Mais même si ce modèle n’est pas parfait, tous les
comportements sont bien régis par une certaine loi. Cette loi récurrente que nous utili-
sons peut s’intègre dans une certaine dynamique de comportement financier.
Nous avons élaboré un certain nombre d’algorithme et de proposition. Qui nous l’es-
pérons pourront servir de base d’application au spécialiste du monde financier.
Ce travail de thèse nous a permis d’approfondir nos connaissances sur les notions de
copule et de la valeur à risque, que nous avons entamé dans nos mémoires de DEA 2 . De
plus, en travaillant plus en profondeur sur ces sujets. Nous sommes arrivés a interpréter
certaines relations entre copule et la VaR. Ce qui nous a permis de trouver des égalités
(fortes) et des inégalités entre ces deux notions.
Notre travail s’ouvre sur des perspectives très intéressantes et variées qui feront l’ob-
jet de nos prochaines articles. En effet, nous nous intéresserons à l’application de nos
différents résultats à d’autres aspects de la modélisation en finance. Le travail qui reste
à faire dans la partie simulation, est de calculer les moyennes de fonctionnelles données
sous certaines conditions de probabilité et ensuite faire une simulation graphique.
2. Diplôme d’Étude Approfondie
110
Bibliographie
[1] Areski Cousin,(2008) : Analyse du Risque et Couverture des Tranches de CDO Synthé-
tique. Doctorat de l’Université Claude Bernard Lyon I.
[2] Artzner, P., Delbaen, F., Eber, J.-M., and Heath, D. (1999) : “Coherent measures of
risk.”Mathematical Finance”, 9 (3) : 203-228.
[3] Bernadino E. D. (2011) : Modélisation de la dépendance et mesure de risque multidimen-
sionnelles. HAL Id : tel-00838598 https ://tel.archives-ouvertes.fr/tel-00838598.
[4] Böcker K., (2008) : Modeling and measuring multivariate operational risk with Lévy co-
pulas. The Journal of Operational Risk 3 (2) pp 3-27.
[5] Bouyé E.(2002) : Multivariate Extremes at Work for Portfolio Risk Measurement. War-
wick Business School Working Paper Series, WP01-10.
[6] Cadoux D. Loizeau J. M. (2004) : Copule et dépendances : application pratique à la déter-
mination du besoin en fonds propres d’un assureur non vie. Bulletin français d’actuariat,
Vol. 6, N° 12, 2004, pp. 173-208
[7] Charpentier, A. and Segers, J. (2009) : Tails of multivariate Archime-
dean copulas. J. Multivariate Anal. 100, 1521–1537. MathSciNet : MR2514145
doi :10.1016/j.jmva.2008.12.015.
[8] Cousin A., Di Bernardino E. (2012) : A multivariate extension of Value-at-Risk and
Conditional- Tail-Expectation. arXiv :1111.1349v1 [q-fin.RM] 5 Nov 2011.
[9] Craig Mounfield (2008) : Synthetic CDOs Modelling, Valuation and Risk Management,
Mathematics, Finance and Risk. Cambridge University Press The Edinburgh Building,
Cambridge CB2 8RU, UK Published in the United States of America by Cambridge
University Press, New York.
[10] Dean Fantazzini, (2008) : Copula’s Conditional Dependence Measures for Portfolio Ma-
nagement and Value at Risk. Moscow School of Economics-Moscow State University.
[11] Diakarya Barro, (2010) : Contribution à la modélisation statistique des valeurs extrêmes
multivariées. Thèse de doctorat unique de l’Université Ouagadougou.
[12] Diakarya Barro, Simplice Dossou & Saliou Diouf, (2012) : Stochastic Dependence
Modeling Using Conditional Elliptical Processs. Journal of Mathematics Research.
[13] Embrechts P. Lindskog F. et McNeil A., (2000) : Modeling Dependence with Copulas
and Applications to Risk Management. Filip Lindskog, RiskLab, ETH Zurich.
111
[14] Embrechts, P. Mikosch, T. Klüppelberg, C. (1997) : “Modelling Extremal Events : for
Insurance and Finance”. Springer-Verlag, London.
[15] Embrechts P. and G. Puccetti. (2006) : Bounds for functions of multivariate risks. Jour-
nal of Multivariate Analysis, 97(2) :526-547.
[16] Embrechts, P., A. McNeil and D. Straumann (2002) : Correlation and Dependence in
Risk Management : Properties and Pitfalls, in M. Dempster (ed.), Risk Management : Value
at Risk and Beyond. Cambridge University Press, pp. 176-223.
[17] Eric Bouyé,(2000) : Multivariate Extremes at Work for Portfolio Risk Measurement, Fi-
nancial Econometrics Research Centre. CUBS, London & HSBC Asset Management Eu-
rope (SA), Paris.
[18] Eric Bouyé, V. Durrleman, A. Nikeghbali, G. Riboulet, and T. Roncalli,(2000) :
Copulas for finance. A reading guide and some applications Crédit Lyonnais. Financial
Econometrics Research Centre City University Business School London, Groupe de
Recherche Opérationnelle Crédit Lyonnais Paris.
[19] Fadhila L. (2011) : Modélisation de la dépendances par les copules et application. Thèse
de doctorat de l’Université de Mouloud Mammeri, Tizi-Ouzou Faculté des Sciences
Département de Mathématiques (Algérie).
[20] Fougères, A., L (1996) : Estimation non paramétrique de densités unimodales et de fonc-
tions de dépendance. Thèses de doctorat de l’Université Paul Sabatier de Toulouse.
[21] Frahm et al., (2005) : Estimating the tail dependence coefficient- Insurance. Mathematics
and Economics 37, 80-100.
[22] Guus Balkema and Degen M. Embrechts P. (2004) : Multivariate excess distribu-
tions. KdV Instituut voor Wiskunde University of Amsterdam The Netherlands, De-
partment of Mathematics ETH Zurich Switzerland
[23] Jan Marius Hofert (2010) : Sampling Nested Archimedean Copulas with Applications to
CDO Pricing. Ulm University Institute of Number Theory and Probability Theory
Helmholtzstraße 18 89081 Ulm.
[24] Joe, H. (1997) : Multivariate Models and Dependence Concepts - Monographs on Statistics
and Applied Probabilty 73. Chapman and Hall, London.
[25] John Muteba MWAMBA (2011) : Applying a genetic algorithm to international diversifi-
cation of equity portfolios : a south AFRICAN investor perspective. South African Journal
of Economics
[26] Jules Sadefo Kamdem (2004) : Méthodes analytiques pour le Risque des Portefeuilles
Financiers. HAL archive-ouvertes.fr
[27] M. Denuit and A. Charpentier (2004) : Mathématiques de l’assurance non-vie. Tome 1 :
Principes fondamentaux de théorie du risque. Economica.
112
[28] Mouloud Mammeri (2011) : Modélisation de la dépendance par les copules et applica-
tions. Mémoire de Magister de Lounas Fadhila Université de Tizi-Ouzou .
[29] Nelsen, R.B. (1999) : An Introduction to copulas-Lectures notes in Statistics 139.
Springer-Verlag (ISBN 10 : 0387986235 / ISBN 13 : 9780387986234).
[30] Patton, A. J. (2001) : Modelling Time-Varying Exchange Rate Dependence Using the
Conditional Copula. PhD thesis, Department of Economics, UCSD.
[31] Patton, A.J., (2006) : Modelling Asymmetric Exchange Rate Dependence. International
Economic Review, 47(2), 527-556.
[32] Paul Embrechts, Filip Lindskog and Alexander McNeil (2001) : Modelling Depen-
dence with Copulas and Applications to Risk Management. Department of Mathema-
tics ETHZ CH-8092 Zürich Switzerland www.math.ethz.ch/finance September 10,
2001.
[33] Pavlo Krokhmal Jonas Palmquisty Stanislav Uryasev (2002) : Portfolio Optimization
with Conditional Value-at-Risk Objective and Constraints. Journal of risk.
[34] Poncet. Portait R. : La théorie moderne du portefeuille : théorie et applications. 4986_.book
Page 795 Vendredi, 11. décembre 2009 3 :46 15
[35] Rockafellar and Uryasev (2002) : Conditional Value-at-Risk for general loss distribu-
tions. Journal of banking & finance.
[36] Rockafeller RT (2007) : Coherent approaches to risk in optimization under uncertainty.
Tutorials in Operations Research INFORMS, 38-61.
[37] Roger B. Nelsen (1999) : Introduction to copula, second edition. Springer serie of statistic.
[38] Rootzén, H. and Klüppelberg C. (1999) : “A Single Number Can’t Hedge Against
Economic Catastrophes”. Working Paper : Munich University of Technology.
[39] Roncalli T. (2005) : Prise en compte du skew de corrélation dans le pricing des CDO. SG
Asset Management
[40] Sergey S., Gaia S. and Uryasev S., (2008) : Value-at-Risk vs. Conditional Value-at-Risk
in Risk Management and Optimization. State-of-the-art decision-making tools in the
information-intensive age.
[41] Sklar, A. (1996) : “Random variables, distribution functions, and copulas a personal look
backward and forward”. Distributions with Fixed Marginals and Related Topics, 28,
1–14.
[42] Soustra, F. (2006) : ‘ Pricing of synthetic cdo tranches, analysis of base correlation and an
introduction to dynamic copulas’. Memoire de maitrise, HEC Montr eal .
[43] Tweedie, M. C. K. (1984) : “An index which distinguishes between some important
exponential families”. Statistics : Applications and New Directions : Proceedings In-
dian Statistical Institute Golden Jubilee International Conference, 579–604. UZWR,
http ://www.informatik.uni-ulm.de/uzwr/ (2009-12-30).
113
[44] Uryasev, S. (Ed.) (2000) : Probabilistic Constrained Optimization : Methodology and Ap-
plications. Kluwer Academic Publishers.
[45] Vini Yves Bernadin LOYARA (2014) : Les copules multivariées dans la modélisation
de la dépendance stochastique. Applications à la valeur à Risque en Finance. Mémoire de
DEA, Université de Ouaga I Pr Joseph KI-ZERBO.
[46] Vini Yves Bernadin Loyara, Remi Guillaume Bagré and Diakarya Barro, (2017) :
Multivariate risk modeling for financial portfolio management and climate application. Far
East Journal of Mathematical Sciences (FJMS).
[47] ViniYves Bernadin Loyara and Diakarya Barro, (2018) : Value-at-Risk Modeling with
Conditional Copulas in Euclidean Space Framework. European Journal of Pure and Ap-
plied Mathematic (EJPAM).
[48] WALID JBILI (2008) : Modélisation asymétrique de titres financiers. Mémoire présenté à
la Faculté des études supérieures de l’Université Laval dans le cadre du programme
de maîtrise en statistique pour l’obtention du grade de Maître ès sciences (M.Sc.).
[49] Wynn, P. (1956) : “On a Procrustean technique for the numerical transformation of slowly
convergent sequences and series”. Mathematical Proceedings of the Cambridge Philo-
sophical Society, 52(4), 663–671.
114
Annexe A
Lignes de code R
> n<-20
> copuleindependante<-data.frame(y1=abs((1-log(2)/(rnorm(n, mean=0, sd=1)*(1-rnorm(n,
mean=0, sd=1))))), y2=abs((1-log(2)/(rt(n, 3)*(1-rt(n, 3)))))
+)
> matplot(copuleindependante,type=’l’)
n<-20
> f<-function(x,y){
+ r<-(x*(2ˆ(-y)-x)+2ˆ(-y)-1)/(x*(1-x))}
> copuleclayton<-data.frame(y1=abs(f(rnorm(n,mean=0,sd=1),1)),y2=abs(f(rt(n,3),1)))
> matplot(copuleclayton,type="l")
115
A.2 Ligne de code R pour implémentation de la valeur à
risque
I) dépendance de queue
library(evir)
set.seed(1000)
L=5
H=1500
x=rlnorm(n=10000,meanlog=2.5,sdlog=3)
nTail = length(x[x>H])
xBody = x[x>L & x<H]
xTail = rgpd(n=nTail, xi=0.5, mu=H, beta=1000)
x = c(xBody, xTail)
meplot(x, omit=length(x)/100)
abline(v = c(H), lty = 3)
title("Mean excess function")
116
IV) Code pour la représentation graphique
117
# Random sampling function of lognormal-GPD severity distribution
rlnorm.gpd = function(n, theta, theta.gpd, u){ r = qlnorm.gpd(runif(n), theta, theta.gpd,
u) }
set.seed(1000)
nSim = 10000 # Number of simulated annual losses
H = 1500 # Threshold body-tail
lambda = 791.7354 # Parameter of Poisson body
theta1 = 2.5 # Parameter mu of lognormal (body)
theta2 = 2 # Parameter sigma of lognormal (body)
theta1.tail = 0.5 # Shape parameter of GPD (tail)
theta2.tail = H # Location parameter of GPD (tail)
theta3.tail = 1000 # Scale parameter of GPD (tail)
sj = rep(0,nSim) # Annual loss distribution inizialization
freq = rpois(nSim, lambda) # Random sampling from Poisson
for(i in 1 :nSim) # Convolution with Monte Carlo method
sj[i] = sum(rlnorm.gpd(n=freq[i], theta=c(theta1,theta2), theta.gpd=c(theta1.tail, theta2.tail,
theta3.tail), u=H))
> r<-0.4
> HA_0<-500000
> HA<-1 :20 > for(i in 1 :20)
+ + {HA[i]<-(1+0.1)^i*HA_0}
> T<-1 :20
> T<-rnorm(20,mean=0,sd=1)
>T
[1] -0.57260498 0.26293783 -0.14037367 0.55311653 0.33724579 -1.60816651
[7] -0.28036834 -0.72010350 -0.23860095 -1.76426531 0.75831195 0.19842255
[13] -0.12769726 0.90477468 0.83272166 -0.91193647 -0.45336956 -0.31638368
[19] 1.53220697 0.07642253
> T<-abs(rnorm(20,mean=0,sd=1))
>T
[1] 1.3800310 0.6435236 1.8143954 0.8796964 0.3914298 0.3229469 0.8044011
[8] 0.3566538 1.0794882 0.2248758 0.5319915 2.0380504 1.4549578 0.2459191
[15] 1.3314244 1.1819323 0.5253727 1.2100704 1.4821933 0.3813743
118
> plot(T)
> plot(T,T)
> fL<-1 :20
> for(i in 1 :length(HA))
+ + {fL[i]<-(1-0.4)*HA[i]}
> Q<-1 :leangth(HA)
Erreur : impossible de trouver la fonction "leangth"
> Q<-1 :length(HA)
> for(i in 1 :length(HA))
+ + {Q[i]<-fL[i+1]-fL[i]}
>Q
[1] 33000.00 36300.00 39930.00 43923.00 48315.30 53146.83 58461.51
[8] 64307.66 70738.43 77812.27 85593.50 94152.85 103568.14 113924.95
[15] 125317.45 137849.19 151634.11 166797.52 183477.27 NA
> plot(Q) > for(i in 1 :length(HA)-1)
+ + {Q[i]<-fL[i+1]-fL[i]}
>Q
[1] 33000.00 36300.00 39930.00 43923.00 48315.30 53146.83 58461.51
[8] 64307.66 70738.43 77812.27 85593.50 94152.85 103568.14 113924.95
[15] 145524.16 265793.56 76460.38 127059.79 551647.81
> gamma<19*mean(Q)
Erreur dans gamma < 19 * mean(Q) :
comparaison (3) possible seulement pour les types liste et atomique
> gamma<-19mean(Q)
Erreur : symbole inattendu(e) dans "gamma<-19mean"
> gamma<-19*mean(Q)
> gamma
[1] 2423815
> gN<-1 :length(HA)
> gN
[1] 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
> for(i in 1 :length(HA)
+ {gN[i]<-1-fL[i]/(1-0.4)}
Erreur : ’{’ inattendu(e) dans : "for(i in 1 :length(HA) {"
> for(i in 1 :length(HA))
+ {gN[i]<-1-fL[i]/(1-0.4)}
> gN
[1] -549999.0 -604999.0 -665499.0 -732049.0 -805254.0 -885779.5
[7] -974357.6 -1071793.4 -1178972.8 -1296870.2 -1426557.4 -1569213.2
[13] -1726134.6 -1898748.2 -2088623.1 -2297485.5 -2527234.1 -2779957.7
119
[19] -3057953.5 -3363749.0
> theta<-1 :(length(HA)-1)
> theta
[1] 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19
> for(i in 1 :(length(HA)-1))
+ {theta[i]<-exp(-T[i+1]+T[i])*(T[i+1]-T[i])*(gN[i+1]+gN[i))/2*0.05}
Erreur : ’)’ inattendu(e) dans : " for(i in 1 :(length(HA)-1)) {theta[i]<-exp(-T[i+1]+T[i])*(T[i+1]-
T[i])*(gN[i+1]+gN[i)"
> {theta[i]<-exp(-T[i+1]+T[i])*(T[i+1]-T[i])*((
> for(i in 1 :length(HA)) + for(i in 1 :(length(HA)-1)))
Erreur : ’)’ inattendu(e) dans : "for(i in 1 :length(HA)) for(i in 1 :(length(HA)-1)))"
> for(i in 1 :(length(HA)-1)) + {theta[i]
<-exp(-T[i+1]+T[i])*(T[i+1]-T[i])*(gN[i+1]+gN[i])/2*0.05}
> theta
[1] 44418.044 -11532.413 83159.739 30577.927 3100.388 -13833.977
[7] 35839.732 -19741.776 124332.827 -15380.808 -25015.975 86062.247
[13] 367073.496 -36545.143 19035.357 152695.593 -45808.202 -30253.882
[19] 531356.180 > hist(theta)
> thetaf<-19*mean(theta)
> thetaf
[1] 1279539
> r<-0.4
> HA_0<-500000
> HA<-1 :20
> for(i in 1 :20)
+ {HA[i]<-(1+0.1)^i*HA_0}
> T<-rt(20,2)
>T
[1] -0.04906914 -2.16999670 -1.76228835 -0.24846050 -0.43414648 -1.19106548
[7] 1.75107841 1.36635300 1.31828997 0.57549797 -2.79026806 0.04418524
[13] 3.00449165 -1.62467521 1.85815149 1.77299569 -1.31521156 0.90526312
[19] 1.87434642 -0.62749251
> T<-abs(rt(20,2))
>T
[1] 0.4447793 0.8703667 0.1100441 2.0504895 1.9012372 0.4568007 2.9101026
120
[8] 0.2424020 1.0276790 0.4892273 0.5278005 1.5721197 0.2657413 1.7714070
[15] 1.2071657 1.7831991 1.9659642 0.1985962 0.2693535 0.1287397
> plot(T)
> a<-1 :20
> b<-a
> for(i in 1 :20) +
> for(i in 1 :20) + {a[i]<-HA_0}
>a
[1] 5e+05 5e+05 5e+05 5e+05 5e+05 5e+05 5e+05 5e+05 5e+05 5e+05 5e+05 5e+05
[13] 5e+05 5e+05 5e+05 5e+05 5e+05 5e+05 5e+05 5e+05
> for(i in 1 :20) + {a[i]<-i*HA_0}
> for(i in 1 :20) + {a[i]<-i*HA_0}
> for(i in 1 :20) + {b[i]<-i*HA_0}
> b [1] 5.0e+05 1.0e+06 1.5e+06 2.0e+06 2.5e+06 3.0e+06 3.5e+06 4.0e+06 4.5e+06
[10] 5.0e+06 5.5e+06 6.0e+06 6.5e+06 7.0e+06 7.5e+06 8.0e+06 8.5e+06 9.0e+06
[19] 9.5e+06 1.0e+07
> fLj<-1 :20
> for(i in 1 :20)
+ gug Erreur : objet ’gug’ introuvable
> fL<-1 :20
> for(i in 1 :20)
+ {fL[i]<-(1-0.4)*HA[i]}
> for(i in 1 :20)
+ {fLj[i]<-min(max(0,fL[i]-b[i]),a[i]-b[i])}
> fLj [1] 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
> min(0,fL)
[1] 0
> fL
[1] 330000.0 363000.0 399300.0 439230.0 483153.0 531468.3 584615.1
[8] 643076.6 707384.3 778122.7 855935.0 941528.5 1035681.4 1139249.5
[15] 1253174.5 1378491.9 1516341.1 1667975.2 1834772.7 2018250.0
> sum(T)
[1] 20.19322
>b
[1] 5.0e+05 1.0e+06 1.5e+06 2.0e+06 2.5e+06 3.0e+06 3.5e+06 4.0e+06 4.5e+06
[10] 5.0e+06 5.5e+06 6.0e+06 6.5e+06 7.0e+06 7.5e+06 8.0e+06 8.5e+06 9.0e+06
[19] 9.5e+06 1.0e+07
> for(i in 1 :20)
+ {b[i]<-(1+1/i)*HA_0}
> for(i in 1 :20)
121
+ {fLj[i]<-min(max(0,fL[i]-b[i]),a[i]-b[i])}
> fLj
[1] -500000.00 0.00 0.00 0.00 0.00 0.00
[7] 13186.56 80576.64 151828.75 228122.74 310480.47 399861.85
[13] 497219.83 603535.22 719841.12 847241.90 986929.32 1140197.42
[19] 1308456.92 1493249.98
> plot(fLj)
> for(i in 1 :20) + {fLj[i+1]-fLj[i]}
> dif<-1 :20
> for(i in 1 :20)
+ {dif<-fLj[i+1]-fLj[i]}
> dif
[1] NA
> for(i in 1 :19)
+ {dif<-fLj[i+1]-fLj[i]}
> dif [1] 184793.1
> for(i in 1 :19)
+ {dif[i]<-fLj[i+1]-fLj[i]}
> dif
[1] 500000.00 0.00 0.00 0.00 0.00 13186.56 67390.08
[8] 71252.11 76293.99 82357.73 89381.38 97357.98 106315.39 116305.90
[15] 127400.78 139687.42 153268.10 168259.51 184793.06
> for(i in 1 :20)
+ {dif[i]<-fLj[i+1]-fLj[i]}
> dif
[1] 500000.00 0.00 0.00 0.00 0.00 13186.56 67390.08
[8] 71252.11 76293.99 82357.73 89381.38 97357.98 106315.39 116305.90
[15] 127400.78 139687.42 153268.10 168259.51 184793.06 NA
> gamma_0<-1 :19
> for(i in 1 :19)
+ {gamma_0<-exp(-T[i+1]+T[i])*dif[i]}
> gamma_0
[1] 212693.1
> for(i in 1 :19)
+ {gamma_0[i]<-exp(-T[i+1]+T[i])*dif[i]}
> gamma_0
[1] 326692.931 0.000 0.000 0.000 0.000 1134.164
[7] 970875.694 32490.489 130718.457 79241.417 31456.109 359521.157
[13] 23588.148 204478.964 71614.994 116354.563 897449.322 156765.367
[19] 212693.122
122
> 19*mean(gamma_0)
[1] 3615075
> gN<-1 :20
> for(i in 1 :20) + {gN[i]<-a[i]-b[i]-fLj[i]}
> gN
[1] 0.0 250000.0 833333.3 1375000.0 1900000.0 2416666.7 2915384.9
[8] 3356923.4 3792615.7 4221877.3 4644065.0 5058471.5 5464318.6 5860750.5
[15] 6246825.5 6621508.1 6983658.9 7332024.8 7665227.3 7981750.0
> dif2<-1 :19
> for(i in 1 :19)
+ {dif2<-0.05*exp(-T[i+1]+T[i])*(T[i+1]-T[i])*(gN[i+1]-gN[i])}
> dif2 [1] -2561.360
> for(i in 1 :19)
+ {dif2[i]<-0.05*exp(-T[i+1]+T[i])*(T[i+1]-T[i])*(gN[i+1]-gN[i])}
> dif2
[1] 3475.9100 -47433.8771 7548.8157 -4548.5165 -158193.8906
[6] 5261.6353 -848483.2554 7800.6598 -19800.9205 783.4461
[11] 7615.3130 -97893.6165 6621.6286 -19149.3258 6066.1481
[16] 2756.6329 -180256.4415 1098.2970 -2561.3597
> 19*mean(dif2)
[1] -1329293
> plot(gN)
123
UNIVERSITE JOSEPH KI-ZERBO
---------------
École Doctorale
Sciences et Technologie
---------------
Laboratoire d’Analyse Numérique,
d’Informatique et de BIOmathématiques
L.A.N.I.BIO
N° d’ordre ...................
Thèse Présentée
Par Hay Yoba Talkibing
Pour l’obtention du grade de
TITRE DE LA THÈSE
Approche stochastique dans l’épidémiologie des maladies
infectieuses émergentes.
Président : M. Gane Samb LO, Professeur Titulaire, Université Gaston Berger, Saint Louis, Sénégal
Membres : - M. Blaise SOME, Professeur Titulaire, Université Joseph KI-ZERBO, Burkina Faso
(Rapporteur interne) ;
- M. Bisso SALEY, Professeur Titulaire, Université Abdou Moumouni de Niamey, Niger
(Rapporteur externe) ;
- M. Sado TRAORE, Professeur Titulaire, Université Nazi Boni de Bobo Dioulasso, Burkina
Faso (Rapporteur externe) ;
1
- M. Diakarya BARRO, Professeur Titulaire, Université Thomas SANKARA, Burkina Faso
(Directeur de thèse).
Liste des enseignants
Le Directeur du LANIBIO
i
Dédicace
A
Mon père et à ma mère,
Sources inépuisables de tendresse, de patience et de sacrifice.
Vos prières et vos bénédictions m’ont été d’un grand secours tout au long de ma vie.
Puisse Dieu tout puissant, vous préserver et vous accorder santé, longue vie et bonheur.
ii
Remerciements
C’est un immense plaisir pour moi de pouvoir remercier ici les personnes qui, durant
ce travail de recherche, m’ont soutenu et guidé statistiquement ou non, de près ou de loin.
Messieurs les professeurs Blaise SOME, Gane Samb LO et Sado TRAORE ont accepté
d’être rapporteurs de cette thèse ; je les remercie pour le soin avec lequel ils ont examiné
ce travail et pour l’intérêt qu’ils lui ont porté. La qualité de leurs suggestions a permis
d’améliorer la valeur scientifique du document.
Je remercie également les professeurs Blaise SOME, Sado TRAORE et Bisso SALEY
pour avoir accepté honorer de leur présence en siégeant dans le jury et le professeur Gane
Samb LO pour avoir accepté de présider le jury.
Je désire également remercier mon papa Mr Talkibing Oueidou Balgué pour sa contri-
bution financière, morale et autres à la réalisation de cette thèse. Qu’il trouve l’expression
de ses sacrifices dans ce travail.
Je ne saurai terminer sans remercier très sincèrement les frères et sœurs, et plus particu-
lièrement ma sœur Rose Kouna-Willeng Talkibing et mon épouse Flora Djobo Tchindebe
qui ont su m’encourager et me soutenir tout au long de ce projet.
iii
Résumé et Abstract
Résumé
Cette thèse est une contribution à la modélisation par l’approche stochastique en
épidémiologie et en particulier, celle des maladies émergentes. La thèse s’articule essen-
tiellement autour de trois chapitres auxquels s’ajoutent une introduction, une conclusion
et une partie annexe. Dans le premier chapitre, nous rappelons des notions de base utili-
sées dans l’analyse des processus stochastiques en général et celles de la chaîne de Markov
en particulier. Dans le deuxième chapitre, nous nous sommes intéressés à l’étude de la va-
riabilité spatiale des processus épidémiologiques stochastiques. Pour ce faire, une nouvelle
approche stochastique de type SEIRS et sa probabilité d’extinction ont été introduites
pour décrire la propagation des maladies dans une population et son extinction. Des outils
géostatistiques basés sur les copules pour décrire la structure de dépendance spatiales des
processus ont été également proposés.
Abstract
This thesis is a contribution to stochastic modelling in epidemiology and, in parti-
cular, emerging diseases. The thesis is mainly structured around three chapters with an
introduction, a conclusion and an appendix. The first chapter is a survey of basic notions
used in the analysis of stochastic processes in general and those of the Markov chain in
particular. In the second chapter, we are interested in the study of the spatial variability
of stochastic epidemiological processes. That prompt us to introduce , a new stochastic
SEIRS-type approach and its probability of extinction in order to describe the spread of
disease in a population and its extinction. Copula-based geostatistical tools to describe
the spatial dependence structure of processes were also proposed.
iv
Sigles, Abréviations et Notations
SEIRS : Susceptible-Exposed-Infected-Recovered-Susceptible.
CF : La fonction copule.
v
C(h) : La valeur de la covariance C pour une distance h.
TI : Taux d’infection.
H1 N1 : La grippe porcine.
vi
Table des matières
Dédicace ii
Remerciements iii
Résumé et Abstract iv
Résumé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iv
Abstract . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iv
Introduction générale 1
vii
TABLE DES MATIÈRES
viii
TABLE DES MATIÈRES
Annexe 116
Annexe 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
ix
Table des figures
x
Liste des tableaux
xi
Introduction générale
Motivation
Les maladies infectieuses peuvent être considérées comme étant provoquées par la
transmission d’un micro-organisme ou d’un agent infectieux : virus, bactérie, parasite,
champignon, protozoaires. La prise en charge des maladies infectieuses préoccupe de plus
en plus les autorités et les responsables de la santé publique. En effet, face à l’augmenta-
tion des résistances bactériennes, l’émergence de nouveaux pathogènes et la propagation
rapide de l’épidémie, la surveillance et la prévention de la transmission de la maladie
deviennent, particulièrement, importante et indispensable. Malgré une surveillance per-
manente et continue des maladies infectieuses, il est à constater que leur étiologie reste
encore largement méconnue.
Par exemple selon OMS 1 , la grippe espagnole de 1918-1919 à virus H1N1 qualifiée
de sévère et ayant provoqué entre 40 et 100 millions de morts dans le monde, la grippe
asiatique en 1957 à virus H2N2 ou Hémagglutinine de type 2 et Neuraminidase de type
2 (les types de deux antigènes présents à la surface du virus de la grippe) qui a fait entre
1 et 4 millions de morts, la grippe de Hong Kong de 1968 à virus H3N2 dite modérée,
et ayant engendré entre 1 et 2 millions de morts, l’épidémie ébola en Afrique Centrale et
en Afrique de l’Ouest, l’épidémie coronavirus découverte en chine qui continue de faire
plusieurs morts,...
Les pandémies sévères font partie des risques extrêmes, elles surviennent rarement,
mais lorsqu’elles ont eu lieu les conséquences sont importantes, notamment pour le déve-
loppement d’un pays.
Historique et problématique
La problématique abordée dans ce travail se situe aux confins de diverses disciplines
dont la principale est l’épidémiologie.
La modélisation est un outil essentiel à la recherche actuelle et est utilisée dans plu-
sieurs domaines, car elle permet la simplification d’expériences souvent longues et cou-
teuses. Elle peut être définie comme la représentation simplifiée, sous forme de symboles,
de schéma ou de concepts d’un phénomène plus complexe, prenant ainsi en compte les
interactions de ses composantes. En particulier, un modèle mathématique est une des-
cription mathématique d’un phénomène issu du monde réel, telle que la taille d’une po-
pulation, la vitesse d’un objet qui tombe, la concentration d’un produit au cours d’une
réaction chimique, l’espérance de vie d’une personne depuis sa naissance, etc. La construc-
tion d’un modèle vise, tout d’abord, à comprendre le phénomène étudié, et permet de faire
1. OMS : Organisation Mondiale de la Santé
1
des prédictions sur son comportement futur.
Les modèles classiques d’épidémie reposent sur les systèmes d’équations différentielles
ordinaires (EDO) pour étudier le phénomène complexe de la propagation d’épidémie. Ils
considèrent que le degré des nœuds est fixe, égale à une matrice de valeurs figées ou à une
loi du grand nombre [53]. Cependant, ces modèles sont limités pour représenter les indivi-
dus distribués de façon hétérogène dans l’espace et pour une population dont la taille est
relativement petite. Il est donc important de considérer cette hétérogénéité et le contexte
spatial dans lequel la maladie se développe pour préciser le risque épidémiologique.
Objectifs et Hypothèses
L’objectif de ce travail est de proposer les modèles stochastiques des maladies émer-
gentes permettant d’expliquer au mieux la dynamique de la propagation de ces maladies
dans une population et de prédire leur évolution. Ce qui permet ensuite d’agir en propo-
sant des thérapies adéquates.
Nous considérons tout d’abord une situation simple ou un petit groupe d’individus qui
ont contracté une maladie infectieuse sont insérés dans une large population d’individus
susceptibles de l’attraper dont les déplacements externes et internes dans un groupe sont
non négligeables. L’infection va-t-elle s’éteindre rapidement ou se propager ? Un état en-
démique est il possible ? la propagation de cette maladie est t-elle spatialement repartie ?
Les modèles stochastiques sont beaucoup plus conformes car ils peuvent intégrer l’en-
semble des sources d’hétérogénéité souhaitées (hétérogénéité spatiale, temporelle, com-
portementale ou autre). Ils tiennent compte de la nature aléatoire de tout événement de
2
transmission et de développement d’une infection [56]. Contrairement aux modèles déter-
ministes qui visent principalement à étudier une taille de population importante, l’utili-
sation des modèles stochastiques est préférable lorsqu’on étudie une petite population ou
une population repartie spatialement. Pour l’étude spatiale des maladies, il est nécessaire
de connaître l’influence de la contamination d’une région sur les autres. Cette influence
peut se traduire par la mesure de dépendance entre les processus stochastiques. Les co-
pules sont des outils très utilisées pour mesurer cette dépendance. L’étude des fonctions
copules et leurs applications en statistiques est un phénomène qui est plutôt moderne, et
encore plus en épidémiologie. En effet, les fonctions copules, largement utilisées en statis-
tique financière, sont des fonctions qui relient les fonctions de distributions multivariées à
celles des distributions univariées. En fait, les fonctions copules sont principalement utiles
pour la modélisation des dépendances entre les variables aléatoires.
Plan du travail
Dans cette thèse, notre contribution à la modélisation stochastique en épidémiologie
porte essentiellement la mise au point des outils stochastiques des phénomènes épidémio-
logiques dans le cadre temporel et spatial afin de comprendre des facteurs qui pourraient
causer la transmission des maladies. Notre travail se présente en trois grands chapitres et
s’articule de la façon suivante.
3
Chapitre 1
Définition 1.1.1. Un processus stochastique ou aléatoire X = (Xt )t∈T représente une fa-
mille de variables aléatoires indexées par un paramètre 1 . C’est une application de l’espace
probabilisé (Ω, F, P ) dans un espace probabilisable de fonctions (E, E), qui associe à tout
élément ω de Ω une fonction de la variable t ∈ T telle que :
4
1.1 Cadre et outils stochastiques de l’étude
Dans les sciences biomédicales, ainsi que dans de nombreux autres domaines, le pa-
ramètre t est généralement lié au temps mais elle peut être de dimension multiple et
l’ensemble T est appelé espace de paramètres. En particulier, pour t∈ T fixé, ω ∈ Ω −→
Xt (ω) est une variable aléatoire sur l’espace de probabilité Ω, A, P .
E ↓ T −→ Discret Continu
Suite stochastique à espace Processus permanent
Discret
d’état discret à espace d’état discret
Suite stochastique à Processus permanent à
Continu
espace d’état continu espace d’état continu
Par exemple, chez les êtres humains, de nombreuses maladies héréditaires sont causées
par la mutation de certains gènes. Supposons qu’à un certain moment, un gène mutant
soit introduit dans la population. Supposons en outre que chaque gène mutant produise
j gènes mutants avec une probabilité pj (j = 0, 1, ..., ∞) dans la génération suivante,
indépendamment des autres gènes. Soit X(t) le nombre de gènes mutants à la génération
t. Alors X(t) est un processus stochastique à temps discret et avec un espace d’état
S = {0, 1, ..., ∞}. Comme nous le verrons, ce type de processus appartient à une classe de
processus stochastiques appelés processus de branchement de Galton-Watson. C’est un
exemple de processus stochastique avec le temps et l’espace d’état discret.
5
1.1 Cadre et outils stochastiques de l’étude
Dans cette section, nous rappelons les connaissances mathématiques nécessaires pour com-
prendre la structure des grandes familles des processus aléatoires. Nous commençons par
quelques généralisations des séries temporelles ou séries chronologiques, processus gaus-
siens, processus de comptage, les files d’attentes et les mouvements browniens.
En épidémiologie par exemple, les séries temporelles peuvent être considérées comme
des processus stochastiques qui peuvent illustrer le nombre de contaminations ou de morts
suite à une épidémie dans un pays donné durant un intervalle de temps ou encore les décès
mensuels dus à des maladies pulmonaires en Afrique centrale.
6
1.1 Cadre et outils stochastiques de l’étude
Définition 1.1.4. Désignons par {N (t), t > 0} le nombre des événements se produisant
dans l’intervalle de temps [0, t] et supposons que N (0) = 0. Le processus {N (t), t > 0} est
appelé processus de comptage.
Soient I1 , ..., Ik des intervalles sur l’axe des temps, disjoints ou non ; soient N1 , ..., Nk
le nombre des événements se produisant dans ces intervalles. Le k-uplet N1 , ..., Nk est un
point aléatoire à valeurs dans Nk admettant une loi de probabilité P . Faisons subir à tous
les intervalles I1 , ..., Ik , simultanément, une même translation sur l’axe des temps. Soient
0 0 0 0
I1 , ..., Ik les intervalles translatés et N1 , ..., Nk le nombre des événements se produisant dans
0 0
ces intervalles. Le k-uplet N1 , ..., Nk est un point aléatoire à valeurs dans Nk admettant
0
la loi de probabilité P .
Définition 1.1.5. Le processus de comptage {N (t), t > 0} est dit à accroissements sta-
tionnaires, si quel que soit k, quelle que soit la suite I1 , ..., Ik et quelle que soit la trans-
0
lation, les lois P et P coïncident.
Parmi les processus de comptage, ce sont les processus de Poisson, définis ci-après, qui
jouent un rôle prépondérant.
7
1.1 Cadre et outils stochastiques de l’étude
Comme N(t) est une variable de Poisson de paramètre λt, on a E[N (t)]/t = λ. Ainsi
λ est l’espérance mathématique du nombre des événements se produisant par unité de
temps. C’est la fréquence moyenne des événements.
8
1.1 Cadre et outils stochastiques de l’étude
Une file d’attente ou queue est un regroupement d’individus attendant d’une manière
organisée quelque chose dans un service ou dans une administration. La file d’attente
résulte d’une demande supérieure à la capacité d’écoulement d’une offre (bien ou service).
La théorie des files d’attente est la sous-branche des probabilités qui étudie les solutions
optimales de gestions de files d’attente. En particulier, la file d’attente s’applique à diffé-
rentes situations. Un système d’attente comporte plusieurs caractéristiques. Typiquement,
une file est composée de clients se succédant et demandant un service (voir la fig 1.2).
9
1.1 Cadre et outils stochastiques de l’étude
Définition 1.1.8. Soit Xt = (Xt1 , ..., Xtn ) une famille de variables aléatoires. Xt est un
processus gaussien sur S, si pour toute partie finie Λ ⊂ S et pour tout n-uplet de nombres
réels (λ1 , ..., λn ) ∈ Rn , la combinaison linéaire ni=1 λi Xti est une variable aléatoire gaus-
P
sienne [28].
X − 12 −1
−CardΛ/2 t
X
fΛ (xΛ ) = (2π) det exp − 1/2 (xΛ − mΛ ) (xΛ − mΛ ) , (1.1.3)
Λ Λ
10
1.1 Cadre et outils stochastiques de l’étude
brownien est beaucoup plus vaste que l’étude des particules microscopiques en suspen-
sion et inclut la modélisation du prix des actions, du bruit thermique dans les circuits
électriques, du comportement limite des problèmes de files d’attente et des perturbations
aléatoires dans un grand nombre de systèmes physiques, biologiques ou économiques. Il
se définit comme suit.
1.1.3.1 Définitions
Une chaîne de Markov est une suite aléatoire {Xn ; n ∈ N}, définie sur un espace
de probabilité (Ω, F, P), à valeurs dans un espace d’états E (fini ou infini) dénombrable
(habituellement représentés par les entiers) telle que
P Xn+1 = in+1 /Xn = in , X1 = i1 , ..., X0 = i0 = P Xn+1 = in+1 /Xn = in , (1.1.4)
pour tous les états in+1 , in , i0 et tout entier n ≥ 0. C’est la propriété de Markov.
La propriété d’homogénéité d’une chaîne de Markov exprime quant à elle que la pro-
babilité d’aller de n en n + 1 reste la même au cours du temps. Elle permet de regrouper
en une seule matrice (indépendante de n) les probabilités de transition entre deux états
quelconques.
11
1.1 Cadre et outils stochastiques de l’étude
conditionnelle pour que le système à l’instant t soit dans l’état j, sachant qu’il a été dans
l’état i à l’instant s. On a :
qui est appelé "Équation de Chapman-Kolmogorov" avec H(s, t) = (pij (s, t))i,j∈E . Cette
matrice est appelée matrice de probabilités de transition.
On pose : P∆t (t) = H(t, t + ∆t). Lorsque ∆t −→ 0, P∆t (t) tend vers la matrice unité
I. Par conséquent, si l’on souhaite trouver un taux, on doit retrancher la matrice unité I
de P∆t (t) avant de la diviser par ∆t. En posant :
P∆t (t) − I
Q(t) = lim . (1.1.6)
∆→0 ∆t
Q(t) est appelée générateur infinitésimal (ou matrice de taux de transition).
On a :
P(t,t+∆t) (t) − 1
qii (t) = lim
∆t
∆→0
(1.1.7)
P(t,t+∆t) (t)
qij (t) = lim , i 6= j.
∆→0 ∆t
On en déduit, pour tout i ∈ E, j∈E qij = 0. Pour un processus de Markov donné par
P
son état initial et son générateur infinitésimal, on peut, en principe, trouver la probabilité
pour qu’il soit dans un état j à un instant donné t.
Propriété 1.1.3. La matrice de transition H(s, t) est dite markovienne (ou stochastique),
au sens où elle vérifie les propriétés suivantes :
i) 0 ≤ Pij ≤ 1 pour tout i, j ∈ E ;
ii) nj=0 Pij = 1, pour tout i ∈ E.
P
Comme nous le verrons dans l’exemple suivant, il arrive fréquemment dans les ap-
plications que, pour un état i donné, le nombre d’états j directement accessibles depuis
i (i.e. tel que pij > 0) soit faible. La matrice de transition est alors très creuse ; elle
contient beaucoup de 0. Il est souvent plus économique (et plus pertinent) de résumer les
probabilités de transition dans le diagramme de transition.
12
1.2 Cadre et environnement de l’épidémiologie
pour tout n ∈ N. Le processus stochastique (Xn )n≥1 est une chaîne de Markov homogène.
Son espace d’états E = Z est infini.
L’épidémiologie peut être définie comme une discipline scientifique qui étudie la dis-
tribution des événements de santé et de leurs déterminants dans les populations humaines
[2]. L’analyse épidémiologique consiste donc à l’interprétation des résultats des études
épidémiologiques. Son champ d’intérêt s’accroît d’années en années, et sa méthodologie
est encore en pleine évolution. L’épidémiologie est classiquement définie comme l’étude
de la distribution des maladies et de leurs déterminants dans les populations humaines
(Bouyer et coll., 1993 ; Rothman et coll., 1998) [31] et [58]. Cependant, son champ s’est
13
1.2 Cadre et environnement de l’épidémiologie
rapidement étendu pour couvrir l’étiologie de l’ensemble des problèmes de santé ainsi
que leur contrôle (Last, 1983). Les définitions modernes de l’épidémiologie incluent même
l’évaluation des interventions et le support aux politiques de santé.
14
1.2 Cadre et environnement de l’épidémiologie
La recherche des relations causales entre un facteur de risque et une maladie implique
la prise en compte d’une temporalité cohérente avec l’hypothèse testée, par exemple,
l’exposition à un cancérigène ne peut se traduire en cancer que des années, voire des
dizaines d’années plus tard. L’information recueillie sur l’exposition aux facteurs de risque
suspectés et sur la survenue de la maladie doit donc aussi s’étaler sur des dizaines d’années
de distance. Les études transversales sont celles dans lesquelles les informations concernant
le facteur de risque et la maladie sont collectées en même temps [44].
1.2.3.2 Prévalence
La façon la plus naturelle de mesurer la fréquence d’une maladie dans une population
est de calculer la proportion de malades présents dans la population à un instant donné.
Ceci revient à déterminer, une mesure appelée la prévalence, elle est notée P et définie
M
par P = où M est le nombre de malades et N le nombre total de sujets (malades et
N
non malades) de la population.
15
1.2 Cadre et environnement de l’épidémiologie
16
1.2 Cadre et environnement de l’épidémiologie
dans une population fermée et sans sujets perdus de vue ; il suffit de diviser le nombre
de nouveaux cas par le nombre de sujets non malades au début de la période. Sinon
(population ouverte ou sujets perdus de vue), le risque cumulé de la maladie pendant la
période ∆t est donnée par :
p
R = 1 − Πpk=1 (1 − Rk ) = 1 − Πpk=1 (exp{−T Itk ∆tk }) = 1 − exp{−
X
−T Itk } (1.2.6)
k=1
Si les taux d’incidence T Ik sont petits (ou plus précisément si les T Itk ∆tk sont petits),
la formule (1.2.6) se simplifie en :
17
1.2 Cadre et environnement de l’épidémiologie
Dans ce qui suit, le facteur de risque et la maladie sont caractérisés par des variables
dichotomiques (ayant uniquement deux valeurs : présence ou absence). Pour le facteur de
risque, les deux catégories sont notées (E+) pour les sujets exposés et (E-) pour les sujets
non exposés. Pour la maladie, les malades sont notés (M+) et les non malades sont notés
(M-). Soit R1 le risque de maladie chez les sujets exposés au facteur de risque et R0 le
risque de maladie chez les sujets non exposés.
a) Risque relatif
Le risque relatif(RR) est une mesure statistique souvent utilisée en épidémiologie,
mesurant le risque de survenue d’un événement dans un groupe par rapport à l’autre.
Il permet d’exprimer l’association entre l’exposition et la maladie de façon à faciliter
l’interprétation. C’est le facteur par lequel le risque de maladie est multiplié en présence
de l’exposition.
R1
RR = (1.2.8)
R0
Si le risque relatif est supérieur à 1, on suppose une association entre le facteur de
risque et la maladie. Toutefois, un test de χ est nécessaire pour vérifier si cette association
est significative.
b) Odds ration
L’odds ratio (OR) exprime la relation entre R1 et R0 de façon moins immédiate ; il
peut être dans toutes les types d’enquêtes, ce qui n’est pas le cas pour le risque relatif.
L’odds ratio et le risque relatif sont liés par la relation :
1 − R0
OR = RR . (1.2.9)
1 − R1
Lorsque la maladie est rare R0 et R1 (petits), les valeurs numériques du risque relatif
et de l’odds ratio sont proches.
D’un point de vue pratique, lorsque l’exposition est caractérisée par une variable di-
chotomique (E+) pour les exposés et (E-) pour les non exposés et que la maladie est
caractérisée par un risque (c’est à dire par la probabilité d’être malade ou de le deve-
nir au cours d’une période donnée). Les données obtenues sur un échantillon d’enquête
peuvent se présenter sous la forme d’un tableau à quatre cases où (M+) désigne les sujets
malades ou devenus malades au cours de la période d’étude et (M-) les sujets non malades.
18
1.2 Cadre et environnement de l’épidémiologie
Pour calculer l’intervalle de confiance, il existe plusieurs formules. Elles sont toutes
approchées et donnent des résultats très proches sur le plan numérique. Une des méthodes
couramment utilisée consiste à calculer d’abord l’intervalle de confiance de ln(OR) grâce
à la formule :
s
h i 1 1 1 1
Bi , Bs = ln(OR) ± t α2 + + + . (1.2.10)
a b c d
On obtient ensuite l’intervalle de confiance de OR en prenant l’exponentielle des
bornes : h i
exp(Bi ), exp(Bs ) . (1.2.11)
Dans les enquêtes de cohorte (avec population fermée), l’estimation du risque relatif
(rapport de incidences cumulées) est donnée par :
a/(a + c)
RR = . (1.2.12)
b(b + d)
Le calcul de l’intervalle de confiance passe aussi par celui du logarithme :
s
c d
lnRR = ±t α2 + . (1.2.13)
n1 a n0 b
Puis on prend l’exponentielle des bornes. Dans les enquêtes transversales, on peut
aussi calculer l’équivalent, soit le ratio de prévalences, mais on a tendance à utiliser de
plus en plus l’odds ratio [3].
19
1.2 Cadre et environnement de l’épidémiologie
20
1.2 Cadre et environnement de l’épidémiologie
population donnée d’un nombre de cas de maladies ou de tout autre événement de santé.
Ces cas apparaissent de manière inattendue et en grand nombre. L’épidémie est claire-
ment limitée dans le temps et dans l’espace. Elle se manifeste par un nombre important
de cas en des endroits où ordinairement elle n’est pas présente (par exemple l’obésité) [34].
b) Endémie :
L’endémie désigne la persistance d’une maladie dans une collectivité ou un territoire ou à
l’état. Cette maladie peut être manifeste ou à un état latent. Quand on dit d’une maladie
qu’elle est endémique dans une région, on comprend que sa présence est connue, signalée ;
mais cela ne signifie pas qu’elle soit en progression ou qu’elle se répande contrairement à
l’épidémie [2].
c) Pandémie :
La pandémie désigne une épidémie qui s’étend au delà des frontières d’un pays et qui peut
se répandre à l’échelle mondiale, touchant ainsi des millions de personnes, quand celles
ci ne sont pas immunisées ou quand la médecine ne dispose d’aucun traitement contre la
maladie. Les plus grandes pandémies de maladies infectieuses qui ont marqué l’histoire de
l’humanité sont : la peste, le choléra, la variole, la grippe, la tuberculose, la poliomyélite
et le sida [2].
Le calcul du (R0 ) présuppose une population où tous les individus sont sains, sauf
l’individu infectieux introduit (le patient zéro)[34]. Si (R0 ) < 1 alors l’individu infecté
contamine moins d’un autre individu en moyenne, ce qui signifie que la maladie disparaît
de la population. Si (R0 ) > 1, alors la maladie se propage dans la population et devient
épidémique. Déterminer (R0 ) en fonction des paramètres du modèle permet ainsi de cal-
culer les conditions dans lesquelles la maladie se propage.
Comme le notent Van den Driessche et Watmough, dans le cas d’un seul comparti-
ment infecté, (R0 ) est simplement le produit du taux d’infection et de sa durée moyenne.
Lorsque le modèle est simple, il est souvent possible de trouver une expression exacte
de (R0 ). Pour cela, on considère généralement que la population est à l’état d’équilibre ;
autrement dit, que le nombre d’individus dans chaque compartiment ne varie plus.
Le (R0 ) peut parfois être dépendant de divers facteurs : région, comportements, densité
de population, organisation sociale ou a saisonnalité. Des chercheurs scientifiques ont
cherché à calculer le (R0 ) de la nouvelle maladie : leurs résultats ont varié du simple au
quintuple.
21
1.3 Cadre conceptuel des maladies émergentes
Le tableau suivant 1.2 résume quelques valeurs de (R0 ) pour des maladies communes.
Stephen S. Morse est l’un des premiers scientifiques à défendre cette notion au début
des années 1990 ainsi que celle de réussite émergentielle. Le concept de maladie émergente
se serait réellement cristallisé aux États-Unis avec la publication d’un rapport officiel sur
ce thème, en 1992. Joshua Lederberg y envisage les maladies émergentes sous ses as-
pects évolutionnistes, environnementaux, sociaux et politiques. C’est par un historien des
sciences, spécialiste de l’histoire du sida, Mirko D. Gmerk, que le concept de maladie in-
fectieuse émergente entre dans la sphère publique. Ce croate avait décortiqué l’histoire du
sida dans un livre célèbre paru en 1989 et introduit le terme de pathocénose (pour définir
ce que les microbiologistes connaissent bien : les relations d’équilibre que les maladies
infectieuses entretiennent les unes avec les autres). Ce terme s’est révélé utile dans les
années 1990 pour attirer l’attention.
Le concept est cependant largement utilisé pour d’autres maladies, non infectieuses et
non transmissibles. Il permet, de plus, l’imagination et l’interprétation, par l’idée d’appa-
rition menaçante qu’il véhicule et la curiosité qu’il suscite. Des expressions comme « les
nouvelles menaces », « les nouveaux fléaux » en font aujourd’hui un concept médiatique.
22
1.3 Cadre conceptuel des maladies émergentes
Les vecteurs sont des insectes ou d’autres animaux qui transmettent l’agent infectieux
d’une personne à l’autre. Les autres supports sont des objets ou éléments de l’environ-
nement contaminés (par exemple vêtements, couverts, eau, lait, aliments, sang, plasma,
solutions parentérales ou instruments chirurgicaux). Les maladies contagieuses sont celles
qui peuvent se propager chez l’homme sans l’intervention d’un vecteur ou d’un support
(contagieux, de la racine latine tangere "toucher", signifie littéralement « par contact »).
Le paludisme est par conséquent une maladie transmissible mais pas contagieuse, tan-
dis que la rougeole et la syphilis sont à la fois transmissibles et contagieuses. Certains
germes pathogènes provoquent la maladie non seulement du fait de l’infection, mais aussi
en raison des effets toxiques des substances chimiques qu’ils produisent. Par exemple,
Staphylococcus aureus est une bactérie qui peut infecter directement l’homme, mais les
intoxications alimentaires à staphylocoques sont dues à l’ingestion d’aliments contaminés
par une toxine produite par cette bactérie.
Les maladies infectieuses sont responsables dans le monde de 17 millions de décès par
an, soit un tiers de la mortalité et 43 % des décès dans les pays en voie de développement
contre contre 1 % dans les pays industrialisés. Elles entravent la santé de base des indi-
vidus et ont une influence négative sur chaque indice du développement humain et plus
particulièrement sur l’espérance de vie à la naissance, l’éducation et le PIB réel. Elles sont
responsables d’une forte mortalité dans les régions où l’hygiène connaît un déficit et où
l’accès aux soins est difficile.
3. L’herpès génital est une infection transmissible sexuellement (ITS) caractérisée par l’apparition de
petites vésicules douloureuses sur les organes sexuels. Ces vésicules sont transparentes et remplies de
liquide.
23
1.3 Cadre conceptuel des maladies émergentes
Ainsi, une maladie émergente est une maladie dont l’incidence réelle augmente de
manière significative dans une population donnée, d’une région donnée et pendant une
période donnée, par rapport à la situation épidémiologique habituelle de cette maladie.
Ce sont d’autre part des maladies connues qui sortent plus ou moins rapidement des
fluctuations moyennes habituelles (épidémies de salmonelloses, recrudescence d’infections
sexuellement transmissibles (IST)) On peut citer parmi ces dernières la gonococcie ou la
syphilis, quand il y a persistance d’une prise de risque sexuel. Dans les pays développés,
et en Europe en particulier, certaines shigelloses sont sexuellement transmissibles par voie
anale, considérées comme réémergentes quand elles provoquent des épidémies. Les infec-
tions à Mycoplasma genitalium, provoquant des urétrites non gonococciques (UNG) chez
l’homme sont considérées comme émergentes aux Etats-Unis. La réémergence de l’encé-
phalite à virus West Nile dans le bassin méditerranéen en 2000-2001 est une préoccupation
majeure en termes de santé publique [24]).
24
1.3 Cadre conceptuel des maladies émergentes
• La Maladie à virus Ebola (MVE) connue en Afrique centrale depuis 1976, en été
2014 en Afrique de l’Ouest dans 3 pays tels que la Guinée, le Libéria et la Sierra Léone.
L’épidémie de MVE d’Afrique de l’Ouest est une épidémie hors du commun si on la com-
pare aux épidémies d’Afrique centrale. Celles-ci sont des épidémies rurales, permettant
une intervention de riposte ciblée sur les villages atteints, alors que l’épidémie d’Afrique
de l’Ouest est une épidémie urbaine avec une grande mobilité de la population expliquant
son expansion rapide [22].
• La grippe aviaire, souche H5N1, hautement pathogène qui atteint l’homme en Asie
depuis 1997, puis au Moyen-Orient et en Afrique depuis 2006 ; l’Indonésie est fortement
touchée en 2007-2008.
• Le sida est emblématique des années 1980, le SRAS du début du XXIe siècle.
Le VIH, qui aurait réellement franchi la barrière d’espèces et se serait humanisé, est la
première cause de décès par maladie infectieuse dans le monde. Les chercheurs en « pa-
léovirologie » situent au début des années 1900 sa première apparition chez l’homme.
Mais celui-ci est retrouvé sur des échantillons humains de 1959. Le virus responsable du
SRAS (SRAS-CoV), aurait vu sa virulence tout à coup amplifiée ; la sélection du virus
chez l’animal, provoquant une souche plus virulente est une hypothèse [22].
• Les cancers d’origine infectieuse en font partie, comme ceux du col de l’utérus (le
vaccin est sur le marché) et, décrit récemment, de l’oropharynx (Human Papillomavirus),
mais aussi du naso-pharynx (virus d’Ebstein-Barr, Herpesviridae), du foie (hépatites vi-
rales), le sarcome de Kaposi dans le sida (Human Herpesvirus 8) et certains lymphomes
(virus HTLV-1).
• Le Covid-19 (corona virus desease 19) ou maladie infectieuse à virus corona, a fait
son apparition en décembre 2019, en Chine, dans la région de Wuhan. Le virus est bap-
tisé corona en raison de sa forme semblable celle d’une couronne. Aujourd’hui, la maladie
touche 176 pays et l’on dénombre 2,078,605 cas confirmés avec plus de 139,515 décès. Les
États Unis d’Amérique enregistrent le gros nombre d’infections avec 632 781 cas. Suivis de
l’Espagne, le pays d’Europe qui enregistre le plus gros chiffre avec 182 816 cas confirmés.
L’ Afrique compte 12 360 cas confirmés. Et dans la région de l’Ouest, la Côte d’Ivoire est
le pays le plus touché avec 742 cas. Le 14 mai 2020, le Burkina Faso enregistre au total
773 cas confirmés avec 592 guérisons et 51 décès depuis la 9 mars 2020 date à laquelle le
premier cas a été signalé.
Les facteurs entrainant l’émergence de ces maladies sont entre autres : le changements
climatiques et atmosphériques, le réchauffement de la planète, la modifications de la di-
versité biologique, la mondialisation et démographie (la population en zone tropicale a
doublé depuis 1950) ; les voyages et transports internationaux, les migrations humaines et
25
1.3 Cadre conceptuel des maladies émergentes
Conclusion
Ce chapitre nous a permis de passer en revue les outils techniques nécessaires à la mo-
délisation, objectif de cette thèse. En effet, l’approche stochastique étant l’axe privilégiée
pour l’étude, il était important de revoir les processus stochastiques à travers la caracté-
risation, les familles usuelles et les chaines de Markov. Par ailleurs, à travers les cadres de
l’épidémie et des maladies émergentes vous avons rappelé les concepts fondamentaux et
les points forts de ces thématiques.
26
Chapitre 2
Contribution à la modélisation
stochastique en épidémiologie
Dans la section 1, nous passons en revue les modèles stochastiques existant dans l’ana-
lyse épidémiologique. Il s’agit entre autres des modèles de Reed-Frost, de Greenwood, de
Processus Galton-Watson et autres modèles SIR. Dans la section 2, nous présentons deux
contributions majeures de cette thèse sur des aspects stochastiques du modèle SIERS.
α = 1 − P + P (1 − β) = 1 − P β. (2.1.1)
Si l’on suppose que l’infectieux Yt est identifié et est retiré de la population, on obtient
Xt +Yt = Xt−1 . Dans ce cas α peut être considéré comme la population des non infectieux,
27
2.1 Modèles stochastiques usuels en épidémiologie
et le nombre d’infectieux yt au temps t est déterminé par l’écart entre xt−1 et xt c’est à
dire yt = xt−1 − xt .
n o
P{(x,t)t ,(x,y)t+1 } = P (X, Y )t+1 = (x, y)t+1 /(X, Y )t = (x, y)t (2.1.2)
Soit
!
xt
P{(x,t)t ,(x,y)t+1 } = αyt xt+1 (1 − α)xi −xt−1 . (2.1.3)
xt+1
Où {Xt , t = 0, 1, ...} est une chaine de Markov avec Yt+1 = Xt − Xt+1 .
!
xt
P{(x,t)t ,(x,y)t+1 } = αyt xt+1 (1 − α)yt+1 . (2.1.4)
xt+1
Il s’en suit que les réalisations (x, y)0 , (x, y)1 , ..., (x, y)T de l’épidémie ont pour pro-
babilité une chaine binomiale de produits de la forme (2.1.4). On peut donc dire que le
nombre d’infectieux dans une chaine binomiale successive est déterminé par une distribu-
tion binomiale.
1 . . . .
1−α α . ... .
(1 − α)2 2(1 − α)α α2 ... .
Pe = (2.1.5)
.. .. ..
..
. . . . .
x0 x0 −1 x0 x0 −2
(1 − α) x0 (1 − α) α 2
(1 − α) α 2
. . . α x0
28
2.1 Modèles stochastiques usuels en épidémiologie
où ∀ t ≥ 1 et j = 0, ..., i
!
i
Pij = P {Xt+1 = j/Xt = i, Yt > 0} = (1 − α)i−j αj . (2.1.7)
j
n−1
En utilisant (2.1.6) pour calculer récursivement Pi−k , on obtient finalement
n o
n−1 n−1 i−k
P (W, T ) = (n, k)/X0 = i, Y0 > 0 = Pi−k Pi−k,j−k = Pi−k α . (2.1.8)
On peut déterminer la distribution conjointe du coupe de variables aléatoires (W,T)
en utilisant les fonctions génératrices de probabilités [20]. Par ailleurs, rappelons que
l’épidémie s’arrête au moindre entier t tel que Yt = 0, ou par équivalence, au moindre t
tel que Xt = Xt−1 . En partitionnant la matrice (2.1.5) comme suit
P = Pe + Q; (2.1.9)
Pe est une matrice triangulaire des probabilités de transitions qui ne permet aucune
répétition et Q la matrice des probabilités de répétitions de l’état Xt ie pour la transition
{Xt−1 = i} vers {Xt = i}. Pour un certain état i et pour Yi = 0, on obtient :
où Pe j = 0, pour j > x0 + 1.
29
2.1 Modèles stochastiques usuels en épidémiologie
Pour la classification d’un tel processus, il existe deux régimes séparés par une valeur
critique du paramètre :
i) Si m < 1, le processus de Galton-Watson est dit sous-critique. L’extinction de la
population se produit avec probabilité 1 ;
ii) Si m > 1 le processus de Galton-Watson est dit sur-critique. Alors la probabilité de
survie de ce nom est non nulle (la probabilité d’extinction est inférieure strictement
à 1). En cas de survie, le nombre de porteurs du patronyme connaît une croissance
exponentielle ;
iii) Si m = 1 alors le processus de Galton-Watson est dit critique. Son comportement est
plus complexe.
1. Historiquement, Galton et Watson ont introduit ce modèle pour étudier la perpétuation des lignées
des Lords en Angleterre au 19 e siècle : les individus sont des Lords qui transmettent leur titre uniquement
à leurs fils. Il s’agit alors d’étudier l’évolution de la population au cours du temps, i.e. la quantité Xn
quand n devient grand
30
2.1 Modèles stochastiques usuels en épidémiologie
−λ0
0 0 0
λ0 ... ...
µ1 −(µ1 + λ1 ) λ1 0 ... 0 ...
0 µ2 −(µ2 + λ2 ) λ2 ... 0 ...
0 0 µ3 −(µ3 + λ3 ) ... 0 ...
. (2.1.13)
.. .. .. .. .. .. ..
. . . . . . .
0 0 0 ... µk −(µk + λk ) λk
.. .. .. .. .. .. ..
. . . . . . .
Lorsque le système à un instant donné t est dans l’état Ek , on dit que la population
à l’instant t est de taille k. On pose alors indifféremment soit Z(t) = Ek soit Z(t) = k.
Une autre façon équivalente de définir le processus est d’introduire les événements et
leurs probabilités
de façon suivante :
X1 : P une naissance dans [t, t + ∆t[/population de taille k ) = λk ∆t + 0(∆t) ;
Y1 : P une mort dans[t, t + ∆t[/population de taille k ) = µk ∆t + 0(∆t) ;
X2 : P 0 naissance dans[t, t + ∆t[/population de taille k ) = 1 − λk ∆t + 0(∆t)
Y2 : P 0 mort dans[t, t + ∆t[/population de taille k ) = 1 − µk ∆t + 0(∆t) où λk ≥ 0 est
le taux de naissance pour une population de taille k, µk ≥ 0 est le taux de mort pour une
population de taille k (on pose µ0 ).
Notons que ces probabilités ne sont pas affectées quelque soit l’instant t (propriété
d’homogénéité) et quelques fussent les événements qui ont mené le processus dans son
31
2.1 Modèles stochastiques usuels en épidémiologie
état actuel (propriété sans mémoire). Soit Pk (t) la probabilité pour que la population soit
de taille k à l’instant t :
Pk (t) = P (Z(t) = k), k ∈ N. (2.1.14)
En particulier, la proposition suivante nous permet de déterminer les probabilité Pk (t).
dPk (t)
= −(λk + µk )Pk (t) + λk−1 Pk−1 (t) + µk+1 Pk+1 (t) si k ≥ 1
dt
dPk (0) (2.1.15)
= −λ0 P0 (t) + µ1 P1 (t)
dt
Pk (t) = 1, t ∈ N
P
k∈N
Deux cas particuliers de cette famille sont beaucoup utilisés dans l’analyse de survie :
le processus de Yule et le processus de mort pure.
pour tout k ≥ 1. Ainsi, le nombre de cellules qui sont présentes au temps t > 0 lorsqu’il
n’y a qu’une cellule au départ suit une loi géométrique de paramètre exp(−νt).
32
2.1 Modèles stochastiques usuels en épidémiologie
Si exp(µi ).
Le premier modèle stochastique a été présenté par Reed et Frost en 1928, sur une
échelle de temps discret (typiquement, une génération), il décrit les probabilités d’évolu-
tion des différentes classes de la population. A chaque génération, l’état de la population
ne dépend que de la génération précédente, et les probabilités d’évolution sont binomiales.
En gardant les mêmes notations, on a donc :
yj+1
P (Yj+1 = yj+1 /X0 = x0 , Y0 = y0 , ..., Xj = xj , Yj = yj ) = Cyxj+1
j
1 − q yj (q yj )xj −yj+1
(2.1.20)
33
2.2 Le modèle stochastique SEIRS en épidémiologie
2.2.2 Publication 1
Intitulé « Stochastic approach of epidemic model using the SEIRS » l’article ci-dessous
apporte une contribution au volet aléatoire de la modélisation en épidémiologie. Il a été
publié par la revue «European Journal of Pure and Applied Mathematics » EJPAM.
L’article est indexé dans la base de données Mathscinet / MR (MR3992608) et dans Zb
Math par le code (Zbl07099517).
34
EUROPEAN JOURNAL OF PURE AND APPLIED MATHEMATICS
Vol. 12, No. 3, 2019, 834-845
ISSN 1307-5543 – www.ejpam.com
Published by New York Business Global
Abstract. The study of infectious diseases represents one of the oldest and richest sectors of
biomathematics. The transmission dynamics of these diseases are still a major problem in math-
ematical epidemiology. In this work, we propose a stochastic version of a SEIRS epidemiological
model for infectious diseases evolving in a random environment for the propagation of infectious
diseases. This random model takes into account the rates of immigration and mortality in each
compartment and the spread of these diseases follows a four-state Markovian process. We first
study the stability of the model and then estimate the marginal parameters (means, variances and
covariates) of each disease state over time. Real measles data are applied to the model.
1. Introduction
Infectious diseases are of increasing concern to authorities and public health officials
[2]. In the face of increasing bacterial resistance, the emergence of new pathogens and the
rapid spread of the epidemic make surveillance and prevention of disease transmission par-
ticularly important and indispensable. Even with permanent and continuous surveillance
of infectious diseases, it must be noted that their etiologies are still largely unknown. To
combat this random phenomenon, in recent decades mathematical models have been devel-
oped and implemented to study the spread of infectious diseases since the early twentieth
century in the field of mathematical epidemiology through the work of Daniel Bernoulli
[1] . Stochastic and deterministic models of epidemics allow researchers to gain valuable
knowledge about many infectious diseases and to study strategies to combat them.
The first stochastic epidemic models were presented by L. Reed and W, H. Frost in [3]
to accurately describe the discrete-time spread of disease in a population. These models
developed in 1928 and 1931[3] are based on the notion of probability and statistics. Later
∗
Corresponding author.
DOI: https://doi.org/10.29020/nybg.ejpam.v12i3.3400
Email addresses: [email protected] (H. Y. Talkibing),
[email protected] (B. Diakarya), [email protected] (O. Fabrice)
Bartlett [M. Costa 2011] proposed in 1949, the continuous time stochastic SIR model
which serves as the basis for stochastic models. These last yeas, we can find in the liter-
ature several works but much remains to be done with the emergence of some of the new
pathogens.
In this work, we are interested in the SEIRS model described in [7] for infectious
diseases. We propose a stochastic version of this model using birth and death processes
to describe the spread of infectious diseases in a random environment.
In this section, we propose a stochastic version of the SEIRS model (fig 1) reviewed
above. So, we assume that the spread of the disease follows a linear process of birth and
death in continuous time and in four states in a variable environment. Moreover, we as-
sume that the switching between environments follows a homogeneous Markov chain in
continuous time.
That is, the evolution of the process at time n+1 depends only on the state of the
process at time n but not on the past states 0, 1, 2, ..., n − 1 of the process. In biological
modeling, a disease transmission process described with the states X0 , ..., Xn can be seen
as a Markov chain with a transition matrix Q = (pij ) where the probabilities of the
transitions are such as :
Moreover, let Z(t) = X1 (t) + X2 (t) + X3 (t) + X4 (t) be the population size at a given
time t. Assume that all rates are not time-dependent t and disease transmission occurs
only by contact between susceptible and infectious individuals in a relatively small time in-
terval dt. Once the vaccination is administered to the population, the immunized subjects
against the disease and healed subjects enter the compartment X4 and lose their immunity
H. Y. Talkibing, B. Diakarya, O. Fabrice / Eur. J. Pure Appl. Math, 12 (3) (2019), 834-845 836
rate significance
λ the rate of newborns
α the rate of attacks of the disease
β The infection rate
γ recovery rate
Θλ the rate of newborns vaccinated and immunized against the disease
τ the tau of individuals healed but having lost temporary immunity
η the tau of holy individuals vaccinated and immunized against the disease
Θ the tau of unvaccinated newborns
σi , i = 1.4 rates of immigrant individuals in different compartments
µi , i = 1.4 mortality rates of the different compartments independent of the disease
Xi, i = 1, 4 The steps in the process
against this disease after a given latent period to become susceptible again. Newborn un-
vaccinated enter the susceptible compartment X1 with a rate θ = 1 − λ and after contact
with an infected subject first expose themselves to the disease and become infected, healed
and susceptible again according to the diagram 1). In the case of infectious diseases, the
ideal objective is to eradicate these diseases completely by preventive measures or by set-
ting up a more effective mass vaccination program. Following the SEIR and SEIRS models
with vital dynamics, Anderson and May studied vaccinations applied to the population [7].
Once the population are vaccinated, the compartment S contains unimmunized indi-
H. Y. Talkibing, B. Diakarya, O. Fabrice / Eur. J. Pure Appl. Math, 12 (3) (2019), 834-845 837
viduals who are therefore susceptible to the disease. Among these individuals are immi-
grants with a rate of σ1 from another locality and newborns not immune to the disease
with a rate of λ. The probability that there will be a birth and then immigration of a
susceptible person in the n process state is given by :
S(t + dt) = n/S(t) = n − 1
E(t + dt) = m/E(t) = m
P
I(t + dt) = n0 /S(t) = n0 = [λ(1 − θ)(n − 1) + σ1 ]dt + 0(dt).
0 0
R(t + dt) = m /S(t) = m
• Mortality of S :
The individuals in compartment S come into contact with infected people at a rate of
α and expose themselves to the disease. The probability of switching from the n state to
the m state is given by:
S(t + dt) = n/S(t) = n + 1
E(t + dt) = m/E(t) = m − 1
P
0 0 = α(n + 1)dt + 0(dt)
I(t + dt) = n /S(t) = n
0 0
R(t + dt) = m /S(t) = m
• Mortality of E :
The probability that there will be deaths regardless of the cause of the disease among
0
the infected in the n state of the process is given by:
H. Y. Talkibing, B. Diakarya, O. Fabrice / Eur. J. Pure Appl. Math, 12 (3) (2019), 834-845 838
S(t + dt) = n/S(t) = n
E(t + dt) = m/E(t) = m + 1
P
0 0 = µ3 dt + 0(dt).
I(t + dt) = n /S(t) = n
0 0
R(t + dt) = m /S(t) = m
• Mortality of R :
0
The probability of deaths among people restored to the m state of the process is given
by:
S(t + dt) = n/S(t) = n
E(t + dt) = m/E(t) = m
P
0 0 = µ4 dt + 0(dt).
I(t + dt) = n /S(t) = n
0 0
R(t + dt) = m /S(t) = m + 1
• Immigration of E:
The compartment E contains people exposed to the disease after contact with the
patients. The probability of immigration at the m state of the process is therefore:
S(t + dt) = n/S(t) = n
E(t + dt) = m/E(t) = m − 1
P
0 0 = σ2 dt + 0(dt)
I(t + dt) = n /S(t) = n
0 0
R(t + dt) = m /S(t) = m
• Transition from E to I:
The exposed individuals E, become infectious with a rate β and the probability of
0
passing from the state m and to the state n is given by:
S(t + dt) = n/S(t) = n
E(t + dt) = m/E(t) = m + 1
P
I(t + dt) = n0 /S(t) = n0 − 1
= β(m + 1)dt + 0(dt)
0 0
R(t + dt) = m /S(t) = m
• Immigration of I:
0
The probability of immigration to the state n of the process in compartment I is:
S(t + dt) = n/S(t) = n
E(t + dt) = m/E(t) = m
P
I(t + dt) = n0 /S(t) = n0 − 1
= σ3 dt + 0(dt)
0 0
R(t + dt) = m /S(t) = m
H. Y. Talkibing, B. Diakarya, O. Fabrice / Eur. J. Pure Appl. Math, 12 (3) (2019), 834-845 839
• Transition from I to R:
Recovered people become susceptible again with a rate of tau. The probability of
0 0
switching from the state m and to the state n is therefore:
S(t + dt) = n/S(t) = n − 1
E(t + dt) = m/E(t) = m
P
0 0 = τ (n4 + 1)dt + 0(dt).
I(t + dt) = n /S(t) = n
0 0
R(t + dt) = m /R(t) = m + 1
• Transition from S to R:
Individuals immunized against the disease with a rate of τ after direct vaccination
coverage integrate the R compartments. The probability of transition from the n state to
0
the m state is therefore:
S(t + dt) = n/S(t) = n + 1
E(t + dt) = m/E(t) = m
P 0 0 = η(n + 3)dt + 0(dt).
I(t + dt) = n /S(t) = n
0 0
R(t + dt) = m /S(t) = m − 1
The Markov property for the law of a multistate process is that the events {X(t) = j},
j = 0, ..., n are independent on the past Xn−1 given X(s). For Markov processes, the
transition probability matrices satisfy the Chapman-Kolmogorov property [6]. The set of
H. Y. Talkibing, B. Diakarya, O. Fabrice / Eur. J. Pure Appl. Math, 12 (3) (2019), 834-845 840
transition intensities forms the matrix of transition intensity Q. The sum of the terms of
each line of these matrices is equal to zero. We have the matrix of transmission probabilities
Q such as .
−M1 + µ1 + α α 0 η
0 −M2 + µ2 β 0
Q=
0 0 −M3 + µ3 γ
τ 0 0 −M4 + τ + µ4
Where
M1 = λ(1 − θ) + σ1 + η
M2 = α + β + σ 2
⇒ (3)
M3 = β + γ + σ3
M4 = γ + η + θλ + σ4
M1 , M2 , M3 et M4 are positive quantity.
The Kolmogorov equation gives the matrix of transition probabilities Q(t) as a function
of the exponential of a matrix :
The exponential of a matrix is calculated relatively easily, particularly when the ma-
trix can be diagonalized [4]. If Q has eigenvalues which are all different, it can be written
as Q = P DP −1 , where D is the diagonal matrix of eigen-values, and P is the matrix of
eigenvectors. In this case, the probability P (t) at stable condition gives P (t) = P etD P −1
where the exponential of a diagonal matrix D is a diagonal matrix whose diagonal terms
are the exponential of terms of D.
Using the cumulants generating function [5] , we then calculate the means, variances
and covariances of the disease states as a function of time. For this purpose, the probability
generating function is defined by :
X 0 0 0 0
Φ(x1 , x2 , x3 , x4 , t) = p(n, m, n , m , t)xn1 xm n m
2 x3 x4 .
0 0
n,n ,m,m >0
H. Y. Talkibing, B. Diakarya, O. Fabrice / Eur. J. Pure Appl. Math, 12 (3) (2019), 834-845 841
Using A(t) = (Ai,j (t))16i,j64 = (tAi,j ) [i 6, 4j 6], the matrix of births with positive or
null coefficients, such as :
λ(1 − θ) + σ1 0 0 0
0 σ2 0 0
Aij =
;
0 0 σ3 0
0 0 0 σ4
n,n ,m,m =1
dr K(a1 , a2 , a3 , a4 , t)
knn0 mm0 (a1 , a2 , a3 , a4 , t) = |t=0 . (6)
dtr
Furthermore, the generating function of the cumulants is computed as follows:
P∞ ai
By substituting ea = i=0 in (5) and then, by derivating the functions K(a1 , a2 , a3 , a4 , t),
i!
it comes that:
h ∞
X an
∞
X (−a1 )n i ∂k
∂K(a1 , a2 , a3 , a4 , t) 1 nn0 mm0 (a1 , a2 , a3 , a4 , t)
= 1 + 3 − 2 (9)
∂t n! n! ∂a1
n=0 n=0
0 0
h ∞
X an2
∞ ∞
an1 X (−a2 )n
X
+ σ2 + α − 4
n0 ! n! 0 n0 !
n0 =0 n=0 n =0
i ∂k
nn mm (a1 , a2 , a3 , a4 , t)
0 0
− 5
∂a2
0
h X ∞
am X∞ ∞
an2 X (−a3 )m
3
+ σ3 +β
m=0
m! 0
n0 ! m=0 m!
n =0
∞
X (−a3 )m i ∂k 0 0 (a , a , a , a , t)
nn mm 1 2 3 4
− 7 − 6
m! ∂a3
m=0
0 0 0
h X∞
am X∞ ∞
an1 X (−a4 )m X∞
am
∞
X (−a4 )m
4 3
+ σ4 0 + η 0 +γ
m! n! m! m! 0 m0 !
m0 =0 n=0 m=0 m=0 m =0
0
∞
X (−a4 )m i ∂k 0 0 (a , a , a , a , t)
nn mm 1 2 3 4
− 9 0 − 8 .
0
m! ∂a 4
m =0
By equalizing the two previous expressions (12) and (5) and using the relationship
(11), we obtain a system of linear differential equations of the first degree whose variables
are means of each state of the process defined by the relationship (13).
dE(X1 )
= ρ1 E(X1 )
dt
dE(X2 )
= ρ2 E(X2 )
dt
. (13)
dE(X )
3
= ρ3 E(X3 ) + σ4 E(X2 X3 ) + ρ5 E(X2 )
dt
dE(X4 ) = ρ6 E(X4 ) + ρ7 E(X2 X4 ) − 5 E(X3 )
dt
With ρi , i = 1, ..., 8, the strictly positive constants defined by the system (14) :
ρ1 = σ4 + σ2 + η + 8 − 5 − 4 + 3 − 2 + γ + α
ρ2 = σ4 + η + 8 − 4 + 3 − 2 + γ + α + β
ρ3 = σ4 + σ3 + σ2 + η − 9 + 8 − 7 + 6 − −5 − 4 + 3 − 2 + γ + α + β
ρ4 = σ3 − 7 + 6 − β (14)
ρ5 = σ3 + σ7 − β
ρ6 = σ4 + σ3 + σ2 + η − 9 + 8 − σ7 + 6 − 5 − 4 + 3 − 2 + γ + α + β
ρ7 = σ3 + −7 + 6 + β
The dispersion in turn of the average of each state of the process is given by the
relationship (15). For a statistic with little dispersion, the observations are close to each
other, and therefore to their average.
dV (X1 )
= 12 (σ2 + η + 2 + 3 + γ + α)V (X1 )
dt
dV (X2 )
= 12 (σ4 + σ2 + η + 6 + 3 + 2 + γ + β)V (X2 )
dt
. (15)
dV (X3 )
= 12 (σ4 + σ3 + σ2 + η + 9 + 3 + 2 + γ + β)V (X3 )
dt
dV (X4 ) = 1 (σ4 + σ3 + σ2 + η + 9 + 8 + 7 + +6 + +5 + 3 + α)V (X4 )
dt 2
H. Y. Talkibing, B. Diakarya, O. Fabrice / Eur. J. Pure Appl. Math, 12 (3) (2019), 834-845 844
The degree of the links between the different states of the process can be estimated
from the co-variables by solving differential equations of the relationship (16).
dCOV (X1 X2 )
= (σ4 + σ2 + η − 9 + 8 + 3 − 2 + γ + α)COV (X1 X2 )
dt
dCOV (X1 X3 )
= (σ4 + σ3 + σ2 + η − 9 + 8 − 7 + 6 − 5 − 4 + 3 − 2 + γ + α + β)COV (X1 X3 )
dt
dCOV (X2 X3 )
= (σ4 + σ3 + σ2 + η − 9 + 8 − 5 − 4 + 3 − 2 + γ + α + β)COV (X2 X3 )
dt
dCOV (X2 X4 )
= (σ4 + σ2 + η − 9 − 5 − 4 + 3 − 2 + γ + α + β)COV (X2 X4 )
dt
dCOV (X3 X4 )
= (σ4 + σ3 + σ2 − 9 + 8 + 7 + 6 − 5 − 3 − 2 + α + β)COV (X3 X4 )
dt
dCOV (X1 X4 ) = (σ + σ + η − − − + − + γ + α)COV (X X )
4 2 9 5 4 3 2 1 4
dt
(16)
The resolution of the written equation system by the relationships (13), (15) and (16)
have as initial conditions:
S(0) = S0 > 0, E(0) = E0 ≥ 0, I(0) = I0 > 0, R(0) = R0 ≥ 0
S E I R
Φ(x1 , x2 , x3 , x4 , 0) = x1 0 x2 0 x30 x4 0 , M (a1 , a2 , a3 , a4 , 0) = ea1 S0 ea2 E0 ea3 I0 ea4 R0
. (17)
K(a1 , a2 , a3 , a4 , 0) = a1 S0 + a2 E0 + a3 I0 + a4 R0
E(X1 (0)) = S0 , E(X2 (0)) = E0 , E(X3 (0)) = I0 , E(X4 (0)) = R0
5. Conclusions
In this study, we have proposed the stochastic approach of the deterministic SEIRS
model with a vital dynamic and temporary immunity of [7]. whose balance and stability
have been studied. The stochastic approach can be used to accurately describe the spread
of infectious diseases in a random environment. This SEIRS model generalizes the SI, SIR
and SEIR models and is therefore a valuable tool for stochastic modelling of epidemiolog-
ical problems. The resulting systems of equations incorporate complexities and assume
that randomness is important and explicitly include it in the behaviour of the system com-
pared to the deterministic model that assumes that randomness has a negligible effect and
considers only the average behaviour of the system. For good monitoring and prevention
of transmission of epidemics, the results obtained provide more precision on the random
REFERENCES 845
evolution of the disease over time. The main disadvantage of this approach is that in
practice, it is often difficult to have data adapted to the model to be implemented. It is
also clear that most of the results remain valid not only for a finite number of Markovian
environments, but also for more general ergodic environments.
References
[3] J. Wu Fred Brauer, Pauline van den Driessche. Lecteure note in mathematics. In
Oxford Mathematical Biosciences Subseries: P.K. Maini, editor, Mathematical epi-
demiology, 1945.
[4] Forrest .W. Crawford Vladimir N. Minin Marc A. Suchard Lam Si Tung Ho, Jasen Ho.
Birth/birth-death processes and their cumputable transition probabilities with biolog-
ical applications. Cornell University Library, 7 Aug 2017.
[6] Christelle Verg Pierre Del Moral. Modeles et methodes stochastiques. In Springer,
editor, Une introduction avec applications. Comit de Lecture 20122015/Editorial Board
20122015, 2014.
[7] Marek B. Trawicki. Cdeterministic seirs epidemic model for modeling vital dynamics,
vaccinations, and temporary immunity. Molecular Diversity Preservation Interna-
tional, January 2017.
2.3 Probabilité d’extinction et modèle SEIRS
2.2.3 Commentaire
Dans cette contribution, nous avons présenté un modèle stochastique de type SEIRS
pour la propagation de l’infection dans le contexte de la transmission des maladies émer-
gentes. Ce modèle est basé sur les processus de naissance et mort linéaires de type mar-
kovien continu à espace d’état discret. La population étant subdivisée en quatre grands
sous-populations : S pour les personnes susceptibles, E pour les personnes exposées, I pour
les personnes infectées et R pour les personnes guéries. La maladie ne peut se transmettre
que par contact entre les personnes susceptibles et infectées. Toute personne guérie perd
l’immunité contre la maladie après un certain temps et redevient susceptible. De plus,
tous taux d’immigration, de mortalité et de naissance sont supposés non constants.
2.3.2 Publication 2
L’article qui suit est un des nos résultats dans cette contribution à la modélisation
épidémiologique. Il a été publié dans la revue portugaise SCIENCE E TECHNOLOGY
(ISSN : 2416-3953) indexée dans la grosse base de données Web of Science, Core Collection
Science Citation Index Expanded (ISI Thomson Reuters) / Pages 15-29.
47
ISSN:2416-3953 Vol. 35 (n. 2, 2020)
Diakarya Barro
UFR-SEG, U.O2 12 BP: 417 Ouagadougou, BURKINA FASO
E-mail: [email protected]
Ouoba Fabrice
UJKZ, UFR-SEA, BP 7021, Ouagadougou 03, BURKINA FASO
E-mail: [email protected]
February 2, 2020
Abstract
The dynamics of disease transmission is still a major problem in math-
ematical epidemiology. In this work, we study the extinction probability of
a stochastic SEIRS-type model for infectious diseases evolving in a random
environment. We have determined the reproduction rate R0 and studied the
stability of the stochastic system based on the continuous Markov chain in
a discrete state. A simulation comparison of these two studies is made.
1 Introduction
In the face of increasing bacterial resistance, the emergence of new pathogens and
the rapid spread of the epidemic, surveillance and prevention of disease trans-
mission become particularly important and indispensable. In spite of permanent
15
ISSN:2416-3953 Vol. 35 (n. 2, 2020)
and continuous surveillance of infectious diseases, their etiologies are still largely
unknown. To combat these random phenomena, in recent decades mathematical
models have been developed and implemented to study the spread of infectious
diseases since the beginning of the 20th century in the domain of mathematical
epidemiology due to the work of researchers such as Daniel Bernoulli [15].
16
ISSN:2416-3953 Vol. 35 (n. 2, 2020)
The model is divided into four compartments where each compartment rep-
resents a specific stage of the epidemic : that is X1 for susceptible or healthy
individuals, X2 for exposed individuals, X3 for infected individuals and X4 for
cured individuals. To this model are associated the apparitions of rates σi , i=1 to
4 independent of λ and rates of natural deaths µi , i=1 to 4 independent of disease
in the classes of susceptible X1 (t), exposed X2 (t), infected X3 (t) and cured X4 (t)
respectively at time t. Then, the population size given a time t is such that :
We summarize in the table (1), the set of parameters that will be described in
the model.
17
ISSN:2416-3953 Vol. 35 (n. 2, 2020)
18
ISSN:2416-3953 Vol. 35 (n. 2, 2020)
that can provide insight into the dynamics of disease transmission and can also
guide strategies to control its spread. It is generally referred to as the basic re-
production number. R0 is one of the key concepts that mathematics has brought
to epidemic theory. Calculating the quantity R0 , requires first determining the
equilibrium points of the disease.
The law describing the spread of the disease through the compartments (fig 1)
gives us the following equations :
dX1 (t)
= (λ − θ) − (µ1 + η)X1 (t) + αX3 (t)X1 (t) + τ X4 (t) + σ1
dt
dX2 (t)
= αX3 (t)X1 (t) − (µ2 + β)X2 (t) + σ2
dt
dX3 (t) (3.1)
= βX2 (t) − (µ3 + γ)X3 (t) + σ3
dt
dX (t)
4
= γX3 (t) + ηX1 (t) − (τ + µ3 )X4 (t) + θ + σ4
dt
X1 (0) = x01 , X2 (0) = x02 , X3 (0) = x03 , X4 (0) = x04
19
ISSN:2416-3953 Vol. 35 (n. 2, 2020)
π = λ + σ1
ε = µ1 + η
Ω = µ2 + β
(3.3)
Γ = µ3 + γ
K = τ + µ3
φ = θ + σ4
αX1 (t)X3 (t) + σ2 ΩX2 (t)
F(X2 (t), X3 (t)) = ; V(X2 (t), X3 (t)) = (3.6)
0 −βX2 (t) + ΓX3 (t) − σ3
So, it follows that
∂F1 ∂F1 ∂V1 ∂V1
α(π − θ)
0 Ω 0
F (w) =
ε ; V (w) =
(3.8)
0 0 −β Γ
20
ISSN:2416-3953 Vol. 35 (n. 2, 2020)
Figure 2: Simulation of the solution of model and the basic reproduction rate R0 .
1
α(π − θ) αβ(π − θ) α(π − θ)
0 Γ 0
K = F V −1 =
ε
=
εΩΓ εΓ
β 1
0 0 0 0
ΩΓ Γ
αβ(λ + σ1 − θ)
R0 = . (3.9)
(µ1 + η)(µ2 + β)(µ3 + γ)
In particular, if R0 < 1, the diseases is asymptotically stable. But if, R0 > 1,
the diseases is asymptotically unstable.
21
ISSN:2416-3953 Vol. 35 (n. 2, 2020)
where
X ′ ′ ′ ′
G(t, x1 , x2 , x3 , x4 ) = p(t, n, m, n , m )xn1 xn2 xm m
3 x4 ; (4.2)
The cumulative probability generating function (4.17) [10] satisfies the follow-
ing progressive Kolmogorov equation :
(t)
dGj Xh
(t)
i
(t)
(s) = aij (−s) 1 − Gj (s) − bij (−s) Gi (s). (4.3)
ds i
where aij (t) and bij (t), ∀ 1 ≤ i, j ≤ 4 are respectively the components of the
matrices of birth rates A(t) and deaths B(t) obtained in the study of HY Talkibing
et all. [1], where
λ(1 − θ) + σ1 0 0 0
µ1 + α + η −α 0 −η
0 σ2 0 0
0 µ2 + β −β 0
A(t) = ; B(t) = (4.4)
0 0 σ3 0
0 0 µ3 + γ −γ
0 0 0 σ4
−τ 0 0 µ4 + τ
′ ′
w = w1n w2n w3m w4m (4.5)
22
ISSN:2416-3953 Vol. 35 (n. 2, 2020)
(t)
and Gi (s), for t > 0 being the solutions obtained from solving the following
system :
(t)
dG1 h
(t)
i
(t)
(s) = τ + p 1 − G 1 (s) − q G1 (s)
ds
(t)
dG2
h i
(t) (t)
(s) = + 1 (s) (µ + G2 (s)
α σ 2 − G 2 − 2 β)
ds
(t)
dG3
h i
(t) (t)
(s) = β + σ3 1 − G3 (s) − (µ3 + γ) G3 (s)
ds
(4.7)
(t)
dG
h i
(t) (t)
4
(s) = η + γ + σ4 1 − G4 (s) − (µ4 + γ) G4 (s)
ds
(t)
Gj (−t) = 1
p = λ(1 − θ) + σ1
q = α + η + µ1 .
So, we find out if w <1 or w >1 and it depends on the resolution of the non-
linear system (4.7) which does not admit an exact solution.
According to the work of Arnold (1998) (See [9]), the study of the stability of
the relation (4.7) system can be reduced to the following system of homogeneous
differential equations :
dX(t)
= HX(t); (4.8)
dt
where X ∈ R4 is the vector of the different states of the process while
λ + σ1 − ~ α 0 η
0 σ 2 − µ2 − β β 0
H=
;
(4.9)
0 0 σ 3 − µ3 − γ γ
0 0 0 σ 4 − µ4 − τ
23
ISSN:2416-3953 Vol. 35 (n. 2, 2020)
Moreover the authors showed that this stability depends on the sign of λ1 (A, B),
the largest Lyapunov exponent of (4.8).
Furthermore, Bacaer and Khaladi (2012) [10] have also shown that the study of
the stability of (4.7) can be alternatively formulated in terms of net reproducibility
R0 .
Let’s assume that the H matrix is irreducible, that is the G(H) graph is strongly
related. Moreover let f (x) be the characteristic polynomial of the matrix H, that
isf (x) = det(H −xI), I being the unite matrix of order 4, the following eigenvalues,
components of the vector U, associated with the matrix H are the solutions of the
equation f (x) =0 :
λ + σ1 − ~
σ 2 − µ2 − β
U = σ 3 − µ3 − γ .
(4.10)
σ 4 − µ4 − τ
As in [5, 9], all eigenvalues of the matrix H have a strictly negative real part,
that is Re(Ui ) < 0, 1 ≤ i ≤ 4, then the null solution of the system (4.8) is asymp-
totically stable.
So, the passage matrix P associated with the vector U is analytically given by
the following expression :
1 P 2 P 4 P9
0 1 1 0
P (t) =
(4.11)
0 0 P6 0
0 0 0 1
if the following relationship checks out :
3(σ4 − µ4 − τ ) + µ2 + β + µ3 + γ − σ1 − σ2 − σ3 − λ − ~ = 0. (4.12)
24
ISSN:2416-3953 Vol. 35 (n. 2, 2020)
α
P2 =
~ + σ 2 − λ − σ 1 − µ2 − β
α
P4 =
~ + σ 3 − λ − σ 1 − µ3 − γ
. (4.13)
µ2 + β + σ 3 − µ3 − σ 2 − γ
P6 =
β
η
P9 =
λ + σ 1 + τ + µ4 − ~ − σ 4
The matrix H can therefore be writhen in the form :
H = P DP −1 . (4.14)
That is, more explicitly,
1 P 2 P 4 P9 B1 0 0 0 P6 −P2 P6 P2 0
0 1 1 0
0 B2 0 0 −P6 P2 −1 1
(4.15)
0 0 0
P6 0 0 B3 0 0 0 1 0
0 0 0 1 0 0 0 B4 0 0 0 P6
where
B 1 = λ + σ1 − ~
B 2 = σ 2 − µ2 − β
(4.16)
B 3 = σ 3 − µ3 − γ
B 3 = σ 4 − µ4 − τ
25
ISSN:2416-3953 Vol. 35 (n. 2, 2020)
ζ = λ + σ1 − ~
U = P −1 X(t) ∆ = σ 2 − µ2 − β
and . (4.17)
′ ′
U =P −1
X (t) ̟ = σ 3 − µ3 − γ
κ = σ4 − µ4 − τ.
The solution of the system (4.8) is obtained by solving the problem (4.17) and
the analytical expression of this solution is given by the following relation which
defines the final states of the process over time.
(1 − P6 )P2 x02 e∆t + (1 − P6 )x01 eζt + P6 x02 e∆t + P6 x01 eζt − P6 P2 x03 e̟t − x04 eκt
X (t) =
1
P6 (1 − P6 )
P x0 e∆t + P6 x01 eζt − P6 P2 x03 e̟t − x04 eκt
X2 (t) = 6 2
P6 P2 (1 − P6 )
X3 (t) = x03 e̟t
x0
X4 (t) = 4 eκt .
P6
(4.18)
26
ISSN:2416-3953 Vol. 35 (n. 2, 2020)
Figure 3: Simulation of the evolution of the process, solution to the problem over
time.
27
ISSN:2416-3953 Vol. 35 (n. 2, 2020)
5 Conclusion
The aim of this work was to study the probability of extinction of a process of
SEIRS-type disease contamination whose rates of immigration and mortality are
assumed to be non-constant. The continuous Markovian process of birth and
death in a discrete state space has been used to describe the phenomenon. The
extinction probability obtained by determining the basic reproductive tau R0 of
the deterministic model is compared to that obtained using the stochastic method
by simulations of the phenomenon.
References
[1] HY Talkibing, B Diakarya, O Fabrice Stochastic Approach in
Epidemic Modeling Using the SEIRS, Vol 12, No 3 (2019),DOI:
https://doi.org/10.29020/nybg.ejpam.v12i3.3400, European Journal of
Pure and Applied Mathematics 2019;
[2] Marek B. Trawicki Deterministic Seirs Epidemic Model for Modeling Vital
Dynamics, Vaccinations, and Temporary Immunity.http://www.mdpi.com/
doi:10.3390/math5010007,January 2017,
[3] A. Gray, D. Greenhalgh, X. Mao, J. Pan, The SIS epidemic model with Marko-
vian switching, J. Math. Anal. Appl. 394 (2012) 496-516.
[6] Dimitrios Milios, Guido Sanguinetti, and David Schnoerr Probabilistic Model
Checking for Continuous Time Markov Chains via Sequential Bayesian Infer-
ence. arXiv:1711.01863v1 [cs.LO] 6 Nov 2017
28
ISSN:2416-3953 Vol. 35 (n. 2, 2020)
[8] Lam Si Tung Ho, Jasen Ho, Forrest .W. Crawford, Vladimir N. Minin, Marc A.
Suchard ¡¡ Birth/birth-death processes and their cumputable transition proba-
bilities with biological applications. arXiv:1603.03819v2 [stat.CO] 7 Aug 2017
[10] Nicolas Bacaër, Abdelkarim Ed-Darraz Sur les processus linéaires de nais-
sance et de mort dans un environnement aléatoire. Journal of Mathematical
Biology, Springer Verlag (Germany), 2014,
[11] Y. Zhao, D. Jiang, The threshold of a stochastic SIS epidemic model with
vaccination, Appl. Math. Comput. 243 (2014) 718-727.
[13] J.-M. Morel, Cachan F. Takens, Groningen B. Teissier, Paris Lecture Notes in
Mathematics. Mathematical Biosciences Subseries: P.K. Maini, Oxford, 1945
[15] Pierre Del Moral Christelle Vergé Modèles et méthodes stochastiques, Une
introduction avec applications. Springer
[17] Z. Teng, L. Wang, Persistence and extinction for a class of stochastic SIS
epidemic models with nonlinear incidence rate, Physica A 451 (2016) 507-
518.
29
2.4 Commentaire
2.4 Commentaire
Notre contribution dans de ce travail était d’étudier la probabilité d’extinction d’un
processus de contamination des des maladies infectieuses d’un modèle compartimental
stochastique SEIRS de type markovien étudié dans l’article précédent et dont les taux
d’immigration et de mortalité sont supposés non constants. Le processus de naissance
et de mort de type markovien continu dans un espace d’état discret a été utilisé pour
décrire le phénomène. La probabilité d’extinction obtenue de chaque état du processus
est comparée graphiquement à la valeurs du taux de reproduction de base R0 du modèle
déterministe par des simulations du phénomène. Ces approches peuvent être utilisées
comme outils d’application par les spécialistes de la santé.
63
Chapitre 3
Analyse géostatistique et
épidémiologie
Dans le chapitre précèdent, nous avons proposé des approches stochastiques pour la
propagation de l’épidémie à l’échelle temporelle. Ces approches ne tiennent pas compte
de la dimension spatiale du phénomène de l’émergence des maladies infectieuses, dans
ce chapitre, nous allons nous intéresser à l’analyse spatiale des foyers épidémiques par
l’évaluation de l’influence de la contamination d’une région sur les autres. Cette influence
peut se traduire par la mesure de dépendance entre les processus stochastiques via les
outils géostatistiques basés sur les fonctions copules, très utilisées en pratique.
On peut définir la géostatistique comme l’étude des variables numériques réparties dans
l’espace ou encore la méthode de traitement statistique de données localisées. Cette der-
64
3.1 Introduction à la géostatistique
nière étudie des phénoménes dont l’observation est un processus aléatoire Z = {Zs , s ∈ S}
indexé par un ensemble spatial S, Zs appartenant à un espace d’états D. Développée à
partir de préoccupations trés pratiques (recherche miniére), la géostatistique a fait l’objet,
sous l’impulsion de Georges Matheron [21] et de ses collégues de l’école des Mines de Fon-
tainebleau, de trés importants développements méthodologiques. Les illustrations les plus
simples concernent des problémes tels que l’interpolation des températures ou des préci-
pitations. Mais les travaux les plus importants concernent les applications géologiques et
miniéres que l’on peut trouver par exemple chez Chilés et al 2009 (voir [54]).
65
3.1 Introduction à la géostatistique
a) Ergodicité
L’hypothèse d’ergodicité suppose que l’information statistique peut être obtenue à
partir d’une seule réalisation quelconque de la fonction aléatoire définie sur un domaine
spatial infiniment grand. Autrement dit, une réalisation de la fonction aléatoire sur un
grand domaine (c-à-d pour un grand nombre de variables aléatoires) apporte la même
information qu’un grand nombre de réalisations de la fonction aléatoire.
En particulier, la moyenne spatiale réalisée sur la variable régionalisée est alors sup-
posée égale à l’espérance mathématique de la fonction aléatoire :
1 Z Z Z
m = E[Z(s)] = lim z(s)ds (3.1.1)
D→+∞ D D
L’étude des moments de la fonction aléatoire à partir d’une réalisation est alors possible.
b) La stationnarité
Trois acceptions de la stationnarité sont utilisées en géostatistique :
i) La stationnarité stricte qui stipule qu’en se déplaçant par translation, toutes les ca-
ractéristiques de la fonction aléatoire restent invariantes ;
ii) La stationnarité au second ordre qui requiert les conditions suivantes :
E[(Z(s)] = m(s) = m ∀s ∈ Rd
E[(Z(s) − m)2 ] = σ 2 (3.1.2)
Cov[Z(s + h), Z(s)] = E[(Z(s + h) − m)(Z(s) − m)] = C(h)
66
3.1 Introduction à la géostatistique
Cov[Z(s), Z(t)]
∀(s, t) ∈ Rd × Rd , C(s, t) = q q (3.1.3)
V [Z(s)] V [Z(t)]
En tant que variance, cette somme doit être positive, ceci quels que soient les λi , ce
qui exprime que la fonction C est une fonction de type positif.
67
3.1 Introduction à la géostatistique
1−ν ν
2 h khk
ρ(h) = C0 + b Kν (3.1.4)
Γ(ν) a a
où 0 < ρ < 1, a > 0, ν > 0, Γ(.) est la fonction gamma et K la fonction de Bessel
modifiée telle que : −1 ≤ ρ(h) ≤ 1 car elle engendre beaucoup d’autres familles des cor-
rélogrammes. On peut aussi travailler avec d’autres familles telles que la famille stable ou
la famille de Cauchy et les techniques statistiques restent les mêmes.
Les trois premiers modèles correspondent à une fonction aléatoire de variance unité
(ρ(0) = 1). On obtient un modèle de variance quelconque en multipliant un modèle normé
par une variance σ 2 : C(h) = σ 2 ρ(h). Un calcul simple montre que σ 2 est la limite du
variogramme en + inf ∗ , cette valeur est appelée palier du variogramme.
68
3.1 Introduction à la géostatistique
On peut faire le lien entre ces notions théoriques et les nuées variographiques empi-
riques observées (figures 3.2).
69
3.1 Introduction à la géostatistique
usage est très limité car il se peut qu’il n’existera pas pour de telles observations.
Par exemple, si nous considérons un champ aléatoire max-stable avec des lois de proba-
bilités marginales univariées de Fréchet unitaire. Pour un tel champ aléatoire l’espérance
et la variance ne sont pas finies et par conséquent le variogramme n’existe pas théori-
quement. On introduit donc de nouveaux outils tels que le madogramme qui remplacent
le variogramme et qui permet de mesurer la dépendance spatiale entre deux processus
extrêmes.
70
3.1 Introduction à la géostatistique
71
3.1 Introduction à la géostatistique
d’espérance connue), le krigeage ordinaire (pour une fonction aléatoire d’espérance incon-
nue), le krigeage universel (pour la prise en compte d’une dérive), le cokrigeage (pour
l’étude de différents phénomènes liés)([47] ; [55]).
a) Principes
La résolution d’un problème d’estimation locale ou globale par krigeage s’articule tou-
jours autour des étapes suivantes :
i) Linéarité : Dans un souci de réalisme, on pose que la quantité à estimer est une
fonction linéaire de la fonction aléatoire étudiée. L’estimateur est posé comme combinai-
son linéaire des données, de poids inconnus pour l’instant.
ii) Autorisation : L’erreur d’estimation doit être une combinaison linéaire autorisée,
c’est-à-dire que son espérance et sa variance doivent être définies. La condition d’autori-
sation s’écrit différemment selon le modèle sous-jacent supposé (on supposera toujours le
support borné). Dans le modèle stationnaire d’ordre 2, toutes les combinaisons linéaires
sont autorisées, et il n’y a pas de contrainte. Par contre, dans le modèle intrinsèque, une
P
combinaison linéaire est autorisée si et seulement si son poids total est nul : λi = 0
72
3.1 Introduction à la géostatistique
a) Le krigeage simple
Le krigeage simple est un outil d’estimation géostatistique qui suppose connue la valeur
de la moyenne. Il attribue un poids important à la moyenne globale connue.
Si on suppose que Z est d’espérance nulle, le biais s’écrit :
E(Zsks0 ) = E(
X
λi )E(Zi ) = 0 (3.1.10)
i
La condition précédente est donc automatiquement vérifiée. La deuxième impose que les
poids λi soient solution du système matriciel
Cλ = C0 (3.1.11)
où par abus de notation, C désigne la matrice des covariances entre les points variables
aux points de mesure. C’est-à-dire C = (C(si − sj ))ij .
Cette expression est assez commode à manipuler et met en évidence le fait qu’on
ne doit inverser la matrice C qu’une seule fois lorsque qu’on veut kriger Z en différents
points. En revanche elle n’explicite pas du tout les propriétés statistiques et géométriques
du krigeage. Si E[Z(s)] = m où m est non nul mais connu, il suffit d’appliquer la technique
précédente à Y (s) = Z(s) − m.
b) Le krigeage ordinaire
Le krigeage qualifié d’ordinaire, constitue le point d’orgue de la géostatistique. Dans le
krigeage ordinaire, la valeur moyenne n’est pas connue. On peut en trouver des utilisations
simples dans l’interpolation des températures (JOLY et al. 2009) ou dans des études sur
la qualité de l’air (LLOYD et al. 2004).
On suppose Z une variable aléatoire d’espérance m inconnue la condition de non biais
de la forme : X
m λi = 0 (3.1.13)
i
On peut donc écrire tout champ aléatoire comme la somme de son krigeage et d’une
erreur non corrélée : Z(s) = Z k (s) + sigmak U où U est une variable centrée réduite non
corrélée à Z(s). Cette propriété ouvre la voie à une technique de simulation appelée kri-
geage conditionnant.
73
3.2 Éléments de lois extrêmes multivariées
Le krigeage fournit une valeur estimée en n’importe quel point de l’espace s0 . L’erreur
commise Z(s) − Z(s0 ) est évidemment inconnue mais on peut évaluer la variance de cette
erreur appelée variance de krigeage. Dans le cas du krigegae simple elle s’écrit :
σ ks = C(0) −
X
λi C(si − s0 ). (3.1.16)
i
σ k0 = C(0) −
X
λi C(si − s0 ) − µk0 (3.1.17)
i
3.2.1 Préliminaires
3.2.1.1 Rappels sur les lois multivariées
Une distribution ou fonction de répartition m-dimensionnelle est une fonction F :
Rm → I = [0, 1] telle qu’il existe un espace de probabilité et un vecteur aléatoire X =
(X1 , ..., Xm ) tels que, pour toute réalisation x = (x1 , ..., xm ) ∈ Rm de X, on a
Le résultat suivant, démontré dans [10], résume les propriétés d’une distribution mul-
tivariée.
Théorème 3.2.1. (Distribution multivariée) [27]
Une fonction F : Rm → I est une distribution m-dimensionnelle si et seulement si :
(i) Pour tout xi , i = 1, ..., m, on a
lim F (x1 , ..., xi−1 , t, xi+1 , ..., xm ) = 0
t→−∞
(3.2.1)
et lim ... lim F (t1 , ..., tm ) = 1
t1 →+∞ tm →+∞
∆(1) (1)
x1 ,y1 ...∆xm ,ym F (y1 , ..., ym ) ≥ 0 (3.2.2)
74
3.2 Éléments de lois extrêmes multivariées
∆(i)
xi ,yi F (t) = F (t1 , ..., ti−1 , yi , ti+1 , ..., tm ) − F (t1 , ..., ti−1 , xi , ti+1, ..., tm ) (3.2.3)
La propriété (ii) signifie en particulier que F est croissante par rapport à chaque
variable.
Dans le cas bidimensionnel la relation (3.2.2) équivaut à l’inégalité du rectangle que doit
vérifier toute fonction de répartition bivariée Fi [6].
sous l’hypothèse
Comme dans l’analyse des distributions univariées, il existe des familles standard de
distributions de probabilité pour les vecteurs aléatoires.
75
3.2 Éléments de lois extrêmes multivariées
D’après Resnick [19], l’étude du comportement stochastique des lois des maxima et
des records multivariés établit que, pour tous entiers positifs t1 < t2 < ... < tn , on a
t2 −t1
FMn (x1 , ..., xn ) = F t1
min (xi ) F min (xi ) ...F tn −tn−1 (xn ) .
1≤ i ≤ n 2≤i≤n
Gt (x) = G [σ(t)x + µ(t)] = G [σ1 (t)x1 + µ1 (t), ..., σm (t)xm + µm (t)] . (3.2.8)
σn = {(σ1,n , ..., σm,n ) ; σj,n > 0} et µn = {(µ1,n , ..., µm,n ) ; µj,n ∈ R} (3.2.9)
telles que
76
3.2 Éléments de lois extrêmes multivariées
Figure 3.5 – Exemple d’une sélection par blocs des maximas dans un cadre univarié
M1,n −µ1,n −µm,n
≤ x1 ; ...; Mm,n
G(x1 , ..., xm ) = lim P σ σ
≤ xm
n7−→+∞ 1,n m,n
(3.2.10)
n
= lim F (σ1,n x1 + µ1,n , ..., σm,n xm + µm,n )
n7−→+∞
où les distributions marginales de la loi limite G sont non-dégénérées. On dit que F ap-
partient au max-domaine d’attraction multivarié de G.
xθi
X
F (x) = 1− ; θ ≥ 1.
1≤ i ≤ m
i) Toute distribution des VEM est continue (car toutes les marges le sont).
77
3.2 Éléments de lois extrêmes multivariées
iii) Toutes les marges d’une distribution des VEM sont du type extrême i.e.
1
−
xi − µ i
exp − 1 + ξi ξi si ξi 6= 0
σi +
Gi (xi ) =
.
( " #)
xi − µ i
exp − exp − si ξi = 0
σi +
Le résultat suivant établit l’équivalence entre les distributions des VEM et les distri-
butions max-stables.
Théorème 3.2.2. La classe des distributions extrêmes multivariées est précisément celle
des distributions max-stables avec des marges non dégénérées.
Définition 3.2.3. Une variable aléatoire appartient au domaine d’attraction d’une loiα −
stable Gα s’il existe des constantes de normalisation { σn > 0} et {µn ∈ R} telles que
S n − µn loi
−→ Gα ie lim P (Sn ≤ σn x + µn ) = Gα (x) (3.2.14)
σn n−→+∞ n−→+∞
Les résultats suivants caractérisent les domaines d’attraction de la loi normale et des
lois alpha-stables. Pour la démonstration, voir [2].
Plus généralement le théorème suivant, démontré dans [9], caractérise le MDA d’une loi
extrême quelconque.
Théorème 3.2.3. Théoréme 1.6 (voir [20]) Soit F une distribution quelconque. Les
propriétés suivantes sont équivalentes.
· i) F ∈ M DA(G)
Il existe des suites de constantes σn > 0 et µn ∈ R telles que,∀x ∈ R.
· ii) lim F n (σn x + µn ) = G(x).
n−→+∞
Mn − µn
· iii) lim P ≤ x = G (x) .
n−→+∞ σn
78
3.3 Éléments de copules stochastiques
Table 3.1 – Récapitulatif des domaines d’attraction des lois extrêmes univariées
Pour les notions de fonctions à variation régulière (RV) ou de variation lente utilisées
dans les résultats qui suivent. Le tableau suivant résume les MDA des trois lois extrêmes.
79
3.3 Éléments de copules stochastiques
80
3.3 Éléments de copules stochastiques
Définition 3.3.3. Une copule est une fonction de répartition dont les lois marginales sont
uniformes sur I. Si C est une copule sur <d , il existe un vecteur aléatoire U = (U1 ; . . . ; Ud )
tel que :
P (U1 ≤ u1 ; . . . ; Ud ≤ ud ) = C(u1 ; . . . ; ud )
et P (Ui ≤ u) = u pour tout i = 1 . . . d et u ∈ I
Le théorème de Sklar, démontré dans [29], fournit une représentation canonique d’une
distribution multivariée via la donnée des distributions marginales et de la structure de
dépendance.
Théorème 3.3.1. [43]
Soit F une fonction de répartition d-dimensionnelle de lois marginales F1 , . . . , Fd . il existe
une copule C telle que :
Si les lois marginales F1 ; . . . ; Fd sont continues , alors la copule C est unique et définie
par :
∀(u1 ; . . . ; ud ) ∈ I d , C(u1 , . . . , ud ) = F (F1−1 (u1 ), . . . , Fd−1 (ud ))
Ce résultat est important en pratique pour les applications à l’assurance et à la finance ,
car il indique que l’analyse d’une problématique multivariée peut être décomposée en deux
étapes à savoir : l’identification des distribution marginales et l’analyse de la structure de
dépendance entre les composantes.
Remarque 3.3.1. Lorsque les marginales ne sont pas continues, il est toujours possible
de définir une copule, mais celle-ci n’est plus unique et de ce fait perd beaucoup de son
intérêt .
Corollaire 3.3.1. Si le vecteur (X1 ; . . . ; Xd ) admet la fonction de répartition F de lois
marginales continues F1 ; . . . ; Fd et de copule C. Alors C est la fonction de répartition du
vecteur (F1 (X1 ); . . . ; Fd (Xd )).
Définition 3.3.4. (Densité de copule)
On dit que la copule C sur I d admet une densité s’il existe une fonction positive c telle
que : Z u1 Z ud
C(u1 ; . . . ; ud ) = ... c(u1 ; . . . ; ud )du1 . . . dud
0 0
si c est continue, on a alors, pour tout (u1 , ..., un ) ∈ [0, 1]n
∂ dC
c(u1 , ..., un ) = .
∂u1 . . . ∂ud
On remarque que pour vérifier qu’une fonction de d variables C, d fois dérivables est
une copule, il suffit de vérifier que
81
3.3 Éléments de copules stochastiques
Définition 3.3.5. On dit qu’une copule C1 est plus petite qu’une autre copule C2 (ou que
C2 est plus grande que C1 ) et on écrit C1 < C2 (ou C2 > C1 ) si :
Cette relation d’ordre est partielle car on ne peut pas comparer toutes les copules entre
elles. Néanmoins , on montre que pour toute copule C : C − < C < C + .
Définition 3.3.6. .
∀u = (u1 , . . . , ud ) ∈ I d ; C ⊥ (u) = u1 . . . ud
82
3.3 Éléments de copules stochastiques
83
3.3 Éléments de copules stochastiques
Une définition complète des distributions elliptiques permet une meilleure compréhen-
sion de nos résultats.
n
vérifie la contrainte 0+∞ x 2 −1 gn (x) dx < +∞.
R
Bien qu’elles ne puissent pas être exprimées par une forme explicite, les structures
elliptiques mettent en place différents degrés de corrélation et fournissent une riche source
de distributions avec de nombreuses propriétés exploitables des distributions normales
multivariées. Deux familles de structures elliptiques les plus connues (distributions et
copules) sont la famille gaussienne et la famille t de Student.
84
3.3 Éléments de copules stochastiques
b) La copule Gaussienne
Dans la relation (3.3.4) si Ψ(x) désigne la fonction de répartition de la loi normale
standard alors la loi gaussienne multivariée de matrice de covariance
où
v+1
Z x Γ 1 dt
Tν (x) = 2 √ ,
−∞ v vΠ ! v+1
Γ t2 2
2 1+
v
et
v+n
Z x1 Z xn Γ 1 dt1 . . . dtn
TR,v (x1 , . . . , xn ) = ... 2 n √ .
−∞ −∞ v (vΠ) 2 det R T
! v+n
Γ t Rt 2
2 1+
v
85
3.3 Éléments de copules stochastiques
Figure 3.6 – Exemple d’une copule gaussienne pour une corrélation ρ = −0.9
Figure 3.7 – Exemple de densité de la copule de Student pour une corrélation ρ = −0.9
86
3.3 Éléments de copules stochastiques
Définition 3.3.9. [38] On appelle copule de valeurs extrêmes, toute copule C telle que :
1
∀t > 0 ; C t (ut1 , . . . , utd ) = C(u1 , . . . , ud ).
Ces copules tirent leur nom du fait que les distributions qui leur sont associées par
le théorème de Sklar, sont des modèles extrêmes multivariés. Les familles des copules
de valeurs extrêmes coïncident avec l’ensemble des copules des distributions de valeurs
extrêmes.
Définition 3.3.10. [43] Une copule d-variée est dite max-stable si elle satisfait la relation
suivante : 1 1
C(u1 , . . . , ud ) = C n (u1n , . . . , udn ) ; (u1 , . . . , ud ) ∈ I d , n ∈ N
Théorème 3.3.3. Une copule C est dite de valeurs extrêmes si et seulement si elle est
max-stable.
Théorème 3.3.4. [8] Soit G une distribution de valeurs extrêmes , de lois marginales
G1 et G2 et de copule CG . Une distribution H , de marginales H1 et H2 et de copule C
appartient au domaine d’attraction de G si et seulement si H1 et H2 appartiennent aux
domaines d’attraction de G1 et G2 respectivement et CH satisfait
1 1
CG (u, v) = lim CH (u n , v n )n ; ∀u, v ∈ I
n→+∞
D’après la théorie univariée, les marginales H1 et H2 appartiennent à l’un des trois types
GEV.
Dans le cas bidimensionnel, Geoffroy (1958), Tiago de olivera (1958) et Sibuya (1960)
ont donné la forme générale des copules de valeur extrêmes. Et Pickands (1981) a donné
la forme générale des copules de valeurs extrêmes multidimensionnelles.
Théorème 3.3.5. Soit C une copule extrême bivariée. Alors il existe une fonction convexe
A définie sur [0, 1] et qui satisfait la condition max (t, 1 − t) ≤ A(t) ≤ 1 telle que
" !#
ln(v)
C(u, v) = exp ln(uv)A ∀u, v ∈ I
ln(uv)
87
3.3 Éléments de copules stochastiques
88
3.3 Éléments de copules stochastiques
Copule Générateur
Indépendance −ln(u)
Clayton u−θ − 1, θ ≥ 0
−θu
e −1
Franck −ln −θ , θ 6= 0
e −1
Gumbel − ln(u)θ , θ ≥ 1
Par exemple : Soit X = (X1 , ..., Xd ) un vecteur de durées de vies résiduelles, dont la
loi de survie jointe est supposée Schur-constante (i.e. à la fois Schur-concave et Schur-
convexe). Alors il existe S : R+ −→ [0, 1] telle que
P (Xi − xi > t/X > x) = P (Xj − xj > t/X > x), (3.3.6)
Définition 3.3.12. Une copule CF est appelée copule des valeurs extrêmes s’il existe une
copule CF telle que
1/n 1/n
limn→∞ CF (u1 , ..., ud )n = C(u1 , ..., ud )
89
3.4 Statistiques spatiales et épidémiologie
pour tout (u1 , ..., ud ) ∈ [0, 1]d . La copule CF ainsi défini est dans le domaine d’attrac-
tion de C. Cette représentation des copules des valeurs extrêmes peut être simplifiée en
utilisant le concept de max-stabilité.
Définition 3.3.13. Une copule C en dimension d est dit max-stable si elle satisfait à la
1/m 1/m
relation : Cn (u1 , ..., ud ) = C(u1 , ..., ud )m , ∀m ≥ 1 et (u1 , ..., ud ) ∈ [0, 1]d
Une copule est une copule de valeur extrême si et seulement si elle est max-stable.
Dans le domaine de la santé, l’analyse spatiale n’est pas seulement utilisée pour des
études en épidémiologie. Elle intervient également au niveau des politiques publiques,
avec le développement de nouvelles applications en santé publique : systèmes d’alerte,
systèmes de gestion de crises, systèmes de prévention et d’analyse de risques, préparation
de campagne de vaccination. L’analyse spatiale permet de répondre à un certain nombre
de questions. Elle offre ainsi des éléments qui permettent de consolider l’épidémiologie «
classique » et d’enrichir la démarche des autres disciplines.
90
3.4 Statistiques spatiales et épidémiologie
Il existe trois types des données utilisées en épidémiologie spatiale selon leurs particu-
larités.
Soit x = {x1 , ..., xn }, xi ∈ S ⊂ Rd un ensemble des sites où ont lieu les observations qui
est aléatoire tout comme le nombre n = n(x) de sites observés : x est une réalisation d’un
processus ponctuel spatial X observé dans la fenêtre S. Le processus X est dit marqué si en
outre on observe une marque en chaque xi , par exemple la longueur de l’aiguille observée
en xi . Une question centrale dans l’analyse statistique des processus ponctuels consiste
à savoir si la répartition des points est plutôt régulière ou bien si elle est due au hasard
(processus ponctuel de Poisson) ou encore si elle présente des agrégats [57]. Comme pour
les séries temporelles, la statistique spatiale se différencie de la statistique classique par
le fait que les observations sont dépendantes : on dit que X est un processus spatial ou
encore que X est un champ aléatoire.
À chacune des données correspondent une ou plusieurs méthodes d’analyse. Nous pres-
sentons une méthode d’auto-corrélation spatiale des données très utilisée en épidémiologie.
91
3.5 Modélisation géostatistique par les copules
3.5.2 Publication 3
Intitulé « Geostatistical analysis with copula-based models of madograms, correlo-
grams and variograms.» l’article ci-dessous apporte une contribution aux outils géostatis-
tiques pour l’analyse spatiale en épidémiologie. Il a été publié par la revue « European
Journal of Pure and Applied Mathematics » EJPAM. Cet article est indexé dans les grosses
bases de données dans le domaine ; dans Mathscinet / MR avec le code (MR3992608) et
dans ZbMath, code (Zbl07099528).
92
EUROPEAN JOURNAL OF PURE AND APPLIED MATHEMATICS
Vol. 12, No. 3, 2019, 1052-1068
ISSN 1307-5543 – www.ejpam.com
Published by New York Business Global
Abstract. This paper investigates models of stochastic dependence with geostatistical tools.
Specifically, we use copulas to propose new models of stochastic spatial tools such as variograms,
correlograms and the madograms. Copula versions of covariograms are provided both in second
stationnary and intrinsic frameworks. Moreover, some usual families of models of variograms are
clarified with the corresponding parameters
1. Introduction
While modelling spatial extreme variability of an isotropic and max-stable field, Cooley
et al. (2006) have introduced the F-madogram γF (h) defined by
γF (h) = 21 E {|F (Z (s)) − F (Z (s + h))|} . (1)
where h is the average value of the separating distance between the two points. This
tool provides a generalization of the so called λ-madogram associated to the distribution
underlying the stochastic process, such as:
n o
γF (h) = 21 E [F (Z (s))]λ − [F (Z (s + h))]1−λ ; λ ∈ ]0, 1[ . (2)
∗
Corresponding author.
DOI: https://doi.org/10.29020/nybg.ejpam.v12i3.3389
Email addresses: [email protected] (O. Fabrice)
[email protected] (B. Diakarya), [email protected] (H. Y. Talkibing)
The variogram or the semi-variogram makes it possible to determine whether the distri-
bution or parameters studied have a structure, random or periodic. Its representation has
three characteristic properties: the nugget effect, the range and the sill. The nugget effect
characterizes the variability at the origin. The sill, if it exists, is characterized by the
attainment of a plateau where the semi-variogram become constant with the evolution of
h and the range which characterizes the limiting distance of spatial structuring.
The correlogram function is identical to the linear coefficient between a series of spatial
data. It’s given by:
cov(Z(s1 ), Z(s2 ))
ρ(s1 , s2 ) = corr(Z(s1 ), Z(s2 )) = . (3)
σs1 σs2
E(|Z(s + h) − Z(x)|
M (h) = . (4)
2
While studying spatial models of extreme values, Barro et al.[2] have considered a set
of locations S = {x1 , ..., xs } ⊂ R2 , where the process is observed. If Yk,1 ; ...; Yk,s denote
independent copies from the second-order stationary random field, for k = 1, ..., n, they
poined out that every spatial univariate marginal laws lies in the domain of attraction of
the real-value parametric Generalized extreme value (GEV) distribution, defined spatially
on the subdomain:
such as:
h i −1
exp − 1 + ξi (xi ) yi (xi )−µi (xi ) ξi (xi ) if ξi (xi ) 6= 0
σi (xi )
GEV (yi (xi )) = n n oo ; (5)
exp − exp − yi (xi )−µi (xi )
σi (xi ) if ξ i (xi ) = 0
where the parameters {µi (xi ) ∈ R}, {σi (xi ) > 0} and {ξi (xi ) ∈ R} are referred to as
the spatial version of location, the scale and the shape parameters for the site xi respec-
tively.
The major contribution of this paper is to propose new models of geostatistical depen-
dence tools by using copula functions. Indeed, the variogram, the correlogram and the
O. Fabrice, D. Barro, H. Y. Talkibing / Eur. J. Pure Appl. Math, 12 (3) (2019), 1052-1068 1054
madogram of spatial variable are modeled via the copula underlying their joint distribu-
tion. Specifically, section 2 gives the background tools of stochastic analysis that turn to
be necessary, while section 3 deals with our main results, copulas versions of variogram,
madogram, covariogram and correlogram via copulas.
2. Preliminaries
This section summaries definitions and properties on the copulas of multivariate joint
processes dependence which turn out to be necessary for our approach. For this purpose
the definition of multivariate copula is necessary. Moreover, we provide a survey of the
main geostatistical tools used in this paper.
Since, Z +∞ Z +∞
E[Z(s1 )Z(s2 )] = z1 z2 h(s1 , s2 )dz1 dz2 ,
−∞ −∞
the covariance function can still be written such as:
Z +∞ Z +∞
c(s1 , s2 ) = z1 z2 h(s1 , s2 )dz1 dz2 − m(s1 )m(s2 )
−∞ −∞
where m(s1 ) is the mean of Z(s1 ) and h(s1 , s2 ), the joint density function of Z(s1 ) and
Z(s2 ). The Cauchy-Schwarz inequality links the covariance between Z(s1 ) and Z(s2 ) to
the variance of Z(s1 ) and Z(s2 ),
p
Cov[Z(s1 ), Z(s2 )]| ≤ V ar[Z(s1 )]V ar[Z(s2 )].
The madogram of a random field, especially used in the extreme case, determines the
strength of the relationship between the random variables that represents it in the different
observation sites. It is set to Rd in R+ by:
E(|Z(s1 + h) − Z(s1 )|)
∀h ∈ Rd , M (h) = ; ∀s1 ∈ Rd .
2
Cn (u1 , ..., ui−1 , 0, ui+1 , ..., un ) = 0; f or, all (u1 , ..., ui−1 , ui+1 , ..., un ) ∈ [0, 1]n−1 .
ii)
Cn (u1 , ..., ui−1 , 1, ui+1 , ..., un ) = Cn−1 (u1 , ..., ui−1 , ui+1 , ..., un ),
, an (n-1) copula for all i.
iii) The volume VB of any rectangle B = [a, b] ⊆ [0, 1]n is positive, that is,
Z
bn bn−1 b1
VB ([a, b]) = ∆an ∆an−1 . . . ∆a1 C(u) = dCn (u1 , ..., un ) ≥ 0. (6)
B
where,
The use of copulas in stochastic analysis whas justified by the canonical parametriza-
tion of Sklar, see Joe [9]or Nelsen [12], such that the n-dimensional copula C associated to
a random vector (X1 , ..., Xn ) with cumulative distribution F and with continuous marginal
F1 , ..., Fn is given, for (u1 , ..., un ) ∈ [0, 1]n by
Differentiating the formula (7 ) shows that the density function of the copula is equal
to the ratio of the joint density f of F to the product of marginal densities hi such as, for
all (u1 , ..., un ) ∈ [0, 1]n ,
∂ n C (u1 , ..., un ) f F1−1 (u1 ), ..., Fn−1 (un )
c(u1 , ..., un ) = = −1 . (8)
∂u1 ...∂un f1 F1 (u1 ) × ... × fn Fn−1 (un )
Let Z be a random field in n sites Z = {Z(s1 ), . . . , Z(sn )}. Suppose H(si , sj ) and
h(si , sj ) are the attached distribution and density functions of Z(.) with marginal distri-
butions FZ (si ) at the site si .
O. Fabrice, D. Barro, H. Y. Talkibing / Eur. J. Pure Appl. Math, 12 (3) (2019), 1052-1068 1056
where !
1 σZ2 s
C(λ) = ,
2 1 + λσZ2 s
and !
1 σZ2 s+h
Dh (λ) = ,
2 1 + (1 − λ)σZ2 s+h
for λ ∈]0; 1[, h being the average value of the separating distance between the two points.
Furthermore,
FZs ,Zs+h ,λ (u) = P max [F (Z(s))]λ , [F (Z(s + h))]1−λ ≤ u .
Thus,
FZs ,Zs+h ,λ (u) = P [F (Z(s))]λ ≤ u, [F (Z(s + h))]1−λ ≤ u ,
It yields that
1 1
FZs ,Zs+h ,λ (u) = P F (Z(s)) ≤ u λ , F (Z(s + h)) ≤ u 1−λ ,
O. Fabrice, D. Barro, H. Y. Talkibing / Eur. J. Pure Appl. Math, 12 (3) (2019), 1052-1068 1057
Therefore 1 1
FZs ,Zs+h ,λ (u) = CF,h u λ , u 1−λ f or all λ ∈]0; 1[.
and
σZ2 s+h
E max [F (Z(s + h))]1−λ = ∀λ ∈]0; 1[. (13)
1 + (1 − λ)σZ2 s+h
Using (11), (12) and (13) in (10), it follows that
Z 1 " #
1 1
1 σZ2 s σZ2 s+h
γF (h) = udCF,h u λ , u 1−λ − +
0 2 1 + λσZ2 s 1 + (1 − λ)σZ2 s+h
where µ = E(Z(x + h)) = E(Z(x)), Ch (., .) being the jointed copula function which de-
scribes the dependence structure between two remote sites of h.
The following figure provide a representation of the joint copula of these two variables.
O. Fabrice, D. Barro, H. Y. Talkibing / Eur. J. Pure Appl. Math, 12 (3) (2019), 1052-1068 1058
Proof. Recall that |a − b| = 2 max(a, b) − (a + b). Using this relation in (14), it’s comes
that f or all h, x ∈ Rd
E (2 max[Z(x + h), Z(x)] − Z(x + h) − Z(x))
M (h) = . (15)
2
Since E(.) is a linear application, the relation (15) gives
E (2 max[Z(x + h), Z(x)]) − E (Z(x + h)) − E (Z(x))
M (h) = .
2
Thus,
M (h) = E (max[Z(x + h), Z(x)]) − µ. (16)
Furthermore,
P (max[Z(x + h), Z(x)] ≤ z) = P (Z(x + h) ≤ z, Z(x) ≤ z) ,
which is equivalent to:
P (max[Z(x + h), Z(x)] ≤ z) = Ch (P (Z(x + h) ≤ z) , P (Z(x) ≤ z))
Thus,
P (max[Z(x + h), Z(x)] ≤ z) = Ch (FZ (z), FZ (z)) ,
so, Z 1
E (max[Z(x + h), Z(x)]) = FZ−1 (u)dCh (u, u).
0
Substituting this expression in the equation (16) and taking into account that z = FZ−1 (u),
we obtain the result: Z 1
M (h) = FZ−1 (u)dCh (u, u) − µ.
0
Which proves the assertion.
O. Fabrice, D. Barro, H. Y. Talkibing / Eur. J. Pure Appl. Math, 12 (3) (2019), 1052-1068 1059
These tools do not take into account the extreme data observed in the different observation
sites. However, the copula function makes it possible to model the extreme data and to
detect any nonlinear link between different observation sites. So, it is necessary to express
the variogram and the covariogram via the copula to allow the model to take into account
the spatial structure even in case of extremes data. The model could also be able to detect
the presence of some nonlinear dependence.
where Z 1Z 1
ĉ(si , sj ) = FZ−1 (u)FZ−1 (v)c(u, v)dudv − mi mj .
0 0
The quantity mi being the mean of Z(si ); c(u, v) the copula density function attached to
Z(si ) and Z(sj ).
Proof. By definition, the correlogram of a random field in two observation sites is given
by:
ĉ(si , sj ) 1
ρ(si , sj ) = = × ĉ(si , sj ).
σZ (si )σZ (sj ) σZ (si )σZ (sj )
Using the result of precedent theorem (theorem 3), we get (20).
Previous relationships can be written differently. The following result gives a rela-
tionship between the covariogram and the copula function in second-order stationarity
case.
Similarly, under the assumption of second-order stationaity, the correlogram and the
variogram are expressed as a function af the copula by the relation,
Proposition 2. Assuming that hij = si − sj is the average distance and using the relation
(21), then, the correlogram is such as
Z 1 Z 1 −1
FZ (u)FZ−1 (v) µ2
ρ(hij ) = chij (u, v)dudv − . (22)
0 0 ĉ(0Rd ) ĉ(0Rd )
and Z
1Z 1
ϑ(hij ) = 2 ĉ(0Rd ) + µ − 2
FZ−1 (u)FZ−1 (v)chij (u, v)dudv . (23)
0 0
O. Fabrice, D. Barro, H. Y. Talkibing / Eur. J. Pure Appl. Math, 12 (3) (2019), 1052-1068 1062
Proof. Under the hypothesis of two order stationary and using the relation (21), the
result of theorem (Theorem 3) gives the result (22) and (23).
Proposition 3. The relationship between the variogram and the covariogram is such
than,
1
ĉ(hij ) = ĉ(0Rd ) − ϑ(hij ).
2
Proof. Let us consider the relations (21) and (23). It is known that:
Z 1Z 1
ĉ(si , sj ) = ĉ(hij ) = FZ−1 (u)FZ−1 (v)chij (u, v)dudv − µ2 ,
0 0
and Z
1Z 1
ϑ(hij ) = 2 ĉ(0Rd ) + µ − 2
FZ−1 (u)FZ−1 (v)chij (u, v)dudv .
0 0
Adding the two relations above, we get:
So
1
ĉ(hij ) = ĉ(0Rd ) − ϑ(hij ).
2
Theorem 4. Let Z(.) An intrinsic random field without drift. It follows that the covari-
ance is such that
Z 1Z 1
ĉ(si , sj ) = ĉ(hij ) = FZ−1 (u)FZ−1 (v)chij (u, v)dudv − µ2 , (25)
0 0
Where µ denote the mean, ĉ(0Rd ) the variance and chij (u, v) the density copula function.
Proof. By considering again the relation (24) we obtain:
1
γ(h) = E [Z(x + h) − Z(x)]2 . (26)
2
Now, it comes that
E [Z(x + h) − Z(x)]2 = E([Z(x + h)]2 ) − 2E(Z(x + h)Z(x)) + E([Z(x)]2 ).
Furthermore, we have,
Z 1Z 1
E [Z(x + h) − Z(x)] 2
= 2ĉ(0Rd ) + 2µ + −2 2
FZ−1 (u)FZ−1 (v)chij (u, v)dudv.
0 0
The variogram expression is similar in the intrinsic and second-order case, we deduce that
the covariance and correlogram expressions remain unchanged.
and
1
ĉ(hij ) = ĉ(0Rd ) − ϑ(hij ).
2
O. Fabrice, D. Barro, H. Y. Talkibing / Eur. J. Pure Appl. Math, 12 (3) (2019), 1052-1068 1064
· Bessel modified
model
1 k hij k α khij k
γ(k hij k) = ĉ 1 − α−1 ( ) Kα ( a )
2 Γ(α) a
characterized by sill ĉ, scale factor a and parameter α, and
1 with α > 0
Γ being thefunction of Euler interpolating the factorial K(α) .
1 u 1 u
π Σ∞ k=0 ( )2k−α − Σ∞ k=0 ( )2k+α
k!Γ(−α + k + 1) 2 k!Γ(α + k + 1) 2
Kα (u) =
2 sin(απ)
· The Bessel Jmodel
k hij k −α k hij k
γ(k hij k) = ĉ 1 − ( ) Γ(α + 1)Jα ( ) ;
2a a
· α = −1/2 for cosine model
2 characterized by sill ĉ, scale factor a and parameter α, and
· α = 1/2 for sinus model
Jα being the Bessel function of the first kind of order α,
u (−1)k u
Jα (u) = ( )α Σ∞ k=0 ( )2k ..
2 k!Γ(α + k + 1) 2
· Polynomial Models
with a scope and threshold ĉ
35 ij k
kh 35 khij k3 7 k hij k5 25 khij k7
3 ĉ 12 a − 3 + − 7 pour 0 6k hij k6 a on Rd for d 6 3
γ(k hij k)= 8 a 2 a5 24 a
ĉ pour k hij k> a
· An other Polynomial
Models with a scope and threshold ĉ
k h k k h k 3 k h k 5
5 ij 5 ij ij
4 ĉ − + pour 0 6k hij k6 a
γ(k hij k) = 2 a 2 a3 a5
ĉ pour k hij k> a
4. Conclusion
The results of the study provides important characterizations of the variogram, the
correlogram in a copula framework. Especially, they show on one hand that these tools are
limited when data includes extremes values, in an other hand, that they have a copulawise
extension, allowing the copula to model the data in the spatial context. Moreover, the
study provides tools to analyze data and perform a comparative study with existing tools.
References
[11] Sklar, A.(1973). Random variables, joint distribution functions, and copu-
las.Kybernetika, 9(6),449-460.9
[12] Schmitz, V. (2003). Copulas and Stochastic Processes, Aachen University, PhD dis-
sertation
[15] P.J.Diggle & P.J.Ribeiro Jr. Model-based Geostatistics. Springer Series in Statistics,
Springer Science and Business Media, LLC, Springer. New York. (2007).
[16] C. Dombry Théorie spatiale des extrêmes et propriétés des processus max-
stables. Document de synthèse en vue de l’habilitation à diriger des recherches,
Université de Poitiers, UFR Sciences Fondamentales et Appliquées. Novembre (2012).
[17] R.A. Fisher & L.H.C. Tippett. Limiting Forms of the Frequency of the Largest or
Smallest Member of a Sample. Proceedings of the Cambridge Philosophical Society,
24.(1928). 180-190.
[18] C. Fonseca, L. Pereira, H. Ferreira & A.P. Martins. Generalized Madogram and Pair-
wise Dependence of Maxima over two Regions of a Random Fiel. arXiv: 1104.2637v2
[math.ST] 24 Jan 2012. (2012).
[19] A.L. Fougères & P. Soulier. Limit Conditional Distributions for Bivariate Vectors
with Polar Representation. Stochastic Models, 26(1). (2010). 54-77.
[21] Beirlant, J., Goegebeur, Y., Segers, J., and Teugels, J. (2005). Statistics of Extremes:
theory and application -Wiley, Chichester, England.
[23] Degen M. (2006). On Multivariate Generalised Pareto Distributions and High Risk
Scenarios - thesis, Department of Mathematics, ETH Zürich.
[25] Diakarya Barro, Moumouni Diallo, and Remi Guillaume Bagré “Spatial Tail De-
pendence and Survival Stability in a Class of Archimedean Copulas,” Inter. J. of
Mathematics and Mathematical Sciences, vol. 2016, Article ID 8927248, 8 pages,
2016. doi:10.1155/2016/8927248
[26] Ferreira, H. and Ferreira,M. (2012) Fragility Index of block tailed vectors. ScienceDi-
rect. ELsevier vol. 142 (7), 1837–1848 http ://dx.doi.org/10.1016/j.bbr.2011.03.031
[28] Husler, J., Reiss, R.-D.(1989). Extreme value theory - Proceedings of a conference held
in Oberwolfach, Dec. 6-12,1987. Springer, Berlin etc. Lenz, H.
[30] Kotz, S., Nadarajah, S. (2000). Extreme Value Distributions, Theory and Applica-
tions - Imperial College Press - [48] S. Lang , Linear Algebra
[31] Michel, R.(2006). Simulation and Estimation in Multivariate Generalized Pareto Dis-
tributions- Dissertation, Fakultät für Mathematik, Universität Würzburg, Würzburg.
[32] Nelsen, R.B. (1999). An Introduction to copulas- Lectures notes in Statistics 139,
Springer-Verlag
[33] Resnick, S.I. (1987). Extreme Values, Regular Variation and Point Processes-
Springer-Verlag.
[34] Schmitz, V. (2003). Copulas and Stochastic Processes, Aachen University, PhD dis-
sertation
[35] Tajvidi, N. (1996a)- Confidence Intervals and Accuracy Estimation for Heavy-tailed
Generalized Pareto Distribution- Thesis article, Chalmers University of Technology.
http://www.maths.lth.se/matstat/staff/∼nader/.
3.5 Modélisation géostatistique par les copules
3.5.3 Commentaires
Cet article nous a permis de partir des outils de dépendance stochastique tels que
les copules statistiques pour modéliser les outils techniques de la géostatistique. Plus
spécifiquement, dans ce papier la relation entre la distribution conjointe associée au ma-
dogramme est utilisée pour modéliser cette dernière par la copule qui permet la paramétri-
sation canonique de cette dernière. Il est de même pour la caractérisation du variogramme
et du corrélogramme. En effet dans une situation de valeurs extrêmes, l’utilisation des ces
outils comporte des limites
Conclusion
Dans ce travail, nous avons proposé des caractérisations très importantes des outils
géostatistiques pour l’étude de la variabilité spatiale des champs aléatoires. Nous avons
présenté quelques méthodes geostatistiques existantes et les outils techniques d’estima-
tion puis quelques notions des copules ayant servi à introduire des nouveaux outils géo-
statistiques tels que le variogramme et le corrélogramme très utiles dans la modélisation
stochastique spatiale des phénomènes des maladies infectieuses émergentes. Les résultats
montrent d’une part que ces outils sont limités lorsque les données comprennent des va-
leurs extrêmes, d’autre part qu’ils ont une structure permettant à la copule de modéliser
les données dans le contexte spatial. De plus, l’étude fournit des outils pour analyser les
données et réaliser une étude comparative avec les outils existants.
110
Conclusion générale
L’émergence des maladies infectieuses apparait de plus en plus comme un risque mani-
feste pour le développement d’un pays. Cette menace, qui est devenue réalité ces dernières
années lors de la propagation de l’eboola, de la grippe A et du coronavuris, contribue à
une prise de conscience générale sur la vulnérabilité du système de santé et sur la nécessité
de quantifier sa capacité à affronter toute crise.
Cette thèse avait pour objectif d’apporter des éléments de réponse essentiellement à la
modélisation stochastique en épidémiologie : comment contrôler le début d’une épidémie
dans une population supposée non fermée, quels sont les paramètres permettant l’explo-
sion d’une épidémie et comment évaluer l’influence d’une région épidémique sur une autre ?
Après avoir rappelé quelques notions des processus stochastiques et leur grande famille,
des concepts de l’épidémiologie et des maladies émergentes, puis des modèles stochastiques
existant en épidémiologie, nous avons proposé des nouvelles approches stochastiques per-
mettant l’analyse temporelle et spatiale de la dynamique de la propagation des maladies
infectieuses émergentes. Le modèle épidémiologique compartimental SEIRS stochastique
proposé intègre une période de latente correspondant au fonctionnement de certaines ma-
ladies, une perte d’immunité après un certains temps et des taux d’immigration et de
mortalité supposés non constants. Ce modèle basé sur les processus de naissance et de
mort de type markovien est capable de prédire correctement la propagation des certaines
maladies infectieuses émergentes dans un environnement aléatoire et peut aussi être uti-
lisé pour tester l’efficacité d’un vaccin. De plus, du point de vue spatiale, nous avons
introduit des nouveaux outils geostatistiques basés sur la fonction copules pour quantifier
la dépendance spatiale de la propagation des maladies. Il est aussi à noter que ces outils
sont limités dés lors que nos données contiennent des valeurs extrêmes.
Nos travaux ouvrent des perspectives très intéressantes et variées qui feront l’objet
de nos prochaines publications à court, moyen et longues termes. En effet, nous serons
intéressés par l’application de nos différents outils aux données réelles et à d’autres aspects
de la modélisation en épidémiologie. Par ailleurs un problème fort intéressant tant du
point de vue pratique que du point de vue théorique pourrait consister à développer des
packages du logiciel R pour les simulations de ces outils.
111
Bibliographie
[1] A.C.Davison et R.L Smith.« Models for exceedancy over High Thresholds ».Journal
of the Royal Statistical Society Séries B 52.(1990) 393-442.
[2] Alain-Jacques Valleron L’épidémiologie humaine Conditions de son développement
en France, et rôle des mathématiques.», 17, avenue du Hoggar Parc d’activités de
Courtaboeuf, BP 112 91944 Les Ulis Cedex A, France.
[3] Anderson RM.,May RM.(1979).Population biology of infectious diseases : Part I.»
Nature, 280 (5721) : 361-7.
[4] Andersson H., Britton T.(2000).Stochastic epidemics and their statisitcal analysis.»
Springer-Verlag, New York.
[5] Bailey N. (1975). The Mathematical Theory of Infectious Diseases.» Griffinn, London.
[6] Barro, D Contribution à la modélisation statistique des valeurs extrêmes multiva-
riées». Thèse de l’Université de Ouagadougou. Décembre 2010.
[7] Barro, D. (2012).« Geostatistical Analysis with Conditional Extremal Copulas, Inter-
national Journal of Statistics and Probability» ; Vol. 1 No.2, 2012. ISSN 1927-7032
E-ISSN 1927-7040.
[8] Bordossy, A. (2006). « Copula based geostatistical models for groundwater quality
parameters.» Water Resources Research 42.
[9] Bouleau, N., «Processus Stochastiques et Applications», Hermann, 1988.
[10] Bouy E.(2002) «Multivariate Extremes at Work for Portfolio Risk Measurement».
Warwick Business School Working Paper Series, WP01-10.
[11] Carrat F.,Valleron AJ.(1992). Epidemiologic mapping using the kriging method : ap-
plication to an influenza-like illness epidemic in France ». Am J Epidemiol, 135 :
1293-1300.
[12] Cooley D. Poncet P. and P. Naveau (2006). «Variograms for max-stable random
.elds. In Dependence in 8 Probability and Statistics.» Lecture Notes in Statistics 187
373.390. Springer, New York.
[13] Cox D.R. et Muller H.D. The theory of stochastic processes », Chapman and Hall.
London (1965)
[14] Dominique Foata et Aimé Fuchs Processus stochastiques, Processus de Pois-
son,chaînes de Markov et martingales ». 2e édition, 1998, DUNOD, ISBN 210 048850
3
[15] Doob J L (1942). What is a stochastic process ?». The American Mathematical
Monthly, 49, pp. 648–653.
[16] Douglas H, Peter P (2006). Stochastic Differential Equations in Science and Engi-
neering». World Scientific Publishing. ISBN 981-256-296-6.
112
BIBLIOGRAPHIE
[17] Fabio Gobbi, Silvia Romagnoli, Sabrina Mulinacci, Umberto Cherubini,« Dynamic
Copula Methods in Finance», ISBN-10 : 0470683074, Wiley, 1 (November 21, 2011)
[18] Foata, D., Fuchs, A.Processus stochastiques», Dunod, Paris, 2004,
[19] Freedman, D. A. Markov Chains», Springer-Verlag, New York, 1983,.
[20] Håkan Andersson, Tom Britton « Stochastic Epidemic Models and Their Statis-
tical Analysis, Volume 151 of Lecture Notes in Statistics » January 2000 DOI :
10.1007/978-1-4612-1158-7 Publisher : Springer-Verlag
[21] Hans Wackernagel «Multivariate Geostatistics, An Introduction With Applications,
Second», Completely Revised Edition : Springer, Berlin, 1998, 291 pp., ISBN 3-540-
64721-X, DM 89.00.
[22] Hélène Fagherazzi-Pagel. Maladies émergentes et réémergentes chez l’homme :
concepts, facteurs d’émergence, alertes, riposte et coopération mondiale». [Rapport
de recherche] Institut de l’information Scientifique et Technique (INIST-CNRS) .2008
,7 2p. ,tableaux .hal-01456817.
[23] Gordon P, Théorie des chaines de Markov finies et ses applications.» Dunod. Paris,
(1965).
[24] Jean Blancou, Bruno B. Chomel, Albino Belotto, François Xavier Meslin Emer-
ging or re-emerging bacterial zoonoses : factors of emergence, surveillance and
control». Vet. Res. 36 (2005) 507–522 507 c INRA, EDP Sciences, 2005, DOI :
10.1051/vetres :2005008
[25] Kermack WO., McKendrick AG. (1933). Contributions to the mathematical theory of
epidemics-III. Further studies of the problem of endemicity.» Proc Roy Soc Lond A,
141 : 94-122.
[26] Lo, G.S.(2016). Weak Convergence (IA). Sequences of random vectors». SPAS Books
Series. Saint-Louis, Senegal-Calgary, Canada. Doi : 10.16929/sbs/2016.0001. Arxiv :
1610.05415. ISBN : 978-2-9559183-1-9.
[27] Lo,G.S.(2017) Measure Theory and Integration By and For the Lear-
ner». SPAS Books Series. Saint-Louis, Senegal-Calgary,Canada.Doi :
http ://dx.doi.org/10.16929/sbs/2016.0005, ISBN : 978-2-9559183-5-7.
[28] Lo, G.S.(2018). Mathematical Foundation of Probability Theory».
SPAS Books Series. Saint-Louis, Senegal-Calgary, Canada.Doi :
http ://dx.doi.org/10.16929/sbs/2016.0008. Arxiv : arxiv.org/pdf/1808.01713
[29] LO G.S.(2018). A simple proof of the theorem of Sklar. Journal of Ma-
thematical Facts and Short Papers». Volume 1(1), pp 19- 23. Doi :
http ://dx.doi.org/10.16929/jmfsp/19.003
[30] MATHERON, G., ROTH, C., AND DE FOUQUET, C. Modelisation et cokrigeage
de la charge et de la transmissivite avec conditions aux limites a distance finie.»In
Cahiers de Geostatistique (Fontainebleau, 1993), vol.3, École des Mines de Paris, pp
61-76.
[31] Mollison D., Isham V. et al. (1994). Epidemics : models and data.» J R Stat Soc Ser
A Stat Soc, 157 (1) : 115-49.
[32] Nelsen, R.B. (1999). «An Introduction to copulas- Lectures notes in Statistics 139»,
Springer-Verlag (ISBN 10 : 0387986235, ISBN 13 : 9780387986234 )
[33] O’Neill P., Balding D. et al. (2000). Analysis of infectious disease data from household
outbreaks by Markov chain Monte Carlo methods». Applied Statistics, 49 : 517-542.
113
BIBLIOGRAPHIE
114
BIBLIOGRAPHIE
[53] YOUNSI F. Z. Mise en place d’un système d’information décisionnel pour le suivi et
la prévention des épidémies». Thèse de l’Université d’Oran. 2015/2016.
[54] WACKERNAGEL, H., WEBSTER, R., AND OLIVER, M. A. « A geostatistical
method for segmenting multivariate sequences of soil data ».In Classification and
Related Methods and Data Analysis (Amsterdam, 1988), H. H. Bock, Ed., Elsevier
(North-Holland), pp.641.-Q50.
[55] WACKERNAGEL, H. «Geostatistical techniques for interpreting multivariate spa-
tial information». In Quantitative Analysis and Mineral and Energy Resources (Dor-
drecht, 1988), C. F. Chung, Ed., vol. C-223 of NATO ASI Series, Reidel, pp. 393-409.
[56] W.E. Ricker. «Handbook of computation for biological statistics of fish populations.»
Bulletin 119 of the Fisheries Resource Board, Canada, Ottawa (1958).
[57] Xavier Guyon, Carlo Gaetan «Modélisation et statistique spatiales », Comité de Lec-
ture 2008–2011/Editorial Board 2008–2011, 7 juin 2008
[58] Valleron AJ. (2000). The roles for modeling in epidemiology». C. R. Acad. Sci. III,323
(5) : 429-33.
115
Annexes
Lorsque les observations sont unidimensionnelles, la loi des valeurs extrêmes est com-
plètement définie par trois paramétres réels. Les résultats univariés sont plus complets et
sont directement exploitables. Il faut distinguer principalement deux approches dans la
modélisation des extrêmes univariés : l’approche des maxima et l’approche de renouvelle-
ment ou de dépassement d’un seuil.
Deux statistiques d’ordre sont particulièrement intéressantes dans l’étude des valeurs
extrêmes. Il s’agit de la plus grande statistique d’ordre
116
maximum.
Remarque 1.1 Par construction, les statistiques d’ordre ne sont pas indépendantes
même si les variables Xi sont i.i.d.
Remarquons que les expressions ci-dessus de FMn et FWn peuvent s’obtenir très faci-
lement en considérant d’autres relations 2 .
En considérant quelques exemples lorsque la fonction F est la loi normale standard,
les figures suivantes montrent comment évolue la statistique d’ordre du maximum lorsque
n’évolue.
117
où Φ est la fonction de répartition de la loi normale standard
P N (0, 1) et X̄n , la
Xi
1≤ i ≤ n
variable d’échantillonnage de la moyenne définie par X̄n = n
.
Parallèlement au théorème central limite, on peut se poser la question naturelle sui-
vante, pour la statistique du maximum : peut-on trouver des suites de normalisation
{σn > 0} et {µn ∈ R} et une loi non-dégénérée de distribution G telles que
Mn − µn loi
−→ G i.e lim P (Mn ≤ σn x + µn ) = G (x) (3.5.2)
σn n−→+∞ n−→+∞
Si la relation (3.5.2) est vérifiée, on dit que la variable correspondante est max-stable.
Théorème 3.5.1. Théorème 1.1 (Fisher-Tippett) Soit (Xi , i ≥ 1) une suite de va-
riables aléatoires i.i.d. S’il existe des suites de normalisation {σn > 0} et {µn ∈ R} et
une distribution non-dégénérée G vérifiant la relation (3.5.2), alors G est de la forme
suivante :
x−µ
Gumbel, Λ(x) = exp − exp − ;x∈R
σ
( −1/ξ )
x−µ
exp − 1 + ξ
,x > 0
Fréchet, Φξ (x) =
σ
+
0 si x ≤ 0
(3.5.3)
1
x−µ
ξ
exp − − ; x≤µ
Weibull, Ψξ (x) =
σ
+
si x ≥ µ
1
Remarque 3.5.1. Les trois types de distributions de valeurs extrêmes sont différents
d’un point de vue modélisation. Cependant, chacune peut s’obtenir par une transformation
fonctionnelle de l’autre. Plus précisément si X > 0 est une variable aléatoire, on vérifie
aisément les relations suivantes :
−1
X Φθ ⇐⇒ ln X θ Λ ⇐⇒ Ψθ . (3.5.4)
X
Dans le résultat suivant (voir [19]) fait le lien entre une loi extrême et une max-stable.
Les trois types extrêmes ont des comportements asymptotiques différents. En effet,
la densité de probabilité décroit exponentiellement pour la distribution de Gumbel et
118
polynomialement pour celle de Fréchet. Par conséquent, il n’est pas commode de travailler
avec les trois types en même temps dans la modélisation des phénomènes extrêmes. Pour
ce faire, Von Mises en 1954 et Jenkinson en 1955 proposent une famille paramétrique, la
distribution Généralisée des Valeurs Extrêmes (GVE), qui permet d’unifier les trois types
extrêmes d’après le résultat suivant (voir [10]).
Remarquons que les paramètres µ et σ sont en fait les limites des suites normalisantes
{σn > 0} et {µn ∈ R}. On vérifie aisément que la forme généralisée de la fonction densité
de probabilité correspondante est définie sur le même domaine, pour tout x ∈ R par
− 1+ξ −1
1 x−µ x−µ
ξ ξ
gµ,σ,ξ (x) = 1+ξ exp − 1 + ξ .
σ σ σ
Le paramètre de forme ξ ou indice des valeurs extrêmes donne, à travers ses différentes
valeurs possibles, une grande flexibilité à la distribution GVE, lui permettant ainsi de
décrire les trois types de comportements asymptotiques représentés par les distributions
extrêmes. En effet :
Si ξ = 0, alors Gµ,σ,0 (x) = Λ(x), loi de Gumbel
119
Figure 3.8 – Densité de la distribution des valeurs extrêmes et la fonction de répartition
Supposons par simplicité que la loi X1 possède la densité f > 0. Alors, la loi de Mn
possède la densité nF (x)n−1 f (x) d’après la proposition 1.1. On a donc
x − µn
h i Z
In = E g σn−1 (Mn − µn ) = g nF (x)n−1 f (x) dx
R σn
Comme f > 0, la fonction F est inversible et d’inverse connue. On pose pour t > 1
1
−1
U (t) = F 1− .
t
120
En particulier, on a
1 1
U (t) = x ⇐⇒ 1 − = F (x) ⇐⇒ P (X > x) = .
t t
On effectue le changement de variable
v n
F (x) = 1 − , i.e x = U .
n v
On obtient
n
Z U v
− µn
v
n−1
In = g 1− 1]0,n] (v) dv.
R σn n
v n−1
Remarquons que 1 − 1]0,n] (v) converge en croissant vers e−v 1{v>0} . Comme
n
par hypothèse In converge pour tout g, il est naturel, mais erroné à priori, de penser que
pour tout v > 0, la suite de terme
n
U − µn
Jn (v) = v
σn
converge.
Supposons malgré tout que cette convergence ait lieu. On déduit en considérant
1
Jn − Jn (1) que pour tout w > 0,
w
U (wn) − U (n)
−→ h (w) .
σn n−→+∞
Comme la variable W est non triviale cela implique que la fonction h n’est pas égale à
une constante. Comme la fonction U est croissante, la fonction h est également croissante.
Supposons que plus généralement, on ait pour tout w > 0,
U (wx) − U (x)
−→ h (w) ,
σ (x) x→+∞
σ (xw1 )
En faisant tendre x vers l’infini dans l’égalité ci-dessus, on obtient que converge
σ (xw1 )
pour tout w1 > 0. En notant l (w1 ) la limite, il vient que
121
Ainsi, pour tous w, w0 > 0, on a
En particulier, on a
h (w1 ) 1 − w2ξ = h (w2 ) 1 − w1ξ .
h (w)
Cela implique que h (w) = 0 si w = 1, et sinon ξ
est constant.
1 − w
Par conséquent, on obtient h (w) = c wξ − 1 . À un changement d’échelle prés, on
peut choisir c = 1ξ et à une translation prés, on peut choisir U (n) = bn .
En définitive, il vient que
v −ξ − 1
n
U v
− µn 1
si ξ 6= 0
lim =h = ξ
n−→+∞ σn v
− log (v) si ξ = 0
v −ξ − 1 −v
Z ! Z
−1/ξ
lim In = g e 1{v>0} dv = g (y) 1{1+ξy>0} d e−(1+ξy) ,
n−→+∞ ξ
v −ξ − 1
où on a posé y = si ξ 6= 0 et y = log (v) si ξ = 0.
ξ
−1/ξ
Ainsi, la distribution de la loi limite est Hξ (x) = e−(1+ξx) . C’est la forme standard
de la distribution définie plus loin par la relation (1.10)
122
Annexe 2 : Éléments de files d’attentes
Une file d’attente ou queue est un regroupement d’individus attendant d’une manière
organisée quelque chose dans un service ou dans une administration. La file d’attente
résulte d’une demande supérieure à la capacité d’écoulement d’une offre (bien ou service).
La théorie des files d’attente est la sous-branche des probabilités qui étudie les solu-
tions optimales de gestions de files d’attente. En particulier, la file d’attente s’applique à
différentes situations :
• Trafic aérien : atterrissage et décollage des avions ;
• Télécommunications : gestion des appels entrants et sortant d’un standard ;
• Guichetière : SONABEL, ONEA, Clinique sanitaire, hôpital ;
• Informatique : Stockages des programmes informatiques avant leur traitement.
La famille des files d’attentes fait partie des processus stochastiques utilisés dans la
modélisation en épidémiologie, objet du présent travail. Aussi, avons-nous jugé nécessaire
d’ajouter des éléments de files d’attente avant d’en présenter les particularités des types
usuels en fonction de leurs classification.
123
La durée moyenne de service est notée 1/µ où µ est le taux de service.
Remarque 3.5.3. Cependant, il faut souligner que certains services ne se servent pas de
cette règle. C’est le cas, par exemple, dans les :
• Salles d’urgence des hôpitaux (où il existe trois niveaux d’intervention avec priorité
pour les cas graves) ;
• Usines : priorité pour les commandes urgentes ;
• Ordinateurs : par importances des paquets.
124
Différents sigles des disciplines Exemple
FIFO (First in First Out)
ou PAPS (premier arrivé, premier servi) Banques, restaurants, ...
LIFO (Last in First Out)
ou DAPS (dernier arrivé, premier servi) Les stocks et leurs valorisations.
SIRO (Service in Random Order)
ou Ordre aléatoire Réseau routier
PRI (Priority ordery) (par priorité) Hopital (urgences), usines
G.O (General Order)
125
Exemple 3.5.1. Quelques exemples classiques
• M/M/1 fait référence au modèle de base : arrivées poissonniennes, service exponentiel,
un seul serveur, Capacité infinie, ou file d’attente non bornée.
• M/D/2/9 indique des arrivées poissonnienne, deux services de durées constantes, un
nombre maximal de 7 personnes dans la file.
dPn (t)
(λt)n e−λt
= −λPn (t) + λPn−1 (t)
⇐⇒ Pn (t) = − ).
dt n!
dP0 (t) i.e X (t)
= −λP0 (t) P (λt)
dt
Propriété 3.5.1. La distribution des arrivées d’une file du type M/M/1 est une loi de
(λt)n e−λt
Poisson de paramètre λt c’est à dire que : Pn (t) = − .
n!
126
1.2 La distribution des inter-arrivées
Soit T, la variable aléatoire représentant le temps qui s’écoule entre deux arrivées
consécutives. Les deux événements suivants sont équivalents
(µt)N −m e−µt
si 1 < m < N
(N − m)!
Pm (t) = (3.5.7)
(µt)N −j
lim∞ N −m
1− m=1 e sim = 0.
(N − j)!
Propriété 3.5.2. Dans une file d’attente M/M/1 en régime permanent, les processus de
départ suivent une loi de Poisson tronquée en N (au lieu de ∞).
127
En fait l’événement {V > v} signifie qu’il n’y a pas de départ dans l’intervalle [0, v]
−µv
avec PN (V > v) = e (
−µv −µv µe−µv si v > 0
Par suite, 1 − F (v) = e =⇒ F (v) = 1 − e et donc f (v) = ,
0 sinon
densité exponentielle de paramètre µ.
128
2.2 Longueur de la file
Il s’agit du nombre de personnes dans la queue. Le nombre moyen de clients noté
E(Ls ).
Proposition 3.5.2.
h En régime permanent, i la longueur moyenne du système est donnée
N N +1
ρ 1 − (N + 1) ρ + N ρ
par E(Ls ) = où ρ est l’intensité du trafic.
(ρ − 1) (1 − ρN +1 )
Remarque 3.5.4. .
1) P0 est la probabilité que le système soit vide ;
2) PN la probabilité que le système soit pleine ;
3) 1 − PN : la probabilité que le système ne soit pas pleine : TS = T f + V E (NS ) =
E (Nf ) + λef f =⇒ E (Nf ) = µλ(1−Pµ
N)
.
Mesures de performance h
Équations i
ρ 1 − (N + 1) ρN + N ρN +1
Nombre moyen de clients système E (Ls ) =
(ρ − 1) (1 − ρN +1 )
λ2
Nombre moyen de clients E (Lq ) = L̄q =
µ (µ − λ)
ρ 1 − (N + 1) ρ + N ρN +1
N
1 − ρN +1
Temps moyen d’attente système E (Ts ) = × ×
ρ−1 1 − ρN +1 µ (ρ − ρN +1 )
λ
Temps moyen d’attente file E (Tq ) =
µ (µ − λ)
Probabilité système soit vide P0 = 1 − ρ
Probabilité n clients système Pn = ρn P0 = (1 − ρ) ρn
3. Quelques comparaisons
3.1 Tableau comparatif des files M/M/1 et M/M/c
Le tableau suivant permet de comparer les deux systèmes :
129
Mesures de performance File M/M/1 File M/M/c !
ρ λ Pa
Nombre moyen de clients système E (Ls ) = = E (Ls ) = ρ 1 +
1−ρ µ−λ c−ρ
λ2 ρP a
Nombre moyen de clients file E (Lq ) = E (Lq ) =
µ (µ − λ) c−ρ
Nombre moyen au guichet ρ ρ !
1 1 1 1 Pa
Temps moyen d’attente système E (Ts ) = = E (Ts ) = 1+
µ1−ρ 1−λ µ c−ρ
λ Pa
Temps moyen d’attente file E (Tq ) = E (Tq ) =
µ (µ − λ) µ (c − ρ)
1
Probabilité système vide P0 = 1 − ρ P0 = ρ n
ρc
Pc−1
n=0
+
n! c! 1 − ρ
c
Probabilité n clients dans système Pn = ρn P0 = (1 − ρ) ρn Pn = ρn P0 = (1 − ρ) ρn
Probabilité d’attente ou P0 ρ c
Pa = ρ Pa =
Taux d’utilisation du serveur (c − 1)! (c − ρ)
Table 3.6 – Tableau de liens entre les paramètres de performance des files M/M/C et
M/M/C/N.
Annexe 3 : Codes R
Dans cette section, nous présentons quelques codes de nos images.
130
################################
#---------------------------------------
#Fonction de covariances
#---------------------------------------
#Famille des Covariances
#-----------------------------
library(SpatialExtremes)
r <- seq(0, 7, 0.1)
covariance(nugget=1,sill=1,range=3,smooth=1, cov.mod="whitmat",col=1,ylim=c(0, 1))
covariance(nugget=1,sill=1,range=3,smooth=1,cov.mod="powexp",add=T,col =4)
lines(r, expcov(r, d=0.7), col=5)
lines(r, gaucov(r,d=1,.3), col=6)
legend("topright",c("Whittle-Matern","Puissance","Exponentielle","Gauss"),lty = 1:4,
col = 1:4, inset=.05)
#---------------------------------------
#Variogramme
#-----------------------------
#1.Variogramme empirique
#------------------------------------
vario.c = variog(geodata, op="cloud")
plot(vario.c, main = "Nuée variographique",pch=’+’)
vario.b = variog(geodata)
plot(vario.b, main = "Variogramme empirique")
#---------------------------------------
#Théorie des valeurs extrêmes
#---------------------------------------
#Fonction de répartition et densité de probabilité
#-----------------------------
library(evd)
par(mfrow=c(1,2))
curve(dgev(x, loc=0, scale=1 ,shape=0), xlim=c(-7,7),ylim=c(0,1),
main="Densité de probabilité",xlab="Observations",yla="")
curve(dgev(x, loc=0, scale=1, shape=1 ),add=T, col= "red")
curve(dgev(x, loc=0, scale=1, shape=-1 ),add=T, col="green")
legend("topleft",c("Gumbel","Fréchet","Weibull"),col=c(1,"red","green"),lty=1)
curve(pgev(x, loc=0, scale=1 ,shape=0), xlim=c(-7,7),ylim=c(0,1),
main="Fonction de répartition",xlab="Observations",yla="")
curve(pgev(x, loc=0, scale=1, shape=1 ),add=T, col="red")
curve(pgev(x, loc=0, scale=1, shape=-1 ),add=T, col="green")
legend("topleft",c("Gumbel","Fréchet","Weibull"),col=c(1,"red","green"),lty=1)
131
UNIVERSITE JOSEPH KI-ZERBO
---------------
École Doctorale
Sciences et Technologie
---------------
Laboratoire d’Analyse Numérique,
d’Informatique et de BIOmathématiques
L.A.N.I.BIO
N° d’ordre ...................
Thèse Présentée
Par Fabrice OUOBA
Pour l’obtention du grade de
TITRE DE LA THÈSE
Contribution à la modélisation géostatistique avec des
applications minières et modèles SEIRS.
Soutenue publiquement le 27 novembre 2020
Président : M. Gane Samb LO, Professeur Titulaire, Université Gaston Berger, Sénégal
(Rapporteur Externe) ;
Introduction générale 1
i
TABLE DES MATIÈRES
Annexe 141
Annexe 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
Annexe 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
Annexe 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
ii
Table des figures
iii
TABLE DES FIGURES
iv
Liste des tableaux
v
Liste des enseignants
Le Directeur du LANIBIO
i
Dédicace
A
Ma très chère mère Marie Ouango.
ii
Remerciements
C’est un réel plaisir pour moi de pouvoir remercier ici les personnes qui m’ont soutenu
et guidé, de près ou de loin, tout au long des travaux de la présente thèse.
Messieurs les professeurs Gane Samb LO, Pierre Clovis S. NITIEMA et Bisso SA-
LEY ont accepté d’être rapporteurs de cette thèse. Je les remercie pour la disponibilité et
le soin avec lequel ils ont examiné ce travail et pour l’intérêt qu’ils lui ont porté. La qualité
de leurs amendements m’a permis d’améliorer très significativement la valeur scientifique
de ce travail.
Je n’oublie pas mon frère jumeau de thèse, Hay Yoba Talkibing, pour ses coups de
main dans l’utilisation du logiciel R et aussi pour ses conseils.
Je ne saurai terminer sans remercier très sincèrement ma famille : mon papa Grégoire
OUOBA et ma maman Marie Jeanne OUANGO, mes amis, et plus particulièrement mon
frère de sang Francis OUOBA et ma conjointe Mme OUOBA née OUEDRAOGO Fadilat,
qui ont su m’encourager et me soutenir tout au long de ce projet.
iii
Résumé et Abstract
Résumé
La problématique de l’utilisation de la géostatistique dans la modélisation des phénomènes
spatiaux est devenue incontournable aujourd’hui dans de nombreux domaines d’applica-
tions. Cette approche d’analyse statistique est d’autant plus incontournable et plus im-
portante que les nouvelles techniques et technologies d’estimation permettent une réelle
révolution dans les domaines tels que le secteur minier. Cette thèse propose une contri-
bution à la modélisation géostatistique avec des applications à des données minières et
une introduction de l’approche stochastique aux modèles SEIRS. C’est ainsi que nous
avons d’abord rappelé les outils géostatistique de base ainsi que les notions fondamen-
tales du cadre minier. Nous avons ensuite utilisé les copules statistiques pour modéliser
la dépendance spatiale et l’estimation des outils techniques d’analyse spatiale tout en
proposant une application de ces résultats à un jeu de donné minier pour la prédiction
de la concentration du cobalt d’une région donnée. Enfin, nous proposons une approche
stochastique du modèle SEIRS en utilisant des processus de naissance et de mort pour
d’écrire la propagation des maladies infectieuses dans un environnement aléatoire et sa
probabilité d’extinction.
Abstract
The issue of using geostatistics in the modeling of spatial phenomena has become es-
sential today in many fields of application. This approach to statistical analysis is all the
more essential and more important as the new techniques and technologies of estimation
iv
LISTE DES TABLEAUX
allow a real revolution in fields such as the mining framework. This thesis proposes a
contribution to geostatistical modeling with applications to mining data and the SEIRS
model. This is how we first recalled the basic geostatistical tools as well as the funda-
mental notions of the mining framework. We then used the statistical copulas to model
the spatial dependence and the estimation of technical spatial analysis tools while propo-
sing an application of these results to a mining data set for the prediction of the cobalt
concentration of a given region. Finally, we propose a stochastic version of the SEIRS
model using birth and death processes to write down the spread of infectious diseases in
a random environment and its probability of extinction.
v
Sigles, Abréviations et Notations
F : fonction de répartition.
VR : variation régulière.
I : intervalle unitaire [0,1].
L : fonction à variation lente.
al. : et autres.
etc : et cetera.
F : fonction de survie associée à la fonction de répartition F.
E(X) : espérance mathématique de la variable aléatoire X.
V(X) : variance de la variable aléatoire X.
|.| : valeur absolue.
R : l’ensemble des nombres réels.
xF : point terminal droit de la fonction de répartition F.
xF : point terminal gauche de F.
Fn : fonction de répartition empirique.
d : convergence en distribution.
POT : peaks-Over-Threshold.
MDA : max-domaine d’attraction.
GPD : generalyzed Pareto distribution (distribution de Pareto généralisée).
min(A) : minimum de l’ensemble A.
max(A) : maximum de l’ensemble A.
p.s : presque sûrement.
v.a : variable aléatoire.
RV (α, a) : ensemble des fonctions à variation régulière de coefficient α au voisinage de a.
i.i.d : indépendantes et identiquement distribués.
GEVD : generalized extreme values distribution (distribution des valeurs
SEIRS : saintes, exposées, infectées, guéries, saintes.
extrêmes généralisée ).
EMV : estimateur du maximum de vraisemblance
Cov(X,Y) : covariance entre les v.a X et Y.
(Ω, A, P ) : espace de probabilité d’espace univers Ω, d’algèbre A et de loi de probabilité P.
c-à-d : c’est-à-dire.
L(.,x) : log-vraisemblance conditionnelle aux données observées x.
F.A : fonction aléatoire.
* : opérateur d’estimation par krigeage ; ainsi Z* est l’estimateur de krigeage de Z.
λi : le poids affecté par le krigeage à la valeur en xi .
µ : le paramètre de Lagrange utilisé dans le krigeage.
vi
LISTE DES TABLEAUX
vii
Introduction générale
1
cultés d’exploitation du minerai d’or [5]. Il faut signaler que cette première période de la
géostatistique revêt deux caractéristiques. Du point de vue pratique, les moyens de calculs
demeurent rudimentaires, aussi les publications abondent-elles en formules d’approxima-
tion, courbes ou abaques, qui progressivement constituent un véritable capital afin d’éviter
aux utilisateurs de reprendre des calculs fastidieux (voir [71]). Sur le plan théorique, on
remarque que les formalismes qui s’élaborent se placent souvent dans le cadre d’une loi de
distribution donnée. En terme de champs d’application, la géostatistique s’étend, outre
l’or, à d’autres produits : uranium, fer, nickel, cuivre, cobalt.
2
les méthodes de simulations en 1980. Sur le plan de la modélisation, on cherche à élargir
les hypothèses de travail. C’est le développement d’une géostatistique non stationnaire
avec l’apparition de formalismes nouveaux tels que simulations conditionnelles ou non,
ensembles aléatoires.
Dans le même ordre d’idée, face à l’augmentation des résistances bactériennes, l’émergence
des nouveaux pathogènes et la propagation rapide de l’épidémie, la surveillance et la
prévention de la transmission de la maladie deviennent, particulièrement, importantes
et indispensables. Malgré une surveillance permanente et continue des maladies infec-
tieuses, il est à constater que leurs étiologies restent encore largement méconnue [72]. Pour
lutter contre ces phénomènes aléatoires, au cours des dernières décennies, des modèles
mathématiques ont été élaborés et mis en œuvre pour étudier la propagation des ma-
ladies infectieuses depuis le début du XXe siècle dans le domaine de l’épidémiologie
mathématique grâce aux travaux de Daniel Bernoulli [73].
3
mathématiques encore plus complexes [39]. Mais ces modèles mathématiques classiques
ne sont pas très efficaces lorsqu’il y a un petit nombre d’épidémies, on fait souvent recours
à des méthodes stochastiques où l’on suit chaque évènement d’infection et de guérison.
Les premiers modèles stochastiques d’épidémie ont été présentés par L. Reed et W,
H.Frost,et Greenwood pour décrire avec precision la propagation des maladies en temps
discret dans une population. Ces modèles développés dans les années 1928 et 1931 sont
basés sur la notion des probabilités et de la statistique. Plus tard, Bartlett a proposé le
modèle stochastique SIR en temps continu qui sert la base des modèles stochastiques. De
nos jours, on rencontre dans la littérature plusieurs travaux tels que Anderson et May,
E. Pardoux, Britton, ... mais beaucoup reste à faire avec l’émergence de certaines des
nouveaux pathogènes.
Malgré ces différentes techniques proposées, les erreurs de prévision géostatistique dans
le domaine minier reste énorme car les teneurs peuvent varier brusquement d’un point
d’échantillonnage à un autre (voir [87]). Comme le krigeage prend en compte la struc-
turation spatiale (le modèle de variogramme) et que les variations brusques des teneurs
affectent le variogramme (voir [14] et [38]), il serait bon, pour minimiser les erreurs de
prédictions, de modéliser ces outils de dépendance spatiale de sorte à tenir comptes des
teneurs extrêmes.
De plus, l’approche déterministe du modèle SEIRS n’est pas trop efficaces lorsqu’il y a un
petit nombre d’épidémies. Il serait mieux, pour tenir compte du caractère aléatoire des
épidémies, de donner une approche stochastique de ce modèle et déterminer sa probabilité
d’extinction. Ce sont ces problématiques qui sou-tendent les travaux de la présente thèse.
4
ractérisation de la distribution de ces phénomènes spatiaux en particulier.
L’introduction des copules dans la modélisation de la dépendance stochastique multivariée
a été motivée par certaines insuffisances de l’outil traditionnel de mesure de dépendance :
le coefficient linéaire de Bravais-Pearson. En effet, il faut noter que cet outil de dépendance
comporte quelques insuffisances dans la pratique :
. les moments d’ordre 2 doivent être finis pour que ce coefficient soit défini,
Par ailleurs, il faut ajouter que la méthode classique de modélisation multivariée admet
généralement des lois marginales identiques ce qui ne permet pas une décomposition de la
loi multivariée en ses distributions marginales univariées et en une fonction de dépendance,
rendant possibles des extensions naturelles de certains résultats obtenus dans le cas uni-
varié.
Un objectif capital de cette thèse est de modéliser les outils de dépendance géostatistique
linéaire pour estimer les ressources dans un contexte minier de façon à minimiser les er-
reurs de prédictions et de donner une approche stochastique du modèle SEIRS afin de
tenir compte du caractère aléatoire dans la modélisation d’une épidémie.
Notre apport dans cette thèse, a été une contribution à la modélisation des outils géostatistiques
linéaires de base en utilisant les copules afin de caractériser la distribution spatiale des
phénomènes, et l’ estimation voir prédiction de la répartition du phénomène dans le cadre
spatial ou spatio-temporel. De plus, nous avons proposé la version stochastique du modèle
SEIRS et son extinction. Notre travail se répartit en quatre grands chapitres.
Dans le chapitre 1, nous présentons les généralités sur la géostatistique et le cadre minier.
Plus précisément, nous présentons la géostatistique à travers les méthodes géostatistiques
et l’intérêt de l’analyse géostatistique pour la statistique spatiale. En outre, nous présentons
quelques outils techniques de la géostatistique à travers la notion de champs aléatoires
5
stationnaires ; le modèle de variogramme et ses dérivés qui permettent de mesurer la
dépendance spatiale de ces phénomènes. Enfin, nous présentons le cadre minier à travers
les concepts de base dans ce secteur, l’industrie minière et des éléments de classification.
6
Chapitre 1
Ce chapitre est une synthèse de rappels des outils géostatistiques utilisés dans cette
thèse. En particulier, il porte sur la présentation et la caractérisation de la géostatistique
et l’environnement conceptuel du domaine minier, premier champ d’application de cette
science. Dans la section 1, nous présentons les généralités sur la géostatistique : la présentation,
les méthodes et la relation entre la géostatistique et la statistique spatiale. La section 2
passe en revue les différents outils techniques de la géostatistique. Le variogramme y oc-
cupe une place importante et en particulier les différents modèles d’ajustements. Quand à
la section 3, il résume les concepts fondamentaux, les termes techniques dans le domaine
minier.
7
1.1 Présentation de la géostatistique
8
1.1 Présentation de la géostatistique
• L’analyse descriptive ;
9
1.1 Présentation de la géostatistique
L’analyse spatiale des données ponctuelles a pour objectif de quantifier l’écart entre
la distribution spatiale des observations et une distribution complètement aléatoire dans
l’espace. Le processus générateur des données génère les coordonnées géographiques as-
sociées à l’apparition d’une observation. On ne détermine pas la valeur de l’observation ;
mais sa localisation. Il s’agit, par exemple, du lieu d’apparition d’une maladie lors d’une
épidémie, ou de la répartition dans l’espace de certaines espèces d’arbres.
L’analyse spatiale de ces données permet de définir la structure de voisinage des ob-
servations en quantifiant l’influence qu’exercent les observations sur leurs voisines, mais
aussi l’évaluation de la significativité de cette influence. Pour ces données, la localisation
des observations est considérée comme fixe, mais les valeurs associées sont générées sui-
vant un processus aléatoire. Il s’agit, par exemple, du PIB par région, ou du nombre de
mariages par mairie. Le terme ”surfacique” est une connotation, car ces données ne sont
pas nécessairement représentées sur une surface.
L’analyse spatiale des données continues cherche à prédire la valeur d’une variable
en un point où elle n’a pas été échantillonnée tout en précisant la fiabilité de cette
prédiction. La géostatistique est vue comme étant l’analyse spatiale des données conti-
nues. En présence de données continues, il existe une valeur pour la variable d’intérêt en
tout point du territoire étudié. Les données sont générées de façon continue sur un sous
ensemble de Rd . En revanche, ces données sont mesurées uniquement en un nombre dis-
cret de points. Il s’agit, par exemple, de la composition chimique du sol (utile à l’industrie
minière), de la qualité de l’eau ou de l’air (pour des études sur la pollution), ou encore de
diverses variables météorologiques. La géostatistique aide également à optimiser le plan
d’échantillonnage des données.
10
1.2 Quelques outils techniques de la géostatistique
Définition 1.2.1 (Voir [67]) Un champ aléatoire (ou une fonction aléatoire) sur D à
valeurs dans R est une fonction de deux variables, notée Z(s, w) telle que, pour chaque
site s0 ∈ D, Z(s0 , w) est une variable aléatoire sur (Ω, A, P ), et pour chaque w0 ∈
Ω, Z(s, w0 ) est une fonction de D → R.
11
1.2 Quelques outils techniques de la géostatistique
Notons que si ces deux conditions ne sont pas vérifiées, alors il ne peut pas exister de
champ aléatoire sur Rd ayant les lois Fs1 ,...,sn−1 comme lois fini-dimensionnelles. Dans la
suite, on considère que ces conditions sont toujours vérifiées.
a) Loi spatiale
L’ensemble des fonctions de répartition, pour tous les entiers k et tous les choix
possibles de {z1 , . . . , zk } ∈ D, constitue la loi spatiale de la fonction aléatoire. La
donnée de la loi spatiale est une information extrêmement riche, qui fournit de
très nombreuses caractéristiques statistiques 1 sur Z. On peut associer à la variable
régionalisée, toutes les transformations d’une variable aléatoire sous l’hypothèse
d’existence. En particulier, on détermine les moments et les caractéristiques as-
sociées.
Soit Z = Zs , s ∈ Rd un champ aléatoire défini sur l’espace probabilisé (Ω, A, P)
à espace d’état (R, BR ). Pour s ∈ Rd , on note Fs la loi de probabilité de la variable
aléatoire Z(s).
12
1.2 Quelques outils techniques de la géostatistique
Z
k
mk (s) = E(Z (s)) = z k dFs (z), k ∈ N∗ .
Rd
c) Covariance
La covariance d’un champ aléatoire mesure la force de la relation qui existe entre les
variables aléatoires qui le représentent dans les différents sites d’observation. C’est
pour cette raison qu’elle joue un rôle primordial dans le problème de prédiction. Elle
est définie sur Rd × Rd dans R par : ∀ (s1 , s2 ) ∈ Rd × Rd ,
13
1.2 Quelques outils techniques de la géostatistique
Soit
De plus, la covariance est une fonction bilinéaire, dont la variance est la forme
quadratique associée. En particulier, on a :
p
|Cov[Z(s1 ), Z(s2 )]| ≤ V ar[Z(s1 )]V ar[Z(s2 )]. (1.2)
d) Corrélogramme
14
1.2 Quelques outils techniques de la géostatistique
C(h)
ρ(h) = . (1.5)
C(0Rd )
Cov(X, Y )
ρ(X, Y ) = .
σX σY
e) Le variogramme
1
γ(s1 , s2 ) = V ar[Z(s2 ) − Z(s1 )].
2
1
γ(s1 , s2 ) = E[([Z(s2 ) − Z(s1 )] − [m(s2 ) − m(s1 )])2 ].
2
15
1.2 Quelques outils techniques de la géostatistique
1.2.1.3 La stationnarité
En statistique classique, l’inférence des paramètres est rendue possible par la répétition
indépendante des données. En statistique spatiale cependant, on observe très souvent une
réalisation unique des données. Par exemple, un épisode de pollution à l’ozone, une région
agricole particulière, une épidémie végétale, etc.
Pour pouvoir réaliser l’inférence statistique pour un événement unique, il faut donc
en quelque sorte substituer l’hypothèse sur les répétitions indépendantes par une hy-
pothèse sur le champ aléatoire qui considère que certaines de ses caractéristiques sont
identiques d’un point à l’autre de l’espace. On pose donc les hypothèses de stationnarité.
La littérature distingue trois types de stationnarité.
a) La stationnarité stricte
Elle stipule que ses deux premiers moments (espérance et fonction de covariance)
existent et sont invariants par translation c’est-à-dire
E(Z(s)) = m indépendant de s
(1.6)
Cov(Z(s + h), Z(s)) = c(h) ne dépend que de h
16
1.2 Quelques outils techniques de la géostatistique
c) La stationnarité intrinsèque
1 1
γ(s, s0 ) = E[([Z(s0 ) − Z(s)] − [m(s0 ) − m(s)])2 ] = V ar[Z(s0 ) − Z(s)].
2 2
Le variogramme du champ aléatoire Z est associé à la fonction notée ϑ, définie sur Rd ×Rd
dans R+ par le double du semi-variogramme. Soit pour tout (s, s + h) ∈ Rd × Rd
17
1.2 Quelques outils techniques de la géostatistique
Sous l’hypothèse de la stationnarité au second ordre, cette expression peut aussi s’écrire
sous la forme :
1
ϑ(h) = E[([Z(s + h) − Z(s)] − [m(s + h) − m(s)])2 ].
2
Dans la proposition qui suit, il est résumé quelques propriétés du variogramme d’un champ
aléatoire intrinsèquement stationnaire (Voir [24]).
Proposition 1.2.2 Soient Z = Z(s), s ∈ Rd un champ aléatoire intrinsèquement sta-
tionnaire et ϑ son variogramme, alors :
∀h ∈ Rd , ϑ(h) ≥ ϑ(0Rd ) = 0.
n
X
∀n ∈ N∗ , ∀a = (a1 , a2 , . . . , an ) ∈ Rn , tel que ai = 0 et
i=1
n X
X n
d n
∀(s1 , s2 , . . . , sn ) ∈ (R ) on a : ai aj ϑ(sj − si ) ≤ 0.
i=1 j=1
5. Si l est une application linéaire définie sur Rd dans Rd , alors le champ aléatoire Z l =
Z[l(s)], s ∈ Rd est intrinsèquement stationnaire de variogramme ϑl défini par :
18
1.2 Quelques outils techniques de la géostatistique
7. Si ϑ est continu à l’origine 0Rd , alors ϑ est continu en tout h ∈ Rd où ϑ est localement
borné.
Remarque 1.2.1 Le variogramme d’un champ aléatoire est souvent utilisé dans le cas où
sa fonction de covariance n’existe pas. En effet, les champs aléatoires intrinsèquement
stationnaire ont des accroissements stationnaires au second ordre et dont le vario-
gramme existe et pas nécessairement la fonction de covariance.
plus de corrélation entre les échantillons séparés par cette distance h : cette distance cri-
tique est appelée portée du variogramme.
Pour certains phénomènes spatiaux, la dépendance n’est pas uniforme d’une direction
19
1.2 Quelques outils techniques de la géostatistique
1
ϑ(h) = E[([Z(s + h) − Z(s)] − [m(s + h) − m(s)])2 ] = ϑ(k h k2 ).
2
Et donc
ϑ(h) = ϑ(~h)
et
C(h) = E([Z(s + h) − m][Z(s) − m)] = C(~h).
1.2.2.2 Le madogramme
E(|Z(x + h) − Z(x)|)
M (h) = , x ∈ Rd (1.7)
2
20
1.2 Quelques outils techniques de la géostatistique
où h est la distance entre deux point de mesure. Cet outil fournit une généralisation de
ce que l’on appelle le λ-madogramme associé à la distribution sous-jacente du processus
stochastique, tel que :
n o
γF (h) = 21 E [F (Z (s))]λ − [F (Z (s + h))]1−λ ; λ ∈ ]0, 1[ . (1.9)
Le Rodogramme d’un champ aléatoire Z noté R(h) est défini comme étant le variogramme
1
d’ordre , c’est-à-dire, pour tout x ∈ Rd
2
p
R(h) = E |Z(x + h) − Z(x)| , x ∈ Rd . (1.10)
21
1.2 Quelques outils techniques de la géostatistique
1
∀h ∈ Rd , ϑ(h) = 2[C(0Rd ) − C(h)] ⇔ C(h) = C(0Rd ) − ϑ(h).
2
Dans le cas où le champ aléatoire est simplement et intrinsèquement stationnaire, nous le
caractérisons par son variogramme.
Dans cette section, nous donnons quelques modèles du semi-variogramme d’un champ
aléatoire intrinsèquement stationnaire. Il faut noter que les deux principales caractéristiques
d’un variogramme sont :
ii) La présence où l’absence d’un palier, c’est-à-dire γ(h) = γ(∞)=constante quand
k h k> a. Rappelons que l’existence d’un palier est synonyme de stationnarité
d’ordre deux (voir [67]) ; il existe alors une fonction de covariance qui se déduit du
variogramme par la relation
Dans ce travail, on s’intéresse aux modèles théoriques isotropes, qui ne dépendent que de
r =k h k. Ces modèles peuvent être classés en trois catégories.
− Les modèles avec palier et effet de trou : sinus cardinal, modèles J de Bessel.
h r i
∀r ∈ R+ ; γ(r) = C 1 − exp −
2
22
1.2 Quelques outils techniques de la géostatistique
Il faut noter que le modèle exponentiel n’atteint son palier que asymptotiquement.
On peut toute fois définir une portée pratique égale à 3a pour laquelle le vario-
gramme atteint 95% de la valeur de son palier.
2 3 5 7
C(7 r − 35 r + 7 r − 3 r )
pour 0 6 r 6 a
∀r ∈ R+ ; γ(r) = a2 4 a3 2 a5 4 a7 .
C pour r > a
23
1.2 Quelques outils techniques de la géostatistique
différentes. Par exemple, le modèle cubique caractérise les fonctions aléatoires dérivables
en moyenne quadratique, tandis que le modèle gaussien correspond aux fonctions
aléatoires infiniment différentiables.
c) Le modèle triangulaire
Il s’agit du modèle :
Cr
+
pour 0 6 r 6 a
∀r ∈ R ; γ(r) = a .
C pour r > a
Ce modèle est valide seulement dans l’espace R et la covariance associée est égale, à
un facteur multiplicatif près, au covariogramme géométrique du segment de longueur
a dans l’espace R. Plus généralement, un modèle autorisé dans R est
α
Cr
pour 0 6 r 6 a
∀r ∈ R+ ; γ(r) = a ;
C pour r > a
avec 0 < α 6 1.
d) Le modèle quadratique
Il s’agit du modèle :
2
C(2 r − r ) pour 0 6 r 6 a
∀r ∈ R+ ; γ(r) = a a2 .
C pour r > a
e) Le modèle circulaire
Il s’agit du modèle :
r
2r r2 2 r
+
C( 1 − 2
− arcsin( )) pour 0 6 r 6 a
∀r ∈ R ; γ(r) = πa a π a .
C pour r > a
24
1.2 Quelques outils techniques de la géostatistique
+
n r αo
∀r ∈ R ; γ(r) = C 1 − exp[−( ) ] avec 0 6 α 6 2
a
√
portée pratique : a α 3. Les modèles exponentiels et gaussien sont en fait des cas
particuliers de ce modèle, correspondant aux paramètres α = 1 et α = 2.
25
1.2 Quelques outils techniques de la géostatistique
de modèle hyperbolique.
Ces modèles couvrent une large gamme de fonctions lorsqu’on fait varier le pa-
ramètre α.
D’autre modèles de transition sont les modèles à effet de trou, que nous allons
détailler à présent.
L’effet de trous se manifeste lorsque le variogramme n’est pas monotone, mais présente
une ou plusieurs oscillations. Ces oscillations ont en général une interprétation physique,
qu’il convient de mettre en évidence (phénomène périodique ”amorti” par exemple).
26
1.2 Quelques outils techniques de la géostatistique
Il s’agit du modèle :
∀r ∈ R+ ; γ(r) = C {1 − cos(2πr/a)} .
Plus les paramètres α et β sont proches de 2 et α, plus l’effet de trou est prononcé ;
lorsque β = 0, on retrouve le modèle stable. Ce modèle est valides dans Rd , d 6 α/β.
Ces modèles débordent du cadre stationnaire d’ordre deux. Ils correspondent à des
fonctions aléatoires intrinsèques strictes.
27
1.2 Quelques outils techniques de la géostatistique
a) Modèle puissance
Il s’agit du modèle :
b) Modèle linéaire
γ(r) = ωr
c) Modèle logarithmique
Il s’agit du modèle :
γ(r) = 3α ln(r)
28
1.3 Cadre minier
Le secteur minier joue un rôle capital dans la croissance économique des pays afri-
cains. Au cours de ces dernières années, l’exploitation des ressources minières a connu un
développement considérable dans le monde et particulièrement en Afrique. Le continent
africain se trouve ainsi en tête en termes de réserves mondiales d’un certain nombre de
matières comme la bauxite, la chromite, le cobalt, le diamant, le manganèse, etc. Malgré
le développement croissant de ce secteur, l’Afrique reste confrontée à une pauvreté accrue
de sa population.
De plus, la mine est le domaine originel de la géostatistique (voir [66]). Cette discipline a
développé un certain nombre de concepts et de méthodes permettant de formaliser et de
résoudre les problèmes rencontrés à différents stades de l’évaluation minière.
29
1.3 Cadre minier
Dans la section suivante nous donnons quelques définitions des termes de base couramment
utilisés dans le domaine miniers.
a) Métaux
Les métaux sont des matériaux présentant à la fois une bonne résistance mécanique
et une facilité de mise en forme. Ils ont généralement pour caractéristiques d’être de
bons conducteurs d’électricité et de chaleur. Les métaux usuels (électro-ménager dans les
ménages) sont produits par la conversion de minerais métalliques en produits finis. Dans
la majorité des cas, ceci nécessite l’utilisation de produits chimiques et de technologies
spéciales. On distingue principalement :
• Les métaux lourds : ceux dont la densité est supérieure à 5g/cm3 et dont le numéro
atomique est supérieur à celui du sodium (Z = 11).
• Les métaux précieux : ils sont rares et ont une grande valeur économique. Exemple :
Or et l’argent.
• Les métaux purs : ils sont en générale trop mous, trop fragiles ou trop réactifs.
Exemple : bismuth, calcium, cobalt, cuivre, étain...
b) Le minerai
Le minerai vient du mot latin ”minera” qui signifie mine. C’est une roche naturelle
contenant une ou plusieurs substances utiles pouvant éventuellement être extraites et
traitées pour être utilisées par l’homme. Ce terme est généralement appliqué à des roches
renfermant des minéraux métallifères à l’état natif (or, argent, cuivre, etc.) ou combiné
avec d’autres éléments pour former des minéraux plus complexes : oxydes (fer, aluminium,
etc.), sulfures (plomb, zinc, etc.), silicates (nickel, vanadium, etc.) , carbonates (calcium,
etc.), phosphates (terres rares, etc.) et autres types.
c) Gisement
Dans le contexte minier, un gisement est une concentration d’une ressource naturelle
dans le sol ou le sous-sol que l’on peut exploiter en construisant une mine à ciel ouvert,
30
1.3 Cadre minier
souterraine et/ou des puits de forage. Le terme gı̂te minéral est synonyme de gisement
mais est réservé le plus souvent à des masses minérales comportant un ou plusieurs métaux
susceptibles d’une exploitation (gı̂te métallifère).
d) Ressource
Le concept ”Ressource minérale” désigne la quantité totale d’un minerai existant dans
une zone donnée, sans considérer les possibilités d’exploitation présentes ou futures. On
appelle ressource initiale la quantité de ressource avant sa production. Ces ressources
peuvent être classifier de la façon suivante (voir wikipédia) :
e) Réserves
31
1.3 Cadre minier
géologiques, etc. Elles peuvent aussi être classées de manière similaires aux ressources :
f ) Prospection minière
C’est l’ensemble des investigations limitées à des travaux de surface, en vue de mettre
en évidence des indices de substances minérales, soit par des méthodes et procédés simples,
soit par des méthodes d’exploration modernes utilisées pour la reconnaissance régionale.
a) Industrie minière
L’industrie minière est le secteur économique qui regroupe les activités de prospection
et d’exploitation de mines.
Elle concerne l’extraction des minéraux, de terres rares et des métaux dont le cuivre,
le fer ou l’or. Son activité est cadrée dans la plupart des pays par un Code minier.
32
1.3 Cadre minier
Elle est une source importante de revenus (directe et indirecte) de pollution de l’eau,
de l’air, des sols et des écosystèmes par les métaux. Elle exploite des ressources fossiles ou
non-renouvelables aux échelles humaines de temps, en nécessitant d’importantes quantités
d’énergie et parfois d’eau. Elle laisse des séquelles minières, que la législation demande
dans un nombre croissant de pays de réduire, traiter et compenser au fur et à mesure de
l’exploitation ou dans le cadre de l’après-mine .
b) Ressources minérales
Une ressource minérale est une concentration de matériau présent naturellement, sous
forme, solide, liquide ou gazeuse, dans la croûte terrestre, sous une forme et une quan-
tité telles que son extraction à des fins économiques est effectivement ou potentiellement
faisable. Ces ressources sont simplement évaluées et ne sont pas toutes découvertes. Les
réserves minérales prouvées sont une partie des ressources à la fois repérées géologiquement
et susceptibles d’être exploitées dans des conditions techniques et économiques rentables.
Les réserves minérales non prouvées ne sont pas géologiquement connues.
L’évaluation de la quantité d’une ressource dans une zone donnée dépend de nombreux
paramètres du gisement, dont la localisation, la profondeur, la taille, la configuration, la
nature minérale, la qualité, la densité, les caractéristiques géologiques, la proximité de
ressources voisines. Pour le pétrole, la porosité de la roche, la viscosité la pression et la
température entrent également en jeu.
33
1.3 Cadre minier
Cependant, ces données sont toujours en nombre limité de sorte qu’un modèle géologique
est bâti sur une large part d’interprétation du géologue. Pour compléter ces reconnais-
sances ponctuelles, les bureaux d’études procèdent le plus souvent à faire des estimations
de réserves minières par des interpolations linéaires par partitionnement dans l’espace ou
par des considérations statistiques. L’estimation de réserve est un paramètre utile afin
d’évaluer la rentabilité du gisement, et de justifier l’arrêt ou la continuité des travaux.
Les techniques d’évaluation de réserve sont des méthodes ayant comme objectif de fournir
des estimations de la teneur pour tout élément de volume ou de surface à partir d’un
échantillonnage limité. Elles sont basées sur le calcul de la moyenne pondérée, qui a at-
tribué des poids à des observations spatiales de ces dernières, par apport à l’élément de
volume ou de surface que l’on veut estimer. Parmi ces techniques on cite :
. La méthode de section.
∗ Minerais métalliques :
34
1.3 Cadre minier
Dans la suite de notre travail, nous considérons un des métaux d’alliage : le cobalt.
Conclusion partielle
Ce chapitre nous a permis de résumer les outils géostatistiques nécessaires pour la
compréhension de la répartition des métaux dans un contexte minier. Nous avons d’abord
présenté dans une première section, des généralités sur la géostatistique à travers la
présentation de la géostatistique, ses méthodes, et ses liens avec l’analyse spatiale. En-
suite, dans une seconde section, nous avons présenté les outils techniques géostatistiques
en présentant la notion du champ aléatoire, les modèles de variogrammes et les modèles
d’ajustement. Enfin, dans une troisième section, nous avons présenté le cadre minier à
travers le contexte, les concepts de base et l’industrie minière.
35
Chapitre 2
Ce chapitre porte sur la modélisation géostatistique à partir des copules qui utilisent
la paramétrisation canonique de Sklar pour permettre la construction des distributions
multivariées indépendamment des lois marginales unidimensionnelles.
Dans la section 1, nous présentons les fonctions copules. Plus précisément, la définition
formelle des copules est donnée en dimension deux et en dimension supérieure. Nous rap-
pelons le théorème de Sklar qui est le fondement mathématique de toute la théorie des
copules. Nous rappelons les grandes familles usuelles de copules en fonction des lois de
probabilités classiques.
36
2.1 Copule dans la modélisation stochastique
• Une fonction f : Rn −→ [0, +∞[ est dite fonction densité du vecteur X ou fonction
densité conjointe des X1 , ...., Xn si elle vérifie :
R
i) Rn f (x1 , ..., xn ) dx1 .....dxn = 1 (exhaustivité de l’intégrale de f ) .
En particulier, en dimension 2, la propriété d’exhaustivité équivaut à :
Z +∞ Z +∞ Z +∞ Z +∞
f (x, y)dx dy = f (x, y)dy dx = 1
−∞ −∞ −∞ −∞
.
ii) La loi de X est telle que pour tout choix de a1 ∈ R, ...., an ∈ R :
Z a1 Z an
P (X1 ≤ a1 ; ...; Xn ≤ an ) = .... f (x1 , ..., xn ) dx1 .....dxn .
−∞ −∞
• 0 ≤ F (x, y) ≤ 1, ∀(x, y) ∈ R2 .
37
2.1 Copule dans la modélisation stochastique
• lim lim F (x, y) = 1 et lim lim F (x, y) = 1.
x−→+ ∞ y−→+ ∞ y−→+ ∞ x−→+ ∞
• F est continue (sauf peut-être en un nombre fini de points où elle est continue à droite)
∂ 2 F (x, y)
et possède une dérivée partielle d’ordre 2, f (x, y) = .
∂x∂y
La 2-croissance ou inégalité du rectangle de la distribution conjointe F d’un couple de
v.a provient du fait que, pour tout domaine quarrable D de R2 , on a :
Z Z
P (D) = f (x, y)dxdy ≥ 0.
D
Z x0 Z y0
P (D) = f (t, r)dtdr = F (x0 , y 0 ) − F (x0 , y) − F (x, y 0 ) + F (x, y) ≥ 0.
x y
On dit qu’une v.a X est continue si sa fonction de répartition l’est. Dans ce cas, F (R) =
[0, 1] et la propriété (ii) est vraie pour tout u.
38
2.1 Copule dans la modélisation stochastique
Dans le cas d’un vecteur (X1 , . . . , Xn ), on définit également sa fonction de répartition sur
Rn par :
F (x1 , . . . , xn ) = P (X1 6 x1 , . . . , Xn 6 xn ),
n
et que l’on étend à R .
Remarque 2.1.1 Dans le cas où F est strictement monotone l’inverse généralisé coı̈ncide
avec l’inverse classique.
où Fi sont les fonctions de répartition des variables aléatoires Xi , les marginales de X et
Fi−1 les inverses généralisées des Fi .
Proposition 2.1.1 La fonction C est bien définie et possède les trois propriétés sui-
vantes :
X Pn
j=1 ij
(i ) (i )
(−1) C(u1 1 , u2 2 , . . . , un(in ) ) > 0.
(i1 ,...,in )∈{1,2}n
Démonstration 2.1.1 La propriété (i) vient du fait que, pour toute loi multivariée
39
2.1 Copule dans la modélisation stochastique
n
pour (x1 , . . . , xn ) ∈ R . En effet,
Ce qui se réécrit :
n o
(2) (1) (2)
0 6 P F1−1 (u11 ) < X1 6 F1−1 (u1 ), F2−1 (u2 ) < X2 6 F2−1 (u2 ) .
Dans le cas multivarié, une n-copule C est une fonction de distribution Cn définie de
[0, 1]n dans [0, 1] qui vérifie les conditions suivantes :
Cn (u1 , ..., ui−1 , 0, ui+1 , ..., un ) = 0; pour tout (u1 , ..., ui−1 , ui+1 , ..., un ) ∈ [0, 1]n−1 ;
ii) Cn (u1 , ..., ui−1 , 1, ui+1 , ..., un ) = Cn−1 (u1 , ..., ui−1 , ui+1 , ..., un ), c’est-à-dire, une (n-1)
40
2.1 Copule dans la modélisation stochastique
iii) la copule Cn est continue en appliquant une des propriétés de Lipschitz, c’est-à-dire,
le volume VB pour tout rectangle B = [a, b] ⊆ [0, 1]n est positive. Ainsi,
Z
VB ([a, b]) = ∆bann ∆ban−1
n−1
. . . ∆ba11 Cn (u) = dCn (u1 , ..., un ) ≥ 0. (2.1)
B
Les copules héritent de plusieurs propriétés des distributions jointes. Dans l’étude des
copules, un des plus célèbres résultats est le théorème de Sklar que nous présentons par
le théorème suivant et qui est le fondement stochastique de l’outil des copules.
L’importance des copules dans la modélisation stochastique est soulignée par Sklar(1959)
dans son théorème qui s’énonce comme suit.
41
2.1 Copule dans la modélisation stochastique
Et si les distributions marginales F1 , . . . , Fn sont toutes continues alors C est unique sinon
C est seulement déterminée sur le produit cartésien ImF1 × · · · × ImFn .
Preuve 2.1.1 la preuve de ce théorème est tirée du livre de Lo et al.[34] [35] (Voir
annexe)
Considérons F comme une fonction de distribution n-variée avec les distributions margi-
nales continues F1 , . . . , Fn et C sa copule associée. La réciproque du théorème de Skar se
formule comme suit, pour (u1 , . . . , un ) ∈ [0, 1]n ,
où
Cette réciproque du théorème de Sklar offre une méthode de construction assez simple
d’une copule connaissant la distribution jointe et les distributions marginales. La méthode
de construction basée sur celle-ci est la méthode d’inversion. L’exemple suivant en est une
application dans un cas de fonction bivariée.
L’usage des copules dans l’analyse stochastique est justifié par la paramétrisation ca-
nonique de Sklar, voir Joe [9] & Nelsen [12], telle que les copules n-dimensionnelle C, les
vecteurs aléatoires (X1 , ..., Xn ) avec la distribution cumulative F et ses marges continues
42
2.1 Copule dans la modélisation stochastique
F1 , ..., Fn sont liés par la relation : pour tout (u1 , ..., un ) ∈ [0, 1]n
Exemple 2.1.1 Considérons la distribution logistique bivariée de Gumbel telle que, pour
tout x, y ∈ R, H(x, y) = [1 + e−x + e−y ]−1 . par intégration, on trouve que les lois margi-
nales sont identiques, de fonction de répartition HX (x) = (1 + e−x )−1 . Cette fonction est
1
facilement inversible et les fonctions inverses sont respectivement : F1−1 (u) = −ln( − 1)
u
−1 1 2
et F2 (v) = −ln( − 1), avec (u, v) ∈ I . Le célèbre théorème de Sklar permet d’avoir
v
la copule associée à F (x, y) qui s’écrit :
1 1 uv
C(u, v) = F (F1−1 (u), F2−1 (v)) = [1 + eln( u −1) + eln( v −1) ]−1 = .
u + v − uv
Comme l’a souligné Fischer dans ”Encyclopedia Statistical Sciences” les copules sont
d’un grand intérêt pour le statisticien pour deux raisons principales : d’une part elles per-
mettent de construire des familles de distributions multivariées à partir des distributions
marginales univariées données ( théorème de Sklar) et d’autre part elles constituent un ou-
til de mesure de dépendance entre distributions univariées tout en restant invariantes sous
des transformations strictement monotones de celles-ci. Les résultats suivants résument
les propriétés fondamentales des copules.
43
2.1 Copule dans la modélisation stochastique
Théorème 2.1.3 Soient deux v.a.c. X et Y de copule associée CXY. Si α et β sont des
fonctions strictement croissantes sur Im(X) et Im(Y) respectivement alors on Cα(X)β(Y ) =
CXY.
Ce théorème établit que la copule est invariante par des transformations strictement
croissantes des variables aléatoires. Par exemple la copule de la distribution lognormale est
la même que celle de la loi normale (en effet la première est une transformation strictement
croissante (y = logx) de la seconde). De façon générale, lorsqu’une des transformations
est strictement décroissante, en utilisant le théorème (transformations de couples de v.a.
) on a le résultat suivant.
44
2.1 Copule dans la modélisation stochastique
Lorsque les variables {Xi ; i = 1, ..., n} sont indépendantes alors la copule associée est
la copule indépendante ou copule produit Π telle que, pour tout (u1 , ..., un ) ∈ [0, 1]n
n
Y
Π (u1 , ..., un ) = u1 × ... × un = ui .
i=1
a) La copule minimale
Cette copule n’admet pas de densité bien qu’elle soit dérivable presque partout. La
figure 2.2 illustre bien une copule minimale.
45
2.1 Copule dans la modélisation stochastique
b) La copule maximale
X
W (u1 , ..., un ) = max ui + n − 1, 0 .
définit une copule. C’est la copule maximale ou borne inférieure de Fréchet. Elle vérifie
(voir [17]), pour tout (u1 , ..., um ) ∈ I m
En = {(xk , yk ), k = 1, ..., n} .
46
2.1 Copule dans la modélisation stochastique
i j XX p q
Cn ( , ) = fn ( , );
n n p q
n n
Dans cette sous-section, notre objectif est de mettre en relief la spécificité d’une copule
max-stable. Cette particularité est formulée dans le théorème suivant.
Théorème 2.1.5 Soit X k , k = 1, . . . , n un échantillon de vecteurs aléatoires i.i.d. et
Mn le vecteur des maxima associé. Si C est la copule associée à Mn alors
n
1/n 1/n
C (u1 , . . . , ud ) = C u1 , . . . , u d .
Puisque les d−uplets X1j , . . . , Xdj , 1 ≤ j ≤ n sont i.i.d de fonction de distribution jointe
F , on a
47
2.1 Copule dans la modélisation stochastique
1/n
Par suite, en remplaçant les Fi , 1 ≤ i ≤ d respectivement par les Fi , 1 ≤ i ≤ d dans
l’équation (2.4), on obtient
h in
1/n 1/n
F(n) (x1 , . . . , xd ) = C F(n,1) (x1 ) , . . . , F(n,d) (xd ) .
Ce qui donne
1/n 1/n
F(n) (x1 , . . . , xd ) = C n F(n,1) (x1 ) , . . . , F(n,d) (xd ) . (2.5)
Définition 2.1.3 Une copule C est dite max-stable si pour tout réel strictement positif
α et pour tout ui ∈ [0, 1] , 1 ≤ i ≤ d, on a
1/α 1/α
C (u1 , . . . , ud ) = C α u1 , . . . , ud .
48
2.1 Copule dans la modélisation stochastique
par "
d
#1/θ
X
Cθ (u1 , . . . , ud ) = exp − (− ln ui )θ
i=1
Définition 2.1.4 Une copule C est dite copule des valeurs extrêmes si elle vérifie la
propriété de max-stabilité suivante
n
1/n 1/n
C u1 , . . . , ud −→ C (u1 , . . . , ud ) (2.6)
Proposition 2.1.3 L’ensemble des copules extrêmes coı̈ncide avec l’ensemble des copules
max-stables.
Preuve 2.1.3 Il est trivial de voir qu’une copule max-stable est une copule des valeurs
extrêmes. Démontrons sa réciproque. Autrement dit prouvons qu’une copule des valeurs
extrêmes est une copule max-stable.
Soit C une copule des valeurs extrêmes, il existe donc une copule C∗ qui satisfait
l’équation (2.6). Par suite, pour tout réel r strictement positif, on a
r 1/r 1/r rn 1/rn 1/rn
C u1 , . . . , ud = lim C u1 , . . . , ud (2.7)
n→+∞
r 1/r 1/r m 1/m 1/m
C u1 , . . . , ud = lim C u1 , . . . , ud = C (u1 , . . . , ud ) .
m→+∞
Cette proposition confirme l’étroite relation entre les processus max-stable et celui
des valeurs extrêmes. En outre, elle offre une autre manière de présenter une copule des
valeurs extrêmes. Une autre présentation est disponible, celle de Pickands [76].
49
2.1 Copule dans la modélisation stochastique
Les copules archimédiennes bivariées ont été largement développées par Genest et Mac-
kay ([10]). La famille des copules Archimédiennes multivariées présente le double avantage
d’avoir une forme analytique explicite et de tenir compte de toutes les dépendances entre
les variables aléatoires unidimensionnelles.
où φ : [0, 1] −→ [0, +∞[, est appelé générateur Archimédien, est une fonction continue
strictement décroissante telle que.
(k)
∀t ≥ 0 et ∀k ≥ 0, (−1)k φ−1 (t) ≥ 0;
(k)
où (φ−1 ) est la dérivée d’ordre k de φ−1 .
Pour le cas particulier où n = 2, il suffit que φ soit convexe.
Par exemple, pour φ (t) = (− log t)θ avec θ > 1, on obtient le modèle logistique bivarié
défini pour tout (u1 , u2 ) ∈ I 2 , par :
n
θ
1 o
θ θ
Cθ (u1 , u2 ) = exp − (− ln u1 ) + (− ln u2 ) ; (u1 , u2 ) ∈ [0, 1]2 .
Une des particularités des copules Archimédiennes est leur propriété de symétrie et d’as-
sociativité. Elle se résume dans le théorème ci-après.
50
2.1 Copule dans la modélisation stochastique
1. C est symétrique, i.e pour tous u, v ∈ [0, 1], C (u, v) = C (v, u).
2. C est associative, i.e pour tous u, v, w ∈ [0, 1], C (C (u, v) , w) = C (u, C (v, w)) .
Plus généralement, les copules revêtent plusieurs autres propriétés. L’ouvrage de Nel-
sen [79] est une bonne référence en matière de modélisations impliquant les copules.
En particulier, cette section nous rappelle les propriétés des copules Archimédiennes. La
flexibilité est un autre atout copules Archimédiennes qui nous sert dans la description de
la structure de dépendance des classes de variogramme. Ces résultats sont exposés dans
la section qui suit.
51
2.1 Copule dans la modélisation stochastique
b) Copule Archimax
Les copules Archimax ont été introduites par Capéraé et al. . Comme leur nom l’in-
dique, ces copules regroupent les copules Archimédiennes et toutes les copules max-stables.
Définition 2.1.5 Une fonction bidimensionnelle est une copule Archimax si et seulement
si elle est de la forme :
−1 ϕ (u1 )
Cϕ,A (u1 , u2 ) = ϕ [ϕ (u1 ) + ϕ (u2 )] A ,
ϕ (u1 ) + ϕ (u2 )
Par exemple, pour ϕ (x) = ln (1/x), la copule Cϕ,A est une copule des valeurs extrêmes,
c-à-d
ln u1
Cϕ,A (u1 , u2 ) = exp (ln u1 + ln u2 ) A .
ln u1 + ln u2
Pour A (t) = 1, la copule Cϕ,A se réduit à une copule Archimédienne.
Comme dans l’analyse des distributions univariées, il existe des familles standard de
distributions de probabilité pour les vecteurs aléatoires.
Définition 2.1.6 Un vecteur aléatoire X = (X1 , ..., Xm ) suit une distribution gaus-
sienne (ou normale) multivariée de vecteur moyen µ = (µ1 , ..., µm ) si sa fonction densité
conjointe est donnée, pour tout x = (x1 , ..., xn ) ∈ Rn , par
1 1 t −1
fX,Σ (x) = p exp − (x − µ) Σ (x − µ) , (2.8)
(2π)n détΣ 2
52
2.1 Copule dans la modélisation stochastique
On note X N (µ, Σ) .
Une définition complète des distributions elliptiques permet une meilleure compréhension
de nos résultats.
cn 1
ϕ (x) = p gn (x − µ)t Σ−1 (x − µ) pour tout x = (x1 , ..., xn ) ∈ Rn ; (2.9)
det (Σ) 2
n
Z +∞ −1
Γ 2 n
−1
cn = n x 2 gn (x) dx ; (2.10)
(2π) 2 0
R +∞ n
vérifie la contrainte 0
x 2 −1 gn (x) dx < +∞.
La forme du générateur donne généralement la famille normale multivariée ou la famille
t-Student. Le cas particulier où n = 1 fournit la classe des distributions symétriques. Le
53
2.1 Copule dans la modélisation stochastique
où U(k) est un vecteur aléatoire n-dimensionnel uniformément distribué sur Sk−1 , R est
un vecteur aléatoire non négatif indépendant à U (k) , où µ ∈ Rn . Ainsi, A ∈ Rn×k avec
r(A) = k et satisfait la décomposition de Choleski Σ = AT A.
Les copules elliptiques sont généralement définies comme des copules de distribution
elliptiques. En particulier, si ΨΣ est la distribution elliptique multivariée de marginale
commune Ψ et de matrice de corrélation Σ, alors la copule elliptique provient de la relation
(2.9) par
1 n o
ΨΣ Ψ−1 −1 1 T −1
CΣθ (u1 , . . . , un ) = 1 (u1 ), . . . , Ψn (un ) =√ exp − 2 Ũ Σ Ũ ; (2.12)
det Σ
où Ũ = (Ψ−1 (u1 ), . . . , Ψ−1 (un )) est le vecteur quantile de la distribution marginale.
Bien qu’elles ne puissent pas être exprimées par une forme explicite, les structures ellip-
tiques mettent en place différents degrés de corrélation et fournissent une riche source de
distributions avec de nombreuses propriétés exploitables des distributions normales mul-
tivariées. En outre, ils héritent d’une extrême dépendance multivariée et de nombreuses
propriétés gaussiennes. Deux familles de structures (distributions et copules) elliptiques
les plus connues sont la famille gaussienne et la famille t de Student.
b) La copule Gaussienne
q
X =µ+ Xk2 Au(k) et X Nn (µ, Σ);
54
2.1 Copule dans la modélisation stochastique
2 2 2 2
√1 (Φ−1 (u1 )) −2ρΦ−1 (u1 )Φ−1 (u2 )+(Φ−1 (u2 )) (Φ−1 (u1 )) +(Φ−1 (u1 ))
c(u1 , u2 ) = exp − 2(1−ρ2 )
+ 2
.
1−ρ2
55
2.1 Copule dans la modélisation stochastique
loi p
X →µ+ nTn,ν Au(k) TΣ,n (µ, Σ, n)
p
avec R = nTn,ν . Comme la copule Gaussienne, la copule de Student ou t-copule est
paramétrée par une matrice R décrivant la dépendance deux à deux entre les variables.
Soit TR,ν,n la distribution de Student multivariée de dimension n, à n degrés de liberté, et
de matrice de corrélation R. La copule de Student CR,v associée à cette distribution est
définie telle que :
où
v+1
Z x Γ
2 1 dt
Tν (x) = v √ ,
vΠ v+1
−∞ Γ t2 2
2 1+
v
et
v+n
Z x1 Z xn Γ
2 1 dt1 . . . dtn
TR,v (x1 , . . . , xn ) = ... v n √ v+n
.
−∞ −∞ Γ (vΠ) 2 det R T
t Rt 2
2 1+
v
On déduit de (2.12) la densité de la t-copule par :
− v+n
Y T RY 2
1+
v+n v n−1
2
Γ 2
Γ v
c (u1 , . . . , un ) = √
Γ v+1
n
det R n − v+1 ;
2 Yi2 2
Π 1+ v
i=1
56
2.2 Modélisation des outils géostatistiques par les copules
Théorème 2.2.1 Soit CF la copule jointe d’un processus stochastique Z = {Z(s1 ), . . . , Z(sn )} .
Alors, le F-madogramme généralisé est tel que :
Z 1 1 1
1
γF (h) = udCF,h u λ , u 1−λ − [C(λ) − Dh (λ)] , (2.13)
0 2
où
σZ2 s
1
C(λ) = ,
2 1 + λσZ2 s
et !
1 σZ2 s+h
Dh (λ) = ,
2 1 + (1 − λ)σZ2 s+h
Ce résultat est une généralisation des travaux de D. Barro et al.[26] qui ont utilisé une
mesure spatiale conditionnelle convexe D définie sur l’unité simplexe de R2 . Sa preuve est
57
2.2 Modélisation des outils géostatistiques par les copules
Ainsi,
De plus,
FZs ,Zs+h ,λ (u) = P max [F (Z(s))]λ , [F (Z(s + h))]1−λ ≤ u .
On a alors,
par conséquent
1 1
FZs ,Zs+h ,λ (u) = P F (Z(s)) ≤ u , F (Z(s + h)) ≤ u
λ 1−λ ,
1 1
FZs ,Zs+h ,λ (u) = CF,h u , u
λ 1−λ pour tout λ ∈]0; 1[.
58
2.2 Modélisation des outils géostatistiques par les copules
Or
σZ2 s
E max [F (Z(s))]λ
= , (2.16)
1 + λσZ2 s
et
1−λ
σZ2 s+h
E max [F (Z(s + h))] = ∀λ ∈]0; 1[. (2.17)
1 + (1 − λ)σZ2 s+h
Ainsi, en utilisant les relations (2.15), (2.16) et (2.17) dans (2.14), il s’en suit que
" #
1
σZ2 s σZ2 s+h
Z 1 1
1
γF (h) = udCF,h u , u
λ 1−λ − + .
0 2 1 + λσZ2 s 1 + (1 − λ)σZ2 s+h
Tout comme le F-madogramme, le madogramme peut aussi être modélisé par la fonction
copule. Considérons Z = Z(x), x ∈ Rd un champ aléatoire régulier défini sur Rd . Il est
bien connu que le madogramme associé au champ aléatoire Z est une fonction M , définie
de Rd dans R+ tel que :
E(|Z(x + h) − Z(x)|)
∀h ∈ Rd , M (h) = , x ∈ Rd . (2.18)
2
Proposition 2.2.1 Si Z(.) est un champ aléatoire stationnaire d’ordre deux. Alors, la
relation entre son madogramme et la fonction copule bivariée est donnée par :
Z 1
M (h) = FZ−1 (u)dCh (u, u) − µ,
0
où µ = E(Z(x + h)) = E(Z(x)), Ch (., .) étant la fonction de copule jointe qui décrit la
structure de dépendance entre deux sites distants de h.
La figure suivante (Figure 2.5) fournit une représentation de la copule jointe de ces
deux variables.
59
2.2 Modélisation des outils géostatistiques par les copules
Preuve 2.2.2 Rappelons que |a − b| = 2 max {a, b} − (a + b). En utilisant cette relation
dans (2.18), il vient que pour tout h, x ∈ Rd
Ainsi,
M (h) = E (max[Z(x + h), Z(x)]) − µ. (2.20)
De plus,
P (max[Z(x + h), Z(x)] ≤ z) = P (Z(x + h) ≤ z, Z(x) ≤ z) ,
on a alors,
P (max[Z(x + h), Z(x)] ≤ z) = Ch (FZ (z), FZ (z)) ,
60
2.2 Modélisation des outils géostatistiques par les copules
d’où, Z 1
E (max[Z(x + h), Z(x)]) = FZ−1 (u)dCh (u, u).
0
D’où le résultat.
Ces résultats sont très utiles car, ils permettent de mesurer la dépendance linéaire et non
linéaire des phénomènes spatiaux ou spatio-temporels.
La section suivante modélise les outils géostatistique de base (covariogramme et vario-
gramme) en utilisant les copules.
Ces outils ne prennent pas en compte les données extrêmes observées dans les différents
sites d’observation. Cependant, la fonction copule permet de modéliser les données extrêmes
et de détecter tout lien non linéaire entre différents sites d’observation. Ainsi, il est
nécessaire d’exprimer le variogramme et le covariogramme via la copule pour permettre au
modèle de prendre en compte la structure spatiale même en présence de données extrêmes.
Le modèle pourrait également détecter la présence d’une certaine dépendance non linéaire.
Le résultat suivant modélise le covariogramme et le variogramme en utilisant la fonction
copule.
61
2.2 Modélisation des outils géostatistiques par les copules
où Z 1 Z 1
ĉ(si , sj ) = FZ−1 (u)FZ−1 (v)c(u, v)dudv − mi mj .
0 0
Les quantités mi étant la moyenne de Z(si ) ; c(u, v) la fonction densité de copule associée
à Z(si ) et à Z(sj ).
1
dzi dzj = dui duj .
fZ (zi )fZ (zj )
De façon similaire au théorème de Sklar [10], il vient que, pour toutes paires de sites
(si , sj ) ∈ S 2
H(si , sj ) = C(FZ (si ), FZ (sj )).
De plus,
f H1−1 (u), Hn−1 (un )
c(u, v) = −1 . (2.23)
f1 F1 (u1 ) × ... × Fn [Fn−1 (un )]
La relation entre la fonction densité h(si , sj ) et la fonction densité jointe des copules
c(u, v) est donnée par :
D’où le résultat.
62
2.2 Modélisation des outils géostatistiques par les copules
1 1
FZ−1 (u) FZ−1 (v)
Z Z
mi mj
ρ(si , sj ) = c(u, v)dudv − ; (2.24)
0 0 σZ (si ) σZ (sj ) σZ (si ) σZ (sj )
∂ 2 C(u,v)
où mi désigne la moyenne de Z(si ), c(u, v) = ∂u∂v
la fonction densité de copule C et
σZ (si ) l’erreur standard de Z(si ).
Preuve 2.2.4 Par définition, le corrélogramme d’un champ en deux sites d’observation
est donné par :
ĉ(si , sj ) 1
ρ(si , sj ) = = × ĉ(si , sj ).
σZ (si )σZ (sj ) σZ (si )σZ (sj )
63
2.2 Modélisation des outils géostatistiques par les copules
La section suivante modélise les outils géostatistique de base en utilisant une hypothèse
géostatistique : la stationnarité (voir chapitre 1, section 2).
Dans un contexte spatial, la stationnarité décrit en quelque sorte une forme d’ho-
mogénéité spatiale de la régionalisation. D’un point de vue mathématique, les hypothèses
de stationnarité consistent à supposer que les propriétés probabilistes d’un ensemble de
valeurs ne dépendent pas de la position absolue des sites associés, mais uniquement de
leur séparation.
Sous l’hypothèse de la stationnarité au second ordre du champ aléatoire Z(.), la fonc-
tion moyenne dévient une constante et la covariance ne dépend que de la distance séparant
les sites. Par conséquent, on peut écrire que :
Z 1 Z 1
ĉ(si , sj ) = ĉ(hij ) = FZ−1 (u)FZ−1 (v)chij (u, v)dudv − µ2 , (2.25)
0 0
où hij = |si − sj | et chij (u, v) la fonction densité de copule jointe des deux variables
localisées sur deux sites distants de hij .
64
2.2 Modélisation des outils géostatistiques par les copules
Proposition 2.2.2 En admettant que hij = si −sj est la distance moyenne et en utilisant
la relation (2.25), alors, le corrélogramme est tel que
1 1
FZ−1 (u)FZ−1 (v) µ2
Z Z
ρ(hij ) = chij (u, v)dudv − . (2.26)
0 0 ĉ(0Rd ) ĉ(0Rd )
et Z 1 Z 1
ϑ(hij ) = 2 ĉ(0Rd ) + µ − 2
FZ−1 (u)FZ−1 (v)chij (u, v)dudv . (2.27)
0 0
1
ĉ(hij ) = ĉ(0Rd ) − ϑ(hij ).
2
Preuve 2.2.7 Considérons les relations (2.25) et (2.27). Il est bien connu que :
Z 1 Z 1
ĉ(si , sj ) = ĉ(hij ) = FZ−1 (u)FZ−1 (v)chij (u, v)dudv − µ2 ,
0 0
et Z 1 Z 1
ϑ(hij ) = 2 ĉ(0Rd ) + µ − 2
FZ−1 (u)FZ−1 (v)chij (u, v)dudv .
0 0
Donc
1
ĉ(hij ) = ĉ(0Rd ) − ϑ(hij ).
2
65
2.2 Modélisation des outils géostatistiques par les copules
et
V ar[Z(x + h) − Z(x)] = E [Z(x + h) − Z(x)]2 = 2γ(h).
(2.28)
Théorème 2.2.4 Soit Z(.) Un champ aléatoire intrinsèque sans dérive. Il s’ensuit que
la covariance est telle que
Z 1 Z 1
ĉ(si , sj ) = ĉ(hij ) = FZ−1 (u)FZ−1 (v)chij (u, v)dudv − µ2 , (2.29)
0 0
1 1
FZ−1 (u)FZ−1 (v) µ2
Z Z
ρ(hij ) = chij (u, v)dudv − .
0 0 ĉ(0Rd ) ĉ(0Rd )
Et le variogramme
Z 1 Z 1
2
ϑ(hij ) = 2 ĉ(0Rd ) + µ − FZ−1 (u)FZ−1 (v)chij (u, v)dudv .
0 0
Où µ désigne la moyenne, ĉ(0Rd ) la variance et chij (u, v) la fonction densité de copule.
1
γ(h) = E [Z(x + h) − Z(x)]2 . (2.30)
2
66
2.2 Modélisation des outils géostatistiques par les copules
L’expression du variogramme est similaire dans le cadre intrinsèque qu’au second ordre,
nous en déduisons que les expressions de la covariance et du corrélogramme restent in-
changées.
Z 1 Z 1
ĉ(si , sj ) = ĉ(hij ) = FZ−1 (u)FZ−1 (v)chij (u, v)dudv − µ2 . (2.32)
0 0
et Z 1 Z 1
ϑ(hij ) = 2 ĉ(0Rd ) + µ − 2
FZ−1 (u)FZ−1 (v)chij (u, v)dudv . (2.33)
0 0
et
1
ĉ(hij ) = ĉ(0Rd ) − ϑ(hij ).
2
67
2.2 Modélisation des outils géostatistiques par les copules
Dans cette section, nous donnons certains modèles de variagramme les plus couram-
ment utilisés en modélisation spatiale.
68
2.2 Modélisation des outils géostatistiques par les copules
Conclusion
La modélisation géstatistique des phénomènes spatiaux à partir des copules est nécessaire
car elle présente plusieurs atouts. Dans un premier temps, elle permet de réduire, voire an-
nuler l’effet de la présence des valeurs abérantes dans les données. En effet, par le théorème
de Sklar, la copule transforme toute distribution en une loi uniforme marginale, permet-
tant ainsi d’harmoniser les comportements aléatoires des modèles. Ensuite, elle permet
69
2.2 Modélisation des outils géostatistiques par les copules
70
Chapitre 3
Modèles géostatistiques et
Estimation
Nous présentons dans ce chapitre les estimations des outils d’analyse structurale et
d’interpolation spatiale. Pour un échantillon prélevé sur un domaine bien précis, ces ou-
tils d’analyses et d’interpolation permettent d’avoir non seulement une idée de la bonne
répartition spatiale du phénomène, mais aussi et surtout, les valeurs prédites dans les sites
non encore échantillonné.
Dans la première section nous présentons les estimateurs classiques de l’inférence sta-
tistique dans un contexte d’utilisation des copules. Plus précisément, nous rappelons la
méthode des moments, la méthode IFM (Fonctions d’inférence pour les marges) et la
vraisemblance canonique.
Une troisième section porte sur l’application de nos résultats à l’estimation dans le do-
maine minier.
71
3.1 Rappels sur les méthodes classiques d’estimation
T
X
L(x, θ) = ln f (xt1 , · · · , xtn ).
t=1
T
X n X
X T
L(x, θ) = ln c(F1 (xt1 ), · · · , Fn (xtn ); α) + ln fi (xti , θi ). (3.1)
t=1 i=1 t=1
Cette expression de la vraisemblance peut être utilisée dans l’estimation des paramètres
des lois marginales et ceux de copules en une seule étape. L’estimateur de maximum de
vraisemblance s’écrit alors :
Θ étant l’espace des paramètres. On peut vérifier dans les conditions de régularité que
l’estimateur θ̂M L existe, qu’il est sans biais, convergent, asymptotiquement efficace et
vérifie la propriété de la normalité asymptotique. Ainsi
√
T (θ̂M L − θ0 ) → N (0, I −1 (θ0 )); (3.3)
72
3.1 Rappels sur les méthodes classiques d’estimation
La méthode IFM (inference functions for margins) ou méthode des fonctions d’inférence
des marginales consiste à estimer séparément les paramètres des lois marginales et ceux de
la copule. Ainsi, la log-vraisemblance globale peut être exprimée de la manière suivante :
T
X T X
X n
L(x, θ) = ln c(F1 (xt1 , θ1 ), · · · , Fn (xtn , θn ); α) + ln fi (xti , θi ); (3.4)
t=1 t=1 i=1
où θ = (θ1 , · · · , θn ; α) est le vecteur des paramètres contenant les paramètres θi de chaque
marginale Fi et les paramètres α de la copule. Les auteurs Joe et Xu [49] proposent
d’estimer θ en deux étapes.
Dans une première étape, on estime les paramètres de chaque marginale indépendamment
par la méthode de maximum de vraisemblance :
T
X
θˆi = arg max ln fi (xti , θi ). (3.5)
i=1
Puis dans la seconde étape, on estime α en tenant compte des estimations obtenues. On
a donc
T
X
α̂ = arg max ln c(F1 (xt1 , θˆ1 ), · · · , Fn (xtn , θˆn ); α). (3.6)
i=1
Cet estimateur θ̂IF M = (θˆ1 , · · · , θˆn ; α̂) présente des propriétés statistiques légèrement
différentes de l’estimateur du maximum de vraisemblance mais il est également convergent,
sans biais et vérifie la propriété de la normalité asymptotique. On a alors
√
T (θ̂IF M − θ0 ) → N (0, v −1 (θ0 ))
avec v(θ0 ) la matrice d’information de Godambé selon Joe (1997), cette matrice s’écrit de
la manière suivante
v(θ0 ) = D−1 M (D−1 )0
73
3.1 Rappels sur les méthodes classiques d’estimation
∂
avec D = E[ ∂θ (g(θ)T )] ; M = E[g(θ)T g(θ)]
∂L1 ∂Ln ∂L
g(θ) = ,··· , ; .
∂θ1 ∂θn ∂α
où
T
X
Lj = ln f (xi , θj ).
i=1
Cette méthode présente l’avantage de se reposer sur les calculs légers que ceux générés
par la méthode de maximum de vraisemblance. Mais la détermination de la matrice de
Godambé pourrait s’avérer très délicat en raison des multiples calculs de dérivées.
T
1X
F̂Xi (x) = 1 t ; (3.7)
T t=1 {Xi ≤xi }
où 1{Xi ≤xti } est la fonction indicatrice. On peut estimer le paramètre α de la manière
suivante
T
X
α̂ = arg max ln c(ût1 , · · · , ûtn ; α); (3.8)
t=1
Cette méthode présente, non seulement l’avantage de procéder à une estimation pa-
ramétrique de la copule indépendamment de la forme paramétrique des lois marginales,
mais aussi génère un temps de calcul limité.
La méthode d’estimation des moments des copules consiste à estimer les paramètres
θi , i = 1, · · · , n des lois marginales et le paramètre α de la copule à partir des moments.
74
3.2 Éléments d’estimation géostatistique
1
θ= (3.9)
1−τ
Notons que la notion d’inférence statistique dans un cadre géostatistique consiste à re-
constituer les caractéristiques de la fonction aléatoire (en l’occurrence ses deux premiers
75
3.2 Éléments d’estimation géostatistique
− l’ergodicité de la fonction
− la stationnarité du processus
a) Hypothèse d’ergodicité
En particulier, dans notre cas, la connaissance d’un grand nombre de valeurs de la variable
régionalisée (une réalisation de la fonction aléatoire) est suffisante pour la description de
la fonction aléatoire. Dans ce cas, la moyenne spatiale réalisée sur la variable régionalisée
est alors supposée égale à l’espérance mathématique de la fonction aléatoire :
Z Z Z
1
m = E[Z(s)] = lim z(s)ds (3.11)
D→+∞ D D
L’étude des moments de la fonction aléatoire à partir d’une réalisation est alors possible.
b) Hypothèse de stationnarité
76
3.2 Éléments d’estimation géostatistique
N (h)
1 X
γe (h) = [Z(si + h) − Z(si )]2 (3.12)
2N (h) i=1
où N (h) est le nombre de paires de localités distantes de h. En appliquant une certaine
1
tolérance δh sur la distance (avec δh = d, d étant le pas considéré), le variogramme
2
expérimental peut être réécrit sous la forme
1 X
γe (h) = [Z(si + h) − Z(si )]2 , (3.13)
2n(h)
h−δh<|x−y|<h+δh
où n(h) est le nombre de paires de point dont l’inter-distance est comprise entre h − δh
et h + δh.
La figure ci-dessous donne une illustration sur son calcul.
b) Estimation du madogramme
1 X
M̂ (h) = |Z(si + h) − Z(si )|, (3.14)
2n(h)
h−δh<|x−y|<h+δh
où n(h) est le nombre de paires de point dont l’inter-distance est comprise entre h − δh
et h + δh.
77
3.2 Éléments d’estimation géostatistique
c) Estimation du rodogramme
1 X p
R̂(h) = |Z(si + h) − Z(si )|; (3.15)
2n(h)
h−δh<|x−y|<h+δh
où n(h) est le nombre de paires de point dont l’inter-distance est comprise entre h − δh
et h + δh.
Ces deux dérivés du variogramme sont souvent utilisées dans le cadre de la max-stabilité
ou dans le contexte des données spatio-temporelles.
a) Estimation du covariogramme
Dans le cas stationnaire, en utilisant la méthode des moments (qui consiste à remplacer
les moments de la loi spatiale par les moments empiriques correspondants), l’estimateur
78
3.2 Éléments d’estimation géostatistique
N (h)
1 X
Ĉ(h) = [Z(si ) − msi ][Z(si + h)) − msi +h ]; (3.16)
N (h) i=1
N (h)
1X
où msi = Z(si ).
n i=1
b) Estimation du corrélogramme
N (h)
1 X [Z(si ) − msi ][Z(si + h)) − msi +h ]
ρ̂(h) = (3.17)
N (h) i=1 σ2
N (h)
1X
où msi = Z(si ).
n i=1
Dans cette sous section, nous donnons quelques méthodes d’estimations du coefficient
extrémal bivarié d’un champ aléatoire max-stable ainsi que les paramètres de sa loi de
probabilité marginale bivariée.
Nous avons plusieurs approches pour estimer le coefficient extrémal.
79
3.2 Éléments d’estimation géostatistique
a) Approche de Smith
Soit Z = Z(x), x ∈ Rd un champ aléatoire max-stable simple et soient Z1 , . . . , Zn , n
réalisations indépendantes de Z. Alors, pour tout x ∈ Rd , la variable aléatoire 1/Z(x) suit
une loi de probabilité exponentielle standard ε(1). Et, pour tout x1 , x2 ∈ Rd , la variable
aléatoire min[1/Z(x1 ), 1/Z(x2 )] suit une loi de probabilité exponentielle de paramètre
θ(x2 − x1 ), où θ(x2 − x1 ) est le coefficient extrémal bivarié du champ aléatoire max-stable
Z entre les deux sites d’observation.
Richard L.Smith (2008) a proposé un estimateur
n
θ̂(x2 − x1 ) = n .
X
min[1/Zi (x1 ), 1/Zi (x2 )]
i=1
b) Approche du F-madogramme
1 + 2MˆF (x2 − x1 )
θ̂(x2 − x1 ) = ; (3.18)
1 − 2MˆF (x2 − x1 )
avec
n
1 X
MˆF (x2 − x1 ) = |F̂ [Zi (x2 )] − F̂ [Zi (x1 )]|;
2n i=1
où F̂ [Z(xj )] est la fonction de répartition empirique associée à la variable aléatoire Z(xj )
basée sur l’échantillon Z1 (xj ), Z2 (xj ), . . . , Zn (xj ).
c) Approche madogramme
L’estimation du coefficient extrémal par l’approche madogramme est aussi une méthode
proposée par Dan Coley et al. (2006). Cette méthode sert à estimer le coefficient extrémal
bivarié d’un champ aléatoire max-stable ayant des lois de probabilité marginales univariées
80
3.2 Éléments d’estimation géostatistique
avec
n
1 X
M̂ (x2 − x1 ) = |Zi (x2 ) − Zi (x1 )|.
2n i=1
n
Y Y
V Cr (ψ) = fi1 <i2 <···<ir (yi1 ,k , . . . , yir ,k , ψ), (yi1 ,k , . . . , yir ,k , ψ) ∈ Rr
k=1 i1 <i2 <···<ir
81
3.2 Éléments d’estimation géostatistique
n
X X
∀ψ ∈ Ψ, lr (ψ) = log[V Cr (ψ)] = log[fi1 <i2 <···<ir (yi1 ,k , . . . , yir ,k , ψ)].
k=1 i1 <i2 <···<ir
T
∂ ∂ ∂
Dr (ψ) = 5lr (ψ) = lr (ψ), lr (ψ), . . . , lr (ψ)
∂ψ1 ∂ψ2 ∂ψp
avec
n
∂ X X ∂
lr (ψ) = log[fi1 <i2 <···<ir (yi1 ,k , . . . , yir ,k , ψ)].
∂ψi k=1 i
∂ψi
1 <i2 <···<ir
n m−1
Y Y Y m
∀ψ ∈ Ψ, V P (ψ) = V C2 (ψ) = fi,j (yi,k , yj,k , ψ), (yi,k , xj,k ) ∈ R2
k=1 i=1 j=i+1
n m−1
X X X m
l2 (ψ) = log[V P (ψ)] = log[fi,j (yi,k , yj,k , ψ)], (yi,k , yj,k ) ∈ R2 .
k=1 i=1 j=i+1
T
∂ ∂ ∂
D2 (ψ) = 5l2 (ψ) = l2 (ψ), l2 (ψ), . . . , l2 (ψ) (3.20)
∂ψ1 ∂ψ2 ∂ψp
n m−1 m
∂
X X X ∂
avec l (ψ)
∂ψi 2
= log[fi,j (yi,k , yj,k , ψ)].
k=1 i=1 j=i+1
∂ψ i
82
3.2 Éléments d’estimation géostatistique
b) Propriétés de l’EMVC
avec :
n o n o
T T
H(ψ) = E − 5 [5lr (ψ)] et J(ψ) = E [5lr (ψ)] [5lr (ψ)] ;
où
∂2
T T ∂ ∂
5 [5lr (ψ)] = lr (ψ) et [5lr (ψ)] [5lr (ψ)] = lr (ψ) lr (ψ) .
∂ψi ∂ψj ∂ψi ∂ψj
H(ψ) et J(ψ) sont des matrices carrées d’ordre p dont les composantes respectives de
leurs iıème lignes et jıème colonnes Aij (ψ) et Bij (ψ) (i = 1, . . . , p et j = 1, . . . , p)
83
3.2 Éléments d’estimation géostatistique
∂2
∂ ∂
Aij (ψ) = −E lr (ψ) et Bij (ψ) = lr (ψ) lr (ψ) .
∂ψi ∂ψi ∂ψi ∂ψj
Pour l’application, les estimations de H(ψ) et J(ψ) sont capitales et sont données
respectivement par :
n
1 X ∂2
Âij (ψ̂M V C ) = − lr (ψ̂M V C )
n k=1 ∂ψi ∂ψi
et
n
1X ∂ ∂
B̂ij (ψ̂M V C ) = − lr (ψ̂M V C ) lr (ψ̂M V C )
n k=1 ∂ψi ∂ψj
avec
n
X X
lr (ψ̂M V C ) = log[fi1 ,...,ir (Yi1 ,k , . . . , Yir ,k , ψ̂M V C )].
k=1 i1 <···<ir
n
1X
EQM = e−i (xi ).
n i=1
84
3.2 Éléments d’estimation géostatistique
Les avantages de EQM résident dans le fait qu’il incorpore le biais et la variance de la
distribution des erreurs et que l’absence de division par l’écart type de krigeage évite la
dépendance des résultats par rapport au type de krigeage effectué. Le meilleur modèle est
celui qui présente la plus petite valeur de EQM.
Le krigeage est une méthode d’interpolation applicable à des données réparties dans
l’espace. Elle s’appuie sur les outils géostatistiques linéaires, notamment le variogramme.
La théorie du krigeage a été initialement développée par un mathématicien français (G.
Matheron) à partir des travaux de D.G.Krige (l’ingénieur minier sud-africain)[4]. Dans les
années 50, Krige a développé une série de méthodes statistiques empiriques permettant
de déterminer la distribution de minerais à partir d’un ensemble de forages. Il existe plu-
sieurs types de krigeage : le krigeage simple, le krigeage ordinaire, le krigeage universel,
le cokrigeage (voir [87] ; [83] ; [86]).
Nous nous limitons ici à la présentation des objectifs et principes du krigeage ; le kri-
geage simple et le krigeage ordinaire.
a) Objectifs
Le krigeage a pour objectif de prédire et sans biais une grandeur recherchée par une
combinaison linéaire pondérée des observations en prenant en compte non seulement les
informations de nature géométrique (nombre de sites de données) mais également les
informations structurales contenues dans le modèle variographique. De plus, il permet
d’apprécier quantitativement la précision de l’estimation, à l’aide d’une variance d’esti-
mation, ce qui est impossible sans le recourt à un modèle stochastique.
La résolution d’un problème d’estimation locale ou globale par krigeage s’articule tou-
jours autour des étapes suivantes :
85
3.2 Éléments d’estimation géostatistique
Le fait que le krigeage est l’estimateur linéaire de variance minimale se traduit par
quatre contraintes successives, qui permettent d’écrire le système de krigeage pour toutes
les variantes de la méthode.
• linéarité
Dans un souci de réalisme, on pose que la quantité à estimer est une fonctionnelle
linéaire de la fonction aléatoire étudiée. L’estimateur est posé comme combinaison
linéaire des données, de poids inconnus pour l’instant :
• autorisation
L’erreur d’estimation doit être une combinaison linéaire autorisée, c’est-à-dire que
son espérance et sa variance doivent être définies. La condition d’autorisation s’écrit
différemment selon le modèle sous-jacent supposé (on supposera toujours le support
borné). Dans le modèle stationnaire d’ordre 2, toutes les combinaisons linéaires sont
autorisées, et il n’y a pas de contrainte. Par contre, dans le modèle intrinsèque,
86
3.2 Éléments d’estimation géostatistique
une combinaison linéaire est autorisée si et seulement si son poids total est nul :
P
λi = 0
• universalité
On exige de l’estimateur qu’il ne présente pas de biais statistique par rapport à la
quantité à estimer. Cette contrainte peut être nommée contrainte de non-biais ou
d’espérance nulle.
n
X
Z(s
b 0) = λi Z(si ). (3.21)
i=1
Un tel estimateur est statistiquement satisfaisant s’il est sans biais et si la variance de
l’erreur commise est faible. Cela nous amène à chercher des poids λi qui assurent un biais
nul et qui minimisent la variance. Sous forme mathématique, ceci se traduit par :
h i
b 0 ) − Z(s0 ) = 0
E Z(s (3.22)
et
( " n # )
h i X
b 0 ) − Z(s0 ) = min V ar
V ar Z(s λi Z(si ) − Z(s0 ) , λ ∈ Rn . (3.23)
i=1
n
X
Zv∗ =m+ λi (Zi − m)
i=1
87
3.2 Éléments d’estimation géostatistique
n X
X n n
X
δe2 = V ar(Zv ) + λi λj Cov(Zi , Zj ) − 2 λi Cov(Zv , Zi ).
i=1 j=1 i=1
n
X
λj Cov(Zi , Zj ) = Cov(Zv , Zi ) ∀i = 1, . . . , n. (3.24)
j=1
n
X
2
δks = V ar(Zv ) − λi Cov(Zv , Zi ) (3.25)
i=1
Ks λs = ks =⇒ λs = Ks−1 ks
et
2 0
δks = δv2 − λs Ks .
88
3.2 Éléments d’estimation géostatistique
Dans le krigeage ordinaire, la moyenne n’est pas connue. L’estimateur prend alors la
forme :
n
X
Zv∗ = λi Zi .
i=1
Pn
Pour que l’estimateur soit sans biais, il faut imposer la contrainte habituelle : i=1 λi = 1.
On a un problème de minimisation sous contrainte. Ceci entraine l’utilisation de la
méthode de Lagrange, i.e. on forme le lagrangien.
n
!
X
L(λ, µ) = δe2 + 2µ λi − 1 . (3.27)
i=1
Soit
n X
X n n
X Xn
L(λ, µ) = V ar(Zv ) + λi λj Cov(Zi , Zj ) − 2 λi Cov(Zv , Zi ) − 2µ( λi − 1).
i=1 j=1 i=1 i=1
En posant les dérivées partielles par rapport à λ et µ égales à zéro, il vient alors ce système
linéaire de n + 1 équations à n + 1 inconnues suivant, pour i = 1, 2, . . . , n.
n
X
λj Cov(Zi , Zj ) + µ = Cov(Zv , Zi ) (3.28)
j=1
où
n
X
λj = 1.
j=1
n
X
2
δko = V ar(Zv ) − λi Cov(Zv , Zi ) − µ. (3.29)
i=1
89
3.3 Applications à l’estimation dans le domaine minier
δ 2 = δ 2 − λ0 K
ko v o o
Soit matriciellement
δ2 Cov(Z1 , Z2 ) . . . Cov(Z1 , Zn ) 1 λ1 Cov(Z1 , Zv )
Cov(Z2 , Z1 ) δ2 . . . Cov(Z2 , Zn ) 1 ··· ···
··· ··· ··· ··· ··· = ··· (3.30)
...
δ2
Cov(Zn , Z1 ) Cov(Zn , Z2 ) ... 1 λn Cov(Zn , Zv )
1 1 ... 1 0 µ 1
| {z } | {z } | {z }
Ko λo Ko
90
3.3 Applications à l’estimation dans le domaine minier
Le relief est orienté du sud-ouest au nord-est. Les roches du pays sont des calcaires
jurassiques d’âge argovien a portlandien, avec quelques sédiments quaternaires sur le sub-
strat inférieur. De minces manteaux de lœss couvrent une grande partie du territoire.
La terre est occupée depuis de nombreux siècles, et la plus grande partie est aujourd’hui
utilisée pour l’élevage du bétail. Environ 80% sont recouverts d’herbe permanente, qui
91
3.3 Applications à l’estimation dans le domaine minier
La région choisie pour l’étude couvre 14.5km2 dans le Jura du canton de Neuchâtel en
Suisse. Elle est délimitée au nord par les gorges du Doubs le long de la frontière française
et a l’est par celles de la Ronde. Elle fait partie d’un vaste plateau calcaire de haute alti-
tude. Le plateau lui-même est ondulé avec des pentes allant jusqu’à 10% et une altitude
allant d’environ 950m a 1070m au-dessus du niveau de la mer, et il est découpe a 870m
par les gorges a forte pente de la Ronde et du Doubs. Nous présentons la carte d’étude,
pour illustrer la zone d’échantillonnage des données et la carte de jura. Le relief est oriente
du sud-ouest au nord-est. Les roches du pays sont des calcaires jurassiques d’âge argovien
a portlandien, avec quelques sédiments quaternaires sur le substrat inférieur. De minces
manteaux de lœss couvrent une grande partie du territoire.
a) La lithologie
Le cobalt a d’abord été extrait de minerais arséniés avec une production de fumées
d’oxyde d’arsenic, toxique. C’est d’ailleurs de là que provient son nom, de l’allemand
Kobol signifiant lutin, car les premiers mineurs à avoir tenté de l’extraire pensaient que
cette réaction était le fruit d’un esprit maléfique (voir [50]). Il est aujourd’hui l’un des
métaux dont les réserves sont les plus critiques. De symbole Co, de numéro atomique 27,
de masse atomique 59 et de configuration électronique [Ar] 3d7 4s2 , le cobalt est un métal
de transition proche du fer, de couleur gris argenté lorsqu’il est pur (voir Figure 3.4).
92
3.3 Applications à l’estimation dans le domaine minier
Dans les gisements exploités, le cobalt est, en général, associé au cuivre ou au nickel et
est co-produit lors des opérations métallurgiques d’obtention des éléments. En 2018 72%
du cobalt extrait provient de mines de cuivre, 26% de mines de nickel et 1% et la mine
de la mine de cobalt de Bou Azzer.
b) La minéralisation
La majeure partie des gı̂tes minéraux de Suisse se résident dans les Alpes. Plus
précisément dans les roches de composition granitique et dans celles qui ont subi le
métamorphisme alpin. Les calcaires de la bordure nord des Alpes, le Moyen-Pays et le
Jura sont relativement pauvres en beaux minéraux. Le cœur des Alpes est marqué par
de grands ensembles de roches cristallines anciennes, granites, syénites, gneiss, schistes
et amphibolites qui constituent les massifs de l’Aar, du Gothard et du Tavetsch, séparés
les uns des autres par de minces zones de roches sédimentaires plus jeunes (voir [50]).
Dans la partie franco-italienne des Alpes, plus à l’ouest, les massifs du Mont-Blanc et des
Aiguilles-Rouges présentent les mêmes particularités.
93
3.3 Applications à l’estimation dans le domaine minier
La base de données provient d’une étude menée par l’école Polytechnique Fédérale
de Lausanne au printemps 1992 dans le Jura suisse, plus précisément autour de la ville
de La Chaux-de-Fonds. Elle se compose de 259 observations et de 11 colonnes. Les 11
colonnes sont constituées d’une part des coordonnées (x et y) des lieux où ont eu lieu
les prélèvements de concentrations ; et d’autre part par 9 variables. Les variables sont de
deux (02) types :
Dans cette représentation, les points bleu correspondent aux endroits où il y a eu
prélèvement. La section suivante, donne les caractéristiques de ces variables.
94
3.3 Applications à l’estimation dans le domaine minier
95
3.3 Applications à l’estimation dans le domaine minier
Cette représentation indique les variables qui présentent un lien linéaire. Plus précisément,
la coloration rouge indique une absence de corrélation, la coloration jaune indique une
corrélation moyenne entre les variables et celle verte indique une dépendance forte entre
ses variables. Ainsi, les variables fortements corrélées entre elles sont : Le Co et le Ni, le
Cr avec log(Cd) ou log(Zn) ou le Ni.
Dans la suite nous considérons pour notre étude la variable cobalt.
Dans cette base, nous choisissons un métal d’alliage pour la suite de l’étude. Il s’agit du
cobalt (Co). En effet, ce métal permet de former des alliages durs résistant à la corrosion.
On l’emploie également dans certains accumulateurs, particulièrement dans les électrodes.
Il est la source de fonctionnement des véhicules des portables, des ordinateurs... C’est ce
qui justifie notre choix pour cette étude.
96
3.3 Applications à l’estimation dans le domaine minier
La concentration du cobalt a été prélevé dans 259 sites. En somme la plus petite concen-
tration est de 1, 55 et la plus grande 17, 72. La concentration moyenne est de 9, 30 et 50%
des échantillons ont une valeur approximative de 9, 76 (voir 3.8).
97
3.3 Applications à l’estimation dans le domaine minier
: Cette nuée variographique illustre la présence de structuration spatiale car la plus part
des paires de point sont condensés vers le bas, mais aussi la présence de quelque valeurs
extrêmes dans les données de l’étude. Cela est matérialisé par la présence de quelques
points de la nuée situé vers le haut.
b) Le variogramme expérimental
Dans la démarche géostatistique, une des étapes primordiales est celle du calcul du
variogramme expérimental obtenu par la relation :
1 N (h)
γe (h) = Σi=1 [Z(si + h) − Z(si )]2 . (3.31)
2N (h)
98
3.3 Applications à l’estimation dans le domaine minier
Ainsi pour la première ligne on dira que : En considérant que le champ est isotrope,
il y a 342 pairs de sites qui sont distant de 0, 05811439 et la valeur du variogramme
expérimental vaut 2, 236511.
99
3.3 Applications à l’estimation dans le domaine minier
Dans la section suivante, nous ajustons le variogramme expérimental par les variogrammes
théoriques afin de choisir le meilleur modèle.
En ajustant le nuage de points par le modèle sphérique, on remarque que les divers points
sont réparties de part et d’autre de la droite d’ajustement. On peut conclure que cet
ajustement est meilleur.
100
3.3 Applications à l’estimation dans le domaine minier
101
3.3 Applications à l’estimation dans le domaine minier
Pour l’ajustement du modèle Exponentiel, on remarque qu’à partir d’une certaine dis-
tance d ∈ [0, 8; 2, 5], les points sont ne sont pas répartis de part et d’autre du nuage. Plus
précisément pour d ∈ [0, 8; 1, 8] les points sont situés au dessus de l’ajustement et pour
d ∈ [1, 8; 2, 5] ils sont situés en bas. On peut ainsi conclure que le modèle Exponentiel
n’ajuste pas très bien le nuage de points.
L’ajustement du nuage par le modèle de Matern est presque similaire à celui du modèle
Exponentiel.De façon analogue, on conclut que ce modèle n’ajuste pas très bien le nuage
de points.
Ce tableau montre que le modèle sphérique présente la plus grande valeur de l’effet pépite
et la plus grande valeur de la portée. Les modèles, exponentiel et Materne, quant à eux,
présentent la plus grande valeur du pallier.
102
3.3 Applications à l’estimation dans le domaine minier
e) Validation croisée
La validation croisée est une méthode qui permet de sélectionner le meilleur modèle
(plus précisément entre le modèle sphérique, le modèle exponentiel et le modèle de ma-
tern) de variogramme en géostatistique. En utilisant cette méthode, le meilleur modèle
est celui qui présente la plus petite valeur de la variance des écarts. La figure suivante
donne un résumé de ses variances :
Ce tableau montre que le modèle qui présente la plus petite valeur de la variance des
erreurs est le modèle sphérique. Ainsi, on peut conclure que le meilleur modèle c-à-d, qui
ajuste mieux le variogramme expérimental, est le modèle sphérique. Ses caractéristiques
sont :
103
3.3 Applications à l’estimation dans le domaine minier
1,305 pour h=0
γ(h) = 12,525 (0,82 h - 0,08 h3 ) pour 0 < h ≤ 1,1835 . (3.32)
12,525 pour h > 1,1835
Dans la suite, le modèle de variogramme [3.32] sera utilisé pour l’interpolation spatiale
de nos données.
104
3.3 Applications à l’estimation dans le domaine minier
Nous remarquons que les points de couleurs jaunes représentent les lieux où la concen-
tration est élevée contrairement aux points de couleurs noires. Pour plus de détail voir le
tableau de prédiction (voir le Table3.3).
105
3.3 Applications à l’estimation dans le domaine minier
Ce tableau résume les valeurs obtenues par krigeage. En particulier il donne pour chaque
coordonnée la valeur prédite et l’erreur de prédiction. La lecture se fait par ligne. Pour
la première ligne, on dira simplement que la valeur prédite au point de coordonnée
longitude = 4, 166 et latitude = 5, 66 est 10, 3803 et que l’erreur de prédiction est
3, 411836.
On peut toujours améliorer cette représentation en ajoutant des contours afin d’avoir un
regroupement des milieux de même concentrations. Nous obtenons ainsi la représentation
suivante :
106
3.3 Applications à l’estimation dans le domaine minier
De façon visuelle pour reconnaitre les zones prédites avec beaucoup d’erreur, il est nécessaire
de représenter la carte des erreurs de prédiction. Ainsi, en utilisant notre jeu de donné,
nous obtenons la carte des erreurs suivantes :
Cette représentation nous montre que la partie jaune est entassée de grande erreur
car cette partie n’a pas été échantillonnée. C’est l’erreur que l’on peut commettre en
considérant un domaine qui n’a pas exactement les mêmes dimensions que le domaine de
départ. C’est ce qu’on appelle en géostatistique les erreurs de bord.
Conclusion
Ce chapitre présente les outils d’estimation et d’interpolation géostatistique et une
application de ces outils aux jeux de données. Pour un échantillon prélevé sur un domaine
bien précis, ces outils d’analyses et d’interpolation ont permis d’avoir non seulement une
idée de la bonne répartition spatiale du phénomène, mais aussi et surtout, les valeurs
107
3.3 Applications à l’estimation dans le domaine minier
prédites dans les sites non encore échantillonnés. Dans la première section nous avons
présenté les estimateurs classiques de l’inférence statistique. En particulier, nous avons
rappelé la méthode des moments, la méthode IFM et la vraisemblance canonique. Dans
la deuxième section nous avons restreint l’estimation au contexte géostatistique. Ainsi, à
travers un travail original, nous modélisons les outils techniques (variogramme et dérivées)
de la géostatistique en utilisant la copule associée. Une troisième section a porté sur
l’application de ces outils d’estimation et de prédiction à un jeu de donnée du package R(
jeu de donnée jura).
108
Chapitre 4
L’origine des processus stochastiques remonte aux progrès réalisés au début du 20e
siècle dans certaines branches appliquées, telles que la mécanique statistique. Les bases
théoriques ont été formulées plus tard. C’est durant cette période que le mot ”stochas-
tique”, qui provient du grec stokhastikos ”conjectural”, a commencé à être employé.
D’autres progrès ont été faits aussi à partir du mouvement brownien en physique (par Ein-
stein, Lévy et Wiener). Les processus stochastiques décrivent l’évolution d’une grandeur
aléatoire en fonction du temps ou de l’espace. Il existe de nombreuses applications des pro-
cessus aléatoires notamment en biologie (génétique des populations), en médecine (crois-
109
4.1 Éléments de rappels sur les processus stochastiques
Définition 4.1.1 Un processus stochastique ou aléatoire X = (Xt )t∈T représente une fa-
mille de variables aléatoires indexées par un paramètre 1 . C’est une application de l’espace
probabilisé (Ω, F, P ) dans un espace probabilisable de fonctions (E, E), qui associe à tout
élément ω de Ω une fonction de la variable t ∈ T telle que :
La fonction, pour ω ∈ Ω fixé : t 7−→ Xt (ω)(t) = X(ω, t). est appelée trajectoire du
processus stochastique. On écrit Xt , t ∈ T ou plus simplement Xt .
Dans les sciences biomédicales ainsi que dans de nombreux autres domaines, le pa-
ramètre t est généralement lié au temps mais elle peut être de dimension multiple et
l’ensemble T est appelé espace de paramètres. En particulier, pour t ∈ T fixé, ω ∈ Ω −→
Xt (ω) est une variable aléatoire sur l’espace de probabilité Ω, A, P .
Plus précisément le tableau (4.1) donne les différents types de processus stochastiques
possibles.
E ↓ T −→ Discret Continu
Suite stochastique à espace Processus permanent
Discret
d’état discret à espace d’état discret
Suite stochastique à Processus permanent à
Continu
espace d’état continu espace d’état continu
1. Un processus stochastique peut décrire aussi l’évolution d’une grandeur aléatoire en fonction de
l’espace (statistique spatiale)
110
4.1 Éléments de rappels sur les processus stochastiques
Dans la modélisation des phénomènes par les processus stochastiques, les pas (accrois-
sements) de l’évolution du processus joue un très grand rôle. Ainsi, plusieurs processus
stochastiques sont caractérisés à partir de ce taux d’accroissements.
Une série temporelle ou série chronologique est une suite des variables aléatoires
représentant l’évolution d’une quantité spécifique au cours du temps. Une série chro-
nologique est donc la réalisation d’un processus aléatoire indexé par le temps et noté
{Xt , t ∈ R+ }. Pour chaque t, Xt est une variable aléatoire dont sa réalisation est Yt .
• Processus de Markov
La famille des processus markoviens occupe une place de choix dans la modélisation
stochastique.
• Processus de comptage
Les sauts du processus correspondent à des instants aléatoires où se produisent certains
événements spécifiques qui sont, dans les exemples précédents, la réception d’un appel dans
le central téléphonique, l’émission d’une particule radioactive ou bien l’arrivée d’un client
devant un guichet. Le modèle adapté est celui de processus de comptage.
111
4.1 Éléments de rappels sur les processus stochastiques
Définition 4.1.3 Désignons par {N (t), t > 0} le nombre des événements se produisant
dans l’intervalle de temps [0, t] et supposons que N (0) = 0. Le processus {N (t), t > 0} est
appelé processus de comptage.
iii) Pour tout couple (a, b)(0 < a < b), la différence N (b) − N (a) représente le nombre
des événements se produisant dans l’intervalle de temps ]a, b].
• Processus de Poisson
i) N(0)=0 ;
• Processus de renouvellement
112
4.1 Éléments de rappels sur les processus stochastiques
• fi (t) = f (t); ∀ i ≥ 2
Définition 4.1.5 Soit Xt = (Xt1 , ..., Xtn ) une famille de variables aléatoires. Xt est un
processus gaussien sur S, si pour toute partie finie Λ ⊂ S et pour tout n-uplet de nombres
réels (λ1 , ..., λn ) ∈ Rn , la combinaison linéaire ni=1 λi Xti est une variable aléatoire gaus-
P
sienne.
P
En notant mΛ = E(XΛ ) la moyenne de XΛ = (Xs , s ∈ Λ) et Λ sa covariance, alors,
P
si Λ est inversible alors XΛ admet pour densité (on dit aussi pour vraisemblance) par
rapport à la mesure de Lebesgue sur RCard(A) . La fonction densité de XΛ est alors donnée
par :
X − 1 h −1
X i
−CardΛ/2 t
fΛ (xΛ ) = (2π) det 2
exp − 1/2 (xΛ − mΛ ) (xΛ − mΛ ) , (4.3)
Λ Λ
113
4.2 Propriétés stochastiques du modèle SEIRS
mouvement brownien.
Dans ce travail, nous proposons une version stochastique d’un modèle SEIRS (susceptibles-
exposés-infectés-retirés-susceptibles) pour les maladies infectieuses évoluant dans un en-
vironnement aléatoire pour la propagation des maladies infectieuses. Ce modèle aléatoire
prend en compte les taux d’immigration et de mortalité dans chaque compartiment et la
propagation de ces maladies suit un processus markovien à quatre états. Nous étudions
d’abord la stabilité du modèle puis estimons les paramètres marginaux (moyennes, va-
114
4.2 Propriétés stochastiques du modèle SEIRS
riances et covariance) de chaque état pathologique dans le temps. Des données réelles sur
la rougeole sont appliquées au modèle.
Dans cette section, nous proposons une version stochastique du modèle SEIRS. Nous
considérons le modèle stochastique SEIRS [39] dont le diagramme de la dynamique de la
propagation de la maladie est décrit dans par la figure 4.2. Le modèle basé sur la chaine de
Markov en temps et à espace d’états discret via les processus de naissance et de mort pour
décrit la propagation des maladies infectieuses évoluant dans un environnement aléatoire.
115
4.2 Propriétés stochastiques du modèle SEIRS
Nous résumons dans le tableau (4.2), l’ensemble des paramètres qui seront décrits dans
le modèle.
taux et signification
λ le taux de nouveau-nés
α le taux d’attaques de la maladie
β Le taux d’infection
γ taux de récupération
θλ le taux de nouveau-nés vaccinés et immunisés contre la maladie
τ le tau des individus guéris mais ayant perdu leur immunité temporaire
η le tau des individus saints vaccinés et immunisés contre la maladie
θ le tau des nouveau-nés non vaccinés
σi , i = 1.4 taux d’immigrants dans différents compartiments
µi , i = 1.4 taux de mortalité des compartiments indépendamment de la maladie
Xi, i = 1, 4 Les étapes du processus
116
4.2 Propriétés stochastiques du modèle SEIRS
Les intensités des transitions sont définies comme une limite de probabilité des tran-
sitions entre les instants t et t+dt, lorsque dt tend vers zéro [32]. Sous l’hypothèse de
l’existence de ces limites, déterminons les lois de probabilité infinitésimales de chaque
processus sur un petit intervalle de temps dt.
• Naissance et émigration de S
Une fois la population vaccinée, le compartiment S contient des individus non immu-
nisés qui sont donc sensibles à la maladie. Parmi ces individus se trouvent des immigrés
avec un taux σ1 d’une autre localité et des nouveau-nés non immunisés contre la maladie
avec un taux λ. La probabilité qu’il y aura une naissance puis une immigration d’une
personne sensible dans l’état de processus n est donnée par :
S(t + dt) = n/S(t) = n − 1
E(t + dt) = m/E(t) = m
P = [λ(1 − θ)(n − 1) + σ1 ]dt + 0(dt).
0 0
I(t + dt) = n /S(t) = n
0 0
R(t + dt) = m /S(t) = m
• Mortalité de S
• Transition de S à E
Les individus du compartiment S entrent en contact avec des personnes infectées avec
un taux α et s’exposent à la maladie. La probabilité de passage de l’état n à l’état m est
donné par :
117
4.2 Propriétés stochastiques du modèle SEIRS
S(t + dt) = n/S(t) = n + 1
E(t + dt) = m/E(t) = m − 1
P
0 0
= α(n + 1)dt + 0(dt)
I(t + dt) = n /S(t) = n
0 0
R(t + dt) = m /S(t) = m
• Mortalité de E
La probabilité de décès dans l’état m du processus est donnée par :
S(t + dt) = n/S(t) = n
E(t + dt) = m/E(t) = m − 1
P
0 0
= µ2 dt + 0(dt)
I(t + dt) = n /S(t) = n
0 0
R(t + dt) = m /S(t) = m
• Mortalité de I
La probabilité qu’il y aura des décès quelle que soit la cause de la maladie parmi les
0
personnes infectées dans l’état n du processus est donnée par :
S(t + dt) = n/S(t) = n
E(t + dt) = m/E(t) = m + 1
P
0 0
= µ3 dt + 0(dt).
I(t + dt) = n /S(t) = n
0 0
R(t + dt) = m /S(t) = m
• Mortalité de R
0
La probabilité de décès parmi les personnes rétablies à l’état m du processus est
donnée par :
S(t + dt) = n/S(t) = n
E(t + dt) = m/E(t) = m
P
0 0
= µ4 dt + 0(dt).
I(t + dt) = n /S(t) = n
0 0
R(t + dt) = m /S(t) = m + 1
118
4.2 Propriétés stochastiques du modèle SEIRS
• Immigration de E
• Transition de E à I
• Immigration de I
0
La probabilité d’immigration vers l’état n du processus dans le compartiment I est :
S(t + dt) = n/S(t) = n
E(t + dt) = m/E(t) = m
P 0 0
= σ3 dt + 0(dt)
I(t + dt) = n /S(t) = n − 1
0 0
R(t + dt) = m /S(t) = m
• Transition de I à R
0
Individus infectés I guéris avec un taux γ. La probabilité de passage de l’état n à
0
l’état m est donné par :
119
4.2 Propriétés stochastiques du modèle SEIRS
S(t + dt) = n/S(t) = n
E(t + dt) = m/E(t) = m
P
0 0
= γ(n3 + 1)dt + 0(dt)
I(t + dt) = n /S(t) = n + 1
0 0
R(t + dt) = m /S(t) = m − 1
• Immigration de R
0
La probabilité d’immigration dans le compartiment R dans un état m du processus
est :
S(t + dt) = n/S(t) = n
E(t + dt) = m/E(t) = m
P
0 0
= [σ4 + θλ]dt + 0(dt)
I(t + dt) = n /S(t) = n
0 0
R(t + dt) = m /S(t) = m − 1
• Transition de R à S
• Transition de S à R
Les individus immunisés contre la maladie avec un taux τ après la couverture vaccinale
0
directe intègre les compartiments R. La probabilité de la transition de l’état n à l’état m
est donc :
S(t + dt) = n/S(t) = n + 1
E(t + dt) = m/E(t) = m
P
0 0
= η(n + 3)dt + 0(dt).
I(t + dt) = n /S(t) = n
0 0
R(t + dt) = m /S(t) = m − 1
120
4.2 Propriétés stochastiques du modèle SEIRS
La propriété de Markov pour la loi d’un processus multi-états est que les événements
{X(t) = j}, j = 0, ..., n sont indépendants du passé Xn−1 étant donné X (s). Pour les
processus de Markov, les matrices de probabilité de transition satisfont à la propriété
de Chapman-Kolmogorov [1]. L’ensemble des intensités de transition forme la matrice
d’intensité de transition Q. La somme des termes de chaque ligne de ces matrices est
égale à zéro. Nous avons la matrice des probabilités de transmission Q donnée par :
−M1 + µ1 + α α 0 η
0 −M2 + µ2 β 0
Q=
−M3 + µ3
0 0 γ
τ 0 0 −M4 + τ + µ4
Où
M1 = λ(1 − θ) + σ1 + η
M = α + β + σ2
2
⇒ (4.5)
M3 = β + γ + σ3
M = γ + η + θλ + σ
4 4
121
4.2 Propriétés stochastiques du modèle SEIRS
En utilisant la fonction génératrice des cumulants [53], nous calculons ensuite les
moyennes, les variances et les covariances des états pathologiques en fonction du temps.
À cette fin, la fonction génératrice de probabilité est définie par :
X 0 0 0 0
Φ(x1 , x2 , x3 , x4 , t) = p(n, m, n , m , t)xn1 xm n m
2 x 3 x4 .
n,n0 ,m,m0 >0
122
4.2 Propriétés stochastiques du modèle SEIRS
∞
X 0 0 0 0
M (a1 , a2 , a3 , a4 , t) = p(n, n , m, m , t)ea1 n ea2 n ea3 m ea4 m . (4.6)
0 0
n,n ,m,m =0
∞ 0 0
X an1 an2 am m
3 a4
K(a1 , a2 , a3 , a4 , t) = k 0 0 (a1 , a2 , a3 , a4 , t) (4.7)
0 0
n! n ! m! m0 ! nn mm
0
n,n ,m,m =1
dr K(a1 , a2 , a3 , a4 , t)
knn0 mm0 (a1 , a2 , a3 , a4 , t) = |t=0 . (4.8)
dtr
De plus, la fonction génératrice des cumulants est calculée comme suit :
Et
∂M (a1 , a2 , a3 , a4 , t) = eK ∂K(a1 , a2 , a3 , a4 , t). (4.10)
P ∞ ai
En remplaçant ea = i=0 dans (4.7) puis, en dérivant les fonctions K(a1 , a2 , a3 , a4 , t),
i!
il s’en suit que :
123
4.2 Propriétés stochastiques du modèle SEIRS
∞ ∞
∂K(a1 , a2 , a3 , a4 , t) h X an1 X (−a1 )n i ∂k 0 0 (a , a , a , a , t)
nn mm 1 2 3 4
= 1 + 3 − 2 (4.11)
∂t n=0
n! n=0
n! ∂a 1
∞ 0 ∞ ∞ 0
h X an2 X an1 X (−a2 )n
+ σ2 +α − 4
0
n0 ! n=0
n! 0
n 0
!
n =0 n =0
i ∂k 0 0 (a , a , a , a , t)
nn mm 1 2 3 4
− 5
∂a2
∞ ∞ 0 ∞
h X am
3
X an2 X (−a3 )m
+ σ3 +β
m=0
m! 0
n0 ! m=0 m!
n =0
∞ m
(−a3 )
X i ∂k 0 0 (a , a , a , a , t)
nn mm 1 2 3 4
− 7 − 6
m=0
m! ∂a3
∞ ∞ 0 ∞ ∞ ∞ 0 0
h X a4m X an1 X (−a4 )m X am
3
X (−a4 )m
+ σ4 +η +γ
0
m0 ! n=0
n! m=0 m0 ! m=0
m! 0 m0 !
m =0 m =0
∞ 0
X (−a4 )m i ∂k 0 0 (a , a , a , a , t)
nn mm 1 2 3 4
− 9 0 − 8 .
0
m ! ∂a 4
m =0
∞ 0 0
∂K(a1 , a2 , a3 , a4 , t) X an1 an2 am m
3 a4 0
= 0 0 kn,n0 ,m,m0 (a1 , a2 , a3 , a4 , t). (4.14)
∂t 0 0
n! n ! m! m !
n,n ,m,m =0
124
4.2 Propriétés stochastiques du modèle SEIRS
ρ1 = σ4 + σ2 + η + 8 − 5 − 4 + 3 − 2 + γ + α
ρ2 = σ4 + η + 8 − 4 + 3 − 2 + γ + α + β
ρ3 = σ4 + σ3 + σ2 + η − 9 + 8 − 7 + 6 − −5 − 4 + 3 − 2 + γ + α + β
ρ4 = σ3 − 7 + 6 − β (4.16)
ρ5 = σ3 + σ7 − β
ρ6 = σ4 + σ3 + σ2 + η − 9 + 8 − σ7 + 6 − 5 − 4 + 3 − 2 + γ + α + β
ρ = σ + − + + β
7 3 7 6
125
4.2 Propriétés stochastiques du modèle SEIRS
dV (X1 )
= 12 (σ2 + η + 2 + 3 + γ + α)V (X1 )
dt
dV (X2 )
= 12 (σ4 + σ2 + η + 6 + 3 + 2 + γ + β)V (X2 )
dt
. (4.17)
dV (X3 )
= 12 (σ4 + σ3 + σ2 + η + 9 + 3 + 2 + γ + β)V (X3 )
dt
dV (X4 ) = 1 (σ4 + σ3 + σ2 + η + 9 + 8 + 7 + +6 + +5 + 3 + α)V (X4 )
2
dt
Le degré des liens entre les différents états du processus peut être estimé à partir des
covariables en résolvant les équations différentielles de la relation (4.18).
dCOV (X1 X2 )
= (σ4 + σ2 + η − 9 + 8 + 3 − 2 + γ + α)COV (X1 X2 )
dt
dCOV (X1 X3 )
= (σ4 + σ3 + σ2 + η − 9 + 8 − 7 + 6 − 5 − 4 + 3 − 2 + γ + α + β)COV (X1 X3 )
dt
dCOV (X2 X3 )
= (σ4 + σ3 + σ2 + η − 9 + 8 − 5 − 4 + 3 − 2 + γ + α + β)COV (X2 X3 )
dt
dCOV (X2 X4 )
= (σ4 + σ2 + η − 9 − 5 − 4 + 3 − 2 + γ + α + β)COV (X2 X4 )
dt
dCOV (X3 X4 )
= (σ4 + σ3 + σ2 − 9 + 8 + 7 + 6 − 5 − 3 − 2 + α + β)COV (X3 X4 )
dt
dCOV (X1 X4 ) = (σ4 + σ2 + η − 9 − 5 − 4 + 3 − 2 + γ + α)COV (X1 X4 )
dt
(4.18)
La résolution du système d’équations écrites par les relations (4.15), (4.17) et (4.18)
ont pour conditions initiales :
126
4.3 Probabilité d’extinction du modèle SEIRS
S(0) = S0 > 0, E(0) = E0 ≥ 0, I(0) = I0 > 0, R(0) = R0 ≥ 0
Φ(x1 , x2 , x3 , x4 , 0) = xS1 0 xE0 I0 R 0
2 x3 x4 , M (a1 , a2 , a3 , a4 , 0) = e
a1 S0 a2 E0 a3 I0 a4 R0
e e e
. (4.19)
K(a1 , a2 , a3 , a4 , 0) = a1 S0 + a2 E0 + a3 I0 + a4 R0
E(X (0)) = S , E(X (0)) = E , E(X (0)) = I , E(X (0)) = R .
1 0 2 0 3 0 4 0
Dans cette sous-section, nous proposons une approche probabiliste pour étudier l’ex-
tinction d’un processus de contamination d’une maladie transmissible dans une population
donnée assimilant un modèle stochastique de type SEIRS évoluant dans un environne-
ment aléatoire, et dont la version stochastique a été proposée (voir la section précédente)
pour les maladies infectieuses. On détermine d’abord la reproduction tau R0 du modèle
déterministe du phénomène et on détermine la probabilité d’extinction du processus en
étudiant la stabilité du système stochastique puis par simulation on fait une comparaison
des résultats obtenus.
127
4.3 Probabilité d’extinction du modèle SEIRS
128
4.3 Probabilité d’extinction du modèle SEIRS
de base. R0 est l’un des concepts clés que les mathématiques ont apporté dans la théorie
des épidémies. Calculer la quantité R0 , nécessite au préalable la détermination des points
d’équilibres de la maladie.
Le bilan de masse à travers les compartiments (fig 4.2) nous donne les équations
décrivant la propagation de la maladie comme suit :
dX1 (t)
= (λ − θ) − (µ1 + η)X1 (t) + αX3 (t)X1 (t) + τ X4 (t) + σ1
dt
dX2 (t)
= αX3 (t)X1 (t) − (µ2 + β)X2 (t) + σ2
dt
dX3 (t) (4.20)
= βX2 (t) − (µ3 + γ)X3 (t) + σ3
dt
dX4 (t)
= γX3 (t) + ηX1 (t) − (τ + µ3 )X4 (t) + θ + σ4
dt
X (0) = x0 , X (0) = x0 , X (0) = x0 , X (0) = x0
1 1 2 2 3 3 4 4
129
4.3 Probabilité d’extinction du modèle SEIRS
π = λ + σ1
ε = µ1 + η
Ω = µ2 + β
(4.22)
Γ = µ3 + γ
K = τ + µ3
φ=θ+σ
4
π−θ T
w= , 0, 0 . (4.23)
ε
αX1 (t)X3 (t) + σ2 ΩX2 (t)
F(X2 (t), X3 (t)) = ; V(X2 (t), X3 (t)) = (4.25)
0 −βX2 (t) + ΓX3 (t) − σ3
130
4.3 Probabilité d’extinction du modèle SEIRS
α(π − θ)
0 Ω 0
ε
F (w) = ; V (w) = (4.27)
0 0 −β Γ
1
α(π − θ) αβ(π − θ) α(π − θ)
0 0
ε Γ εΩΓ εΓ
K = F V −1 = =
β 1
0 0 0 0
ΩΓ Γ
αβ(λ + σ1 − θ)
R0 = . (4.28)
(µ1 + η)(µ2 + β)(µ3 + γ)
131
4.3 Probabilité d’extinction du modèle SEIRS
où
X 0 0 0 0
G(t, x1 , x2 , x3 , x4 ) = p(t, n, m, n , m )xn1 xn2 xm m
3 x4 ; (4.30)
(t)
dGj Xh
(t)
i
(t)
(s) = aij (−s) 1 − Gj (s) − bij (−s) Gi (s). (4.31)
ds i
où aij (t) et bij (t), ∀ 1 ≤ i, j ≤ 4 sont respectivement les composantes des matrices des
taux de naissances A(t) et de mortalité B(t) obtenues dans les travaux de Barro et all
[39], où
λ(1 − θ) + σ1 0 0 0
µ +α+η −α 0 −η
1
0 σ2 0 0
0 µ2 + β −β 0
A(t) = ; B(t) = (4.32)
0 0 σ3 0
−γ
0 0 µ3 + γ
0 0 0 σ4
−τ 0 0 µ4 + τ
132
4.3 Probabilité d’extinction du modèle SEIRS
0 0
w = w1n w2n w3m w4m (4.33)
(t)
wj = 1 − lim Gi (0); (4.34)
t→∞
(t)
et Gi (s), pour t > 0 sont des solutions obtenues de la résolution du système suivant :
(t)
dG1 h
(t)
i
(t)
(s) = τ + p 1 − G1 (s) − q G1 (s)
ds
(t)
dG2 h
(t)
i
(t)
(s) = α + σ2 1 − G2 (s) − (µ2 + β) G2 (s)
ds
(t)
dG3 h
(t)
i
(t)
(s) = β + σ 3 1 − G 3 (s) − (µ 3 + γ) G3 (s)
ds
dG4
(t) h i (4.35)
(t) (t)
(s) = η + γ + σ4 1 − G4 (s) − (µ4 + γ) G4 (s)
ds
(t)
Gj (−t) = 1
p = λ(1 − θ) + σ1
q =α+η+µ .
1
133
4.3 Probabilité d’extinction du modèle SEIRS
D’après les travaux de Arnold (1998), l’étude de la stabilité du système (voir [58]),
peut se ramener à celle du système d’équations différentielles homogènes suivantes :
dX(t)
= HX(t); (4.36)
dt
où X ∈ R4 désigne les différents états du processus et
λ + σ1 − ~ α 0 η
0 σ 2 − µ2 − β β 0
H= ; (4.37)
σ3 − µ3 − γ
0 0 γ
0 0 0 σ 4 − µ4 − τ
Par ailleurs, Bacaer et Khaladi (2012) ont aussi montré que l’étude de la stabilité de
[61] peut être alternativement formulée en termes de réproductivité nette R0 .
On supposera par la suite que la matrice H est irréductible c’est-à-dire que le graphe
G(H) est fortement connexe. Soit f (x) le polynôme caractéristique de la matrice H, défini
par f (x) = det(H −xI), Les valeurs propres, composantes du vecteur U suivants, associées
à la matrice H sont les solutions de l’équation f (x) = 0 :
λ + σ1 − ~
σ 2 − µ2 − β
U = . (4.38)
σ3 − µ3 − γ
σ4 − µ4 − τ
Comme dans [59, 58], toutes les valeurs propres de la matrice H, ayant une partie
réelle strictement négative, c’est à dire Re(Ui ) < 0, 1 ≤ i ≤ 4, alors la solution nulle du
134
4.3 Probabilité d’extinction du modèle SEIRS
3(σ4 − µ4 − τ ) + µ2 + β + µ3 + γ − σ1 − σ2 − σ3 − λ − ~ = 0. (4.40)
α
P2 =
~ + σ2 − λ − σ1 − µ2 − β
α
P4 =
~ + σ3 − λ − σ1 − µ3 − γ
. (4.41)
µ2 + β + σ 3 − µ3 − σ 2 − γ
P6 =
β
P9 =
η
λ + σ 1 + τ + µ4 − ~ − σ 4
La matrice H(t) peut donc se mettre sous la forme :
H = P DP −1 . (4.42)
135
4.3 Probabilité d’extinction du modèle SEIRS
1 P 2 P4 P9 B 0 0 0 P −P2 P6 P2 0
1 6
0 1 1 0 0 B2 0 0 −P6 P2 −1 1
(4.43)
0 0 P6 0 0 0 B3 0 0 0 1 0
0 0 0 1 0 0 0 B4 0 0 0 P6
où
B1 = λ + σ1 − ~
B = σ 2 − µ2 − β
2
(4.44)
B3 = σ3 − µ3 − γ
B =σ −µ −τ
3 4 4
ζ = λ + σ1 − ~
U = P −1 X(t) ∆ = σ2 − µ2 − β
and . (4.45)
U 0 = P −1 X 0 (t)
$ = σ 3 − µ3 − γ
κ = σ − µ − τ.
4 4
136
4.3 Probabilité d’extinction du modèle SEIRS
(1 − P6 )P2 x02 e∆t + (1 − P6 )x01 eζt + P6 x02 e∆t + P6 x01 eζt − P6 P2 x03 e$t − x04 eκt
X (t) =
1
P6 (1 − P6 )
P6 x02 e∆t + P6 x01 eζt − P6 P2 x03 e$t − x04 eκt
X (t) =
2
P P (1 − P )
6 2 6
X3 (t) = x03 e$t
x0
X4 (t) = 4 eκt .
P6
(4.46)
Conclusion
Ce chapitre est une contribution au modèle stochastique SEIRS et sa probabilité d’ex-
tinction. Plus précisément, dans la première section nous avons présenté le cadre stochas-
137
4.3 Probabilité d’extinction du modèle SEIRS
tique à travers un rappel des principaux outils sur les processus aléatoires nécessaires à la
modélisation, objet du présent travail. Dans les deux dernières sections, nous avons donné
une approche stochastique du modèle SEIRS et sa probabilité d’extinction à travers des
concepts de bases et des notions fondamentales.
138
Conclusion générale
Notre thèse avait pour objectif de contribuer à la modélisation en utilisant des outils
géostatistiques et leur utilisation dans l’estimation dans le domaine des mines. Nous avons
ainsi exploré les outils géostatistique d’analyse structurale et de prédiction.
Dans un premier temps, nous avons présenté les outils géostatistiques nécessaire pour
notre étude. Plus précisement, il s’est agit de rappeler les outils d’analyse structurale et
les concepts fondamentaux du contexte minier. Nous y avons exposé les modèles théoriques
de variogramme pour la modélisation de la structure de dépendance.
Ensuite, après avoir rappelé les généralités des copules multivariées et leurs propriétés, un
premier résultat nous a permis de modéliser les outils techniques géostatistiques tels que
le variogramme, le corrélogramme et le madogramme. En particulier, cette étude montre
que les outils de dépendance géostatistique linéaire modélisés peuvent être utilisés pour
caractériser les dépendances linéaires et non linéaires d’une part, et analyser des données
extrêmes d’autre part.
Par ailleurs, nous avons présenté à travers le troisième chapitre, les modèles géostatistiques
et estimation. Plus précisément, du coté théorique, nous avons estimé les modèles de va-
riogramme et présenté les méthodes de prédiction. En termes d’application, nous avons
analysé la dépendance spatiale des concentration de cobalt, estimé ces concentrations dans
les zones non échantillonnées et dressé la carte des erreurs de prédiction en utilisant les
outils géostatistiques.
Enfin, les méthodes spatiales étant le fondement de l’épidémie spatiale à travers les pro-
babilité d’extinction nous avons établi le liens entre l’épidémiologie et la géostatistique.
Ainsi, grâce aux outils géostaistiques, nous avons pu déterminer les probabilités de pas-
sage d’un état à un autre dans le modèle SEIRS.
139
Les perspectives de cette étude sont nombreuses et de divers domaine. A cours terme, nous
comptons estimer les outils modélisés à partir des copules afin de les appliquées dans un
contexte minier. Plus précisément, il sera question de trouver un algorithme permettant
d’analyser la répartition des métaux à partir des échantillons prélevés sur un domaine
donné. De même, dans le domaine minier, les variations des teneurs des minerais sont
brusques d’un milieu à un autre (cas de l’or). Ainsi, l’estimation et l’application des ou-
tils de dépendances extrêmes à partir des copules (extrémogramme, coefficient extrémal)
peuvent permettre d’étudier la dépendance spatiale asymptotique de la distribution de
ces teneurs. A long terme, nous avons pour projet, d’utiliser les outils géostatistiques dans
un contexte épidémiologique. Plus précisément, il s’agira pour nous en cas d’épidémie, de
donner la carte de probabilité de contraction de la maladie, ou la carte d’extinction de
cette épidémie en se basant sur la proximité (dépendance des voisins) des zones.
140
Annexe
Enoncé du théorème
Preuve .0.2 Supposons qu’il existe une suite de normalisation {(δn , λn ) , n ≥ 1} telle que
δn > 0 et la suite de terme δn−1 (Mn − λn ) converge en loi vers une loi limite G non
constante. Pour toute fonction g continue et bornée, on a :
Supposons par simplicité que la loi X1 possède la densité f > 0. Alors, la loi de Mn
possède la densité nF (x)n−1 f (x) d’après (2.3). On a donc :
Z
x − λn
nF (x)n−1 f (x) dx
−1
In = E g δn (Mn − λn ) = g
R δn
Comme f > 0, la fonction F est inversible et d’inverse connue. On pose pour t > 1
−1 1
U (t) = F 1− .
t
En particulier, on a
1 1
U (t) = x ⇐⇒ 1 − = F (x) ⇐⇒ P (X > x) = .
t t
On effectue le changement de variable
v n
F (x) = 1 − , i.e x = U .
n v
On obtient n
Z U − λn
1− v
n−1
In = g v 1]0,n] (v) dv.
R δn n
141
v n−1
Remarquons que 1 − 1]0,n] (v) converge en croissant vers e−v 1{v>0} .
n
Comme par hypothèse In converge pour tout g, il est naturel, mais erroné à priori, de
penser que pour tout v > 0, la suite de terme
n
U − λn
Jn (v) = v
δn
converge.
Supposons malgré tout que cette convergence ait lieu. On déduit en considérant
1
Jn − Jn (1) que pour tout w > 0,
w
U (wn) − U (n)
−→ h (w) .
δn n→+∞
Comme la variable W est non triviale cela implique que la fonction h n’est pas égale
à constante. Comme la fonction U est croissante, la fonction h est également croissante.
Supposons que plus généralement, on ait pour tout w > 0,
U (wx) − U (x)
−→ h (w) ,
δ (x) n→+∞
où δ (x) = δdxe pour x ≥ 1, dxe désignant la partie entière de x. Soit w1 , w2 > 0, on a
U (w1 w2 x) − U (x) U (w1 w2 x) − U (xw1 ) δ (xw1 ) U (w1 x) − U (x)
= + .
δ (x) δ (xw1 ) δ (x) δ (x)
δ (xw1 )
En faisant tendre x vers l’infini dans l’égalité ci-dessous, on obtient que
δ (x)
converge pour tout w1 > 0. En notant l (w1 ) la limite, il vient que
Par ailleurs, la fonction l est mesurable et localement bornée. Comme la fonction h est
croissante et non constante, on en déduit que l est strictement positive. De plus yw0 = x,
on a pour w0 > 0
δ (xw) δ (yw0 w) δ (y) l (w0 w)
l (w) = lim = lim = .
x→+∞ δ (x) y→+∞ δ (y) δ (yw0 ) l (w0 )
Ainsi pour tous w, w0 > 0, on a
142
. Si ξ 6= 0, par symétrie, on a
En particulier, on a
h (w1 ) 1 − w2ξ = h (w2 ) 1 − w1ξ
h (w)
Cela implique que h (w) = 0 et w = 1, et sinon est constant.
1 − wξ
Par conséquent, on obtient h (w) = c wξ − 1 . A un changement d’échelle près, on
1
peut choisir c = et à une translation près, on peut choisir U (n) = bn
ξ
En définitive, il vient que
n
v −ξ − 1
U − λn 1 si ξ 6= 0
lim v =h = ξ
n→+∞ δn v
−log (v) si ξ = 0
v −ξ − 1
où on a posé y = si ξ 6= 0 et y = log (v) si ξ = 0
ξ
−1/ξ
Ainsi, la distribution de la loi limite est Hξ (x) = e−(1+ξx) .
143
G(a+) pour x ≤ a et G(x) = G(b − 0) pour x ≥ b.
En règle générale, on peut considérer G simplement comme défini sur R. Dans ce cas,
a = lep(G) et b = uep(G) sont appelés extrémité inférieure et supérieure du point final
de G.
La fonction inverse généralisée de G est donnée par :
Les propriétés de G−1 ont été minutieusement étudiées, notamment dans Billinsgley
(1968), Resnick (1987). Les résultats dont nous avons besoin dans cet article sont ras-
semblés et prouvés dans wcrv ou dans Lo et al. (2016b) (Chapitre 4, Section 1) et rappelé
ci-dessous.
Lemme .0.1 Soit G une fonction continue à droite non décroissante avec la notation
ci-dessus. Alors G−1 est continu à gauche et on a
∀u ∈ [c, d], G(G−1 (u) ≥ u (A) ∀x ∈ [a, b], G−1 (G(x)) ≤ x (B)
and
Preuve .0.3 Les preuves des formules (A) et (B) sont bien connues et peuvent être trouvé
dans les livres cités ci-dessus. Prouvons la formule (47) pour tout x ∈ [a, b].
D’une part, nous commençons par la remarque que G−1 (G(x)+0) est la limite de G−1 (G(x)+
h) quand h & 0. Mais pour tout h > 0, G−1 (G(x) + h) est le minimum de l’ensemble
de y ∈ [a, b] tel que G(y) ≥ G(x) + h. N’importe lequel de ces y satisfait y ≥ x. D’où
G−1 (G(x) + 0) ≥ x.
D’autre part, G(x + h) & G(x) par continuité à droite de G, et par l’existence de la limite
droite de la fonction non décroissante G−1 (◦), G−1 (G(x + h)) & G−1 (G(x) + 0). Puisque
G−1 (G(x + h)) 6 x + h par la Formule (B), nous obtenons que G−1 (G(x) + 0) 6 x quand
h & 0. D’où le résultat.
C(s) = F (F1−1 (s1 + 0), F2−1 (s2 + 0), . . . , Fd−1 (sd + 0)). (48)
Il est immédiat que C assigne des volumes non négatifs aux cuboı̈des de [0, 1]d , puisque
selon la condition (DF2 2 ), la formule (48) pour C dérive de la même chose que pour F où
les arguments sont de la forme Fi−1 (◦ + 0), 1 6 i 6 d.
De plus, C est continu à droite puisque F est continu à droite ainsi que chaque Fi−1 (◦ +
0), 1 6 i 6 d. En passant, cela explique pourquoi nous avons pris les limites à droite parce
que les Fi−1 (◦) sont continus à gauche.
Enfin, en combinant les formules (47) et (48), on obtient la conclusion de Sklar dans la
formule (2.1). D’où le résultat.
X X
2. −1 + n ∈ [0, [uep(X)]+ ]P (|X| > n) 6 E |X| 6 P (|X| > n)
n∈[0,[uep(X)]+ ]
144
Annexe 3 : Estimation et sélection des copules
Dans la pratique lors de la mise en œuvre d’un modèle intégrant les copules, il convient
d’être capable d’estimer la structure de dépendance à partir des données disponibles. Il
existe dans la littérature plusieurs méthodes pour l’estimation et sélection d’une copule,
nous essayons d’exposer certaines d’entre elles. Les méthodes d’estimation sont divisées
en trois approches non-paramétriques, paramétriques et semi-paramétriques. Dans cette
sous-section, nous donnons l’approche non paramétrique d’estimation d’une copule.
Définition .0.1 Soit {(x1t , · · · , xnt )}Tt un échantillon d’un vecteur aléatoire X de dimen-
sion n, la fonction de répartition empirique est donnée par :
T
1X
Fn (x1 , · · · , xn ) = 1 1 1 n n , (49)
T i=1 (Xi <x ,··· ,Xi <x )
La notion de la copule empirique a été introduite pour la première fois par Deheuvels
en (1979), qui est connue sous le non ” fonction de dépendance empirique ”.
145
b. Généralisation à des copules multivariées
En dimension T, {(x1t , · · · , xnt )}Tt=1 un échantillon de taille n, la copule empirique
multivariée est définie de façon analogue au cas bivarié. Ĉ est donnée comme suit :
1
t1 tn T
si (x1t ≤ x1(t1 ) , · · · , xnt ≤ xn(tn ) );
Ĉ( , · · · , ) = (54)
T T 0 si non.
Les copules empiriques peuvent être exploitées pour estimer les mesures de dépendance
tels que rho(ρ) de Spearman et le tau(τ ) de Kendall.
Théorème .0.1 Soient Ĉ et ĉ la copule empirique et sa fonction de densité respective-
ment de l’échantillon {(xk , yk )}nk=1 . Le tau de Kendall et le rho de Spearman sont estimés
par les formules suivantes :
n n i−1 j−1
2n X X X X i j p q i q p j
τ̂ = [ĉ( , )ĉ( , ) − ĉ( , )ĉ( , )]; (55)
n − 1 i=2 j=2 p=1 q=1 n n n n n n n n
n n
12 XX i j ij
ρ̂ = ( 2 ) [Ĉ( , ) − 2 ]. (56)
n − 1 i=1 j=1 n n n
où
T
1 X
vt = 1 1 1 2 2 . (60)
T − 1 j=1 {xj ≤xt ,xj ≤xt }
146
Bibliographie
[6] A. Gray, D. Greenhalgh, X. Mao, J. Pan, The SIS epidemic model with Markovian
switching, J. Math. Anal. Appl. 394 (2012) 496-516.
[7] A.L. Fougères & P. Soulier, Limit Conditional Distributions for Bivariate Vectors
with Polar Representation . Stochastic Models, 26(1). (2010). 54-77.
[8] Ancona-Navarrete, M.A. and Tawn, J.A., A comparison of methods for estimating
the extremal index , Extremes 3,5-38, (2000).
[9] Ancona-Navarrete, M.A., Dependence modelling and spatial prediction for extreme
values , PhD Thesis, Lancaster University, Lancaster, 2000.
[11] BELKAI Hadjila et BEN HAMICHE Assia, Evaluation géostatistique des res-
sources minières cas de gisement de Kef Es Sennoun , Université Abderrahmane
147
BIBLIOGRAPHIE
[13] Bondar, I., McLaughlin, K., & Israelsson, H. (2005), Improved Event Location
Uncertainty Estimates , 27th Seismic Research Review, 299-307.
[14] Bordossy, A. (2006), Copula based geostatistical models for groundwater quality
parameters . Water Resources Research 42.
[15] B.V. Gnedenko & A.N.Kolmogorov, Limit Distributions for Sums of Independent
Random Variables . Addison-Wesley Series in Statistics, Addison-Wesley Publishing
Company, Inc. (1954).
[16] B.V. Gnedenko, Sur la distribution limite du terme maximum d’une série
aléatoire . Annales de mathématiques, 44. (1943). 423-453.
[18] Beirlant J., Goegebeur Y, Segers J. and Teugels,J. (2005). Statistics of Extremes :
theory and application , Wiley, Chichester, England.
[19] C. Fonseca, L. Pereira, H. Ferreira & A.P. Martins, Generalized Madogram and
Pairwise Dependence of Maxima over two Regions of a Random Fiel . arXiv :
1104.2637v2 [math.ST] 24 Jan 2012. (2012).
[21] Cooley D. Poncet P. and P. Naveau (2006), Variograms for max-stable random
fields . In Dependence in 8 Probability and Statistics. Lecture Notes in Statistics 187
373.390. Springer, New York.
[22] C. Chen, Y. Kang, Dynamics of a stochastic multi-strain SIS epidemic model driven
by Levy noise, Comm. Nonl. Sci. Numer. Simul. 42 (2017) 379-395.
[23] C. Dombry, Théorie spatiale des extrêmes et propriétés des processus max-stables .
Document de synthèse en vue de l’habilitation à diriger des recherches, Université de
Poitiers, UFR Sciences Fondamentales et Appliquées. Novembre (2012).
148
BIBLIOGRAPHIE
[25] Christelle Verg Pierre Del Moral ¡¡ Modeles et methodes stochastiques ¿¿. In Sprin-
ger, editor, Une introduction avec applications. Comit de Lecture 20122015/Editorial
Board 20122015, 2014.
[26] Diakarya Barro, Saliou Diouf et Koté Blami, Geostatistical Analysis with Condi-
tional Extremal Copulas , International Journal of Statistics and Probability ; Vol. 1,
No. 2 ; 2012ISSN 1927-7032E-ISSN 1927-7040Published by Canadian Center of Science
and Education. http ://dx.doi.org/10.5539/ijsp.v1n2p244.
[28] D.G. Krige, Lognormal-de Wijsian Geostatistics for Ore Evaluation . Johannes-
bourg, South African Institute of Mining and Metallurgy - Kelvin House, 2 Hollard
Street, Johannesburg, 1981.
[29] Dimitrios Milios, Guido Sanguinetti, and David Schnoerr Probabilistic Model
Checking for Continuous Time Markov Chains via Sequential Bayesian Inference.
arXiv :1711.01863v1 [cs.LO] 6 Nov 2017
[30] Dossou-Gbete S., B., Somé and Barro, D. (2009), Modelling the Dependence of
Parametric Bivariate Extreme Value Copulas , Asian Journal of Mathematics &
Statistics, Vol 2, Issue3, 41-54 DOI : .3923/ajms.2009.41.54.
[31] Embrechts, P., A. McNeil, and D. Straumann (1999, May). Correlation and
Dependence in Risk Management : Properties and Pitfalls. : RISK, 69–71.
[32] Forrest .W. Crawford Vladimir N. Minin Marc A. Suchard Lam Si Tung Ho, Jasen
Ho ¡¡ Birth/birth-death processes and their cumputable transition probabilities with
biological applications ¿¿. Cornell University Library, 7 Aug 2017.
[33] Frahm et al, Elliptical copulas : applicability and limitations , Volume 63, Issue
3, 1 July 2003, Pages 275-286.https ://doi.org/10.1016/S0167-7152(03)00092-0.
[35] Gane Samb LO, Mathematical Foundations of Probability Theory . Statistics and
Probability African Society (SPAS) Books Series. Saint-Louis, Calgary, Alberta. 2018.
DOI : http ://dx.doi.org/10.16929/sbs/2016.0008 ISBN 978-2-9559183-8-8i.
149
BIBLIOGRAPHIE
[41] J.-M. Morel, Cachan F. Takens, Groningen B. Teissier, Paris Lecture Notes in
Mathematics. Mathematical Biosciences Subseries : P.K. Maini, Oxford, 194
[42] J. Gani D. J. Daley ¡¡ Epidemic modelling ¿¿, In Cambridge University Press, editor,
An introduction, page 14, 2001.
[44] J. Galambos, The Asymptotic Theory of Extreme Order Statistics . Wiley Series
in Probability and Mathematical Statistics, John Wiley & Sons, Inc.New York. (1987).
[45] J. Wu Fred Brauer, Pauline van den Driessche ¡¡ Lecteure note in mathematics.
In Oxford Mathematical Biosciences Subseries : P.K. Maini ¿¿.Editor, Mathematical
epidemiology, 1945.
[48] J.Gumbel, Statistics of extremes . Columbia University Press. New York. (1958).
[49] Joe, Harry, Xu, The Estimation Method of Inference Functions for Margins for
Multivariate Models , Oct 31, 1996. DOI : 10.14288/1.0225985.
150
BIBLIOGRAPHIE
[51] John Aldrich, R.A. Fisher and the making of maximum likelihood 1912 − 1922 .
Statistical science, vol. 12, no 3, 1997, p. 162-176.
[53] Lam Si Tung Ho, Jasen Ho, Forrest .W. Crawford, Vladimir N. Minin, Marc A.
Suchard ¡¡ Birth/birth-death processes and their cumputable transition probabilities
with biological applications¿¿. arXiv :1603.03819v2 [stat.CO] 7 Aug 2017
[54] Lam Si Tung Ho, Jasen Ho, Forrest .W. Crawford, Vladimir N. Minin, Marc A.
Suchard ¡¡ Birth/birth-death processes and their cumputable transition probabilities
with biological applications. arXiv :1603.03819v2 [stat.CO] 7 Aug 2017
[55] Ledford, A.w.and Tawn, J.A., Modelling dependence within joint tail region ,
J.R. Statist. Soc.B 59,475-499, (1997).
[56] Ledford, A.w.and Tawn, J.A., Statistics for near independence in multivariate
extreme values , Biometrika 83,16-187,(1996).
[57] Lindsay, B.G (1988), Composite Likelihood Methods. In : Statistical Inference
from Stochastic Processes, Ed.N.U.Prabhu, pp 221-39. Providence, RI : American
Mathematical Society.
[60] Marek B. Trawicki Deterministic Seirs Epidemic Model for Modeling Vi-
tal Dynamics, Vaccinations, and Temporary Immunity.http ://www.mdpi.com/
doi :10.3390/math5010007,January 2017,
[61] Nicolas Bacaër, Abdelkarim Ed-Darraz Sur les processus linéaires de naissance et
de mort dans un environnement aléatoire. Journal of Mathematical Biology, Springer
Verlag (Germany), 2014,
[62] Marek B. Trawicki. C ¡¡ deterministic seirs epidemic model for modeling vital
dynamics, vaccinations, and temporary immunity ¿¿. Molecular Diversity Preservation
International, January 2017.
151
BIBLIOGRAPHIE
[63] Muneya matsui and Thomas Mikosch, The Extremogram and the Cross-
Extremogram for a bivariate Garch (1,1) process , doi.10.1017/apr.2016.51.
[64] Martin Larsson and Sidney I.Resnick, Long-Range Tail Dependence : EDM
vs.Extremogram , w 911NF-07-1-0078 at Cornell University.
[65] Martin Larsson and Sidney I.Resnick, Extremal dependence measre and extremo-
gram : the regularly varying case . Extremes (2012) 15 : 231 − 256.DOI10.1007/s
10687 − 011 − 01359 .
[66] Moussaoui Nacera Etude géostatistique des ressources minières : Cas du gisement
de phosphate sus à Bled El Hadba (w. Tébessa). . Université Abderrahmane Mira de
Bejaia Faculté de Technologie Département desMines et géologie, 2017.
[67] M.Ait Yala Nabil, Modélisation des extrêmes Spatiaux et Applications . Mémoire
de Magister. (2013).Université Mouloud Mammeri de Tizi Ouzou.
[70] N.A.C. CRESSIE, Statistics for Spatial Data . John Wiley & Sons, Inc. New
York. (1991).
[71] Nicolas Bacaer, Abdelkarim Ed-Darraz & L.H.C. Tippett, Sur les processus
linéaires de naissance et de mort dans un environnement aléatoire . Journal of
Mathematical Biology, Springer Verlag (Germany), 2014.
[73] Pierre Del Moral Christelle Vergé Modèles et méthodes stochastiques, Une introduc-
tion avec applications. Springer
152
BIBLIOGRAPHIE
[77] P.J. Ribeiro JR, Model-based Geostatistics . Springer Series in Statistics, Springer
Science and Business Media, LLC, Springer. New York. (2007).
[78] Paul E. Parham Edwin Michael Outbreak properties of epidemic models : The
roles of temporal forcing and stochasticity on pathogen invasion dynamics.ELSEVIER
Journal of theoretical Biology 271 (2011) 1-9.
[80] R.Bhattacharya & E.C. Waymire.A, Basic course in Probability Theory . Sprin-
ger. Science and Business Media, Inc, Springer. (2007).
[81] R.A. Fisher & L.H.C. Tippett, Limiting Forms of the Frequency of the Largest or
Smallest Member of a Sample . Proceedings of the Cambridge Philosophical Society,
24.(1928). 180-190.
[82] Richard A. Davis and Thomas Mikosch (2009). The extremogram : A correlogram
for Extreme Events , November 13, 2008.
[85] S.I. Resnick, Extreme Values, Regular Variation, and Point Processes . Applied
Probability Trust, Springer-Verlag. New York, (1987).
[87] Xavier Emery, Géostatistique linéaire , Ecole des Mines de Paris, Centre de
Géostatistique, 35,rue Saint Honoré, 77 305 Fontainebleau Cedex, France.
[88] X. Mao, C. Yuan, Stochastic Differential Equations with Markov Switching, Imperial
College Press, London, 2006.
[89] Y. Zhao, D. Jiang, The threshold of a stochastic SIS epidemic model with vaccina-
tion, Appl. Math. Comput. 243 (2014) 718-727.
153
BIBLIOGRAPHIE
[90] Yong Bum Cho and Richard A. Davis, Department of statistics, Columbia University
Souvik GHOSH, Asymptotic Properties of the Empirical Spatial Extremogram .
Scandinavian Journal of statistics doi : 10.1111/sjos.12202.
[91] T. Tang, Z. Teng, Z. Li, Threshold behavion in a chass of stochastic SIRS epidemic
models with nonlinear incidence, Stoch. Anal. Appl. 33 (2015) 9940-1019.
[92] Z. Teng, L. Wang, Persistence and extinction for a class of stochastic SIS epidemic
models with nonlinear incidence rate, Physica A 451 (2016) 507-518.
154
Université OUAGA I Pr Joseph KI-ZERBO
Ecole Doctorale Science et Technologie
U.F.R Science Exacte et Appliquée/ LANIBIO
T H ÈSE
pour obtenir le grade de
Docteur
de l’Université OUAGA I Pr Joseph KI-ZERBO
? ? ? ? ? ? ? ? ? ? ? ? ? ? ??
?????????????
06 mai 2017
Remerciements
Je remercie mes chers maîtres, les professeurs Bisso SALEY du Niger, Ga-
briel BISSANGA du Congo Brazaville, Gabriel KISSITA du Congo Brazaville ,
ainsi que Dr Longin SOMÉ et Dr Djakarya Barro du Burkina Faso, pour avoir
accepté d’apporter des critiques constructives à mon travail afin de l’améliorer
significativement.
i
l’administration de l’Institut des Sciences avec à leur tête le Directeur Gé-
néral, Pr Adjima THIOMBIANO, le Directeur des Affaires Académiques et
Scientifiques, Dr Ousséni So. Merci pour vos soutiens, encouragements et vos
précieux conseils qui feront de moi un enseignant-chercheur qualifié au service
des élèves professeurs et de l’école burkinabé.
Je ne saurai terminer sans remercier du fond du cœur les membres de ma
famille. Mon papa et ma maman, mes frères et sœurs pour les soins et pour
l’attention soutenue en tout ce que je fais.
Ma chère épouse Mme BERE née NANA Agnès, que puis-je dire sur les sacri-
fices que tu as consentis pour me voir arriver au terme de cette thèse. Merci
pour tes encouragements et ton soutien sincère tout au long de mes travaux
de thèse.
ii
Table des matières
Remerciements i
Résumé 1
Abstract 3
Introduction générale 5
iii
2.3.1 Quelques outils et rappels utiles . . . . . . . . . . . . . . 22
2.3.2 Erreur relative à l’approximation d’une fonction inté-
grale d’ordre fractionnaire . . . . . . . . . . . . . . . . . 23
2.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
Conclusion générale 83
Annexe 86
A) Copule et Application . . . . . . . . . . . . . . . . . . . . . . . . . 86
B) Queue de distribution . . . . . . . . . . . . . . . . . . . . . . . . . 87
Bibliographie 93
iv
Liste des tableaux
v
Table des figures
vi
Liste des abreviations
Sigles logiques
P() : Probabilité d’un évènement
E() : Espérance mathématique d’une variable aléatoire
V() : Variance d’une variable aléatoire
f() : Fonction de densité de probabilité
F() : Fonction de répartition
Γ() : Fonction d’Euler-Gamma
Introduction générale
X : Espace normé
Xn Sous espace vectoriel de dimension n de X
W : Classe des fonctions de l’espace X
vii
Polynômes algébriques et trigonométriques
Pn : Ensemble des polynômes algébriques de degré inférieur ou égal à n
Tn−1/2 : Ensemble des polynômes trigonométriques de degré inférieur ou
égal à n − 1
Variables p-stables
p : Indice de stabilité
δ : Paramètre de position
β : Paramètre d’échelle
γ : Paramètre de dispersion
SpS : Symétrique p-stable
µ : moyenne
σ : écart-type
Approximation et mesure α∗
ν mesure mono-atomique
viii
Résumé
1
types d’approximation sur la distribution du montant total des sinistres mo-
délisé par respectivement des lois gamma, symétrique stable et stable.
Ce modèle nous a conduit à l’élaboration d’une équation différentielle ordinaire
d’ordre n à partir de l’équation de renouvellement née du modèle classique du
risque de poisson composé. Une résolution numérique de cette équation diffé-
rentielle nous a permis de déterminer la probabilité de ruine liée au processus
de Poisson et au montant des sinistres qui est par ailleurs distribuée suivant
une loi α-stable.
Enfin nous avons bouclé nos travaux par une approche de la dépendance des
ruines de deux branches d’activités d’une entreprise. Cette approche a été faite
par les copules qui restent un outil efficace pour l’évaluation de la dépendance
entre deux ou plusieurs variables de marges uniformes.
2
Abstract
In the first part we have developed the approximation theory and conside-
red some findings in two chapters.
In the first chapter of this section, we analysed and defined the best quadra-
ture formula for error on approximation, using f polynomials, the integrable
function f resulting from the convolution of φ function with a standard less
than 1 and of weight function (kφk ≤ 1). For this purpose, we considered that
f is a Wpr function where 0 < r < 1. The case r > 1 have been studied by
others authors. We got a better quadrature formula and we have defined the
error exact bound on the truncated power function (x − a)r−1+ .
In the second chapter we analysed approximation and error on weight func-
tions of fractional type of order. We focused on approximating the functions.
For the functions of this class, we have studied the best approximation by the
algebraic or trigonometric polynomials. A special feature has been given to the
exact asymptotic bound behavior for this class of functions.
The second part of our thesis focused on stochastic modelling and its prac-
tice on Lp −approximation on classical compound Poisson risk model. In this
part, we first developed some notions and properties of stable variables, and
then we revisited the theory of the compound Poisson risk theory. Then, we
used the theory of the approximations developed in the first part, to formu-
late approximation types on the distribution of the total amount of the claims
developed respectively by gamma, symmetric stability and stable laws. This
approach of compound Poisson risk model lead us to establish ordinary diffe-
rential equation of order from the renewal equation created from the classical
compound Poisson risk model.
3
Thus, a numerical resolution of this equation has allowed us to determine the
probability of ruin related to the Poisson process and to the amount of claims
distribution according to a p-stable law.
Finally, we have completed our work with an approach on the ruin dependen-
cies of two branches of a company’s activities. This approach was made using
the copulas which remain an efficient tool to evaluate two or several uniform
random variable dependency.
4
Introduction générale
5
et différentes.
L’idée de faire suivre la loi de la somme totale des sinistres était de permettre
la détermination d’une formule explicite et fermée de la probabilité de ruine.
Très vite cette considération va s’avérer irrecevable en raison de son caractère
très restrictif qui ne permet pas d’être en phase avec la réalité.
C’est en cela que des travaux très importants ont été réalisés à propos de la
détermination d’une formule plus ou moins fermée de la probabilité ultime de
ruine(ou probabilité de ruine).
On peut se référer aux travaux de Bowers [9] dont l’idée, était d’approcher
la densité de probabilité par une somme de densité gamma. Ces travaux ont
conduit Beekman [5] à émettre l’idée qui consiste à approcher la loi de proba-
bilité de la variable S(t) dont la loi est donnée par une loi gamma Γ(α, β) de
xα−1 −x/β
densité f (x) = e (x ≥ 0). Si α ∈ N, on retrouve la loi de Erlang et
Γ(α)β α
si α = 1 particulièrement, on obtient la loi exponentielle.
6
Fort de l’analyse des travaux déjà effectués et des résultats essentiels qui en
résultent, nous pensons qu’il serait intéressant de faire suivre la loi de chaque
sinistre vers une famille de loi non gaussienne et beaucoup plus adaptée à la
modélisation de la survenance des sinistres. C’est la famille des lois infiniment
divisibles et stables. Cette approche nous conduit obligatoirement vers une
expression intégrale complexe au regard de la formule donnée par le modèle
classique du risque. Comment donc apprécier et évaluer cette expression in-
tégrale en tenant compte de la spécificité du modèle classique du risque de
Poisson composé ?
Quelle contribution des approximations Lp pour la modélisation stochastique
du risque de poisson composé dans des espaces à petit supports ? Nous tente-
rons de satisfaire ces interrogations en organisant notre travail en deux parties
Dans la première partie, nous allons examiner et améliorer la théorie d’exis-
tence de polynômes algébriques et trigonométriques, dans un espace Lp à petits
supports , pour l’approximation de certaines expressions intégrales complexes.
Dans la deuxième partie, nous allons appliquer les méthodes d’approximations,
développées, pour la modélisation stochastique du risque dont la survenance
est distribuée suivant les lois stables non gaussiennes.
7
t)f (t)dt, dans les espaces Lp , sous forme de polynômes algébriques ou trigo-
nométriques. Il en découlera également une évaluation des erreurs dues à ces
approximations. Ces approximations permettront l’estimation de la probabi-
lité de ruine.
8
Première partie :
Approximation dans les espaces
Lp
9
Les meilleures formules de quadrature sur des
1
fonctions poids
1.1 Introduction
La nécessité de l’approche d’une fonction f intégrable par un polynôme
algébrique ou trigonométrique se justifie le plus souvent par la complexité de
cette fonction à être manipulée pour des raisons pratiques. En opérant ces ap-
proches combien importantes, de quelques natures que ce soit, l’un des éléments
essentiels résultant est la détermination de l’erreur d’approximation. Elle déter-
mine la qualité du polynôme d’approximation utilisé. Dans cette partie, nous
nous intéressons à la détermination de l’erreur commise en approchant une
fonction intégrale définie avec une fonction poids de type (x − t)r−1 (r ∈]0; 1[)
par une fonction polynômiale. Nous considérons à cet effet les fonctions de la
classe Wpr avec r ∈]0; 1[. Le cas où r > 1 a déjà fait l’objet d’une étude[30],[43].
Pour notre part, nous allons traiter le cas 0 < r < 1 afin d’obtenir une meilleure
formule quadratique d’approximation et une limite exacte de l’erreur commise.
1.2 Généralités
1.2.1 Notations et définitions
Considérons Wp0 (K) la classe des fonctions f données par la convolution
kφkp ≤ 1 si 0 ≤ p < ∞
f = C + K ? φ avec φ orthogonal à
kφkp ≤ 1 presque partout si p = ∞
une constante C.
Définissons aussi, d’une façon générale, pour tout r > 0, la classe Wpr des
fonctions de la forme
1 Z1
(x − t)r−1
+ φ(t)dt Si x ∈ [−1; 1] (1.1)
Γ(r) −1
10
R +∞ r−1 −x
où Γ(r) = −∞ x e dx et (x − t)r−1
+ est la fonction puissance tronquée
donnée par
0 si x < t
(x − t)r−1
+ =
(x − t)r−1 si x > t
Z 1
En+ (f ) := inf{ [P + (t) − f (t)]dt; P + ∈ Pn ; P + (t) ≥ f (t); t ∈ [−1; 1]}
−1
et
Z π
Een− (f ) := inf{ [f (t) − T − (t)]dt; T − ∈ F2n−1 ; T − (t) ≤ f (t); t ∈ [−π; π]}
−π
11
Dans le cas périodique et si r ∈ N∗ , les valeurs exactes de En+ (W
f r ) et
1
En− (W
f r ) sont bien connues et sont données par
1
f r ) = E − (W
f r) = Hr
En+ (W1 n 1
nr
Où Hr = supt Br (t) − inf t Br (t) et Br (t) est le spline de Bernoulli. Ces valeurs
exactes ont été déterminées particulièrement dans [16] pour p = 1 et dans [33]
pour p > 1, on pourra aussi voir ce résultat dans [24] où il a été défini
2Ee1 (Br )q
Een± (W
f r) =
p
nr
V02π (f r ) ≤ K
12
√ √
supt {±2Br (t)( 1 − a2 )r+1 } ( 1 − a2 )(r−2)+ 1
− Cr ≤ E + ((x − a)r−1
+ )
n r n r+1 (r − 1)! n
√ √
supt {±2Br (t)( 1 − a2 )r+1 } ( 1 − a2 )(r−2)+
≤ + Cr (1.3)
nr nr+1
Pour a = 0, On a :
2kBr kc 1
En± (W1r ) = r
+ o( r+1 ) (1.4)
n n
Il s’en suit un des principaux résultats du travail de notre thèse comme suit.
1.3.1 Préliminaire
Utilisons les résultats des travaux contenus dans [24] et [48], d’où il vient
que :
Z 2π
En+ (W∞
0
(K))1 = 2En (K)1 si En (K)1 = | K(t)sign[sin n(t − γ0 )]dt|
0
L’égalité En (gr,a )1 = 21 Een+1 (gr,cos θ cos t sin t)1 lie le problème de meilleure ap-
proximation, par des polynômes algébriques, au problème de L1 −approximation,
par des polynômes trigonométriques.
13
Théorème .1
+
Soit r ∈]0, 1[ ; a ∈] − 1; 1[, il existe un polynôme algébrique Pn,r,a (x) (resp
−
Pn,r,a (x)) de degré inférieur ou égal à n permettant d’approcher au-dessus (resp
en dessous) la puissance tronquée tel que l’égalité suivante soit vraie :
(r) √ √
(x − a)r−1
+ ± supt (±2D0 (t)( 1 − a2 )r+1 ) ln(n + 1)( 1 − a2 )(r−2)+
k −Pn,r,a (x)k = +o( )
Γ(r) nr nr+1
(1.5)
π
1 P∞ cos(kt−r 2 )
avec Dr (t) = π k=1 Kr
Lemme 1.1
e ± (f ) ≤
f r KV alors E
Soit f ∈ W CK
n nr+1
Remarque
Dans ce qui suivra, nous noterons par C une constante absolue et par Cr
une constante dépendante de r bien que leurs valeurs soient différentes suivant
les évènements.
(x−a)r−1
+
Posons gr,a (x) = Γ(r)
alors
Z 1
Ee ± (g
n r,a ) = inf {±gr,a (x) ± P (x)}dx (1.6)
{P ∈Pn ±gr,a ≥±P } −1
Z 1
Een± (gr,a ) = 2[ inf [±gr,a (cos t) ± P (cos t)]| sin t|dt] = h (1.7)
{P ∈Pn ±gr,a ≥±P } 0
14
1
ξ(t) = ξθ (t) := (cos t − cos θ)r−1
+ sin t,
Γ(r)
π dt
V−π ( (ξ − η)) ≤ Cr sin(r−1) θ
t
Cr sin(r−1) θ
Ee ± (ξ
n − η)1 ≤
nr+1
Considérons maintenant le lemme suivant :
Lemme 1.2
Pour tout r ∈]0; 1[ on a
1 C sin(r−1) θ
En± (gr,a )1 ≤ Een± (ηr,θ )1 + (1.8)
2 nr+1
et
1 C sin(r−1) θ
En± (gr,a )1 ≥ Een± (ηr,θ )1 − (1.9)
2 nr+1
Un polynôme trigonométrique Tn−1/2 d’une intégrale d’ordre fractionnaire
n − 1/2 est définie comme une somme de la forme, voir [40],
n−1
X
[ak cos(k + 1/2)t + bk sin(k + 1/2)t]
k=1
1 2n−1
X sin(t − tk )
Ln−1/2 (f, x) = f (tk )
2n k=0 sin( t−t
2
k
)
15
Proposition 1.3.1
Soit f ∈ W c r KV alors le polynôme H
n−1/2 (f, x) qui interpole f aux nœuds
2πk
équidistants tk = n , voir [52], a la forme
n−1 n−1
f 0 (tk )νk (x)
X X
Hn−1/2 (f, t) = f (tk )`k (x) +
k=0 k=0
Où
sin2 ( nx
2
) x − xk sin2 ( nx
2
) x − xk
`k = 2 2 t−tk cos ; ν k = 2 2 t−tk sin
n sin ( 2 ) 2 n sin ( 2 ) 2
Lemme 1.3
Soit f ∈ Wc r KV et H
n−1/2 (f, x) le polynôme qui interpole f (t) en des nœuds
2πk
équidistants tk = n + γ. Alors
Z 2π
Cr ln n
|f (x) − Hn−1/2 (f, x)|dx ≤ M (1.11)
0 nr+1
Preuve Du théorème
La preuve du théorème s’appuie aussi sur le lemme suivant :
Lemme 1.4
Soit t− +
n−1 (Dr , t) et tn−1 (Dr , t) des polynômes trigonométriques de degré n − 1
representants les meilleures bornes de la fonction Dr (t). Alors
Z π
Cr ln n
|t+ (Dr , t) − Dr (t)| sin(t/2)dt = M (1.12)
−π nr+1
Preuve du lemme
Il est connu de [24] que t± (Dr , t) interpole doublement la fonction Dr (t)
suivant les nœuds tk = 2πk n
+ γ. Alors t± (Dr , t) sin(t/2) est un polynôme semi-
intégrable de degré n − 1/2.
Cela signifie que t± (Dr , t) sin(t/2) interpole (Dr , t) sin(t/2).
Comme (Dr , t) sin(t/2) ∈ W c r KV alors on a l’égalité (1.12). D’où le lemme.
Lemme 1.5
+
Pour tout r ∈]0; 1[, il existe un polynôme trigonométrique Tn+ (t) = Tn,r,θ (t)
− −
(resp Tn (t) = Tn,r,θ (t)) de degré inférieur ou égal à n−1 approchant la fonction
ηr,θ (t) par-dessus (resp par dessous) tel que
Z π
2 sinr (θ) e ± Cr ln n sinr−1 θ
|(ηr,θ (t) − T + (ηr,θ,t )) sin t|dt = En (Dr ) + (1.13)
−π π nr+1
16
Preuve
Définissons les fonctions auxiliaires Q± (t) ; ξ(t) et η(t) par :
sinr−1 θ
η(t) = ηθ (t) := {Dr (θ − t) − Dr (θ + t)}
π
sinr−1 θ
ξ(t) = ξr,θ (t) := {−Dr (θ − t) − Dr (θ + t)}
π
sinr−1 θ ±
T ± (t) := {tn−1 (Dr (θ − t)) − t±
n−1 (Dr (θ + t))}
π
sinr−1 θ
Q±n (t) = {−t± ±
n−1 (Dr (θ − t)) − tn−1 (Dr (θ + t))}
π
Il est évident que
±(T ± (t) − ηθ (t)) sin t = sin θ(Q±n (t) − ξr,θ (t))
r−1
sin θ
± (sin t − sin θ){−t± n−1 (Dr (θ − t)) + Dr (θ − t)}
π
sinr−1 θ
± (sin t + sin θ){t±n−1 (Dr (θ + t)) − Dr (θ + t)} (1.14)
π
car
sinr−1 θ
Q±
n (t)−ξr,θ (t) = {−t± ±
n−1 (Dr (θ−t))+Dr (θ−t)−tn−1 (Dr (θ+t))+Dr (θ+t)}
π
(1.15)
Alors Z π
2 sinr−1 θ e ±
|Q±
n (t) − ξr,θ (t)|dt ≤
En (Dr )1 (1.16)
−π π
En tenant compte de la remarque précédente, on a
Z π
|(sin t − sin θ)(Dr (θ − t) − t±
n−1 (Dr (θ − t)))| sin(t/2)dt ≤
−π
Z π
2 |t± (Dr (t)) − Dr (t)| sin(t/2)dt
−π
Cr ln n
≤ (1.17)
nr+1
et
Z π
|(sin t − sin θ)(Dr (θ + t) − t±
n−1 (Dr (θ + t)))| sin(t/2)dt ≤
−π
Z π
2 |t± (Dr (t)) − Dr (t)| sin(t/2)dt
−π
Cr ln n
≤
(1.18)
nr+1
De ces 4 dernières expressions, nous déduisons l’estimation suivante :
Z π
2 sinr θ e ± Cr ln n. sinr−1 θ
|(ηr;θ,t − T ± (ηr;θ,t )) sin t|dt ≤ En (Dr ) + (1.19)
−π π nr+1
17
Par application des égalités (1.12) ;(1.13) ;(1.14), on a
Z π
± sin θ Z π + Cr ln n. sinr−1 θ
|(ηr;θ,t − T (ηr;θ,t )) sin t|dt = |Qr,θ,t − ξr,θ (t)|dt −
0 π 0 nr+1
(1.20)
Des conséquences des lemmes (1.1) et (1.4) et après de simples transforma-
tions on a
Z π
2 sinr θ e ± Cr ln n. sinr−1 θ
|(ηr;θ,t − T ± (ηr;θ,t )) sin t|dt ≥ En (Dr ) + (1.21)
0 π nr+1
et
Z 0
2 sinr θ e ± Cr ln n. sinr−1 θ
|(ηr;θ,t − T ± (ηr;θ,t )) sin t|dt ≥ En (Dr ) + (1.22)
−π π nr+1
Les estimations (1.17) et (1.18) mettent fin à la preuve du lemme.
Alors on a :
(r)
supt (±2πD0 (t))
n r )1 = Ee ± (D (1.24)
nr
De (1.6), des estimations (1.8), (1.9) et du lemme (1.4), il s’en suit la preuve
du théorème.
Une des conséquence du théorème (.1) est la suivante :
Proposition 1.3.2
+ −
Soit r > 0 ; t ∈] − x; x[, x > 0 alors il existe Pn,r,t (x) (resp Pn,r,t (x)) un
polynôme de degré inférieur ou égal à n − 1 approchant la puissance tronquée
(x − t)r−1
+ par valeur supérieure (resp par valeur inférieure) tel que l’égalité
suivante ait un sens :
√
(x − t)r−1 ± (r)
√ r+1 ln(n + 1)( x2 − t2 )r−2
k −Pn,r,t (x)k = sup (±2D0 (t)[ x2 − t2 ] )+o( )
Γ(r) t∈]−x;x[ nr+1
(1.25)
Preuve
La preuve de cette proposition repose sur celle du théorème (.1) dans la-
quelle on fait passer t ∈] − 1; 1[ à t ∈] − x; x[ où √
x > 0. De ce fait on obient
±
l’exitence du polynôme Pn,r,t (x) et de la fonction x2 − t2 tel que
√
(x − t)r−1 ± (r)
√ r+1 ln(n + 1)( x2 − t2 )r−2
k −Pn,r,t (x)k = sup (±2D0 (t)[ x2 − t2 ] )+o( )
Γ(r) t∈]−x;x[ nr+1
(1.26)
18
D’où la proposition.
1.4 Conclusion
Ce chapitre a été le lieu pour nous d’analyser l’espace Wpr des fonctions
intégrales d’ordre fractionnaire r ∈]0; 1[. Nous avons prouvé l’existence de po-
lynômes algébriques ou trigonométriques qui permettent d’approcher la puis-
sance tronquée (x − a)r−1+ . Cela nous a conduit en la détermination d’une
formule quadratique, de meilleure L1 −approximation des fonctions de cette
classe Wpr et une limite exacte de l’erreur commise.
19
Approximation par des polynômes algébriques
2
et trigonométriques de fonctions intégrales
d’ordre fractionnaire
2.1 Introduction
Dans cette partie, nous nous intéressons à l’approximation des fonctions
f r , 0 < r < 1. Pour les fonctions de cette classe, nous étudions
de la classe W ∞
la meilleure approximation par les polynômes algébrique ou trigonométrique.
Une particularité sera accordée au comportement asymptotique exact pour
cette classe de fonctions obtenues.
20
Γ(r) est la fonction de Gamma-Euler, f est une fonction mesurable et
kf (t)k ≤ 1 presque partout.
(x − t)r−1
(
si x > t
(x − t)r−1
+ := + (2.3)
0 si x ≤ t
Soit
(x − t)r−1
(
si x > t
gr (x) = (x − t)r−1
+ := + (2.5)
0 si x ≤ t
et considérons Kr la meilleure approximation par une constante de la fonction
∞ cos kt − rπ
1X 2
Dr (t) = (2.6)
π k=1 kr
dans l’espace L1 . Il vient que l’égalité
1
En (gr )1 = Ẽn+1 (gr (cos t) sin t)1 (2.7)
2
permet la transposition d’un problème de meilleure approximation par des
polynômes algébriques au problème de meilleure L1 −approximation par des
polynômes trigonométriques.
Een+1 (f )1 est définie comme la meilleure approximation de la fonction f par un
polynôme trigonométrique de degré moins grand que n + 1 dans l’espace L e1
21
de l’intervalle ] − 1; 1[ pour tout entier r a été étudié en [37] et il a été établi
que :
√
√ 1 r−1
( 1 − x + n)
2
K̃r ( 1 − x2 )r
f˜(x) − Pn (x) =
r
+ C r
r+1
(2.8)
n n
Dans cette partie de notre travail, nous ferons des approximations sur des
fonctions intégrales d’ordres fractionnaires r ∈]0, 1[. Il s’en suit donc la section
suivante :
1 1
1 Z f (t) 1 Z f (cos t)
ρ(t)dt = ρ(cos t) sin tdt, x ∈] − 1, 1[ (2.12)
π t−x π cos t − x
−1 −1
22
et
1 π
1 Z f (cos t) 1 Z f (cos t) 1
f (cos x) = ρ(cos t) sin tdt = dt = C(f (cos t))(x)
π cos t − cos x π sin x (t − x) sin x
−1 −π 2 tan
2
(2.13)
Où C(f (cos t)) est le conjugué de la fonction f (cos t). Les intégrales en
(2.13) existent dans au sens de leurs valeurs principales.
Théorème .2
Pour tout r ∈]0, 1[ et fe ∈ Wf r , supposons qu’en des points finis du segment
∞
[−1; 1] la fonction f tend à s’annuler après une série de dérivation d’ordre
r − 1. Alors il existe une suite de polynômes algébriques Pn (x) tel que :
√
√ 1 r−1
( 1 − x + n)
2
K̃r ( 1 − x2 )r
f˜(x) − Pn (x) =
+ C r
nr nr+1
23
Lemme 2.1 (Voir [37])
r
Soit f une fonction de W∞ , alors il existe une suite de polynômes trigonomé-
triques Tn (x) tel que
1 ρ−1
(|sin x| + )
|f (x) − Tn (x)| ≤ C n , ρ ∈]0, 1]
nρ+1
Alors il existe une suite de polynôme algébrique trigonométrique Qn (x) et
une constante Cρ telq que
1 ρ−1
(|sin x| + )
f˜(x) − Qn (x) ≤ Cρ n
nρ+1
fe ≡ C(f ) est trigonométriquement la fonction conjuguée à la fonction
2π−périodique f
Preuve du théorème
Soit
Zπ
S0 (x) = {Dr (u − x) − Dr (u + x)} sinr uφ(cos u)du
0
et
Lemme 2.2
r
Soit fr ∈ W∞ . La difference de second ordre de la fonction R0 (x) = fr (cos x) −
S0 (x) satisfait l’inégalité suivante(voir [34])
(
h1+r sinr−1 x si sin x ≥ h
|∆2h R0 (x)| ≤C
h2r si sin x < h ; x ∈ [0; π]
24
où
∆h R0 (x) = R0 (x) − R0 (x + h)
et
∆2h R0 (x) = R0 (x + h) − 2R0 (x) + R0 (x − h), h > 0
Preuve
Nous utilisions [50], p.133 dans lequel, il ressort que :
tr−1
+
Dr (t) = + Gr (t), t ∈] − 2π, 2π[,
Γ(r)
Gr (t) est une fonction analytique définie sur l’intervalle ] − 2π, 2π[.
De plus la dérivée G0r (t) est une fonction analytique sur la moitié de l’intervalle
] − 2π, 2π]. Elle est strictement croissante et bornée par une constante M sur
l’intervalle [−2π − , 2π − ] , > 0.
1
En particulier,|G0r (t)| ≤ sur l’intervalle [−π, π].
π
Aussi |G(2)
r (t)| ≤ M . Cependant
π
∆2h Gr (t) ≤ M h2 , t ∈ [0, π], h ∈]0, [
2
Ainsi nous pouvons estimer l’expression Dr (u − x)(sinr u − sinr x).
En vertu de la formule (11) (voir [35]) , il vient que :
|x − t|
|Dr (t − x)(sinr t − sinr x)| < |Dr (t − x)2r sinr |
2
Considérons la fonction u définie par
Zπ
|x − t|
u(x) = Dr (t − x)2r sinr dt (2.15)
2
0
25
Lemme 2.3
Considérons la fonction Dr définie en (2.6) alors :
Preuve
Soit r ∈]0, 1[ et x, u ∈]0, π[, il est connu (voir [35]) que
et
et
Comme Pn (t, u) est le meilleur polynôme approchant Dr (t, u), , nous pou-
vons trouver M et M1 tels que |ϕ(t, u)| ≤ M et |∆t,h ϕ(t, u)| ≤ M1 h.
26
Alors
Zπ Zπ Zπ
|∆t,h g(t, u)ϕ(t, u)|du ≤ M1 h |g(t, u)|du + M |∆t,h g(t, u)|du
0 0 0
√
√ 1 r−1
K̃r ( 1 − x2 )r ( 1 − x 2+ )
C(S0 )(x) − Tn0 (x) ≤ + C
n (2.19)
r
nr nr+1
Preuve
Soit S0 (x) et Q0n (x) des fonctions définies comme précédemment.
Z π
|(S0 )(x) − Q0n (x)| ≤ | {Dr (u − x) − Pn (u − x) − Dr (u + x) + Pn (u + x)} sinr uφ(cos u)du|
0
Z π
≤ sinr x | − Dr (u + x) + Pn (u + x)|du
0
Z π
+ |Dr (u − x) − Pn (u − x)|(sinr u − sinr x)du
0
27
Comme Dr (u + x)(sinr u − sinr x) est une fonction à variations limitées alors
en vertu de la formule (2.6), on obtient
√
√ 1 r−1
( 1 − x + n)
2
K r ( 1 − x2 ) r
(S0 )(x) − Q0n (x) ≤
r
+ C r
r+1
n n
Lemme 2.5
Soit f ∈ W̃ r KV une fonction, alors
CK
Ẽn (f ) ≤
nr+1
Où W̃ r KV est la classe des fonctions f dont la dérivée est une fonction à
variation limitée de 0 à 2π tel que
2π
V (f 0 ) < K
0
Lemme 2.6
Pour tout r ∈]0, 1[ les égalités suivantes sont vérifiées :
1 C sin(r−1) θ
En (fr )1 ≤ Ẽn (S0 (x))1 + (2.20)
2 nr+1
et
1 C sin(r−1) θ
En (fr )1 ≥ Ẽn (S0 (x))1 − (2.21)
2 nr+1
C est une constante absolue.
28
2.4 Conclusion
Ce chapitre nous a permis d’analyser l’approximation de la classe H des
1 Z 1 f (t)
fonctions intégrable de la forme ρ(t)dt.
π −1 t − x
Nous avons examiné l’existence de meilleures polynômes qui approchent les
fonctions de la classe H. Nous avons aussi analysé le comportement asympto-
tique de l’erreur commise résultant des approximations opérées.
29
Deuxième Partie : Modélisation
stochastique et application
30
Lp−approximation et variables stables pour le
3
risque
3.1 Introduction
Les lois α-stables présentent un grand intérêt dans la modélisation de nom-
breux problèmes physiques et économiques. La caractéristique de ces lois est
leur index de stabilité α qui indique la vitesse de décroissance des queues de dis-
tribution. Elles sont de ce fait adaptées à la modélisation de la survenance des
risques. En effet elles reflètent les propriétés statistiques communes à la plupart
des grandes fluctuations dont les accroissements ne sont pas réguliers au cours
du temps. Mieux, les lois α−stables sont les seules distributions limites pos-
sibles pour des sommes, convenablement normalisées et centrées, des v :a (i.i.d).
Les distributions stables peuvent être dissymétriques et permettent des queues
épaisses, de telle sorte qu’elles ajustent les distributions empiriques beaucoup
mieux que ne le font les distributions Gaussiennes. Cependant, la modélisation
de la loi de la survenance de chaque sinistre par une loi α−stable conduit à
une expression stochastique caractérisée par une équation intégro-différentielle
suffisamment complexe. Comment donc faire ? C’est ce à quoi nous tenterons
de résoudre dans ce chapitre. Il s’agira pour nous d’abord de présenter les
variables α−stables et quelques-unes de leurs propriétés. Nous nous intéresse-
rons ensuite dans ce chapitre à des approximations sur de petits supports. Ces
supports représentés par des sous espaces de Lp (B, ν) matérialisés par leurs
mesures α∗ sont des cadres dans lesquels la théorie développée dans la pre-
mière partie consacre le polynôme nulle comme meilleure Lp −approximation
aux fonctions de lois infiniment divisibles dont les lois gamma, symétrique
stables, stable et stable à l’infini. Les meilleurs polynômes algébriques ou tri-
gonométriques donnés par l’interpolation des fonctions, précédemment citées,
nous permettrons de construire, sur le modèle classique du risque de poisson
composé, des équations différentielles d’ordre n dont la résolution est directe
ou pourra se faire numériquement en fonction de l’ordre d’interpolation de nos
fonctions. Ceci nous conduit à la détermination ou àl’estimation de la proba-
31
bilité de ruine.
Preuve
– Supposons que X est une v.a α−stable, alors ∃ X1 , ..., Xn des v.a et
∃an > 0 et bn des constantes telles que
Pn
d 0 i=1 X i − bn
X1 + X2 + ... + Xn = an X + bn d où →X
an
– Supposons maintenant X1 , X2 , ..., Xn une suite de v.a iid et posons Sn =
X1 + X2 + ... + Xn tel que ∀x ∈ R
Sn − bn d
→X
an
Montrons que X est stable.
Si X est une v.a dégénérée, alors il est réduit à un point donc est stable
par définition.
Supposons que X à une distribution non dégénérée et pour k ≥ 1 posons
Sn1 = X1 + X2 + ... + Xn , ... et Snk = X(k−1)n+1 + ... + Xkn , .
puis
Sn1 − bn S k − bn
Xn1 = , ..., Xnk = n
an an
32
Il revient que les Xn1 , Xn2 , ..., Xnk ont la même distribution et que
d
Xni → X n → ∞; i = 1, ..., k
d
Considérons maintenant Yn = Xn1 + Xn2 + ... + Xnk .
d
Il vient que Y → X 1 + X 2 + ... + X k en distribution, avec
d d d d
X 1 = X 2 = ... = X k = X
D’autre part on a
X 1 + X 2 + ... + X k − βnk d
=X (3.3)
αnk
d
D’où Zkn → X et
Lemme 3.2
Soit (Xi ) une suite de v.a i.i.d. Si ∀n ∈ N, an > 0 et bn des suites réels, on a :
Pn
i=1 X i − bn
P{ < x} → G(x) n→∞ (3.4)
an
alors G(x) est non dégénérée (c’est-à-dire n’est pas réduit à un point) et est
associée à une loi stable.
33
La preuve de ce lemme est détaillée dans [1].
En effet, en reprenant la démonstration de la propriété précédente on parvient
à
d d
Zkn = X ⇒ {Zkn ≤ x} → {X ≤ x}
On déduit donc que
L
P {Zkn ≤ x} → G(x)
où G(x) est la distribution d’une v.a α-stable
Lemme 3.3
Soit X1 , ..., Xn des v.a indépendantes de la même famille que la v.a X de
distribution non dégénérée G. S’il existe des constantes an > 0 et bn ∈ R tels
que
S − b
n n L
P ≤ x → G(x)
an
Alors G est de la forme
−1
exp{−[1 + α( x−µ
σ
)]+ } si 6= 0
Gµ,σ, (3.5)
exp{−exp[−( x−µ ) ]} si = 0
σ +
où x+ = max(0, x)
− tan πα
2
si α 6= 1
w(t, α) =
2
ln|t|
π
si α = 1
1
si t > 0
Aussi on définit sign(t) = 0 si t = 0
−1 si t < 0
34
On note alors
X ∼ Sα (γ, β, δ)
Les paramètres α, β, δ et γ sont tels que :
– 0 < α ≤ 2 est appelé exposant caractéristique ou index de stabilité. Il
détermine la vitesse de décroissance de la queue de distribution (Plus
α → 0 plus la queue est lourde)
– −1 ≤ β ≤ 1 est le paramètre d’asymétrie. Si β > 0 alors la distribution
de X est dite asymétrique à droite. Si β < 0 alors la distribution de X
est dite asymétrie à gauche.
– δ ∈ R est le paramètre de position. Il mesure la tendance centrale de la
distribution.
– γ est le paramètre d’échelle ou de dispersion. Il mesure la dispersion de
la distribution autour du paramètre de position.
Exemple
1. Distribution Gaussienne
La densité est
1 (x − µ)2
f (x) = √ exp{− }
σ 2π 2σ 2
La fonction caractéristique est
σ 2 t2
ϕG (t) = exp{− + iµt}
2
Par identification, on a α = 2 ; γ = σ2 ; β = 0 et δ = µ
3. Distribution de Levy
La densité est
γ 1/2 1 γ
f (x) = ( ) exp{− }
2π (x − µ)3/2 2(x − µ)
La fonction caractéristique est
√ √
ϕG (t) = exp{ γt + i( γt + µt)}
On a donc α = 12 ; γ = γ ; β = 1 et δ = µ
35
Définition 3.3
Une v.a.r X a une distribution infiniment divisible si et seulement si ∃X1 , X2 , ..., Xn
indépendantes et de lois qui appartiennent toutes à la même famille que celle
de X (ce sont des copies de X) telles que :
d
X = X1 + X2 + ... + Xn (3.7)
Lemme 3.4
Une v.a.r X est la limite d’une somme de v.a.r Sn = ni=1 Xi si et seulement
P
Preuve
– Supposons que X est une variable infiniment divisible.
∀n ≥ 1 il existe des variables Xn,1 , ..., Xn,k des copies de X telles que
d d
Xn,1 + ... + Xn,k = X ⇒ Sn → X
d
– Supposons maintenant que Sn → X et montrons que X est infiniment
divisible.
Soient k ≥ 1 et Xnk = Xn(1) + ... + Xn(k) avec
P {Xn(1) > y} = P {Xn(1) > y, Xn(2) > y, ..., Xn(k) > y} ≤ P {Xnk > ky}
P {Xn(1) < −y} = P {Xn(1) < −y, Xn(2) < −y, ..., Xn(k) < −y} ≤ P {Xnk < −ky}
d
Il vient alors qu’il existe une variable X1 telle que Xn(1) → X1 , n → ∞
De plus les variables Xn(1) , ..., Xn(k) sont identiquement distribuées donc
d d d
Xn(2) → X2 , Xn(3) → X3 , ..., Xn(k) → Xk
et
d d d
X1 = X2 = ... = Xk
Il s’en suit de l’indépendance des variables Xn(1) , ..., Xn(k) que
d
Xnk → X1 + ... + Xk
d
Sachant que Xnk → X, alors
d
X = X1 + ... + Xk
36
Le lemme est ainsi démontré.
Proposition 3.2.1
Une v.a.r X est de distribution infiniment divisible si et seulement si ∀n ∈ N
Lemme 3.5
Soit X une v.a.r. Si X est stable alors elle est infiniment divisible.
Preuve
Xj − bnn
Soit Y la v.a définie par Yj = ∀j = 1; ...; n.
an
Les Yj sont indépendants car les Xj le sont. On peut donc écrire
X1 + X2 + ... + Xn $ an X + bn
Ainsi donc
d an X + b n − b n d
Y1 + Y2 + ... + Yn = =X
an
Le lemme est démontré
σ 2 t2 σ 2 t2 µ
ϕα (t) = exp{− + iµt} = [exp{− + i t}]n
2 2n n
D’où ϕα (t) = [ϕXn (t)]n
Donc
m σ2
Xn ∼ N ( ; )
n n
37
2. Distribution Gaussienne généralisée
La densité est
γ
f (x) =
π[(x − µ)2 + γ 2 ]
La fonction caractéristique est
a
ϕα (t) = exp{−γ|t| + iµt} = [exp{− |t|}]n
n
n a
D’où ϕα (t) = [ϕXn (t)] avec ϕXn (t) = exp{− n |t|} et
a
Xn ∼ C( )
n
3. Distribution de Poisson
k
La densité est f (x) = e−λ λk!
On a
1 r 1 n
ϕα (t) = it =[ r ]
it n
(1 − λ ) (1 − λ )
1
D’où ϕα (t) = [ϕXn (t)]n avec ϕXn (t) = (1− it
r
)n
et
λ
λ
Xn ∼ P( )
n
D’autre part
Soient X, Y ∼ P(λ). Supposons que X et Y sont des variables α-stables
alors il existe a > 0 et b des constantes telles que X + Y = aX + b. Ainsi
( ( ( √
E(X + Y ) = E(aX + b) 2λ = aλ + b a= 2 √
⇒ ⇒
V (X + Y ) = V (aX + b) 2λ = aλ2 b = (2 − 2)λ
Ce qui est absurde car X + Y ∈ N
Par suite X et Y ne sont pas α−stables.
Ceci prouve que toute variable infiniment divisible n’est pas stable.
38
Propriété 3.2.1
Soit Xi ∼ Sα (δi , βi , γi ) (∀i = 1, ..., n). Si les Xi sont indépendantes alors
n
X
Xi ∼ Sα (δ, β, γ) avec
i=1
n Pn n
βi γiα 1
β = Pi=1 γiα ) α
X X
δ= δi , n α
, γ=(
i=1 i=1 γi i=1
Définition 3.4
Un vecteur aléatoire X est de distribution stable si ∀k ∈ N, ∀X 1 , X 2 , ..., X k de
même loi que X, il existe ak > 0 et Dk des suites de vecteurs constants tels
que
X 1 + X 2 + ... + X k $ ak X + Dk (3.10)
Proposition 3.2.2
Définition 3.5
Un vecteur X est dit symétrique alpha-stable (SαS) si X est un vecteur α-
stable et si −X à même loi que X
Proposition 3.2.3
Soit 0 < α < 2. Les v.a.r X1 ; ...; Xn où ∀j = 1; ...; n Xj a pour loi Sα (µj ; βj ; γj )
sont indépendantes si et seulement si le vecteur (X1 ; ...; Xn ) est stable et sa
mesure spectrale est discrète et concentrée sur les points d’intersections entre
les axes et la sphère unité.
39
La mesure spectrale discrète et concentrée sur les points d’intersections
entre les axes et la sphère unité peut être donnée par :
n
X n
X
µS n−1 = ak δ(0; ...; 0; 1; 0; ...; 0) + bj δ(0; ...; 0; −1; 0; ...; 0) (3.12)
k=1 k=1
avec ak ≥ 0 ; bj ≥ 0
Ainsi donc, on a :
Lemme 3.6
Soit X un vecteur aléatoire α-stable (0 < α < 2), alors sa fonction caractéris-
tique peut être donnée par
n n
πp
tj µ0j − |t|α [(aj + bj ) − i(aj − bj )sign(tj ) tan(
X X
ϕX (t) = exp{i )]} (3.13)
j=1 j=1 2
(λt)k
P [N (t) = k] = e−λt k = 0, 1, 2, ...
k!
Considérons Xi le montant du i-ème sinistre et S(t) = X1 + X2 + ... + XN (t)
la somme total pour la prise en charge des N (t) sinistres d’une entreprise.
Notons R(t) le processus représentant la réserve dont dispose une entreprise,
à un temps t donné, sachant la réserve initiale R(o) = u. On a
R(t) = u + ct − S(t)
40
– Xi est une variable aléatoire de moyenne µ qui représente le montant du
i-ème sinistre. Cependant, le coût moyen des sinistres est
1 NX(t)
lim Xi = λE(X)
t→+∞ t
i=1
41
S(t) = u − R(t) est le processus d’excédent des sinistres.
Les probabilités de ruine aux horizons temps finis T et temps infinis sont
données respectivement par
ψ(u, T ) = P { inf R(t) < 0/R(o) = u} et ψ(u) = P {inf R(t) < 0/R(o) = u}
t∈[0,T ] t≥0
λ λZ u
Dφ(u) = φ(u) − φ(u − x)dF (x); φ(0) = 0; φ(∞) = 1
c c 0
On pourra se reférer aux auteurs dans [3], [15] et [18] pour des détails sur
la preuve.
n
X
où F est la distribution de la somme Xi (dont la densité est f ).
i=1
Notons que ψ(u) = 1 pour u < 0
Posons y = u + ct. Dans l’expression de ψ ci-dessus, on tire
λ λu/c Z ∞ −λy/c Z +∞
ψ(u) = e e ψ(y − x)dF (x)dt
c u −∞
42
En occultant les sinistres négatifs et en posant φ(u) = 1 − ψ(u), il vient que
λ λZ u λ λZ u
φ0 (u) = φ(u) − φ(u − x)dF (x) ⇒ Dφ(u) = φ(u) − φ(u − x)dF (x)
c c 0 c c 0
dn φ
Avec D(1) φ(u) = Dφ(u) et D(n) φ(u) = n φ(u)
du
Dans les sections qui suivront nous nous intéresserons à la détermination
de φ(u) (pour une valeur de u donnée). Pour ce faire et compte tenu de la
complexité Zde l’expression de F , nous donnerons en premier lieu une approxi-
u
mation de φ(u − x)dF (x) sur la base des deux principaux résultats de la
0
partie I.
43
On obtient ainsi l’équation donnée par
λ λ Z u Z +∞
Dφ(u) = φ(u) − exp{−tα } cos(xt)φ(u − x)dtdx
c πc 0 0
λ λ Zu Z +∞
⇔ Dφ(u) = φ(u) − φ(u − x)dx exp{−tα } cos(xt)dt(3.14)
c πc 0 0
44
Cherchons à déterminer une soluton approchée de l’équation (3.14). Nous
transformerons tout d’abord (E) en une équation differentielle ordinaire. Consi-
dérons dans un premier temps le cas fα où α = 1.
De part cette approche, (3.14) devient :
λ λ Zu Z +∞
Dφ(u) = φ(u) − φ(u − x)dx exp{−t} cos(xt)dt
c πc 0 0
1 +∞
X (−1)k 2k + 1 2k
f (x) = Γ( )x (3.16)
απ k=1 2k! α
Preuve
Soit X ∼ SαS avec γ = 1, sa densité est
1 Z +∞ −tα
f (x) = e cos(xt)dt (3.17)
π 0
Ecrivons cos(xt) sous forme de série convergente. On a
+∞
(−1)k
(tx)2k
X
cos(xt) =
k=0 2k!
1 Z +∞ −tα +∞
X (−1)k
f (x) = e (tx)2k dt
π 0 k=0 2k!
1 +∞
X (−1)k Z +∞
α
= x2k e−t (t)2k dt
π k=0 2k! 0
45
on obtient de ce qui précède que :
1 +∞
X (−1)k Z +∞
2k+1
f (x) = x2k θ α −1 e−θ dθ
π k=0 2k! 0
1 +∞
X (−1)k 1 2k + 1
= x2k Γ( )
π k=0 2k! α α
1 +∞
X (−1)k 2k + 1 2k
= Γ( )x
πα k=0 2k! α
Du lemme précédent, découle le théorème suivant :
Théorème 3.1
Soient X une variable aléatoire symétrique α-stable de densité f et φ(x) une
fonction non négative telle que φ(∞) = 1. Alors il existe un polynôme algé-
brique pn de degré inférieur à n-1 qui soit le meilleur Lp −approximation de la
puissance tronquée (x − t)r−1 obtenue de l’expression
1 Zx
ϕ(t)(x − t)r−1 dt
Γ(r) −x
telle que
(r) √ √
(x − t)r−1
+ ± sup t (±2D0 (t)( x 2 − t2 )r+1 ) ln(n + 1)( x2 − t2 )r−2
k −Pn,r,t (x)k = +o( )
Γ(r) nr nr+1
Preuve
Soit X une variable aléatoire symétrique α-stable. Alors du lemme précé-
dent on établit que
1 +∞
X (−1)k 2k + 1 2k
f (x) = Γ( )x
πα k=0 2k! α
Z x
Dans l’équation intégro-differentielle (3.14), l’expression φ(x − t)f (t)dt, où
0
φ est la fonction vérifiant ∀x ≤ 0 φ(x) = 0 et φ(∞) = 1, peut être transformée
comme suit :
Posons y = x − t ⇒ t = x − t et dt = −dy. Par suite on a :
Z x Z x
φ(x − t)f (t)dt = φ(t)f (x − t)dt
0 0
En reférence au lemme(3.8), on obtient :
Z x Z x
1 +∞
X (−1)k 2k + 1
φ(x − t)f (t)dt = φ(t) Γ( )(x − t)2k dt
0 0 πα k=0 2k! α
1 +∞X (−1)k 2k + 1 Z x
= Γ( ) φ(t)(x − t)2k dt
πα k=0 2k! α 0
Z x
1 Z x
φ(x − t)f (t)dt = bn (α) × φ(t)(x − t)2k dt
0 Γ(r) 0
46
Avec
n
1 X (−1)k 2k + 1
bn (α) = Γ( )Γ(r)
πα k=0 2k! α
Posons r = 2k + 1, il vient donc que :
Z x
bn (r) Z x
φ(x − t)f (t)dt = φ(t)(x − t)r−1 dt
0 Γ(r) 0
telle que
(r) √ √
(x − t)r−1
+ ± supt (±2D0 (t)( x2 − t2 )r+1 ) ln(n + 1)( x2 − t2 )r−2
k −Pn,r,t (x)k = +o( )
Γ(r) nr nr+1
Ce théorème participera dans la section de l’approximation à la définition de
la forme de la meilleure approximation polynômiale de la densité p-stable f
ainsi que de la convolution φ ∗ f selon les cas.
47
La densité est donc approximée comme suit :
f (x) = αγ α cα (1 + β)x−α−1
Avec cα = Γ(α)
π
sin( π2 α)
Ainsi, nous formulons le lemme suivant :
Lemme 3.10
Soit Xi une v.a α-stable tel que Xi ∼ Sα S. Soit N (t) un processus de poisson
P
Preuve
Soit X une variable aléatoire α-stable de réalisation x assez grande. On a
X ∼ Sα (δ, β, γ) alors du théorème de John P.N, il vient que
f (x) = αγ α cα (1 + β)x−α−1
Ainsi
Z u Z u
φ(u − t)f (t)dt = φ(u − t)αγ α cα (1 + β)t−α−1 dt (3.18)
0 0
kZu
= φ(u − t)(t)−α−1 dt (3.19)
π 0
Avec k = παγ α cα (1 + β) En faisant le changement de variable t = u − x
dans (3.18), il vient que
Z u
kZ0
φ(u − t)f (t)dt = − φ(x)(u − x)−α−1 dx
0 π u
d’où Z u
kZu
φ(u − t)f (t)dt = φ(t)(u − t)−α−1 dt
0 π 0
48
Soit gu (t) une fonction continûment dérivable à petit support sur [-1 ;1] tel que
gu (t) := g(t) Posons
D’ou le théorème.
Ce résultat nous permet une approximation de la distribution d’une va-
riable stable à queue lourde par un polynôme algébrique ou trigonométrique.
Nous reviendrons plus explicitement sur ce point dans la section dédiée à l’in-
terpolation polynômiale.
densité gamma. Les cas particuliers de Γ(r, β) comme Γ(0, 1) et bien d’autre
formes ont fait l’objet de plusieurs études dont ceux de Thorin (1973), de HE
Yianjiang et al (2003). Intéressons-nous au cas générale de la loi gamma donnée
par la fonction
β r xr−1 e−βx si x ≥ 0
( 1
f (x) = Γ(r)
0 sinon
avec β > 0 et 0 < r < 2. On obtient donc le lemme suivant :
Lemme 3.11
N (t)
X
Soit R(t) = u + ct − Xi et φ la probabilité de non ruine lié à R(t) dans le
i=1
49
modèle classique de poisson composé. Alors
Z x
1 r r−1 −βt βr Z x
φ(x − t) β t e dt = ϕ(t)(x − t)r−1 dt (3.20)
0 Γ(r) Γ(r) −x
Preuve
Etant donné le modèle classique du risque donné plus haut, considérons
l’expression
Z x
g(x) = φ(x − t)f (t)dt
0
donc
Z x
1 r r−1 −βt
g(x) = φ(x − t) β t e dt
0 Γ(r)
βr Z x
= φ(x − t)e−tβ tr−1 dt
Γ(r) 0
ϕ(t) = φ(t)e−tβ
L’expression de g devient
β r exβ Z x
g(x) = ϕ(t)(t − x)r−1 dt (3.21)
Γ(r) 0
Considérant que la fonction ϕ est non négative car φ est non négative et que
φ(t) = 0 ∀t < 0 alors il vient que :
β r exβ Z x
g(x) = ϕ(t)(t − x)r−1 dt (3.22)
Γ(r) −x
Conformement au théorème (.1) et à la proposition(1.3.2), verifions que ϕ est
une fonction non négative telle que kϕ(t)k ≤ 1
– Par définition , ϕ(t) ≥ 0 car produit de deux fonctions positives φ(t) et
e−tβ
50
– kϕ(t)k1 = kφ(t) × e−tβ k1 ≤ kφ(t)k1 × ke−tβ k1 . Or
Z +∞
−tβ
ke k1 = e−tβ dx = 1 et kφ(t)k1 ≤ 1 car densité de probabilité
0
d’où kϕ(t)k1 ≤ 1
Avec ses conditions nous pouvons donc approchée la puissance tronquée
(x − t)r−1 par un polynôme pn tel que
(r) √ √
(x − t)r−1
+ ± sup t (±2D0 (t)( x 2 − t2 )r+1 ) ln(n + 1)( x2 − t2 )r−2
k −Pn,r,t (x)k = +o( )
Γ(r) nr nr+1
cos(kt−r π )
avec Dr (t) = π1 ∞
P 2
k=1 Kr
De ce qui précède il ressort le théorème suivant :
Théorème 3.2
Soit φ une fonction non négative et f la densité gamma donnée par :
1
β r xr−1 e−βx
(
Γ(r)
si x ≥ 0
f (x) =
0 sinon
Alors il existe un polynôme algébrique pn de degré inférieur à n-1 qui soit
la meilleure Lp −approximation de la puissance tronquée (x − t)r−1 obtenue de
l’expression
1 Zx
ϕ(t)(x − t)r−1 dt
Γ(r) −x
telle que
(r) √ √
(x − t)r−1
+ ± supt (±2D0 (t)( x2 − t2 )r+1 ) ln(n + 1)( x2 − t2 )r−2
k −Pn,r,t (x)k = +o( )
Γ(r) nr nr+1
51
3.4.1 Généralités sur la mesure α∗
Considérons E un ensemble, ∆ un sous-ensemble de E . Soit ν une mesure
positive définie sur E.
Soit L1 (E, ν) un espace, de fonctions f à valeurs réelles, muni de la norme
Z
||f ||1 = |f (x)|dν(x)
E
Théorème 3.4.1
Soit E un sous espace linéaire de L1 (E, ν) et f ∈ L1 (E, ν) \ ∆ alors m∗ est
une meilleure L1 (E, ν) approximation de f dans ∆ si et seulement si
Z Z
| msign(f − m∗ )dν| ≤ |m|dν; m∈∆
E Z(f −m∗ )
Proposition 3.4.1
Soit ∆ un sous-ensemble homogène de L1 (E, ν).Alors zéro est l’erreur de la
meilleure L1 -approximation de f ∈ L1 (E, ν) si et seulement si
Z Z
|f |dν ≤ |f |dν f ∈ ∆
N (f ) Z(f )
De [55], [46], il ressort que la mesure de α∗ de l’espace ∆ dans lequel est défini
une mesure ν et sur lequel le polynôme nul est la meilleure approximation
d’une fonction m vérifie la condition :
|m|dν
R
sup{N :ν(N )≤α} N 1
Rα = sup ≤
m∈∆ ||m||1 2
Soit α > 0, notons par |||f |||α := sup{N :ν(N )≤α} N |f |dν la norme α de f . Nous
R
Proposition 3.4.2
Soit ∆ un sous-ensemble homogène de L1 (E, ν).Soit m la meilleure L1 -approximation
de f ∈ L1 (E, ν). Alors la mesure α∗ de ce domaine est donnée par :
|||m|||α 1
α∗ = {α : sup ≤ } (3.23)
m∈∆ kmk1 2
52
3.4.2 Approximation Lp sur de petits supports
N (t)
Soit R(t) = u + ct − Σi=1 et S(t) = u − R(t).
F est la distribution du montant total aléatoire des sinistres. Pour notre present
sujet, nous nous intéressons au cas où le coût aléatoire Xi du i−ème sinistre
P (0 ≤ α < 2). Il existe alors a > 0 et b
est non gaussien et de type α−stable.
Xi −b
des constantes réels tels que X = a
soit une v.a α−stable Posons a = 1
et b = 0, alors X = Σni=1 Xi .
Les Xi étant des copies de X, alors Xi ∼ Sp (δi , βi , γi )
Définissons par B un espace homogène et ν la mesure associée à la distribution
d’une variable m de densité g.
µ est donnée par µm (λ) = ν{x : |m(x)| > λ} d’où
Z +∞ Z +∞
µm (λ) = m(x)dν(x) = g(x)dx (3.24)
λ λ
1 1
Considérons Wpr la classe des fonctions de la forme Γ(r) −1 (x − t)
r−1
R
φ(t)dt.
r p
Soit g ∈ Wp alors l’erreur de la meilleure L − approximation de g est donnée
par En (Wpr )q := supg∈Wpr (g)q avec p1 + 1q = 1
Définition 3.4.1
Soit B un espace homogène et m ∈ B. Soit m∗ la meilleurs L1 −approximation
de m sur B. La mesure α∗ de l’espace B dans lequel la meilleure approximation
de m est m∗ est donnée par :
∗ |||m − m∗ |||α 1
α (B) = sup {α : sup ∗
≤ } (3.25)
m∈B ν(N )≤α ||m − m ||1 2
Avec
Z Z +∞
N = {x : |m(x)−m∗ (x)| > ρ}; |||m|||α = |m(x)|dν(x); ||m||1 = |m(x)|dν(x)
{N } 0
Lemme 3.12
Soit m ∈ B. Si ν est une mesure monoatomique alors
Z α
|||m|||α = m∗ (t)dt
0
53
Preuve
Soient ν une mesure, µm (t) = ν{t : m(x) > t} une distribution de m et
m∗ (x) = sup{t : µm (t) > x}
m∗ ainsi défini peut être vu comme une distribution de la fonction µm .
De plus m∗ est non négatif, non croissant par sa définition et continu sur
[0; +∞[.
Il vient que m et m∗ ont les mêmes distributions mais avec des mesures res-
pectives ν et λ.
Par ailleurs,
Z Z +∞ Z +∞
p ∗ p
|m(x)| dν(x) = (m (t)) dλ(t) = p tp−1 µ(t)dt
B 0 0
D’où le résultat
Lemme 3.13
Soit m(x) une variable aléatoire α−stable de distribution F . Alors ∃ P ∈ Pn
un polynôme de degré inférieur à n − 1 qui approche au mieux g et il existe un
sous espace homogène B tel que
En (g) = α∗ (B) g∈B (3.26)
Preuve
Soit m ∈ B une variable α−stable de distribution F et soit g la fonction
définie par Z +∞
g(x) = φ(x − t)dF (t)
0
Soit φ une fonction continue, dérivable et non négative sur [0; +∞[ tel que
kφk ≤ 1 et soit f la densité associée à la distribution F .
De (3.1) et (3.3.1) l’expression de g peut être donnée par
Z +∞ Z 1
φ(x − t)dF (t) = φ(t)(x − t)r−1 dt
0 −1
54
De plus α∗ est défini comme mesure de l’espace dans lequel la meilleure ap-
proximation de g est le polynôme nul. On déduit donc que
∗
En (g) = αg∈B (g)
Théorème 3.3
Soit B un espace homogène et m ∈ B une variable aléatoire de distribution
µ(t) = ν{t : m(x) > t}. Soit φ une fonction continue, intégrable sur [−1; 1]
et kφk ≤ 1 tel que φ ? f soit la densité associée à µm . f est une distribution
α−stable. Soit m∗ la meilleure L1 −approximation polynômiale de m sur B
alors
α∗ (B) = kmk1 (3.27)
Preuve
Soit B un espace homogène et m ∈ B une variable aléatoire de distribution
µ.
Définissons par µ la distribution donnée par
Z +∞ Z +∞
µ(x) = ν{x : m(x) > x} = m(t)dν(t) = f (t)dt
x x
D’où le théorème
55
3.4.3 Application aux calculs de α∗
Il est très souvent difficile d’apprécier certaines lois qui tiennent compte de
la réalité des événements naturels. L’approximation de la loi des événements
par des lois bien connues devient une nécessité si toutefois l’erreur commise de
cette approximation est le plus minimale possible. Dans la suite, nous consi-
dérerons des cas d’approximations et nous évaluerons l’espace dans lequel la
meilleure approximation d’une fonction est le polynôme nul.
Lemme 3.14
Soit (Xi )i=1;...;n une suite de v.a indépendantes définie sur un espace de proba-
bilité ν−mesurable B. Soit M un sous espace de L1 (B, ν) tel que si Xi ∈ M ,
on ait E(Xi ) = µi et V (Xi ) = σi2 . Alors
q
α∗ (M ) = 2(1 − φ( ln(4) − 2 ln(sn ))) (3.28)
Preuve
Utilisons la condition de Lyapunov
Proposition 3.4.3 Soit (Xi )i=1;...;n une suite de v.a indépendantes définie sur
un espace de probabilité tel que E(Xi ) = µi et V (Xi ) = σi2 .
Posons s2n = Σni=1 σi2 ∀n ∈ N
Si
E(|Xi |2+δ ) < ∞
∀δ > 0 et
Pn
E(Xi −µi )2+δ
lim i=1
= 0 ∀i ∈ N
s2+δ
n
Alors Si Sn = X1 + ... + Xn , on a
Sn − E(Sn ) L
→ N (0; 1)
sn
Pn
Soit encore rnδ = i=1 E(Xi − µi )2+δ .
56
Définissons l’espace M par
rnδ
M = {Sn − µ : E(|Xi |2+δ ) < ∞; → 0}
s2+δ
n
Soit m ∈ M , De la proposition précédente, on obtient que :
m m
→ N (0, 1) ⇒ P ( < s) = φ(s)
sn sn
Soit m une variable aléatoire de mesure ν donnée et soit µ la distribution
associée à m tel que µm (x) = ν{x : | m(x)
sn
| > λ}. Alors µm est une ν−mesure
m kmk1
Soit m ∈ M , on a = .
sn 1 sn
De plus s
m 1 Z +∞ 2 2
=√ |x|e−x /2 dx =
sn 1 2π −∞ π
q
Par suite kmk1 = sn π2 .
A travers ces conditions d’approximation, il s’en suit maintenant le calcul de
α∗
Considérons que l’estimateur de la distribution m est donnée par
s
Z
1 2
α? = sup{α : sup |m|dν ≤ sn }
ν(N )<α N 2 π
Posons pour toute la suite,
m
N = x: >β
sn
On réecrit donc l’expression de α? donnée par α? = ν(N )
Z
Soit q(β) = |m(x)|dν(x). On a :
N
Z
q(β) = 2 |m(x)|dν(x)
m(x)
x: sn
>β
2 Z +∞ −t2 /2
= √ te dt
2π β
2 2
q(β) = √ e−β /2
2π
Nous achévons notre démonstration par le résultat suivant :
Lemme 3.15 q
Soit la quantité q(β) = N |m(x)|dν(x) tels que sup{β∈R} {q(β)} = 12 sn π2 pour
R
57
Preuve
|m(x)|dν(x). Alors
R
Soit q(β) = N
s
1 2
sup {q(β)} = sn
{β∈R} 2 π
s
2 2 1 2
⇒ √ e−β /2 = sn
2π 2 π
2
β sn
⇒ − = ln
2 2
q
De plus, sn ∈]0; 2] alors β = ln( s42 ).
n
De (3.15), on tire
m
?
α = P >β
sn
m
= 2P >β
sn
α? = 2(1 − φ(β))
d’où le lemme.
Dans les deux applications qui suivront nous considérons la situation sui-
vante :
58
Soit m ∈ E = [−1; 1] tel que m(x) soit une variable aléatoire symétrique
α−stable de caractéristique Sα (δ; 0, 1).
On a par définition
Z Z
1
|m(x)|dν(x) = 2 m(x)dν(x) = km(x)k1 (3.29)
N N 2
De plus, on a
Z Z +∞
2Z1 x 1
|m(x)|dν(x) = 2 xg(x)dx = 2
dx = (ln 2 − ln(1 + ρ2 ))
N ρ π ρ 1+x π
(3.30)
ρ > 0 et k|mk|α ≤ 1, on a δ < 21 .
Ainsi en égalisant les expressions, et en supposant que m(x) ∈ L avec L =
{X : E( X1 ) < π1 }.
γp
De (3.29) et (3.30) on tire que :
π δπ
ln 2 − ln(1 + ρ2 ) = km(x)k1 ⇒ ln(1 + ρ2 ) = ln(2) −
2
q 2
δπ
ρ = 2e− 2 − 1
∗ 2 Z +∞ 1 2
α = ν(N ) = 2
dx = (arctan(1) − arctan(ρ))
π ρ 1+x π
2 π
q
δπ
α∗ = ( − arctan( 2e− 2 − 1))
π 4
59
3.3.3.3 Approximation sur les distributions α-stables et α∗
X
Considérons X ∼ Sα (δ, β, γ) avec β 6= 0. On a γ 1/α ∼ Sα (δ, β, 1)
Soit B un espace des variables stables Sα (δ, β, 1) à queues de distribution
lourdes dans lequel tous les variables sont des copies entre eux. Considérons
m ∈ B et définissons encore par µm (λ) = ν{λ : |m(x)| > λ}. Posons ν la
mesure de probabilité telle que
Z λ
ν{x : m(x) ≤ λ} = kα x−α−1
−∞
On a
Z +∞
µm (λ) = |m(x)|dν(x)
λ
Z +∞ Z ∞
= 2 g(x)dx = 2kα x−α−1
λ λ
2kp −p
µm (λ) = λ
p
Cherchons à déterminer ρ > 0 tel que α∗ = ν{N } avec N = {x : |m(x)| >
ρ}.
R +∞
Définissons à cet effet km(x)k1 = −∞ xg(x)dx. On a km(x)k = δ
Soit
Z Z
1
|m(x)|dν(x) = 2 m(x)dν(x) = km(x)k1
N N 2
Z Z +∞
|m(x)|dν(x) = 2 kα x−α dx
N ρ
Z
2kα −α+1
|m(x)|dν(x) = ρ
N α−1
2kα −α+1 1 δ(α − 1)
Par suite, on ρ = δ ⇒ ρ−α+1 =
α−1 2 4kα
Comme m(x) a une distribution stable à queue lourde alors 1 ≤ α < 2.
Ainsi
δ(α − 1) 1/(−α+1)
ρ=( )
4kα
Nous déterminons enfin α∗ comme suit
Z
∗
α = ν(N ) = |m(x)|dν(x)
Z ∞ N
= 2kα x−α−1
λ
kα δ(α − 1) α/(α−1)
α∗ = 2 ( )
α 4kα
60
3.4.4 Interpolation polynômiale sur de petits supports
3.3.4.1 Approximation de la mesure α∗
Considérons que X est une v.a α−stable caractérisée par la fonction ψX
définie par :
Soit X1 , ..., Xn des copies de X et (Xi )i=1,...n des variables aléatoires indépen-
dantes tels que X = ni=1 ai Xi . On aura
P
n
Y n
Y
ψX (t) = ψai Xi (t) = ψXi (ai t)
i=1 i=1
n
exp{−(γ|ai t|α )[1 + sign(ai t)βw(ai t, α)] + iδai t}
Y
=
i=1
Ainsi
kXkr kX1 kr
Ar = sup { }= (3.31)
X∈M kXk1 kX1 k1
Soit Pn l’ensemble des polynômes de degré inférieur à n et soit
p
Wp = {e−(γ|x|) : p ∈ R} γ une constante réelle
61
Lemme 3.16
α
Soit wp = e−(γ|x|) et Q ∈ Pn un polynôme de degré inférieur à n. Si α ≥ 2
alors
1 1
kwp Qkr ≤ (α1/α n1−1/α ) r0 − r kwα Qkr0
1 1
où r
+ r0
=1
Dans le cas d’une densité α−stable, le paramètre α est tel que 0 < α ≤
2. Les travaux de Nevai et Totik on aboutit à une généralisation du lemme
précédent comme suit :
Lemme 3.17
α
Soit wα = e−(γ|x|) et Q ∈ Pn un polynôme de degré inférieur à n. alors si
0 < α < 2 alors
kwα P kr
kwα Qkr ≤ cΛn (α)kwα Qkr0 et ≤ cΛn (α) (3.32)
kwα P kr0
α∗ (N ) ≥ k
n1−1/α
1<α<2
α∗ (N ) ≥ k
0<α<1
62
Evaluation de α∗ : Cas particulier
Supposons X une variable aléatoire α−stable. Il existe des copies Xi (i =
1, ..., n) et il existe des constantes réelle an > 0, bn tel que an X + bn = X1 +
... + Xn = Sn . Il en suit donc les résultats suivants : Soit le résultat
kXkr kX1 kr
Ar = sup{ }=
kXk1 kX1 k1
Considérons dans cette partie que Xi ∈ M (i = 1, ..., n) sont des v.a de distri-
butions communes gamma Γ(α; β).Xi est en outre une v.a infiniment divisible
de distribution à queue légère. Soit N = M \Z = {x : m(x) > ρ} un sous espace
ν−mesurable, avec ν une mesure de probabilité associée à M et α∗ (M ) = ν(N )
Définissons aussi
1 Z +∞ xr−1 e−x/β
µX1 (λ) = ν{x : |X1 | > λ} = 2 × dx
Γ(r) λ βr
Soit encore Z
1
|X1 |dν(x) = ||X1 ||1
N 2
xr
Supposons un sous espace S de ∆ dans lequel γ(r, x/β) := β
. On a
On a par ailleurs
Z Z Z +∞
|X1 |dν(x) = 2 g(x)dν(x) = 2 g(x)dx
N N ρ
ρr
Z
γ(r, ρ/β)
|X1 |dν(x) = 2(1 − ) = 2(1 − β )
N Γ(r) Γ(r)
1
On déduit par égalité que ρ = ( βΓ(r)
4
(4 − rβ)) r Ainsi
1 Z +∞ xr e−x/β
α∗ (S) = 2 × dx = 2(1 − F (ρ))
Γ(r) ρ βr
63
Table 3.1 – Calcul de quelques valeurs de α∗
r 0,2 0,4 0,6 0,8 1
β 10 8 5 3 2
6 1
ρ 6, 37.10 2, 37.10 2, 82 1, 52 1
α∗ 0 0 3, 47.10−7 1, 28.10−2 2, 71.10−1
64
Preuve
xQ00 (x)
Soient w une fonction de type Freud-Erdös et T (x) := 1 + Q0i(x) ∀x ∈ [0; 1]
i
et i = {1; 2} tel que T soit croissante sur ]0; 1[ et T = o(Q0i (x)) pour x → 1.
Définissons par am := am (Qi ) et le nombre de Mhaskar-Rahmanov-Saff donné
par
2 Z 1 am tQ0 (am t)
m= √ dt
π 0 1 − x2
De [26], nous trouvons la preuve selon laquelle
0
kwP kr ≤ c(nT (a2n )1/2 )1/r −1/r ≤ kwP kr0
D’où le lemme.
Lemme 3.19
Soit w une fonction de type Freud-Erdös et P ∈ Pn un polynôme de degré
moins que n, alors
c
α ∗ (wP ) ≥ (3.34)
nT (a2n )1/2
c une constante réelle.
Lemme 3.20
Soit M ∈ L1 (B, ν) l’espace des distributions α-stables f telles que
√ 1
1 − x2 ≤ f ≤ √
1 − x2
alors il existe c1 et c2 des constantes réelles
c1 c2
≤ α ∗ (M ) ≤ (3.35)
nT1 (a2n )1/2 nT2 (b2n )1/2
65
Lemme 3.21
Soit f une fonction continue de classe C n (I) et n ∈ N. Alors il existe un
unique polynôme Pn de Lagrange de degré inférieur ou égal à n qui interpole
f en n + 1 points tel que
n n
X Y x − xi
Pn (x) = f (xk )`k (x) où `k (x) = k = 1, ..., n (3.36)
k=0 i=1i6=k xk − xi
Preuve
Soit f une fonction de classe C n sur un intervalle I. Alors elle peut être
interpolée en n + 1 points par un polynôme de Lagrange. Spposons deux poly-
nômes differentes de Lagrange Pn et Qn de degré n qui interpolent f en n + 1
points distincts. Par définition Pn et Qn prennent les mêmes valeurs aux n + 1
points distincts. Il vient que le polnôme Pn − Qn est de degré inféreieur à n et
à n + 1 racines. C’est donc le polynôme nul et par suite Pn = Qn
Il découle donc le lemme suivant
Lemme 3.22
Soit Xi (i = 1, ...n) des copies d’une v.a α−stable X de densité f dans l’espace
M ∈ L1 (B, ν).B un espace mesurable et ν une mesure monoatomique de B.
Considérons N (t) un processus de poisson et φ la probabilité de non ruine liée
à la réserve R(t). Alors φ est solution de l’équation différentielle
n
λ λX
D(n+2) φ(u) − D(n+1) φ(u) + ak k!D(n−k) φ(u) = 0 (3.37)
c c k=0
Preuve
Soit M ∈ L1 (B, ν) un espace et Xi ∈ M une variable aléatoire p−stable
tel que X = ni=1 Xi . Des lemmes précédents, f peut être approchée par un
P
polynôme dont les zéros (ou les coefficients) sont les an tels que α∗ ≤ an . On
établit donc que
n
ak xk + R(x)
X
f (x) :=
k=0
1 n √ o
(r)
R(x) = Rt (x) = sup ± D 0 (t) x 2 − t2 est le reste de l’approxima-
nr t
tion de f par un polynôme P . Et comme P est la meilleure approximation de
f , nous considérons que R(x) = 0.
Soit N (t) un processus de poisson d’intensité λ.
Considérons la réserve disponible au temps t donnée par
66
PN (t)
R(t) = u + ct − i=1 . Alors le modèle classique du risque composé conduit à
l’équation intégro-différentielle
λ λZ u
Dφ(u) = φ(u) − φ(u − x)dF (x); φ(0) = 0; φ(∞) = 1
c c 0
Il vient que
n
λ λZ u
ak xk dx
X
Dφ(u) = φ(u) − φ(u − x)
c c 0 k=0
D’où
λ λd 2 λb 2aλ
D4 φ(u) − D3 φ(u) + D φ(u) + Dφ(u) + φ(u) = 0
c c c c
67
Par suite on établit successivement que pour tout entier naturel n, φ(u) est
solution de l’équation différentielle
n
(n+2) λ (n+1) λX
D φ(u) − D φ(u) + ak k!D(n−k) φ(u) = 0
c c k=0
D’où le lemme.
Proposition 3.4.4
Soit X une v.a symétrique α−stable (α = 1) de densité f , N (t) un processus
de poisson d’intensité λ. Alors la probabilité de ruine φ est l’unique solution
de l’équation
λ λ λ
D3 φ(u) − D2 φ(u) + Dφ(u) + φ(u) = 0
c πc π(π − 1)c
La preuve de ce lemme est donnée par le lemme (3.22).
(
φ(0) = 1
Considérons
φ(∞) = 0
Pour prouver l’unicité de la solution de l’équation (3.37), interpolons f par un
polynôme P de degré 1.
Le polynôme d’interpolation de Lagrange est donné par :
x − x1 x − x0
P (x) = f (x0 ) + f (x1 )
x0 − x1 x1 − x0
D’où
x1 f (x0 ) − x0 f (x1 ) f (x1 ) − f (x0 )
a0 = ; a1 =
x1 − x0 x1 − x0
La fonction f , densité du coût des sinistres, representée par une variable
symétrique α−stable est définie, si α = 1, par
1 Z +∞
f (x) = exp{−t} cos(xt)dt
π 0
En interpolant la fonction f en deux points 0; 1, on obtient
1 1
a0 = et a1 =
π π(π − 1)
D’où le lemme.
Proposition 3.4.5
Soit X une v.a infiniment divisible de type gamma de densité f donné par
xr−1 −x/β
f (x) = e si x ≥ 0 0 sinon
β r Γ(r)
68
Soit N (t) un processus de poisson d’intensité λ. Il existe un polynôme de degré
1 qui interpole f tel que la probabilité de ruine φ soit l’unique solution de
l’équation
λ λe−1/β
D3 φ(u) − D2 φ(u) + φ(u) = 0
c cΓ(r)β r
Lemme 3.23
Soit X une variable α−stable de densité f , N (t) un processus de poisson d’in-
tensité λ. Soit B un espace ν−mesurable et M un espace de L1 (B, ν) dans
lequel la meilleure approximation de f est le polynôme nul. Alors la probabilité
de non ruine φ liée au modèle classique de ruine vérifie l’équation :
λ λ
D3 φ(u) − D2 φ(u) + Dφ(u) − ( − αn )φ(u) = 0 (3.38)
c c
λ λZ u 1 n √ r+1 o
(r)
Dφ(u) = φ(u) − φ(t) r sup ± D0 (t) u2 − t2 dt
c c 0 n t
En se servant de la preuve du théorème .1 et en reférence aux lemmes (1.4) ;
(1.5) puis aux inégalités (1.17), (1.18), (3.37), on déduit qu’il existe Cr positif
tel que
√ ln n
r+1
(r)
|D0 (t) u2 − t2 sinr−1 (u − t)
| ≤ Cr
nr+1
Comme r > 0 on deduit donc qu’il existe Cr > 0 tel que
λ λCr ln n Z u
Dφ(u) = φ(u) − φ(t) sin(u − t)dt
c cnr+1 0
Suivant la position de u, posons u = et u = η. Il vient que :
λ λCr ln n Z
Dφ(u) = φ(u) − φ(t) sin(η − t)dt
c cnr+1 0
En dérivant succéssivement cette équation intégro-différentielle par rapport à
u (en considérant les dérivées partielles par rapport à et par rapport à η), on
69
λCr ln n
obtient en posant αn = que :
cnr+1
Z u
2 λ h i
D φ(u) = Dφ(u) − αn φ(u) sin(0) − φ(0) sin(−t) − αn φ(t) cos(u − t)dt
c 0
Z u
λ
D2 φ(u) = Dφ(u) − αn φ(t) cos(u − t)dt
c 0
Z u
λ 2
D3 φ(u) = D φ(u) − αn φ(u) cos(0) + αn φ(t) sin(u − t)dt
c 0
λ 2 λ
D3 φ(u) = D φ(u) − αn φ(u) − Dφ(u) + φ(u)
c c
λ 2 λ
D3 φ(u) = D φ(u) − Dφ(u) + ( − αn )φ(u)
c c
D’où la preuve du lemme. La résolution de cette équation différentielle nous
λ
permettra, pour des valeurs de et αn connues, de sortir une formule fermée
c
de la probabilité de ruine ψ(u) = 1 − φ(u).
3.5 Conclusion
Au terme de ce chapitre, nous avons analysé la modélisation du risque clas-
sique de Poisson composé par les lois α−stables et infiniment divisibles. De
cette approche nous avons développé des applications à la théorie des approxi-
mations explicitées dans la première partie. Nous avons par la suite approfondi
cette application par des interpolations sur des espaces à petits supports de la
densité stable et de l’expression intégrale donnée par le modèle classique du
risque. Ce qui nous a permis de développer des équations différentielles dont
la résolution pourra se faire manuellement ou numériquement selon le degré
du polynôme d’interpolation utilisé.
70
Copules et modèle du risque multivarié
4
4.1 Introduction
En considérant le modèle classique du risque de poisson composé, nous dé-
terminerons la probabilité de ruine donnée par des sinistres dont le montant
et la survenance sont modélisés par une loi exponentielle et une loi gamma.
Cette approche nous permettra d’exhiber une formule fermée de la probabi-
lité de ruine. Qu’en est-il en réalité de la ruine. Elle peut intervenir du fait
de la survenance d’un sinistre extrêmement couteux et désastreuse. La ruine
peut aussi venir du fait de l’accumulation de plusieurs sinistres dans un même
secteur. Nous nous intéresserons à ce dernier cas. Comment donc apprécier la
dépendance des ruines causée par la survenance simultanée ou non de plusieurs
sinistres ? Les copules sont dans ce sens des outils performants de modélisation
de la dépendance des risques multi-variés. Dans ce chapitre nous analyserons
d’abord la notion des copules en rapport avec la modélisation de la dépendance.
Ensuite nous établirons, après avoir déterminé les probabilités de ruines sur des
branches d’activités différentes, la dépendance par les copules des risques de
ruines multi-variées et présenter ainsi un outil d’évaluation de ces dépendances.
Définition 4.1
On appelle copule n-dimensionnelle, toute fonction de répartition multi-variée
C ayant des marges uniforme sur [0; 1]
71
Une définition plus approfondie est donnée dans le cas 2−dimensionnel dans
[38] comme suit :
Définition 4.2
Une copule bivariée est une fonction de distributions 2−croissante C : I 2 =
[0, 1]2 → I telle que :
∂C ∂C
2. Les fonctions u 7→ (u, v) et v 7→ (u, v) sont bien définies et dé-
∂u ∂u
croissantes sur I p.s
C(F (h1 (x1 )), G(h2 (x2 ))) = C(F (x1 ), G(x2 ))
Définition 4.3
Soit F une distribution. L’inverse généralisée F ← de F est une fonction définie
par
F ← (t) = inf{x/F (x) ≥ t} = sup{x/F (x) ≤ t}
72
Théorème 4.2.3 De Sklar[38]
Soit H une distribution bivariée jointe de marginales F et G. Soit F (x) = u
et G(y) = v, alors ∃ une fonction C appelée copule telle que
2
∀(x, y) ∈ R , H(x, y) = C(F (x), G(y))
Proposition 4.2.2
Soit C une copule bivariée. Alors la densité associée à C est définie par
∂ 2C
∀u, v ∈ [0, 1] c(u, v) = (u, v)
∂u∂v
Soient f et g les densités respectivements de F et G alors la densité h de H
est exprimée comme suit :
73
Figure 4.1 – Copule indépendance
74
4.2.3.3.La copule de Gumbel
Soit θ ∈ [1; +∞[, la copule de Gumbel est définie par
75
4.3.1 Dépendance par la copule de Gumbel
Soient X, Y des variables aléatoires de densités respectives f1 et f2 repré-
sentant les montants des sinistres de deux branches d’activités. Soient ψ1 et ψ2
les probabilités de ruine liées respectivement à X et à Y données par le mo-
dèle du risque classique de poissons composé N (t) d’intensité respectives λ1 et
λ2 . Considérons la copule de Gumbel. Cette Copule possède la caractéristique
de pouvoir représenter des risques dont la structure de dépendance est plus
accentuée sur la queue supérieure. Elle est à ce titre particulièrement adaptée
en assurance et en finance.
Théorème 4.1
Soient fi (i = 1, 2) des distributions exponentielles de paramètres λi . Soient
Cθ une copule de Gumbel et φi = 1 − ψi ∈ [0, 1] vérifiant l’équation
λ λZ u
Dφ(u) = φ(u) − φ(u − t)fi (t)dt
c c 0
Alors
λ λ
Cθ (ψ1 , ψ2 ) = exp{−([−( − α)u]θ + [−( − α)v]θ )1/θ }
c c
θ ∈ [1; +∞[ est le coefficient de dépendance de la queue
Preuve
Soit θ ∈ [1; +∞[ et Cθ (u, v) la copule de Gumbel. On a donc
Cθ (u, v) = exp{−([− ln u]θ + [− ln v]θ )
Notons ψ1 (u) = ψ1 = 1 − φ1 et
ψ2 (v) = ψ2 = 1 − φ2 Ainsi donc
λ λZ u
Dφ(u) = φ(u) − φ(u − x)dF (x)
c c 0
λ λZ u
= φ(u) − φ(u − x)αe−αx dx
c c 0
λ λZ u
= φ(u) − φ(w)αe−α(u−w) dw w =u−x
c c 0
76
Posons pour le bésoin de la dérivation = u et η = u suivants les cas. On
obtient :
λ λZ
Dφ(u) = φ(u) − φ(w)αe−α(η−w) dw (4.2)
c c 0
En dérivant on obtient
Z
λ αλ h i
D2 φ(u) = Dφ(u) − φ()e−α(η−) − α φ(w)e−α(η−w) dw
c c 0
λ αλ α2 λ Z
2
D φ(u) = Dφ(u) − φ(u) + φ(w)e−α(η−w) dw (4.3)
c c c 0
αλ R
De (4.2), on a c 0
φ(w)e−α(η−w) dw = −Dφ(u) + λc φ(u)
λ
D2 φ(u) − ( − α)Dφ(u) = 0
c
Pour la résolution de cette équation différentielle, considérons son équation
caractéristique :
λ
x2 − ( − α)x = 0
c
Les solutions sont x1 = 0 et x2 = ( λc − α).
Considérons le chargement de sécurité ρ = c−λµλµ
> 0. Comme µ = α1 , alors
λ
c− α
λ > 0
α
λ
−α < 0
c
La solution générale est donc
λ
φ(u) = 1 − exp{( − α)u}
c
λ
φ(u) = 1 − exp{( − α)u}
c
Considérons, dans une compagnie d’assurance, deux branches d’activités, de
réserves initiales respectives u et v et de probabilités de non ruine respectives
77
λ1 λ2
φ1 (u) = 1 − exp{( − α)u} et φ2 (v) = 1 − exp{( − α)v}
c c
On obtient donc que
λ1 λ2
Cθ (ψ1 , ψ2 ) = exp{−([−( − α)u]θ + [−( − α)v]θ )1/θ }
c c
Le théorème est ainsi démontré.
λ λZ u
Dφ(u) = φ(u) − φ(u − x)f (x)dx
c c 0
λ λZ u
= φ(u) − φ(w)(u − w)e−α(u−w) dw w =u−x
c c 0
Soit = u et η = u alors
λ λZ
Dφ(u) = φ(u) − φ(w)(η − w)e−α(η−w) dw
c c 0
λ λ λZ
D2 φ(u) = φ(u) − φ()(η − )e−α(η−) − φ(w)e−α(η−w) dw
c c c 0
αλ Z
+ φ(w)(η − w)e−α(η−w) dw
c 0
λ λZ u −α(u−w) αλ Z u
2
D φ(u) = φ(u) − φ(w)e dw + φ(w)(u − w)e−α(u−w) dw
c c 0 c 0
78
αλ R u
Or c 0
φ(w)(u − w)e−α(u−w) dw = αλ
c
φ(u) − αDφ(u). Donc
λ αλ λZ u
D2 φ(u) = ( − α)Dφ(u) + φ(u) − φ(w)e−α(u−w) dw
c c c 0
λ αλ λ αλ Z u
⇒ D3 φ(u) = ( − α)D2 φ(u) + Dφ(u) − φ(u) + φ(w)e−α(u−w) dw
c c c c 0
Ru α2 λ
De plus αλc 0 φ(w)e−α(u−w) dw = α( λc − α)Dφ(u) + c
φ(u) − αD2 φ(u).
Par suite
λ 2αλ α2 λ λ
D3 φ(u) = ( − 2α)D2 φ(u) + ( − α2 )Dφ(u) + ( − )φ(u)
c c c c
Pour la suite, posons α = 1, alors (E) devient
λ 2λ
(F ) : D3 + (2 − )D2 φ(u) + (1 − )Dφ(u) = 0
c c
L’équation caractéristique de (F ) est
λ 2λ
x3 + (2 − )x2 + (1 − ) = 0
c c
λ
√
c
−2− ∆
Les solutions de cette équation sont x1 = 0 ; x2 = et x3 =
√ 2
λ
−2+ ∆ q
2
c
où ∆ = λc2 + 4 λc
2
Ainsi donc la solution générale de (F ) est
79
Soit φ1 et φ2 la probabilité de ruine de deux branches d’activité de la compagnie
avec des reserves initiales u et v respectivement. On a
Théorème 4.3
Soient fi (i = 1, 2) des distributions exponentielles de paramètres λi . Soient
Cθ une copule FGM et φi = 1 − ψi ∈ [0, 1] vérifiant l’équation
λ λZ u
Dφ(u) = φ(u) − φ(u − t)fi (t)dt
c c 0
Alors
λ1 λ2 λ1 λ2
Cθ (ψ1 , ψ2 ) = [(1−exp{( −α)u})(1−exp{( −α)v})][1+θ exp{( −α)u+( −α)v}]
c c c c
θ ∈ [−1; 1] est le coefficient de dépendance de la queue
80
Preuve
Notons de même que φ1 (u) = φ1 et φ2 (v) = φ2 Ainsi donc
λ1 λ2
φ1 (u) = 1 − exp{( − α)u} et φ2 (v) = 1 − exp{( − α)v}
c c
ce qui permet
Théorème 4.4
Soient fi (i = 1, 2) une distribution Γ(0, 1) . Soient Cθ une copule de Gumbel
et φi = 1 − ψi ∈ [0, 1] vérifiant l’équation
λ λZ u
Dφ(u) = φ(u) − φ(u − t)fi (t)dt
c c 0
Alors Il existe des réels A, B, X, Y , Z tel que
Preuve
Des théorèmes précédents, il découle que si le montant des sinistres a une
distribution gamma alors la probabilité de non ruine donnée par la loi gamma
étant
x2 (x1 + 1)2 x1 u x1 (x2 + 1)2 x2 u
φ(u) = 1 + e + e
(x1 − x2 ) (x2 − x1 )
On a
x2 (x1 + 1)2 x1 u x1 (x2 + 1)2 x2 u
φ1 (u) = 1 + e + e
(x1 − x2 ) (x2 − x1 )
et
x2 (x1 + 1)2 x1 v x1 (x2 + 1)2 x2 v
φ2 (v) = 1 + e + e
(x1 − x2 ) (x2 − x1 )
x2 (x1 + 1)2 x1 (x2 + 1)2
Soient A = et B = , on a
(x1 − x2 ) (x2 − x1 )
φ1 (u) = 1 + Aex1 u + Bex2 u et φ2 (v) = 1 + Aex1 v + Bex2 v
81
La modélisation de la probabilité de ruine par la FGM nous donne :
4.4 Conclusion
Dans ce chapitre nous avons utilisé les copules comme outils d’évaluation
de la dépendance entre les ruines survenues dans deux branches d’activités.
A travers deux exemples de lois, principalement la loi exponentielle et la loi
gamma, nous avons déterminé les probabilités de ruines données par le modèle
classique du risque de Poisson composé dans deux branches d’activités d’un
même secteur. Disposant ainsi de formules fermées des probabilités de ruines,
que nous considérons d’ailleurs comme des marges uniformes, nous avons pro-
posé des probabilités conjointes en nous servant d’une copule FGM et d’une
copule de Gumbel. Ces probabilités permettent, non seulement, d’évaluer la
ruine totale d’une société disposant de deux branches d’activités (chacune pou-
vant être en ruine) mais aussi de mesurer la dépendance des ruines données
par chaque branche d’activité.
82
Conclusion générale
Notre travail de thèse avait pour leitmotiv cette interrogation essentielle :"
Quelles contributions à l’estimation de la probabilité de ruine pour le modèle
classique du risque de poisson composé si la survenance des sinistres est une
variable aléatoire non gaussienne de type α-stable ?"
Dans un second temps, après avoir rappelé les outils et propriétés fonda-
mentales des variables stables, nous avons pu établir des liens qui permettent
d’appliquer les résultats théoriques, développés, aux modèles classiques du
risque de Poisson composé. Nous nous somme intéressés particulièrement à
l’estimation de la densité du montant total des sinistres dans un espace à petit
support. Dans ces types d’espace, nous avons relevé que la meilleure approxi-
mation de la densité du montant des sinistres correspondait au polynôme nul.
Ces différents éléments nous ont conduit à un résultat basé sur la construction
d’une équation différentielle ordinaire d’ordre n dont la résolution pour n assez
grand pourrait être programmé à travers le logiciel R ou matlab.
83
Il s’est agi donc d’établir un lien, via les copules, entre les différentes probabili-
tés de ruine données par chaque branche d’activité. Ceci nous a permis d’esti-
mer la probabilité totale de ruine dans cette entreprise aux fins que celle-ci soit
dotée d’éléments d’appréciation mathématique sur sa bonne santé financière.
Pour nos travaux à venir, nous projetons utiliser les copules en vue de la
détermination de la probabilité de ruine sur non seulement le modèle classique
du risque de poisson composé, mais aussi sur d’autre type de modèle comme
celui de Cox dans lequel le processus de comptage n’est plus celui de poisson.
Nous envisageons dans le même ordre d’idée de développer des packages du
logiciel R pour simuler la probabilité du risque de survenance des sinistres
multi-variés et de leurs coûts. Cela nous permettra non seulement de participer
à l’évaluation et à la gestion des risques de survenance des sinistres aussi bien
dans les domaines des finances que des aléas climatiques et des catastrophes
naturels mais également de proposer un seuil d’allocation de fonds nécessaires
en vue d’éviter les ruines dans les entreprises financières.
84
Annexes
85
A) Copule et Application
A.1. Preuve sur la continuité des copules
Soit C une copule bidimensionnelle. Par définition, elle est 2−croissante.
Donc ∀u1 , u2 , v1 , v2 ∈ [0, 1] tel que
u1 ≤ u2 et v1 ≤ v2
Il existe alors des copules spécifiques CΓ1 et CΓ2 (où Γ1 ; Γ2 sont respective-
ments les graphes liés aux couples (u1 , v1 ) et (u2 , v2 )) tel que :
C(u1 , v1 ) = CΓ1 (u1 , v1 ) ; C(u2 , v2 ) = CΓ2 (u2 , v2 ) et C(u2 , v1 ) = CΓ1 (u1 , v2 ) = CΓ2 (u2 , v1 )
Par conséquent il vient que :
86
2. Le tau de Kendall
Il est défini par :
Z 1Z 1
τk (X, Y ) = 4 C(u, v)dC(u, v) − 1
0 0
Φ(t)
FC (t) = t −
Φ0 (t)
B) Queue de distribution
Plusieurs caractérisations ont été données en guise de classification des
queues de distributions. La caractérisation la plus simple est celle basée sur la
comparaison avec la loi normale.
Ainsi une distribution a la queue lourde si, et seulement si son coefficient
d’aplatissement Ck est supérieur à celui de la loi normale(qui est de 3)
h X − µX 4 i
Ck = E >3
σX
87
Figure 4.4 – Différence illustrative entre la loi normale et une loi à queue
lourde (HIB)
88
Figure 4.5 – Classe de distributions
89
Table 4.1 – Distributions de classe E
Loi Caractérisation queue ou densité
Loi exponentielle (λ) p=1 F (x) = exp{−λx}
β r r−1 −βx
Loi Gamma (β, r) p=1 Γ(r)
x e
90
Table 4.4 – Distributions de classe B
Loi Caractérisation
queue ou densité
1/k
1 + ( x−µ ) si k 6= 0
Pareto généralisée (µ; σ, k) p=-1/k F (x) = σ +
exp{−( x−µσ +
) } si k = 0
1 (ln x−µ)2
Log-normale (µ; σ) √
σx 2π
exp{− 2σ 2 }
91
Bibliographie
92
Bibliographie
93
Theory (Kaluga,1996), Vol.1 (1996),PP. 38-39
[12] Doronin V.G.,Ligun A.A. Upper bound exact values of the best
approximation for some classes in L1 // rechearch on contemporary
problems of summation and approximation of functions and their appli-
cation Dnepropetrovsk , University of Dnepropetrovsk , 1977, P.25-36
94
[20] James. R.C Orthogonality and linear functions in normed linear spaces
Trans.Am.Math.Soc 61 265-292 (1947)
95
SSSR, 2005, N◦ 88 p 185-193(in Russian)
96
Russian)
[45] Pekarskii A.A. On the relationship between the best rational and
piecewise-polynomial approximation in the uniform metric // in abs-
tracts of the International Conference on Approximation Theory (Kaluga
,1996),Vol.2 (1996),PP. 168-169
[47] R. SABRE :
SPECTRAL DENSITY ESTIMATION FOR STATIONARY STABLE
RANDOM FIELDS
APPLICATIONES MATHEMATICAE 23,2 (1995), pp. 107-133
[49] Thorin, O.
The ruin problem in case the tail of the claim distribution is completely
monotone (1973) . Skand. Aktuar Tidskr. 100-119.
97
[53] Uchaiikin et Zolotarev ,V.M (1999) chance and stability. Stable distribu-
tions and their applications de Grayter, Berlin-New york.
[54] V. M. Zolotarev :
One-dimensional stable distributions, Translations of Mathematical
Monographs, vol. 65, American Mathematical Society, Providence, 1986,
ix + 284pp., 92.00. ISBN 0-8218-4519-5
98
UNIVERSITE OUAGA I PR JOSEPH KI-ZERBO
---------------
École Doctorale
Sciences et Techniques
---------------
Laboratoire d’Analyse Numérique,
d’Informatique et de BIOmathématique
N°d’ordre ..523….
Spécialité : Statistiques
TITRE DE LA THESE
MODÈLES STATISTIQUES POUR L'ANALYSE DES SÉRIES
CHRONOLOGIQUES HYDROLOGIQUES
Président : - Bisso SALEY, Professeur Titulaire, Université Abdou Moumouni de Niamey, Niger
Membres :
1
Remerciements :
Cette thèse aujourd’hui terminée aurait été moins riche sans quelques personnes que je
souhaite remercier ici.
En premier lieu, je tiens à remercier mon directeur de thèse Pr. Blaise SOME, d’avoir
accepté de diriger ma thèse et de son soutien sans faille pour la réalisation de cette thèse. Je
souhaite exprimer toute ma gratitude à mon co-directeur de thèse Dr. Simplice DOSSOU-
GBETE pour son encadrement, ses précieux conseils, sa disponibilité et sa confiance en
mon travail. Il a guidé mes premiers pas en statistiques, je ne sais certainement pas
combien de fois je l’ai déçu, mais je sais qu’il a toujours cru en moi, même malgré mes
multiples égarements. C’est une fierté et un honneur pour moi d’avoir travaillé avec lui
durant toutes ces années. Je le remercie de m’avoir fait bénéficier de l’étendue de ses
connaissances et de son savoir faire, de son encadrement au quotidien, toujours teinté de
bonne humeur.
Je tiens à exprimer ma profonde gratitude au Pr. Bisso SALEY, pour l’honeur qu’il me
fait en acceptant de présider le jury de cette thèse.
J’adresse toute ma gratitude au Dr. Assi Lazare N’GUESSAN, Dr. Soumdouda SA-
WADOGO et au Pr. Dominique MIZERE, pour avoir accepté d’être rapporteurs de ce
travail. Merci sincèrement du temps et de l’energie que vous avez consacré à la lecture de
mon travail. Soyez en rassurez que vos critiques et suggestions ont contribués à hausser
significativement la qualité de mon manuscrit.
J’adresse mes vives remerciements au Dr. Clovis NITIEMA pour ses multiples éfforts
pour le bon déroulement de cette thèse. Je profiterai adresser ma reconnaissance à tous
les matheux de l’UFR-SEG-OuagaII, en particulier, le Pr. Oumar TRAORE, et le Dr.
i
Remerciements :
ii
Table des matières
Remerciements : i
Abstract xvii
I Introduction générale 1
I.1 Description de la distribution de Pearson de type III . . . . . . . . . . . . 1
I.1.1 Incidence des paramètres sur la forme et le support de la distribution 2
I.2 Propriétés de la loi P 3 et leur conséquence sur l’inférence statistique basé
sur le maximum de vraisemblance . . . . . . . . . . . . . . . . . . . . . . . 8
I.2.1 État de l’Art . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
I.2.1.1 Quelques propositions de solutions . . . . . . . . . . . . . 13
I.2.1.2 Alternatives à la méthode du maximum de vraisemblance
pour l’ajustement de la distribution P 3 . . . . . . . . . . . 14
I.3 Quelques domaines d’utilisation du modèle P 3 . . . . . . . . . . . . . . . . 16
I.3.1 La Distribution P 3 comme modèle de durée . . . . . . . . . . . . . 16
I.3.2 Distribution de Pearson III comme modèle des phénomènes hydro-
logiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
iii
TABLE DES MATIÈRES
iv
TABLE DES MATIÈRES
Appendices 55
A Annexe du chapitre II 57
A.1 Quelques inégalités de base . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
A.2 Preuve de la Proposition 5 . . . . . . . . . . . . . . . . . . . . . . . . . . 58
A.2.1 Minorisation des termes de L1 (θ | x2:n , · · · ,xn:n ) . . . . . . . . . . . 58
A.3 Preuve de la Proposition 6 . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
A.3.1 Procédure de calcul des intégrales . . . . . . . . . . . . . . . . . . . 61
A.4 Résultats des méthodes LSPF-MLE et BL . . . . . . . . . . . . . . . . . . 62
A.4.1 Résultats de la méthode LSPF-MLE . . . . . . . . . . . . . . . . . 62
A.4.2 Résultats de la méthode BL . . . . . . . . . . . . . . . . . . . . . . 64
v
TABLE DES MATIÈRES
Appendices 105
vi
TABLE DES MATIÈRES
Bibliographie 133
vii
Liste des tableaux
ix
Table des figures
x
TABLE DES FIGURES
xi
Liste des algorithmes
II.1 MM(Minoration-Maximisation) . . . . . . . . . . . . . . . . . . . . . . . . 37
II.2 Intervalle de confiance par la méthode des percentiles corrigées . . . . . . 52
xii
Liste des algorithmes
Articles acceptés
Communications Orales
xiii
Liste des algorithmes
Berger / Saint-Louis, 5-15 avril 2016, Méthodes statistiques pour l’évaluation des
risques extrêmes : application à l’environnement, l’alimentation et l’assurance.
— Simplice Dossou Gbete and Ouédraogo Etienne. A new likelihood method for
three-parameter gamma distribution fitting. 61st annual meeting of the Brazilian
Region of the International Biometric Society (RBras2016), Salvador, Brazil, May
23-25, 2016
xiv
Résumé
L’objectif de cette thèse est d’ajuster un modèle de Pearson de type 3 à une série d’ob-
servations. Selon que cette série est issue d’une population indépendante et identiquement
distribuée(iid) ou que l’hypothèse d’indépendance est mise à défaut, deux approches ont
été proposés.
Après une introduction générale qui a fait l’objet du premier chapitre, le chapitre II est
consacré à l’ajustement du modèle lorsqu’on est en présence de données indépendantes
et identiquement distribuée(iid). Compte tenu des bonnes propriétés des estimateurs par
maximum de vraisemblance d’une part et d’autre part en considérant les difficultés liées
à son application pour le cas du modèle de Pearson de type 3, nous avons proposé une
méthode basée sur la vraisemblance des n-1 plus grandes statistiques d’ordre. La vraisem-
blance obtenue étant complexe, sa maximisation a été possible par le biais d’un algorithme
Minoration-Maximisation(MM). N’ayant pas pu accéder à une forme analytique des esti-
mateurs proposés, une étude de simulation par Monte Carlo a permis de discuter de leur
performance en comparaison avec celle d’autres méthodes de la littérature.
Dans le chapitre III, nous avons regardé le cas où les données en présence sont identi-
quement distribuées sans pour autant être indépendantes. Un modèle autoregressif dou-
blement stochastique a été formulé et les propriétés étudiées. Le principe de construction
du modèle proposé est basé sur un opérateur d’amincissement convexe que nous avons
défini. Pour ajuster ce modèle à une série d’observations, une méthode de vraisemblance
conditionnelle a été proposée. Tout comme dans le cas iid, la complexité de la fonction de
vraisemblance obtenue, nous a conduit à faire appel à un algorithme MM en vue d’estimer
les paramètres du modèle. Des études par simulations Monte Carlo ont permis de discuter
xv
Liste des algorithmes
xvi
Abstract
The objective of this thesis is to fit a Pearson of type 3 model to a data set. Depending
on whether this dataset is from an independent and identically distributed population (iid)
or that the independence hypothesis is defaulted, two approaches have been proposed.
After a general introduction which was the subject of the first chapter, Chapter II is
devoted to fitting the model in the presence of data from an iid population. Given the good
properties of the maximum likelihood estimators on the one hand and on the other hand
considering the difficulties associated with its application for the Pearson type 3 model,
we proposed a method based on the likelihood of n − 1 largest order statistics. Since the
likelihood obtained is complex, its maximization has been possible by means of an MM
algorithm. Having not been able to access an analytical form of the proposed estimators,
a Monte Carlo simulation study allowed to discuss their performance in comparison with
that of other methods of the literature.
In chapter III, we looked at the case where the data in question are identically dis-
tributed but not independent. A doubly stochastic autoregressive model was formulated
and the properties studied. The principle of construction of the proposed model is based
on a convex thinning operator that we have defined. To adjust this model to a data set, a
conditional likelihood method has been proposed. As in the iid case, the complexity of the
obtained likelihood function led us to use an MM algorithm to estimate the parameters
of the model. Monte Carlo simulation studies allowed to discuss the performance of the
proposed estimators
xvii
Abstract
stochastic.
xviii
Chapitre I
Introduction générale
Dans de nombreux domaines des sciences et de la technologie, les chercheurs sont sou-
vent confrontés à l’analyse statistique de données asymétriques. Ces types de situations
sont assez fréquents particulièrement en hydrologie[6] et en fiabilité[48]. Les données nu-
mériques utilisées dans ces domaines sont constituées de valeurs ne pouvant descendre en
deçà d’un certain seuil. En présence de ces types de données, le modèle de Pearson de type
III ou sa transformée logarithmique, entendons par là, le modèle log-Pearson de type III,
figure parmi les modèles les plus appropriés pour l’analyse statistique. D’autres modèles
comme celui de Weibull ou le modèle log-normal sont aussi cités dans la littérature comme
étant des modèles concurrents.
Pour le compte de cette thèse, notre intérêt s’est porté sur l’utilisation de la distribution
de Pearson de type III dont une description est proposée dans la section suivante.
1
Chapitre I Introduction générale
(x − ν)λ−1
( )
x−ν
f (x|θ) = exp − 1(ν ,+∞) (x) (I.1.1)
β λ Γ (λ) β
Z x
F (x|θ) = f (u | θ) du, x > ν (I.1.2)
ν
distribution
2
I.1 Description de la distribution de Pearson de type III
0.20
seuil
5.0
10.0
0.15
densité
0.10
0.05
0.00
5 10 15 20
Le paramètre de forme λ est un réel strictement positif dont la valeur régit la forme de
la distribution. Il contrôle à lui seul l’asymétrie de la distribution comme on peut bien le
constater à travers le coefficient d’asymétrie donné par Ca = √2 .
λ
Le fait que ce coefficient
soit toujours positif, prouve que la distribution est asymétrique à droite. L’ampleur de
cette asymétrie devient plus grande au fur et à mesure que λ prend des valeurs proches de
0. Afin d’illustrer l’effet de ce paramètre sur la forme de la distribution, nous proposons
trois cas de figure. Dans tous les cas le paramètre de seuil et celui d’échelle seront fixés
respectivement à ν = 0.0 et β = 1.0.
— Le premier cas concerne les valeurs du paramètre de forme plus petites que l’unité.
3
Chapitre I Introduction générale
λ = 0.25 λ = 0.5
100
40
80
30
densité
60
densité
20
40
10
20
0
0
0 1 2 3 4 0 2 4 6
x x
Dans ce cas, la distribution présente une forme de « J inversé » avec une asymptote en
ν = 0. Elle n’admet donc pas de mode ni de queue à gauche. Les petites valeurs (valeurs
proches de ν) sont assez fréquentes. En revanche, les grandes valeurs se font rares.
— Lorsque λ = 1, la distribution garde la même forme que précédemment avec une
asymptote en ν = 0, comme le témoigne le graphique ci-dessous.
4
I.1 Description de la distribution de Pearson de type III
1.0
0.8
0.6
densité
0.4
0.2
0.0
0 2 4 6 8 10
Figure I.1.3 – Influence du paramètre de forme pour une loi de Pearson de type III de
paramètres de localisation, de forme et d’échelle fixées respectivement à
0, 1 et 1
5
Chapitre I Introduction générale
0.5
forme
* 1.5
+ 2.0
0.4
0.3
densité
0.2
0.1
0.0
0 2 4 6 8 10
6
I.1 Description de la distribution de Pearson de type III
2.0
échelle
* 0.5
+ 1.0
− 3.0
1.5
densité
1.0
0.5
0.0
0 1 2 3 4 5
On peut y voir l’effet du paramètre d’échelle. Plus il prend de grande valeurs, plus la
courbe est étirée. Cela est plus visible dans le graphique suivant.
échelle
* 0.5
+
0.6
1.0
− 3.0
densité
0.4
0.2
0.0
0 1 2 3 4 5 6
7
Chapitre I Introduction générale
vraisemblance
D’ores et déjà, notons que le support de la distribution est borné à gauche par le para-
mètre de localisation. Si ce paramètre est inconnu la distribution P 3 n’est plus régulière et
beaucoup de situations indésirables peuvent se présenter lorsque la méthode du maximum
de vraisemblance est utilisée. Cela fait d’elle un élément de la famille de distributions non
régulières. Les détails sur cette famille de distribution sont proposés dans les travaux de
Richard L. Smith[61].
La fonction de log-vraisemblance du vecteur de paramètres θ associée à n réplications
indépendantes (x1 , x2 , ..., xn ) d’un modèle P 3 défini par l’équation (I.1.1) est donnée par
n
l (θ|x1 , ..., xn ) = (λ − 1) ln (xi − ν) − nλ ln β (I.2.1)
X
i=1
(xi − ν)
Pn
− n ln Γ (λ) − i=1
β
8
I.2 Propriétés de la loi P 3 et leur conséquence sur l’inférence statistique basé sur le
maximum de vraisemblance
guise d’illustration, les graphiques ci-dessous sont celles du profile de log-vraisemblance en
fonction du paramètre de localisation. Le premier est obtenu pour la valeur du paramètre
de forme λ = 0.001 et les deux autres graphiques correspondent à λ = 0.5, 0.99. Le
paramètre d’échelle étant fixé à 1 pour les trois courbes.
λ = 0.001
Profile de log−vraisemblance
200
0
−200
−600
−1000
λ = 0.5 λ = 0.99
−100
0
Profile de de log−vraisemblance
Profile de log−vraisemblance
−150
−100
−200
−200
−250
−300
0.0 0.5 1.0 1.5 2.0 0.0 0.5 1.0 1.5 2.0
Paramètre de localisation Paramètre de localisation
1
lim lim P r |ν̂n − ν0 | > an− 2 = 0
a→+∞ n→+∞
9
Chapitre I Introduction générale
1
lim lim P r |λ̂n − λ0 | > an− 2 = 0
a→+∞ n→+∞
1
lim lim P r |β̂n − β0 | > an− 2 = 0
a→+∞ n→+∞
Le détail de la preuve des résultats ci-dessus peut être consulté dans [61]. Il ressort
donc que pour un nombre n de réplications assez grand, des estimateurs par maximum de
vraisemblance consistants existent. De plus il est démontré dans [61] que les variables aléa-
1
1
toires n 2 λ̂n − λ0 et n 2 β̂n − β0 sont asymptotiquement normales. Conséquence, les
estimateurs par maximum de vraisemblance de λ et β existent et sont asymptotiquement
normaux. Par contre pour ce qui est du paramètre de localisation, seul l’existence d’un
estimateur par maximum de vraisemblance est garantie. Toutefois, il faut noter que ces
résultats sont juste asymptotiques. Il n’est donc pas exclu que pour certaines réplications
de taille n fixée, la fonction de vraisemblance n’ait aucun point maximum. Le profile de
log-vraisemblance, fonction du paramètre de localisation est ci-dessous représente avec le
paramètre d’échelle fixé à β = 1.0 et pour trois valeurs différentes du paramètre de forme.
10
I.2 Propriétés de la loi P 3 et leur conséquence sur l’inférence statistique basé sur le
maximum de vraisemblance
λ=1
−100
Profile de log−vraisemblance
−150
−200
−250
−300
λ = 1.5 λ = 1.99
Profile de log−vraisemblance
−220 −180 −260
−260
0.0 0.5 1.0 1.5 2.0 0.0 0.5 1.0 1.5 2.0
Paramètre de localisation Paramètre de localisation
Ces graphiques laissent voir que pour des valeurs du paramètre de forme proches de 2,
le profile de log-vraisemblance admet un point maximum.
Si λ > 2, l’existence d’estimateurs par maximum de vraisemblance n’est pas remise
en cause. Mieux encore, ces estimateurs sont asymptotiquement normaux pour tous les
paramètres. Toutefois, selon Johnson Kotz et Balakrishnan[48] les estimateurs par maxi-
mum de vraisemblance sont instables surtout si le paramètre de forme est voisin de 2.
Ils suggèrent à cet effet de ne les utiliser que lorsque λ > 2.5. Le paramètre d’échelle
étant toujours fixé à 1.0, nous proposons de représenter le profile de log-vraisemblance en
fonction du paramètre de localisation et pour différentes valeurs du paramètre de forme.
11
Chapitre I Introduction générale
λ = 2.5
−180
Profile de log−vraisemblance
−240 −220 −200
−260
λ=3 λ=5
−200
Profile de de log−vraisemblance
−200
Profile de log−vraisemblance
−240 −220
−220
−260
−240
−280
−260
0.0 0.5 1.0 1.5 2.0 0.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5
Paramètre de localisation Paramètre de localisation
Lorsque le paramètre de forme prend des valeurs plus grandes que 2.5, le profile de
log-vraisemblance présente une forme en cloche.
La faiblesse de la classification de Richard L. Smith vient du fait qu’en général dans
la vie réelle, la valeur du paramètre de forme n’est pas connue à priori. Tout récemment,
d’autres conditions plus pratique sur l’existence de solutions des équations de vraisem-
blance furent proposées par Tzavelas[67]. Son premier résultat, qui est aussi la base de
son raisonnement, fut de montrer que les équations de vraisemblance peuvent se résumer
en une seule équation de la forme F (ν|x1 , x2 , ..., xn ) = 0, où ν désigne le paramètre de
seuil et les (xi )i=1:n , une séquence de n réplications indépendantes d’une distribution P 3.
L’étude des propriétés de la fonction F (.) lui a permit de formuler des conditions d’exis-
tence de solutions des équations du maximum de vraisemblance basées sur le moment
empirique d’ordre 3, c’est à dire µ3 = n−1 (xi − x̄)3 comme suit :
P
12
I.2 Propriétés de la loi P 3 et leur conséquence sur l’inférence statistique basé sur le
maximum de vraisemblance
noter que cette classification revêt d’un intérêt d’ordre pratique, en ce sens qu’elle est
seulement fonction des observations.
i=2
13
Chapitre I Introduction générale
méthode de résolution des équations de vraisemblances. Les premiers cités proposent une
procédure itérative pour résoudre les équations de vraisemblance de façon simultanée.
Et au cas où il n’existerait pas de solution, ils suggèrent de prendre la première statis-
tique d’ordre comme estimateur du paramètre de seuil. Cheng & Iles[11] prétendent que
l’utilisation de la vraisemblance usuelle n’est pas adapté à l’estimation des paramètres
de la famille des distributions non régulières. Ils proposent alors la méthode de vrai-
semblance corrigée dans laquelle la fonction de densité f (x1:n , ν, λ, β) est remplacée par
f (x, ν, λ, β) dx, où x1:n désigne la première statistique d’ordre et h > 0 un para-
R x1:n +h
x1:n
A la vue des problèmes liés à l’estimation par maximum de vraisemblance lorsque celle
ci est utilisée pour estimer les paramètres de la distribution P 3, diverses méthodes alterna-
tives ont été proposées. Soit en se basant sur la méthode des moments ou sur des méthodes
14
I.2 Propriétés de la loi P 3 et leur conséquence sur l’inférence statistique basé sur le
maximum de vraisemblance
bayesiennes ou encore sur diverses autres méthodes, plusieurs auteurs ont oeuvrés à l’es-
timation des paramètres des membres de la famille des distributions dites non régulières.
Parmi eux, on peut citer Cohen & Whitten[12, 13], Cheng & Amin[10], Balakhrisnan &
al.[4, 45, 46] ou encore Wang & Hall[25]. Plusieurs modifications de la méthode des mo-
ments ont été apportées par Cohen & Whitten. Considérant que la méthode classique des
moments consiste à égaler les trois premiers moments empiriques aux moments théoriques
correspondants, Cohen & Whitten[12, 13] proposent par exemple de remplacer l’équation
impliquant le moment d’ordre trois par une fonction de la première statistique d’ordre.
Cheng & Amin[10] proposent la méthode MPS(Maximum Product of Spacings method).
Cette méthode consiste à maximiser la moyenne géométrique des « espaces entre les ob-
servations » noté Di = f (x|ν, λ, β) dx. Des estimateurs consistants ont été obtenus
R xi:n
xi:n −1
sous des conditions plus générales que celles du maximum de vraisemblance. Balakhrisnan
& al.[4] proposent des estimateurs simples et efficaces basés sur les statistiques d’ordres.
Cette méthode a l’avantage de fournir des estimateurs sous une forme explicite. Wang &
Hall[25]définissent une vraisemblance bayesienne, qui en d’autres termes, est une pénali-
sation de la fonction de vraisemblance classique. L’un des atouts de cette pénalisation a
été de contenir l’explosion de la fonction de vraisemblance lorsque le paramètre de seuil
est proche de la première statistique d’ordre.
Dans le même ordre d’idée, Nagatsuka et ses collaborateurs ont proposés la méthode
LSPF(Location and scale Parameters Free) qui consiste à remplacer l’échantillon de dé-
part X1 , X2 , ..., Xn par les statistiques Wi:n = Xi:n −X1:n
Xn:n −X1:n
, où Xi:n désigne la ieme statistique
d’ordre. On peut remarquer que si X1 , X2 , ..., Xn représentent n réplications indépendantes
d’une distribution de Pearson de type III, alors les statistiques Wi:n , i = 1, ..., n sont indé-
pendantes du paramètre de seuil ainsi que du paramètre d’échelle. Pour estimer le para-
mètre de forme λ, il a suffit à Nagatsuka & al. de maximiser la vraisemblance construite
autour des statistiques Wi:n en prenant le soin d’exclure les deux variables dégénérées W1:n
et Wn:n . Une fois l’estimateur de λ obtenu, les deux autres sont déduit au moyen d’une
technique de correction de biais. Une des faiblesses de cette méthode est que les variables
W1:n et Wn:n sont dégénérées et ne sont pas pris en compte dans l’estimation de λ. La perte
éventuelle de l’information liée à cette exclusion réduit certainement les performances de
15
Chapitre I Introduction générale
l’estimateur du paramètre λ et de façon indirecte celles des deux autres. Nagasuka & al.
essayent de l’améliorer et réussissent à réduire le nombre de variables dégénérées en une
variable en proposant la méthode LPF(Location parameter free). Les variables de départ
sont cette fois-ci remplacées par les statistiques Vi:n = Xi:n − X1:n , i = 1, 2, ..., n. Il est
claire que les statistiques Vi:n , i = 1, 2, ..., n ne dépendent plus du paramètre de seuil,
étant donné que X1 , X2 , ..., Xn sont n réplications indépendantes d’une distribution P3 .
Seule la variable V1:n est dégénérée. Les estimateurs des paramètres de forme et d’échelle
seront obtenus en maximisant la vraisemblance des statistiques Vi:n , mais seul l’estimateur
du paramètre de forme λ sera retenu à cause de la piètre performance des estimations
du paramètre d’échelle. Les estimateurs des paramètres restant seront tirés de la vrai-
semblance classique, après avoir y injecté l’estimateur obtenu. Même si les estimateurs
semblent performants sur la base d’erreur quadratique moyenne et du biais des estima-
tions, il faut noter qu’une des faiblesses de ses méthodes provient certainement du fait
que les estimateurs sont obtenus en deux étapes.
16
I.3 Quelques domaines d’utilisation du modèle P 3
Une autre caractéristique de la fiabilité probablement la plus populaire, est sans doute
le taux de défaillance ou taux d’avarie en un instant x définie par t (x) = − h(x)
1 dR(x)
dx
.
Cette popularité est en partie due à sa facilité d’interprétation. En effet, Gnedenko et al.
dans son livre[24] montre que t (x) dx est sensiblement égal à P (x < X < x + dx|x ≤ X).
Partant de cela, le terme t (x) dx peut être assimiler à la probabilité conditionnelle qu’un
dispositif tombe en panne dans l’intervalle de temps ]x, x + dx[ sachant qu’il a fonctionné
jusqu’au temps x. En d’autres termes, pour un léger incrément de temps dx, t (x) dx
représente la probabilité qu’un dispositif pris au hasard parmi ceux en fonctionnement
après le temps x, tombe en panne avant l’instant x + dx.
Le comportement de cette fonction permet de distinguer trois phases sur la vie d’un
dispositif depuis sa mise en service :
— Une première phase caractérisée par un taux de défaillance décroissant avec le temps
de fonctionnement. Cette période est appelée période de jeunesse. Les pannes sont
généralement dues à des erreurs de fabrications et de montages.
— Après le remplacement des pièces défaillantes détectes lors de la période de jeunesse,
le dispositif retrouve un taux de défaillance constant. C’est la période de vie utile
ou de panne fortuite.
— La dernière phase est caractérisé par un taux de défaillance croissant avec le temps
de fonctionnement. C’est la période de vieillissement.
Pour certains auteurs, l’utilisation de la distribution de Pearson de type III et de Weibull
trouve sa justification dans les propriétés de la fonction du taux de défaillance associée.
En effet pour ces distributions sus-citées la fonction du taux de défaillance dépend du
paramètre de forme. Elle est croissante si le paramètre de forme est plus grand que l’unité
et devient constant si le paramètre de forme est très proche de l’unité. Elle décroît en
revanche si le paramètre de forme est plus petit que 1. Cette fonction est donc capable
de décrire toutes les étapes de la vie d’un dispositif. De plus, contrairement au modèle
de Weibull, le modèle P 3 admet une fonction de taux de défaillance tendant à se sta-
biliser autour d’une constante (l’inverse du paramètre d’échelle) au fur et à mesure que
la durée de fonctionnement du dispositif s’augmente. Fort de cet argument, Bain et ses
collaborateurs[3](p.294) suggèrent que la distribution P 3 soit utilisée pour modéliser la
17
Chapitre I Introduction générale
hydrologiques
18
I.4 Des outils utilisés pour l’inférence statistique : les algorithmes MM
algorithmes MM
où Ψ désigne la fonction objective définie sur un domaine χ. La mise en oeuvre d’un al-
gorithme MM pour le problème(I.4.1)commence par la recherche d’une fonction auxiliaire
Q définie sur l’espace cartésien χ × χ et vérifiant la propriété suivante :
Ψ (x) ≥ Q (x|x0 )
pour tout (x, x0 ) ∈ χ × χ. Les fonctions x → Q (x|x0 ) vérifiant la propriété ci-dessus sont
aussi appelées fonctions minorantes de Ψ au sens de l’algorithme MM.
En général, la construction de la fonction minorante Q se fait par le biais d’inégalités
mathématiques comme l’inégalité de la moyenne, l’inégalité de Cauchy-Schwartz, l’inéga-
lité de Jensen, etc... Une fois la fonction auxiliaire obtenue, un algorithme MM alterne les
deux étapes suivantes :
19
Chapitre I Introduction générale
xt = argmax {Q (x|xt−1 ) , x ∈ χ}
Théorème 2. Supposons le résultat précèdent vérifié et soit x0 un point fixé. Toute suite
d’itérés d’un algorithme MM converge vers un point stationnaire x∗ de la fonction objectif.
De plus x∗ est un point fixe de la fonction x → M (x) et tant que xt serait différent de
x∗ , la suite de valeurs {f (xt )}t≥1 est non décroissante.
20
I.5 Objectifs et démarche de nos travaux
toujours vérifier dans le cadre des algorithmes MM en ce sens que la fonction minorante
est généralement convexe(ou concave) par construction.
Il est aussi important de signaler que le point de convergence de l’algorithme est tout
simplement un point stationnaire de la fonction objectif. Le théorème n’exclut donc pas
que ce point soit un point minimum ou un point-selle. Toutefois il serait souhaitable
de vérifier, à travers la matrice hessienne par exemple, la nature exacte du point de
convergence une fois le résultat obtenu.
21
Chapitre I Introduction générale
comme dans le précèdent chapitre, la partie maximisation est développée via un algorithme
MM, et des études de simulations Monte-Carlo ont permis d’étudier le comportement des
estimateurs obtenus.
Le point de ces chapitres et des perspectives pour des travaux futurs viendront clôturer
ce manuscrit.
22
Chapitre II
Une méthode de vraisemblance marginale
pour l’ajustement d’un modèle P 3 à une série
d’observations indépendantes et
identiquement distribuées.
II.1 Introduction
23
Chapitre II Une méthode de vraisemblance marginale pour l’ajustement d’un modèle
P 3 à une série d’observations indépendantes et identiquement distribuées.
statistique d’ordre. La maximisation de la fonction de log-vraisemblance obtenue se fait
par le biais d’un algorithme Minoration-Maximisation(MM).
Le reste du chapitre est organisé comme suit. La prochaine section présente la fonction
de vraisemblance du vecteur des paramètres θ et la troisième section est consacrée à
la description et à la mise en oeuvre d’un algorithme MM pour la maximisation. Une
évaluation empirique des performances des estimateurs basée sur des études de simulations
par Monte-Carlo est présentée à la quatrième section. La dernière section est consacrée à
une discussion des résultats.
d’ordre
Dans le cadre de l’ajustement d’un modèle gamma à trois paramètres à une série d’ob-
servations, il est bien connu que lorsque le paramètre de localisation est proche de la
première statistique d’ordre, la vraisemblance complète n’est plus bornée. Des informa-
tions plus détaillées à cet effet peuvent être consultées dans[61].
L’idée maîtresse de la méthode de la vraisemblance marginale développée dans ce cha-
pitre consiste à considérer la première statistique d’ordre comme une variable de nuisance
que nous extirpons de la fonction de vraisemblance complète. De façon, plus spécifique,
considérons X1 , X2 , ..., Xn une suite de variables aléatoires indépendantes et identique-
ment distribuées selon une loi gamma à trois paramètres de fonction de répartition F (x|θ)
et de fonction de densité f (x|θ), où θ = (λ, ν, β) désigne le vecteur des paramètres du
modèle. Soit X1:n , X2:n , ..., Xn:n une séquence de statistiques d’ordre associées au n-upplet
(Xi )i=1:n . Considérons (x1 , x2 , ..., xn ) et (x1:n , x2:n , ..., xn:n ) les réalisations respectives des
n-upplet (Xi )i=1:n et (Xi:n )i=1:n . Un résultat général tiré du livre de Nagaraja[15] nous dit
que la densité conjointe des n statistiques d’ordre est donnée par :
n
f(Xi:n )i=1:n (u|θ) = n! f (ur | θ) 1{ν≤u1 <u2 <...<un } (u) ,
Y
r=1
24
II.2 Vraisemblance marginale basée sur les statistiques d’ordre
Z u2 n
f(Xi:n )i=1:n (u|θ) du1 = n!F (u2 | θ) f (ur | θ)
Y
ν r=2
Définition 3. Soit (xr )r=1:n un échantillon de taille n tiré d’une population de distribution
F et de fonction de densité f . Soit θ le vecteur des paramètres inconnus. On appelle
fonction de vraisemblance marginale basée sur les statistiques d’ordre , la fonction définie
par :
n
l (θ|xr:n ,r = 1 : n) = n!F (x2:n | θ) f (xr:n | θ) (II.2.1)
Y
r=2
où xr:n désigne la reme statistique d’ordre basée sur la série d’observations(xr )r=1:n .
Corollaire 4. Soit (xr )r=1:n un échantillon de taille n tiré d’une population de distribution
P 3 et soit θ le vecteur des paramètres inconnu. La fonction de log-vraisemblance marginale
basée sur les statistiques d’ordre de θ est définie par :
r=2 r=2
1 n
(xr:n − ν) + λ log (x2:n − ν)
X
−
β r=2
1 1
( Z 1 ( ) )
+ log uλ−1 exp − (x2:n − ν) u du
β Γ (λ) 0
λ β
Démonstration.
De la définition 3, il ressort que la fonction de vraisemblance est donnée par l (θ|xr:n ,r = 1 : n) =
n
n!F (x2:n | θ) f (xr:n | θ) . En y injectant les fonctions (I.1.1) et (I.1.2) et en prenant le
Y
r=2
log de chaque côté de l’égalité, on obtient le résultat.
25
Chapitre II Une méthode de vraisemblance marginale pour l’ajustement d’un modèle
P 3 à une série d’observations indépendantes et identiquement distribuées.
Il est clair que la fonction de log-vraisemblance(II.2.2) est moins informative que la
fonction de vraisemblance complète, puisqu’elle ne prend pas en compte la totalité des
données. Par contre, moyennant la prise en compte de la contrainte x1:n − ν > 0 , la
fonction de vraisemblance proposée est desormais bornée. L’utilisation de cette contrainte
se fera de façon naturelle via la méthode d’optimisation utilisée. Nous y reviendrons dans
les paragraphes à venir.
Une fois que la fonction de log-vraisemblance est obtenue, la phase suivante consiste à
trouver un estimateur θb de θ qui maximise la fonction de log-vraisemblance.
1
Z 1 " ( )#
G (λ, ν, β) =
ui
log (u) u exp − (x2:n − ν) u
i λ
du, ∀i = 1, 2
0 β
1
Z 1 ( )
G (λ, ν, β) = u exp − (x2:n − ν) u du
λ
0 β
∂ log G (λ − 1, ν, β) Gu1 (λ − 1, ν, β)
=
∂λ G (λ − 1, ν, β)
∂ log G (λ − 1, ν, β) G (λ, ν, β)
=
∂ν βG (λ − 1, ν, β)
∂Gu1 (λ − 1, ν, β)
= Gu2 (λ − 1, ν, β)
∂λ
26
II.3 Inférence statistique
∂G (λ − 1, ν, β)
= Gu1 (λ − 1, ν, β)
∂λ
∂G (λ, ν, β)
= Gu1 (λ, ν, β)
∂λ
∂G (λ, ν, β)
= G (λ + 1, ν, β)
∂ν
∂G (λ − 1, ν, β)
= G (λ, ν, β)
∂ν
∂G (λ, ν, β) (x2:n − ν)
= G (λ + 1, ν, β)
∂β β2
∂G (λ − 1, ν, β) (x2:n − ν)
= G (λ, ν, β)
∂β β2
Par suite
∂L (θ|x2:n , · · · , xn:n ) n
= −n log (β) − nΨ (λ) + log (xr:n − ν) + log (x2:n − ν)
X
∂λ r=2
Gu1 (λ − 1, ν, β)
+
G (λ − 1, ν, β)
∂L (θ|x2:n , · · · , xn:n ) n
1 n
1 λ n−1
= −λ +
X X
− −
∂ν r=2 xr:n − ν r=2 xr:n − ν x2:n − ν β
G (λ, ν, β)
+
βG (λ − 1, ν, β)
∂L (θ|x2:n , · · · , xn:n ) 1 X n
( )
nλ
= − + 2 (xr:n − x1 ) + (n − 1) (x1:n − ν)
∂β β β r=2
(x2:n − ν) G (λ, ν, β)
− 2
β G (λ − 1, ν, β)
27
Chapitre II Une méthode de vraisemblance marginale pour l’ajustement d’un modèle
P 3 à une série d’observations indépendantes et identiquement distribuées.
Des composantes de la fonction de score, on déduit aisément celles de la matrice hes-
sienne comme suit :
∂ 2 L (θ|x2:n , · · · , xn:n )
2
= −nΨ0 (λ)
∂λ
Gu2 (λ − 1, ν, β) G (λ − 1, ν, β) − Gu1 (λ − 1, ν, β)2
+
G (λ − 1, ν, β)2
∂ 2 L (θ|x2:n , · · · , xn:n ) n
1 2 n
1 2
λ
=
X X
−λ − −
∂ν 2
r=2 xr:n − ν r=2 xr:n − ν (x2:n − ν)2
G (λ + 1, ν, β) G (λ − 1, ν, β) − G (λ, ν, β)
+
β 2 G (λ − 1, ν, β)2
∂ 2 L (θ|x2:n , · · · , xn:n ) 2 X n
( )
nλ
= − (xr:n − x1 ) + (n − 1) (x1:n − ν)
∂β 2 β2 β 3 r=2
!
x2:n − ν x2:n − ν
2G (λ, ν, β) + G (λ + 1, ν, β)
β 3 β (x2:n − ν)2
− +
G (λ − 1, ν, β) β4
∂ 2 L (θ|x2:n , · · · , xn:n ) n
1 1
= −
X
−
∂ν∂λ r=2 xr:n − ν x2:n − ν
(x2:n − ν) G (λ, ν, β) G (λ − 1, ν, β) − Gu1 (λ − 1, ν, β) G (λ, ν, β)
u1
−
β2 G (λ − 1, ν, β)2
28
II.3 Inférence statistique
∂ 2 L (θ|x2:n , · · · , xn:n ) n
= −
∂β∂λ β
(x2:n − ν) Gu1 (λ, ν, β) G (λ − 1, ν, β) − G (λ, ν, β) Gu1 (λ − 1, ν, β)
−
β2 G (λ − 1, ν, β)2
r=2
n
1 n−1
( n ) !
− log (xr:n − ν) − (xr:n − x1:n ) − (x1:n
(II.3.1)
X X
− ν)
r=2 β r=2 β
1
(Z ( ))
1
L2 (θ | x2:n , · · · ,xn:n ) = log λ−1
u exp − (x2:n − ν) u du
0 β
Proposition 5. Soit L1 (θ|x2:n , ..., xn:n ) la fonction définie par l’équation(II.3.1) et soit
θ0 = (ν 0 , λ0 , β 0 ) un point fixé dans le domaine admissible des paramètres Θ. Pour x1:n −ν >
0, une fonction minorante au sens de l’algorithme MM de L1 (θ|x2:n , ..., xn:n ) est donnée
29
Chapitre II Une méthode de vraisemblance marginale pour l’ajustement d’un modèle
P 3 à une série d’observations indépendantes et identiquement distribuées.
par :
β2 1X n
β 0 (x1:n − ν 0 )
−nλ0 02 − (xr:n − x1:n ) − (n − 1)
2β β r=2 2β 2
n n
1
− log (xr:n − ν 0 ) − ν 0
X X
0
r=2 r=2 xr:n − ν
n o
c0 (θ) = G (λ − 1, ν, β) = exp − 1 (x2:n − ν) u du (II.3.2)
R 1 λ−1
u
0 β
Z 1 n o
G (λ − 1, ν, β)
u1 log (u)uλ−1 exp − β1 (x2:n − ν) u du
c1 (θ) = = 0
(II.3.3)
c0 (θ) c0 (θ)
et
Z 1 n o
G (λ, ν, β) uλ exp − β1 (x2:n − ν) u du
c2 (θ) = = 0
(II.3.4)
c0 (θ) c0 (θ)
La proposition ci-dessous donne une fonction minorante pour L2 (θ|x2:n , ..., xn:n )
c2 (θ0 ) (x2:n − ν 0 )
+ 0
− λ0 c1 (θ0 ) + log (c0 (θ0 ))
β
30
II.3 Inférence statistique
Du corollaire ci-dessus, il découle que la fonction Q (.|θ0 ) obtenue est une fonction
auxiliaire pour (II.2.2).
∂Q (θ | θ0 ) 1 Xn
x1:n − ν 0 x1:n − ν 0
( " !#)
λ
= −n ψ (λ) + 0 1 + +
∂λ λ n r=2 xr:n − ν 0 x2:n − ν 0
n
−n (log (β 0 ) − 1) + log (xr:n − ν 0 ) + log (x2:n − ν 0 )
X
r=2
n 0
x1:n − ν 0
" # " #
x1:n − ν
+ + + c1 (θ0 )
X
∂Q (θ | θ0 ) λ0 (x1:n − ν 0 )2 x1:n − ν 0 Xn
x1:n − ν 0
( " #)
= − +
∂ν (x1:n − ν)3 x2:n − ν 0 r=2 xr:n − ν 0
1 (n − 1) (x1:n − ν) c2 (θ0 ) (x2:n − ν)
!
+ 0 +
β x1:n − ν 0 x2:n − ν 0
n
1
+
X
0
r=2 xr:n − ν
31
Chapitre II Une méthode de vraisemblance marginale pour l’ajustement d’un modèle
P 3 à une série d’observations indépendantes et identiquement distribuées.
∂Q (θ | θ0 ) nλ0 β 1X n
1
= − 02 + 2 (xr:n − x1:n ) + 3 {(n − 1) β 0 (x1:n − ν 0 ) + β 0 (x2:n − ν 0 ) c2 (θ0 )}
∂β β β r=2 β
1 nλ0 4 n
( " # )
= − 3 (xr:n − x1:n ) − β 0 {(n − 1) (x1:n − ν 0 ) + (x2:n − ν 0 ) c2 (θ0 )}
X
β − β
β β 02 r=1
Lemme 8. Soit θ0 un point fixé dans le domaine admissible des paramètres Θ. La fonction
θ → Q (θ | θ0 ) est concave et admet donc un unique point maximum.
Démonstration.
La matrice Hessienne
associée à la fonction θ → Q (θ | θ ) est donnée par
0
∂ 2 Q(θ|θ0 )
∂λ2
0 0
H= 0 ∂ 2 Q(θ|θ0 )
0
∂ν 2
∂ 2 Q(θ|θ0 )
0 0
∂β 2
où
∂ 2 Q (θ | θ0 ) 1 1 Xn
x1:n − ν 0 x1:n − ν 0
( " !#)
= −n ψ 0
(λ) + 1 + +
∂λ2 λ0 n r=2 xr:n − ν 0 x2:n − ν 0
∂ 2 Q (θ | θ0 ) nλ0 2Xn
3
2
= − 02 − 3 (xr:n − x1:n ) − 4 {(n − 1) β 0 (x1:n − ν 0 ) + β 0 (x2:n − ν 0 ) c2 (θ0 )}
∂β β β r=2 β
32
II.3 Inférence statistique
Il ressort du lemme 8 qu’en partant d’un point initial θ0 pris dans le domaine admis-
sible, l’unique solution des équations de log-vraisemblance est nécessairement un point
maximum.
Un autre fait important est que la fonction Q (.) prend en compte la totalité des don-
nées. En effet, le minimum des observations x1:n qui était extirpé dans la fonction de vrai-
semblance donnée par l’équation(II.2.1) est réintégrée dans la fonction minorante Q (.).
Par conséquent cette fonction est suffisamment informative pour permettre d’estimer les
paramètres inconnus.
Des travaux de Florin Vaida[69], il découle que l’algorithme MM mise en oeuvre dans
ce chapitre convergera vers un point stationnaire de la fonction log-vraisemblance donnée
par l’équation(II.2.2). Reste à décrire le schéma pour l’atteindre.
∂Q(θ|θ0 ,(xr )r=1:n )
=0
∂λ
∂Q(θ|θ ,(xr )r=1:n )
0
∂β
=0
∂Q(θ|θ0 ,(xr )r=1:n )
=0
∂ν
Un des avantages des algorithmes MM réside certainement dans le fait que la fonction
auxiliaire obtenue est généralement à variables séparées. Conséquence, chaque compo-
sante de la fonction de score dépend d’un et d’un seul paramètre. Ce qui logiquement
devrait faciliter la recherche d’une éventuelle racine. Mais cela n’empêche pas que ses
composantes soient non linéaires comme dans le cas présent. Néanmoins, les méthodes de
résolution numériques comme la méthode de Newton-Raphson et la méthode de bissection
sont faciles à implémenter en ce sens que les équations de vraisemblances obtenues sont
univariées. Ce couplage algorithmes MM et méthodes de résolution numérique porte le
33
Chapitre II Une méthode de vraisemblance marginale pour l’ajustement d’un modèle
P 3 à une série d’observations indépendantes et identiquement distribuées.
nom « d’algorithmes MM gradient ». Des détails sur ce type d’algorithmes peuvent être
consultés dans le livre de Lange[36]. Dans le cas présent, la méthode de bissection a été
utilisée. Des informations relatives à sa mise en oeuvre seront données dans les prochains
paragraphes.
∂Q (θ | θ0 ) 1 Xn
x1:n − ν 0 x1:n − ν 0
( " !#)
λ
= −n ψ (λ) + 0 1 + +
∂λ λ n r=2 xr:n − ν 0 x2:n − ν 0
" n #
+ log (xr:n − ν ) + log (x2:n − ν )
0 0
X
r=2
" n
x1:n − ν 0 x1:n − ν 0
#
+ + + c1 (θ0 )
X
x − ν 0 x − ν 0
r=2 r:n 2:n
−n {log (β 0 ) − 1}
1 Xn
x1:n − ν 0 x1:n − ν 0
!
p (θ ) = 1 +
0
+
n r=2 xr:n − ν 0 x2:n − ν 0
t (θ0 ) = log (β 0 ) − 1
1 Xn
" #
− log (xr:n − ν 0 ) + log (x2:n − ν 0 )
n r=2
1 Xn
x1:n − ν 0 x1:n − ν 0
" #
− 0
+ 0
+ c1 (θ0 )
n r=2 xr:n − ν x2:n − ν
et
λ
h (λ | θ0 ) = ψ (λ) + p (θ0 ) + t (θ0 )
λ0
34
II.3 Inférence statistique
possèdent les mêmes racines. Par suite la fonction dérivée h0 (λ | θ0 ) est donnée par :
p (θ0 )
h0 (λ | θ0 ) = ψ 0 (λ) +
λ0
1 1
log (λ) − ≤ ψ (λ) ≤ log (λ + 1) − , ∀λ > 0
2λ λ
lim ψ (λ) = −∞
λ→0+
lim ψ (λ) = +∞
λ→+∞
∂Q (θ | θ0 ) 1
= − 3 g (β | θ0 )
∂β β
avec
n
nλ0 β 4
" #
g (β | θ ) =
0
(xr:n − x1:n ) − β 0 ((n − 1) (x1:n − ν 0 ) + (x2:n − ν 0 ) c2 (θ0 ))
X
− β
β 02 r=1
35
Chapitre II Une méthode de vraisemblance marginale pour l’ajustement d’un modèle
P 3 à une série d’observations indépendantes et identiquement distribuées.
∂Q(θ|θ0 )
De ce faite, les équations ∂β
= 0 et g (β | θ0 ) = 0 sont équivalentes. De la fonction
dérivée g 0 (β | θ0 ) donnée par
4nλ0 β 3 n
" #
g (β | θ ) =
0 0
(xr:n − x1:n )
X
−
β 02 r=1
v " n #
u
u β 02 1 X
il découle que β0 = 3
t 0
4λ
(xr:nn
− x1:n ) est l’unique racine positive et que g 0 (β | θ0 )
r=2
est positive pour tout β > β0 et négative si 0 < β < β0 . La fonction β → g (β|θ0 ) est
donc strictement décroissante sur ]0, β0 [ et strictement croissante sur ]β0 , +∞[. De plus,
c2 (θ0 ) > 0 par définition. On en déduit que :
∂Q(θ|θ0 )
On peut remarquer que ∂ν
= n−1
(x1: −ν)3
k (x1:n − ν | θ0 ) où
λ0 (x1:n − ν 0 )2 Xn
x1:n − ν 0 x1:n − ν 0
" #
k (u | θ ) = −
0
+
n−1 r=2 xr:n − ν
0 x2:n − ν 0
1 n
1 c2 (θ0 ) (x2:n − x1 ) 4
" #
+ +
X
u
n − 1 r=2 xr:n − ν 0 β 0 (x2:n − ν 0 )
1 c2 (θ0 )
" #
+ 0 + u3
β (x1:n − ν 0 ) (n − 1) β 0 (x2:n − ν 0 )
∂Q(θ|θ0 )
Il decoule donc que ∂ν
= 0 est équivalente à k (x1:n − ν | θ0 ) = 0. Un léger calcul de
différentiation permet de vérifier que la fonction k est monotone croissante sur le domaine
]0, +∞[ étant donné que c2 (θ0 ) > 0 et que (xr:n − ν 0 ) > 0 pour tout r ≥ 1. De plus
" n #
0 −ν 0 )2 x1:n −ν 0 x1:n −ν 0
lim k (u) = − λ (x1:n + < 0 et lim k (u) = +∞. On conclut donc
X
u→0+ n−1 xr:n −ν 0 x2:n −ν 0 u→+∞
r=2
∂Q(θ|θ0 )
que l’équation k (u) = 0 admet une unique solution ]0, + ∞[ et par suite ∂ν
admet
un unique zéro dans ] − ∞,x1:n [.
Dans toute la suite, la méthode développée dans ce chapitre sera appelée méthode
36
II.4 Implémentation de la méthode
L’objectif dans cette section est de fournir les informations nécessaires au calcul des
estimateurs proposés. Comme on peut bien le remarquer, le calcul de la fonction Q (.|θ0 )
nécessite d’abord le calcul des constantes c0 (θ0 ) , c1 (θ0 ) et c2 (θ0 ) données respectivement
par les équations (II.3.2), (II.3.3) et (II.3.4). Une procédure numérique pour résoudre
ces intégrales est proposée et est disponible en Annexe(A.3.1). Une fois que la procédure
de résolution des intégrales est développée, le calcul des estimateurs peut se faire à travers
l’algorithme suivant :
II.4.1 Algorithme
Variables déclarées:
condé.arrêt : une variable booléenne initialisée à vraie
k : étape itérative initialisée à 0
θk ← θ0
Tant que condition d’arrêt n’est pas vérifiée faire
— λ (θk+1 ) = t (λ, βk , νk )
λk+1 = arg max {Q (λ (θk+1 ) | θk )}
λ>0
θk0 = t (λk+1 , βk , νk ),
— β (θk+1 ) = t (λk+1 , β, νk )
βk+1 = arg max {Q (β (θk+1 ) | θk0 )}
β>0
θk00 = t (λk+1 , βk+1 , νk ),
— ν (θk+1 ) = t (λk+1 , βk+1 , ν)
νk+1 = arg max {Q (ν (θk+1 ) | θk00 )}
ν<x1:n
k =k+1
37
Chapitre II Une méthode de vraisemblance marginale pour l’ajustement d’un modèle
P 3 à une série d’observations indépendantes et identiquement distribuées.
estimateurs proposés
Pour évaluer les performances de nos estimateurs, nous utilisons le même plan d’échan-
tillonnage que celui proposé par Nagatsuka et al. . Ce choix est justifié, car il per-
mettra de comparer les performances des deux types estimateurs. Leur plan d’échan-
tillonage a consisté à choisir les valeurs suivantes pour le paramètre de forme λ =
0.5, 1.0, 1.5, 2.0, 3.0, 4.0 tandis que le paramètre de localisation et celui d’échelle sont res-
pectivement fixés à ν = 0 et β = 1.0
38
II.5 Évaluation empirique de la performance des estimateurs proposés
estimateurs.
1 XN
Biais (θi ) = θbik − θi0 , i = 1, 2, 3
N k=1
1 XN 2
EQM (θi ) = θbik − θi0 , i = 1, 2, 3
N k=1
v
1 XN
u 2
RM SE (θi ) = θbik − θi0 , i = 1, 2, 3
u
t
N k=1
3
JB (θ) = | Biais (θi ) |
X
i=1
3
M SE (θ) = RM SE 2 (θi )
X
i=1
Pour chaque valeur théorique du vecteur des paramètres θ, 1000 échantillons de taille
n = 20, 50, 100 sont générés selon une loi P 3 de vecteur de paramètres θ. La méthode
présentée dans ce chapitre est ensuite appliquée à chaque échantillon. Les estimations
obtenues sont utilisées pour le calcul des métriques que nous consignons dans le tableau
suivant.
39
Chapitre II Une méthode de vraisemblance marginale pour l’ajustement d’un modèle
P 3 à une série d’observations indépendantes et identiquement distribuées.
Pour mieux discuter de ces résultats, une visualisation est proposée à travers les gra-
phiques ci-dessous. Chaque métrique est représentée en fonction des valeurs théoriques du
paramètre de forme.
40
II.5 Évaluation empirique de la performance des estimateurs proposés
0.20
1.0
0.3
* 20 * 20 * 20
x 50 x 50 x 50
*
0.8
+ 100 + 100 + 100 *
0.15
* *
0.2
* *
0.6 *
0.10
Biais pour λ
Biais pour β
Biais pour ν
0.4
* +
0.05
0.1
* +
0.2
+ +
+ *
+ *
+
0.00
*
+* + +
0.0
+ + + +
0.0
+* + + *
+
*
−0.10 −0.05
−0.4 −0.2
* *
−0.1
0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0
λ λ λ
1.2
* 20
x 50
+ 100
1.0
*
*
0.8 *
biais joint
*
0.6
0.4
*
0.2
+ +
*
+ + +
+
0.0
* 20 * 20 * 20
*
0.6
x 50 x 50 x 50
+ 100 * + 100 + 100 *
* *
*
3
0.5
*
1.0
RMSE pour λ
RMSE pour β
RMSE pour ν
*
* *
*
0.4
*
2
+ +
* *
0.3
0.5
+ +
* +
1
+
0.2
+
+ +
+ +
* +
* +
+ +
+
0.0
0.1
*
+ +
0
0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0
λ λ λ
15
* 20
x 50 *
+ 100
*
10
MSE
*
5
+
*
+
+ +
*
+ +
0
Les performances des estimateurs proposés ne sont peut-être pas extraordinaires pour
des petits échantillons(approximativement de taille inférieure ou égale à 20). Cependant
il faut noter que ces performances s’améliorent très rapidement à partir des échantillons
de taille modérée(autour de 50). En effet le biais et la racine carrée de l’erreur quadra-
tique moyenne(RMSE) des estimateurs s’améliorent au fur et à mesure que la taille des
échantillons augmente. Preuve que les estimateurs sont asymptotiquement sans biais et
convergents en probabilité. Il en est de même pour le biais joint et l’erreur quadratique
41
Chapitre II Une méthode de vraisemblance marginale pour l’ajustement d’un modèle
P 3 à une série d’observations indépendantes et identiquement distribuées.
jointe.
II.5.3.2 Variabilité des résultats
Pour illustrer la variabilité des estimations obtenues, nous avons opté pour la méthode
graphique. Chaque graphique représente la dispersion des estimations à travers un dia-
gramme de dispersion pour chaque valeur théorique du paramètre de forme.
n = 20 n = 50 n = 100
10 12
* 15 ** * **
* * **
*
30
** **
Estimations pour λ
Estimations pour λ
Estimations pour λ
* ** ** * *
** ** **
* ** **
* ** ** ** **
** ** * * ****
8
*
10
* *** **
20
* ** **
* * **
* * ** * **
* ** **
6
* * ** **
* ** **
* *** ** ** ** ***
*
** * **** ** * ** *
*** *** **** ** *** **
4
5 10
* ** *** *** **
** ** ** **
** *** ** * ** ** *
* * ** ** *** ***
*** ** ** ** *
2
** ***
** *** ***
*** ** ** *
0
0
.5 1.0 1.5 2 3 4 .5 1.0 1.5 2 3 4 .5 1.0 1.5 2 3 4
λ λ λ
n = 20 n = 50 n = 100
2
2
1
Estimations pour ν
Estimations pour ν
Estimations pour ν
1
** **
** *
0
*** *
*** **
0
*** * ***
0
* *** **** * **
** * ** * ***
** *** ** * ** **
** ***
***
*
****
**
* ***
* ***
−1
−2
** *
−1
* * * ** * *
** **
**
** ***
* ** **
* * * ** **
*** **
−2
* * **
* * ***
−4
*
−2
* * * ** **
* ** *
−3
* * * *
n = 20 n = 50 n = 100
2.0
* * **
4
* *
0.5 1.0 1.5 2.0 2.5
* * *
* * * **
Estimations pour β
Estimations pour β
Estimations pour β
* * * ** * ** *
** * *** ** *
* * **
**
** *
*
*** *** ** * ** ** **
3
** * ** *
** ***
1.5
** * ** ** * ** ** ** *
** **** * ** * * *** ** **
* * * **
** *** ***
* ** *
** *
**
2
*
1.0
1
0.5
*
*
*
* ** *
*
0
Dans une moindre mesure, les estimateurs de tous les paramètres présentent une dis-
tribution asymétrique. L’ampleur de l’asymétrie est d’autant plus grande que la valeur
théorique du paramètre de forme est grande. Bien que ce résultat ne garantisse pas la
normalité asymptotique des estimateurs proposés, il faut néanmoins noter que l’ampleur
de l’asymétrie diminue lorsque la taille de l’échantillon augmente.
42
II.5 Évaluation empirique de la performance des estimateurs proposés
méthodes alternatives
Comme indiqué en début de section, les performances des estimateurs dont il est
question dans ce chapitre sont comparées à celles de deux autres : la méthode LSPF-
MLE(Location and Scalde Paramètres Free Maximum Likelihood Estimators) développée
par Nagatsuka & co.[46] et la méthode BL(Bayesian Likelihood) par Hall et Wang[25].
Pour faciliter la comparaison, des graphiques présentant le comportement du biais et de
l’erreur quadratique moyenne de chaque paramètre en fonction de la valeur théorique du
paramètre de forme sont proposés pour les trois méthodes que sont la méthode LSPF-
MLE, la méthode BL et enfin la méthode MMosLE qui fait l’objet de ce chapitre. Les
résultats relatifs aux deux premières méthodes sont tirés du papier de Nagatsuka et co.[46].
Les graphiques ci-dessous représentent les métriques de l’estimateur du paramètre de
forme pour les trois méthodes .
43
Chapitre II Une méthode de vraisemblance marginale pour l’ajustement d’un modèle
P 3 à une série d’observations indépendantes et identiquement distribuées.
n = 20 n = 50 n = 100
2.0
0.6
x BLE x BLE x BLE
+ LSPF + LSPF + LSPF x
4
* MMosLE * MMosLE * MMosLE +
1.5
0.4
+
3
x
+
Biais pour λ
Biais pour λ
Biais pour λ
1.0
0.2
2
+ *
+
+
+ x
0.5
x + +
+* x x *
0.0
*
1
* * *
+ *
+* *
+* * + *
+* +* + *
0.0
*
+*
0
−0.2
0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0
λ λ λ
n = 20 n = 50 n = 100
3.0
8
2.5
6
2.0
RMSE pour λ
RMSE pour λ
RMSE pour λ
+
10
1.5
4
+
+
+ *
1.0
+ *
5
*
2
* +
*
0.5
+ *
*+ *
*+ + +
*
*+ *
+*
+* +*
+*
0.0
*+
0
0
0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0
λ λ λ
Figure II.5.3 – Biais et RMSE de l’estimateur du paramètre de forme basés sur 1000
échantillons simulés
Tout d’abord, il faut noter que le biais du paramètre de forme pour les trois paramètres
est positif et s’augmente avec la valeur actuelle du paramètre. Preuve que les trois mé-
thodes surestiment ce paramètre. Pour des valeurs du paramètre de forme inférieures ou
égales à l’unité, l’ampleur du biais est comparable pour les trois méthodes. Bien que les
performances en termes de biais s’améliorent pour les trois méthodes lorsque la taille de
l’échantillon augmente , notons que cette amélioration est beaucoup plus remarquable
pour la méthode proposée dans ce chapitre(MMosLE). En terme de racine carrée de l’er-
reur quadratique moyenne(RMSE) cette dernière surclasse en général les deux autres pour
des échantillons de taille moyenne au moins(approximativement 50).
44
II.5 Évaluation empirique de la performance des estimateurs proposés
n = 20 n = 50 n = 100
0.15
0.6
x BLE x BLE x BLE
+ LSPF + LSPF + LSPF
0.2
* MMosLE * MMosLE * MMosLE
+ +
0.4
0.10
0.1
*
* *
+
0.2
+ * * *
0.0
0.05
+* +*
Biais pour ν
Biais pour ν
Biais pour ν
+ +
*
0.0
+* +
+* + *
−0.1
* * * +
0.00
+* * +
+ + *
−0.2
−0.2
−0.05
−0.4
−0.3
−0.10
−0.6
−0.4
0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0
λ λ λ
n = 20 n = 50 n = 100
2.0
15
0.8
* * *
1.5
0.6
*
10
RMSE pour ν
RMSE pour ν
RMSE pour ν +
1.0
+
* 0.4 *
+ +
5
+
*
0.5
*
0.2
+
*+ *
*+ * +*
*+ +
+*
+*
*+ +* +*
0.0
0.0
+* +*
0
0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0
λ λ λ
Parmi les trois méthodes en compétition, seule la méthode bayésienne a tendance à sous-
estimer le paramètre de localisation. Pour des petits échantillons, la méthode MMosLE
présente le plus petit biais des trois méthodes lorsque le paramètre de forme est inférieur
ou égale à 1.5.
Pour des échantillons de taille modérée et grande, le biais de la méthode MMosLE et
celui de la méthode LSPF-MLE sont du même ordre. Les deux méthodes surestiment
le paramètre de localisation surtout lorsque la valeur théorique du paramètre de forme
est grande. Cette ressemblance entre les deux méthodes s’illustre aussi bien en terme de
racine carrée de l’erreur quadratique moyenne(RMSE). Les deux surclassent la méthode
BL.
45
Chapitre II Une méthode de vraisemblance marginale pour l’ajustement d’un modèle
P 3 à une série d’observations indépendantes et identiquement distribuées.
n = 20 n = 50 n = 100
0.25
0.08
x BLE x BLE x BLE
+ LSPF + LSPF + LSPF
MMosLE MMosLE MMosLE *
0.10
* * *
0.06
0.20
0.04
*
*
0.15
+ * * *
0.05
Biais pour β
Biais pour β
Biais pour β
*
0.02
* *
*
0.10
+
+
0.00
* + +
*
+
0.05
+ + +
0.00
+ + +
+ +
−0.02
* * +
+
*
0.00
+
*
−0.04
+
*
−0.05
−0.05
−0.06
0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0
λ λ λ
n = 20 n = 50 n = 100
0.30
0.45
0.8
*
+
0.25
RMSE pour β
RMSE pour β
RMSE pour β
+
+
* *
0.35
*
0.6
+*
0.20
* +* *
0.30
+
0.5
+ *
* + *
*
+ +
+ +
+
* * +*
*
0.25
* +
0.15
+
0.4
0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.5 2.5 3.5
λ λ λ
Figure II.5.5 – Biais et RMSE de l’estimateur du paramètre d’échelle basés sur 1000
échantillons simulés
46
II.5 Évaluation empirique de la performance des estimateurs proposés
n = 20 n = 50 n = 100
2.5
0.7
6 x BLE x BLE x BLE
+ LSPF + LSPF + LSPF
MMosLE MMosLE MMosLE +
* * *
0.6
5
2.0
0.5
4
1.5
+
biais joint
biais joint
0.4
biais joint
3
0.3
1.0
+
+
2
0.2
+ *
0.5 *
*
1
* *
0.1
* * +
* + +
+
+ * * + +* *
+* *
+* +* *
+*
0.0
0.0
+
0
0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0
λ λ λ
n = 20 n = 50 n = 100
60
+
50
40
150
6
MSE joint
MSE joint
MSE joint
30
100
*
20
+ +
50
+ *
10
+ *
* *
+* * +* +*
+* +* +* +* +* +* +* +* +*
0
0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0
λ λ λ
Comme l’on pouvait s’y attendre, le biais et l’erreur quadratique jointe(MSE) aug-
mentent avec la valeur du paramètre de forme, mais diminuent lorsque la taille de l’échan-
tillon devient de plus en plus grande, et cela est valable pour les trois méthodes en compé-
tition. Pour des valeurs du paramètre de forme plus petites que l’unité, les trois méthodes
sont comparables vis-à-vis des métriques jointes(biais et erreur quadratique). Dans les
autres cas, la méthode proposée à tendance à surclasser les autres méthodes.
47
Chapitre II Une méthode de vraisemblance marginale pour l’ajustement d’un modèle
P 3 à une série d’observations indépendantes et identiquement distribuées.
Cette section est consacrée à l’utilisation de la méthode proposée pour ajuster la dis-
tribution gamma à trois paramètres sur un jeu de données réelles emprunté des travaux
de Dumonceaux et Antle. Il s’agit des données relatives au niveau de crue de la rivière
Susquehanna de Harrisburg en Pennsylvanie, prélevé entre 1890 et 1969. À chaque période
de quatre années, le niveau maximal a été enregistré et les résultats sont consignés dans
le tableau ci-dessous.
0.65 0.27 0.61 0.74 0.32 0.42 0.45 0.41 0.30 0.49
0.40 0.42 0.38 0.34 0.42 0.39 0.38 0.48 0.32 0.27
Table II.3 : Données de Dumonceaux et Antle : résultats des estimations des méthodes
MMosLE, LSFP-MLE et BL
On observe que toutes les trois méthodes fournissent une estimation positive du pa-
ramètre de seuil. De plus, une différence substantielle existe entre les estimations du
paramètre de forme. Si la plus grande estimation de ce dernier est fournie par la méthode
MMosLE, la plus petite est obtenue par la méthode BL. Pour les autres paramètres en
revanche, la méthode MMosLE enregistre les plus petites estimations et les plus grandes
proviennent de la méthode BL, bien que les résultats soient très proches.
Outre ces résultats, d’autres auteurs comme Cohen et Whitten[12, 13], Hirose[27] et
Tzavelas[67] avaient précédemment utilisé ces mêmes données pour illustrer le compor-
tement de leurs estimateurs en les ajustant au modèle gamma à trois paramètres. Les
résultats obtenus sont reportés dans le tableau ci-dessous.
48
II.6 Application à des données de la littérature
Table II.4 : Données de Dumonceaux & Antle : résultats des estimations d’autres mé-
thodes de la littérature
L’idée de base des diagrammes quantile-quantile est de représenter les points M (x∗i , xi )
où xi et x∗i désignent respectivement les quantiles empiriques et les quantiles théoriques du
49
Chapitre II Une méthode de vraisemblance marginale pour l’ajustement d’un modèle
P 3 à une série d’observations indépendantes et identiquement distribuées.
modèle soupçonné. En principe, si les observations sont tirées du modèle en question, ces
deux quantiles devront être égaux et par conséquent, les points M (x∗i , xi )i seront alignés.
Pour ce qui est de cette section, nous soupçonnons le modèle P 3 d’être à l’origine des
observations de la Table II.2 . Sur l’axe vertical, est représentée la série ordonnée croissante
tandis que l’axe horizontal représente les quantiles d’ordre pi = i−.5
20
,i = 1 : 20 du modèle
P 3 . Pour chacune des trois méthodes d’estimation, nous utilisons les valeurs estimées des
paramètres pour le calcul des quantiles du modèle.
Méthode MMosLE
*
0.7
*
Quantiles empiriques
*
0.6
0.5
* *
*
* ** *
0.4
*
***
**
*
0.3
*
**
0.3 0.4 0.5 0.6 0.7
Quantiles théoriques
* *
0.7
0.7
* *
Quantiles empiriques
Quantiles empiriques
* *
0.6
0.6
0.5
0.5
* * * *
* *
* *
** ** ** **
0.4
0.4
*** ***
* *
** **
0.3
0.3
* *
** **
0.3 0.4 0.5 0.6 0.7 0.3 0.4 0.5 0.6 0.7
Quantiles théoriques Quantiles théoriques
Figure II.6.1 : Diagramme Quantile-Quantile basée sur les estimations des trois méthodes
Comme on peut bien le constater, les méthodes d’estimation n’ont apparemment pas
d’influence significative sur la qualité de l’ajustement. Pour toutes les méthodes, quelques
points ont tendance à s’écarter de la position idéale sans pour autant détériorer la qualité
de l’ajustement.
Pour mieux apprécier le niveau de déviation entre quantiles empiriques et quantiles
théoriques pour chacune des trois méthodes d’estimation, nous proposons ici d’utiliser
50
II.6 Application à des données de la littérature
La distribution gamma standard de paramètres (1.0, 1.0) est utilisée comme distribution
de référence et dont les quantiles d’ordre pi = i−.5
20
,i = 1 : 20 sont représentés en abscisse.
Pour la courbe du milieu(en points noirs), l’axe des ordonnées correspond aux sta-
tistiques d’ordre des données observées. Cette courbe traduit la variabilité des données
observées. Les courbes en extrême(courbes en rouge) représentent les quantiles d’ordre
.975 (respectivement .025) de la distribution empirique pour la courbe au-dessus (respec-
tivement en dessous) obtenue en utilisant 1000 échantillons de tailles 20 générées à partir
de la distribution ajustée.
Méthode MMosLE
1.2
Données ordonnées &
1.0
+
quantiles bootstrap
0.8
+
+ *
+
* *
0.6
+
+
+ +
++ +
++
++
* **
+ +
+
++
0.4
********
+ + ++
++ ++++
+
**
++**
+ ++++
**
++
0.2
0 1 2 3 4
Quantiles Gamma(1,1) pour (i − 0.5) 20, i = 1:20
1.2
+ +
Données ordonnées &
1.0
Quantiles bootstrap
quantiles bootstrap
+
0.8
0.8
+
+ * +
+ *
+
* * +
* *
0.6
0.6
++ +
+ + + +
++ + ++ +
** * ** *
++ + ++ +
++ + + ++ + +
0.4
0.4
+++
******** ********
++ ++ ++
++ ++++ +++ +++
++ +++++
* ++ ++++++
*
** **
*** ***
+
+++ ++++
0.2
0.2
0 1 2 3 4 0 1 2 3 4
Quantiles Gamma(1,1) pour (i − 0.5) 20, i = 1:20 Quantiles Gamma(1,1) pour (i − 0.5) 20, i = 1:20
Dans les trois cas de figure, la courbe décrivant la variabilité des données observées
(celle en noir) est contenue dans l’enveloppe (en rouge) formée par les deux courbes
51
Chapitre II Une méthode de vraisemblance marginale pour l’ajustement d’un modèle
P 3 à une série d’observations indépendantes et identiquement distribuées.
traduisant respectivement les quantiles d’ordre .975 et .025 de la distribution empirique.
Cela témoigne que les déviations constatées dans le diagramme quantile-quantile n’ont
aucune méchanceté et par conséquent, il n’ya pas de raison évidente de rejeter l’hypothèse
selon laquelle les observations de la Table II.2 sont distribuées selon un modèle P 3.
Dans cette section, nous développons une procédure de calcul du biais et des intervalles
de confiances pour raffiner la comparaison des résultats des trois méthodes. Compte tenu
de la petite taille des observations, nous suggérons de procéder par bootstrap.
Pour calculer le biais et les intervalles de confiance, nous utilisons la méthode de boots-
trap paramétrique développée dans le papier de Carpenter et Bithell[9]. Pour ce faire, soit
θb les estimations obtenues en utilisant l’échantillon original consigné dans le tableauII.2.
Nous générons N = 5000 échantillons de taille n = 20 avec un modèle gamma à trois
paramètres dont le vecteur des paramètres est θ.
b En appliquant la méthode MMosLE
52
II.7 Conclusion
II.6.3.2 Résultats
En appliquant la procédure de calcul décrite ci-dessus, les résultats suivants ont été
recueillis.
Table II.5 : Estimation du biais et intervalle de confiance 95% par la méthode des per-
centiles corrigées
II.7 Conclusion
53
Chapitre II Une méthode de vraisemblance marginale pour l’ajustement d’un modèle
P 3 à une série d’observations indépendantes et identiquement distribuées.
LSPF-MLE et BL dans tout le domaine de ce paramètre ;
— l’erreur quadratique moyenne de l’estimation du paramètre de forme s’améliore plus
rapidement que celui des méthodes LSPF-MLE et BL ;
— le biais du paramètre de localisation est faible si la valeur théorique du paramètre de
forme est inférieure à 1.5 et son amplitude dévient comparable à celle des deux mé-
thodes LSPF-MLE et BL si la valeur théorique du paramètre de forme est supérieure
à 1.5.
— L’erreur quadratique moyenne du LSPF-MLE est le plus petit des trois méthodes,
par contre celui de la méthode BL est le pire par rapport à cette métrique de
performance.
— Les estimations du paramètre d’échelle obtenues par la méthode LSPF-MLE ou la
méthode BL a un biais inférieur à la méthode MMosLE.
— L’erreur quadratique moyenne a une amplitude proche de celui de la méthode du
LSPF-MLE.
54
Appendices
55
Annexe A
Annexe du chapitre II
Soient u, v, u0 et v 0 des réels strictement positifs. Les relations suivantes sont vérifiées.
v0
3. log (u + v) ≥ log (u + v 0 ) + u+v 0
log v
v0
v 02 u0
n o
u2
4. u log (v) = u − log 1
v
et par suite u log (v) ≥ u log (v 0 ) + u − 2u0
− 2v 2
1 1
u log (v) ≥ u log (v ) − v − 0 0 0
v v
u
≥ u log (v ) + u − v 0
0
v(
1
)
2
u
≥ u log (v 0 ) + u + v 0 − 0 0 − 2 v 0 u0
2u v 2v
2 02 0
u v u
≥ u log (v 0 ) + u − 0 −
2u 2v 2
2
u2 u0
5. −u log (v) ≥ u (1 − log (v 0 )) − 2u0
− 2
v
v0
u 1−u
0 = log u 0 + (1 − u0 ) 0
u 1 − u0
u 1−u
≥ u log 0 + (1 − u ) log
0 0
u 1 − u0
57
Annexe A Annexe du chapitre II
Démonstration.
Lemme 9.
Démonstration. Comme log (xr:n − ν) = log {(xr:n − x1:n ) + (x1:n − ν)} et prenant en
compte l’hypothèse que (x1:n − ν) > 0 , l’inégalité de base (3) conduit à
x1:n − ν 0 x1:n − ν
log (xr:n − ν) ≥ log (xr:n − ν 0 ) + 0
log
xr:n − ν x1:n − ν 0
Par suite
x1:n − ν 0 x1:n − ν
λ log (xr:n − ν) ≥ λ log (xr:n − ν ) + λ
0
0
log
xr:n − ν x1:n − ν 0
Lemme 10.
1.
ν − ν0
− log (xr:n − ν) ≥ − log (xr:n − ν ) + 0
xr:n − ν 0
2.
λ2 0 β
2
−λ log (β) ≥ −λ log (β 0 ) + λ − − λ
2λ0 2β 02
58
A.2 Preuve de la Proposition 5
Démonstration.
1
− log (β) ≥ − log (β 0 ) − (β − β 0 )
β0
Par suite
λβ
−λ log (β) ≥ −λ log (β 0 ) + λ −
β0
L1 (θ | x2:n , · · · ,xn:n ) ≥ Q1 (θ | θ0 )
Par simple calcul on vérifie que L1 (θ0 | x2:n , · · · ,xn:n ) = Q1 (θ0 | θ0 ). D’où le résultat.
59
Annexe A Annexe du chapitre II
Démonstration.
ν − ν0
− log (xr:n − ν) ≥ − log (xr:n − ν 0 ) +
xr:n − ν 0
De plus
1
( )
−λ log (β) ≥ λ − log (β ) − 0 (β − β 0 )
0
β
1 λ2 β 0 β 2 λ0
( )
≥ −λ log (β ) + λ − 0
0
+
β 2 λ0 2 β0
λ2 β2
≥ −λ log (β 0 ) + λ − 0 − λ0 02
2λ 2β
1
Z 1 ( )
c0 (θ) = u λ−1
exp − (x2:n − ν) u du
0 β
n o
1 1 exp − β10 (x2:n − ν 0 ) u
Z 1 ( " # )
λ−λ0
= c0 (θ0 ) u exp − (x2:n − ν) − 0 (x2:n − ν ) u
0
du
0 β β c0 (θ0 )
De l’inégalité de Jensen on a :
1 1
" #
L2 (θ | x2:n , · · · ,xn:n ) ≥ log (c0 (θ )) + (λ − λ ) c1 (θ ) −
0 0 0
(x2:n − ν) − 0 (x2:n − ν 0 ) c2 (θ0 )
β β
et Par suite
β 0 (x2:n − ν 0 )
L2 (θ | x2:n , · · · ,xn:n ) ≥ log (c0 (θ0 )) + (λ − λ0 ) c1 (θ0 ) − c2 (θ0 )
2β 2
c2 (θ0 ) (x2:n − ν)2 c2 (θ0 ) (x2:n − ν 0 )
− +
2β 0 (x2:n − ν 0 ) β0
60
A.3 Preuve de la Proposition 6
L2 (θ | x2:n , · · · ,xn:n ) ≥ Q2 (θ | θ0 )
Par simple calcul on vérifie que L2 (θ0 | x2:n , · · · ,xn:n ) = Q2 (θ0 | θ0 ). D’où le résultat.
n o
c0 (θ) = exp − 1 (x2:n − ν) u du
R 1 λ−1
u
0 β
Z 1 n o
log (u)uλ−1 exp − β1 (x2:n − ν) u
c1 (θ) = 0
du
c0 (θ)
Z 1 n o
uλ exp − β1 (x2:n − ν) u
c2 (θ) = 0
du
c0 (θ)
A quelques constantes prêts, ces intégrales sont analogues à celle déjà calculer dans le
chapitre précèdent.
Proposition 11. Soit (xr )r=1:n une série de n réplications indépendantes d’un modèle
P 3 de vecteur de paramètre θ = (ν, λ, β) et (xr:n )r=1:n la séquence ordonnée croissante des
observations. Soit U une variable aléatoire distribuée selon un modèle Bêta de paramètres
λ
2
et 1, de fonction de densité g u| λ2 , 1 . Les égalités suivantes sont vérifiées.
1.
β λ Γ (λ)
c0 (θ) = F1 (1)
(x2:n − ν)λ
2.
E (f (U ))
c1 (θ) =
c0 (θ)
3.
β λ+1 Γ (λ + 1)
c2 (θ) c0 (θ) = F2 (1)
(x2:n − ν)λ+1
61
Annexe A Annexe du chapitre II
Démonstration.
Les relations (1) et (3)sont immédiates. Il ne reste qu’à prouver l’égalité(2).
Z 1 n o
log (u)uλ−1 exp − β1 (x2:n − ν) u
c1 (θ) = 0
du
c0 (θ)
Γ 1+ Γ
Z 1 λ λ
λ λ
n o
2 2
u 2
−1 log (u)u 2 exp − β1 (x2:n − ν) u
0 Γ λ
2
Γ 1+ λ
2
= du
c0 (θ)
2 λ
n o
g u| λ2 , 1 log (u)u 2 exp − β1 (x2:n − ν) u
R1
0
= λ du
c0 (θ)
g u| λ2 , 1 f (u)
R1
0
du
c0 (θ)
62
A.4 Résultats des méthodes LSPF-MLE et BL
63
Annexe A Annexe du chapitre II
64
Chapitre III
Formulation et ajustement d’un modèle de
série temporelle de marges distribuées selon
une distribution P 3.
III.1 Introduction
65
Chapitre III Formulation et ajustement d’un modèle de série temporelle de marges
distribuées selon une distribution P 3.
leurs récents travaux, Fernandez & Salas[18] développent un modèle autorégressif d’ordre
un de marge gamma(GAR(1)). Compte tenu de l’importance du biais des estimateurs
du modèle obtenu via la méthode des moments, ils suggèrent l’utilisation d’une sorte
de correction avant l’ajustement du modèle. Appliquée à des séries annuelles de débits,
ils prétendent que le modèle GAR(1) est plus adapté que les précédents pour générer
des données de débits synthétiques. Tiku & al.[65] proposent un modèle AR(1) avec des
termes d’erreurs distribuées selon un modèle gamma. Ils suggérèrent l’utilisation de la
méthode du maximum de vraisemblance modifiée (ML) pour l’estimation des paramètres
du modèle.
Le modèle proposé dans ce chapitre appartient à la classe des modèles autorégressifs
doublement stochastiques étudiée par Tjostheim[66]. Une représentation générale de ce
type de modèle est formulée comme suit :
Xt = At Xt−1 + εt , t ∈ Z (III.1.1)
66
III.2 concepts et résultats intermédiaires
gamma standard. Les propriétés du modèle obtenu ont été discutés. L’ajustement du mo-
dèle proposé est réalisé par une méthode de maximum de vraisemblance conditionnelle.
Compte tenu de la complexité de la fonction de vraisemblance obtenue, un algorithme
MM a été mise en oeuvre pour estimer les paramètres du modèle. Enfin à partir des
études de simulation Monte Carlo, nous évaluons les performances des estimateurs pro-
posés. Toutes les procédures de calcul dans le présent chapitre ont été implémentées sous
l’environnement de calcul R[57].
III.2.1 Concepts
III.2.1.2 La stationnarité
En termes simples, un processus est stationnaire s’il ne dépend pas de l’indice temporel.
Cette propriété est très importante en pratique, en ce sens que le processus pourrait être
caractérisé uniquement par sa loi stationnaire, qui par définition ne dépend pas du temps.
Généralement, on distingue la stationnarité stricte et la stationnarité faible ou de second
ordre.
67
Chapitre III Formulation et ajustement d’un modèle de série temporelle de marges
distribuées selon une distribution P 3.
Définition 13. On dit qu’un processus (Xt )t∈T est strictement stationnaire, si pour
tout T ∈ T et pour tout décalage h ∈ Z, les vecteurs aléatoires (X1 , X2 , ...XT ) et
(X1+h , X2+h , ...XT +h ) ont la même loi.
Mise à part les processus gaussiens, la stricte stationnarité est délicate à vérifier en
pratique. D’où la nécessité d’introduire une notion de stationnarité moins contraignante.
Définition 14. On dit qu’un processus (Xt )t∈T est stationnaire au sens faible , si les
conditions suivantes sont vérifiées :
1. ∀t ∈ T, E (Xt ) = c(constante)
2. ∀t ∈ T, V (Xt ) 6= ∞
Cov (X0 , Xh )
ρ (h) = ,
V (X0 )
Proposition 16. Soit X une variable aléatoire distribuée selon un modèle P 3 de para-
mètre de localisation ν, de forme λ et de paramètre d’échelle β. La transformée de Laplace
de X est donnée par :
68
III.2 concepts et résultats intermédiaires
!λ
1
φX (t) = exp (−νt)
βt + 1
(x − ν)λ−1
( )
x−ν
f (x|θ) = exp − 1{ν ,+∞} (x) (III.2.1)
β λ Γ (λ) β
Par définition
ν Z +∞ uλ−1 βt + 1
! ( !)
φX (t) = exp exp − (u + ν) du
β 0 β λ Γ (λ) β
uλ−1 βt + 1
Z +∞ ( !)
= exp (−νt) exp −u du
0 β λ Γ (λ) β
!λ Z
1 uλ−1 βt + 1
( !)
+∞
= exp (−νt) exp −u du
βt + 1
λ
β
0 β
βt+1
Γ (λ)
!λ
1
φX (t) = exp (−νt)
βt + 1
69
Chapitre III Formulation et ajustement d’un modèle de série temporelle de marges
distribuées selon une distribution P 3.
2. la distribution conditionnelle de X1 sachant que X = x est identique à la distribution
de la variable (x − ν) S + ν , où S désigne une variable aléatoire distribuée selon la
loi bêta de paramètres λX1 et λX2 .
Démonstration.
!λX +λX
1 1 2
φX (t) = exp (−νt)
βt + 1
!λ
1
= exp (−νt)
βt + 1
2. Notons par fX1 et fX2 les fonctions de densité des variables aléatoires X1 et X2
respectivement. Si fX1 |X désigne la fonction de densité de la variable X1 condition-
nellement à X = x, on a :
= λ +λ −1
(x−ν) X1 X2 β }
exp{− x−y
Γ(λX1 +λX2 )
λX +λX
β 1 2
Par conséquent
1 Γ (λX1 + λX2 ) y − ν
" # λX −1
y−ν
2
fX1 |X (y|, ν, λX1 , λX2 , x) = λX1 −1
1−
x − ν Γ (λX1 ) Γ (λX2 ) x − ν x−ν
qui n’est rien d’autre que la fonction de densité de la variable aléatoire (x − ν)S + ν
avec S v Beta(λX1 , λX2 )
70
III.3 Le modèle et ses propriétés
Dans cette section, nous définissons l’opérateur d’amincissement. Des résultats du co-
rollaire(17), nous pouvons formuler la définition suivante.
71
Chapitre III Formulation et ajustement d’un modèle de série temporelle de marges
distribuées selon une distribution P 3.
X si et seulement si sa distribution conditionnellement à X = x est la même que celle de
la variable (x − ν) S + ν où S est distribuée selon un modèle Bêta de paramètres αλ et
(1 − α) λ.
E (R (X, α) |X = x) = (x − ν) E (S) + ν
= (x − ν) α + ν
Proposition 19. Soit X une variable aléatoire distribuée selon un modèle P 3 de para-
mètre de seuil ν , de paramètre d’échelle β et de paramètre de forme λ. Soit α ∈]0, 1[. Les
assertions suivantes sont vérifiées.
Démonstration.
72
III.3 Le modèle et ses propriétés
Z +∞
fR (r|ν, λ, α) = fX (x|α, ν, λ, β) × fR|X (r|ν, λ, α, x) dx
ν
Par suite
(x − ν)−1 Γ (λ)
fR (r|ν, λ, α) = ×
Γ (αλ) Γ ((1 − α) λ)
n o
Z +∞ (x − ν) λ−1 exp − x−ν β
r − ν αλ−1 x − r (1−α)λ−1
dx
ν β λ Γ (λ) x−ν x−ν
1
( )
r−ν
= αλ exp − ×
β Γ (αλ) β
1
( )
Z +∞
x−r
(x − r) (1−α)λ−1
exp − dx
ν β (1−α)λ Γ ((1 − α) λ) β
1
( )
r − ν
= αλ (r − ν) αλ−1 exp −
β Γ (αλ) β
d’où le résultat
73
Chapitre III Formulation et ajustement d’un modèle de série temporelle de marges
distribuées selon une distribution P 3.
premier ordre
Xt = Rt (Xt−1 , α) + Et , t ≥ 2
Définition 20. Soit X1 une variable distribuée selon une loi P 3 de paramètres de lo-
calisation ν, de forme λ et d’échelle β. On dit qu’un processus (Xt )t≥1 est un processus
autorégressif de premier ordre de marges distribuées selon un modèle P 3 s’il vérifie l’équa-
tion de récurrence
Xt = Rt (Xt−1 , α) + Et , t ≥ 2 (III.3.1)
où
2. (Rt (Xt−1 , α))t∈N? est une séquence d’amincissements de Xt−1 indépendantes et dis-
tribuées selon une loi P 3 de paramètre de seuil ν , d’échelle β et de paramètre de
forme αλ.
3. La séquence d’innovations (Et )t∈N? est une suite de variables aléatoires indépen-
dantes et identiquement distribuées selon une loi gamma standard de paramètre
d’échelle β et de paramètre de forme (1 − α) λ.
4. Les séquences (Rt (Xt−1 , α))t∈N? et (Et )t∈N? sont mutuellement indépendantes.
III.3.3.1 Notations
Pour un soucis de clarté, les notations suivantes seront adoptées dans la suite du cha-
pitre.
Rt = Rt (Xt−1 , α)
74
III.3 Le modèle et ses propriétés
Proposition 21. Considérons une série temporelle (Xt ) t∈N∗ vérifiant la formule de ré-
currence donnée en(III.3.1). Les assertions suivantes sont vérifiées.
1. E (Xt | Xt−1 ) = αXt−1 + (1 − α) ν + λ
β
2. ∀j ∈ N? , E (Xt+j | Xt ) = αj Xt + (1 − αj ) ν + λ
β
,
3. La fonction d’auto-covariance(ACF) de retard j est donnée par γ (j) = αj λ
β2
Démonstration.
1.
Or, par définition la distribution conditionnelle de Rt sachant que Xt−1 = xt−1 est
la même que celle de (xt−1 − ν) S + ν où S designe une variable aléatoire distribuée
selon une loi Beta de paramètres αλ et (1 − α) λ. Par suite E (Rt |Xt−1 = xt−1 ) =
α (xt−1 − ν)+ν. Comme Et suit une loi gamma de paramètre de forme (1 − α) λ et de
paramètre d’échelle β, il decoule que E (Et ) = (1−α)λ
β
. Par consequent, E (Xt | Xt−1 = xt−1 ) =
αxt−1 + (1 − α) ν + λ
β
. D’où
!
λ
E (Xt | Xt−1 ) = αXt−1 + (1 − α) ν + (III.3.2)
β
75
Chapitre III Formulation et ajustement d’un modèle de série temporelle de marges
distribuées selon une distribution P 3.
2. Procédons par récurrence. Pour j = 1, le résultat précedent conduit à :
Par suite
!
λ
E (Xt+1 | Xt ) = αXt + (1 − α) ν + (III.3.3)
β
Donc la propriété est vérifiée pour j = 1. Supposons qu’elle est vraie jusqu’à l’ordre
j − 1, on a :
3. Il suffit de montrer que Cov (Xt , Xt+j ) = αj λ
β2
, ∀j ≥ 1. Pour cela, procédons
encore par récurrence
Ainsi, pour j = 1 on a :
76
III.3 Le modèle et ses propriétés
!!
λ
Cov (Xt , Xt+1 ) = Cov Xt , αXt + (1 − α) ν +
β
= αVar (Xt )
λ
=α
β2
αj λβ 2
ρ (j) = = αj
λβ 2
5. Du résultat précèdent, ρ (j) = αj . Comme α ∈]0, 1[, on déduit que le modèle est
stationnaire.
D’un point de vue pratique, le modèle défini par l’équation(III.3.1) n’a de valeur que
si l’on peut générer assez facilement la séquence (Xt )t∈N∗ . Puisque Rt (Xt−1 , α) et Et sont
indépendantes, on peut remarquer que
77
Chapitre III Formulation et ajustement d’un modèle de série temporelle de marges
distribuées selon une distribution P 3.
où la notation =d signifie égalité en distribution. Or les distributions de Rt (Xt−1 , α) |Xt−1
et Et sont connues depuis (18). La simulation du processus décrite par (III.3.1) peut donc
se faire à travers le schéma suivant :
78
III.3 Le modèle et ses propriétés
α = 0.25 α = 0.5
2.5
4
2.0
3
1.5
Xt
Xt
2
1.0
1
0.5
0.0
0
0 20 40 60 80 100 0 20 40 60 80 100
dates dates
α = 0.75
1.5
1.0
Xt
0.5
0.0
0 20 40 60 80 100
dates
79
Chapitre III Formulation et ajustement d’un modèle de série temporelle de marges
distribuées selon une distribution P 3.
α = 0.25 α = 0.5
2.5
● ●
4
2.0
●
3
● ●
1.5
● ●
●
Xt
Xt
2
● ●
1.0
●
● ●●●
● ● ● ● ●● ● ● ●
●
●
●●●● ●
1
0.5
●
●
●●● ● ●● ● ●● ●
●
●●●●●● ● ●● ● ●●
● ● ● ● ● ●●●● ●
●●
●●
●●
●●●● ● ● ● ● ●●
●●
●
●●●
●● ●
●●●● ●
●
0.0
●
●
●●
●
●●
●
●
●●●●●●●●●● ●● ● ● ●
●
●●
●
●
●●
●
●
●●● ●
●
●
● ● ● ●
0
Xt−1 Xt−1
α = 0.75
● ●
1.5
●
● ●
● ●● ●
1.0
●
● ●
●
Xt
● ●
●
● ●
●●
●● ●
● ●● ●
0.5
● ●
● ●
●
●● ●
● ●●
● ●●
●
●● ●
●
●● ●
●
●● ●
●●
●●●●
0.0
●
●
●
●●
●●● ● ●
Xt−1
À la vue des graphiques ci-dessus, il ressort que la linéarité de la tendance entre deux
observations successives de la série devient de plus en plus évidente lorsque le paramètre
d’amincissement prend des valeurs de plus en plus grandes(proche de 1).
a = αλ
b = (1 − α) λ
80
III.3 Le modèle et ses propriétés
Comme λ > 0 et α ∈]0, 1[, les nouveaux paramètres a et b prennent leurs valeurs dans
l’intervalle ]0, +∞[.
L’adoption de cette réparametrisation nous conduit aux relations suivantes :
a
α =
a+b
λ = a+b
Proposition 22. Soit (Xt )t≥2 une série temporelle générée par le modèle(III.3.1). La
distribution de Xt conditionnellement à Xt−1 est donnée par
Z
X
f (xt |xt−1 ) = fRtt−1 (rt ) fEt (xt − rt ) drt , (III.3.4)
It
avec
1
( )
xt − rt
fEt (xt − rt |θ) = b (xt − rt ) b−1 exp − I]−∞,xt ] (rt ) ; (III.3.5)
β Γ (b) β
!a−1 !b−1
X 1 Γ (a + b) rt − ν xt−1 − rt
fRtt−1 (rt |xt−1 , θ) = I[ν,xt−1 ] (rt )
xt−1 − ν Γ (a) Γ (b) xt−1 − ν xt−1 − ν
(III.3.6)
où I (.) désigne la fonction indicatrice et It = [ν, at ], le support d’intégration
Xt 1 0 1 Et
= 0 1 0
X
Xt−1
t−1
0 0 1
Rt Rt
81
Chapitre III Formulation et ajustement d’un modèle de série temporelle de marges
distribuées selon une distribution P 3.
Ce qui conduit à
Et 1 0 −1 Xt
= 0 1 0
X
Xt−1
t−1
0 0 1
Rt Rt
Par suite
fXt ,Xt−1 ,Rt (xt , xt−1 , rt ) = fEt ,Xt−1 ,Rt (xt − rt , xt−1 , rt )
De plus, comme (Rt , Xt−1 ) et Et sont indépendantes, et compte tenue du faite que
X
fXt−1 ,Rt (xt−1 , rt ) = fXt−1 (xt−1 ) fRtt−1 (rt )
X
où fRtt−1 (.) désigne la distribution de Rt conditionnellement à Xt−1 = xt−1 , on déduit que
X
fEt ,Xt−1 ,Rt (xt − rt , xt−1 , rt ) = fEt (xt − rt ) fXt−1 (xt−1 ) fRtt−1 (rt )
X
fXt ,Xt−1 ,Rt (xt , xt−1 , rt ) = fEt (xt − rt ) fXt−1 (xt−1 ) fRtt−1 (rt ) (III.3.7)
Comme
Z
f (xt , xt−1 ) = fXt ,Xt−1 ,Rt (xt , xt−1 , rt ) drt
It
Z
X
= fXt−1 (xt−1 ) fEt (xt − rt ) fRtt−1 (rt ) drt ,
It
Corollaire 23. La fonction de transition donnée par la proposition(22) peut aussi s’écrire
82
III.4 Ajustement du modèle
sous la forme :
Z 1
X
f (xt |xt−1 , θ) = (at − ν) fEt (xt − ν − u (at − ν) |θ) fRtt−1 ((at − ν) u + ν|θ)
(III.3.8)
du
0
X
où les fonctions fEt (.|θ) et fRtt−1 (.|θ) sont données respectivement par les équations
(III.3.5) et (III.3.6).
rt − ν
u =
at − ν
Les méthodes d’ajustement des modèles non gaussiens sont diverses et variées. Si la
méthode des moindres carrées ordinaire semble être la plus utilisée du fait de sa simplicité,
plusieurs auteurs soulignent néanmoins le manque d’efficacité de ses estimateurs. Comme
alternative, Klimko & co.[33] propose la méthode des Moindres carrées conditionnelles.
En termes simples, cette procédure consiste à minimiser la quantité
T
S (θ) = [xt − E (Xt |xt−1 )]2
X
t=1
83
Chapitre III Formulation et ajustement d’un modèle de série temporelle de marges
distribuées selon une distribution P 3.
non gaussiennes. Par conséquent, une sorte de correction est nécessaire avant l’utilisation
de cette méthode.
Pour ce qui concerne le présent chapitre, nous développons une méthode de vraisem-
blance conditionnelle pour l’ajustement du modèle proposé.
Soit (xt ) t=1:T une série d’observations obtenues du processus(III.3.1) dont la distribu-
tion dépend du vecteur de paramètres θ = (a, b, β, ν). Notons L (θ|xt , t = 1 : T ) la fonction
de vraisemblance du vecteur de paramètres θ associée. Le modèle étant Markovien de pre-
mier ordre, la fonction de vraisemblance est réduite au produit suivant :
T
L (θ|xt , t = 1 : T ) = f (x1 |θ) f (xt |xt−1 , θ) (III.4.1)
Y
t=2
où la probabilité de transition f (xt |xt−1 ) est donnée en(III.3.8) et f (x1 |θ) désigne la
fonction de densité marginale donnée par l’équation(I.1.1).
Tous les deux termes à droite de l’équation(III.4.1) sont accessibles, au moins numéri-
quement. Par conséquent, les estimateurs par maximum de vraisemblance de θ devraient
en principe l’être aussi sans trop de difficultés. Mais la présence du terme f (x1 |θ) pourrait
engendrer des problèmes d’optimisation numériques pour certaines valeurs des paramètres.
Certains de ces problèmes ont été déjà discutés dans le chapitre introductif(I.2). Condi-
tionner la fonction de vraisemblance(III.4.1) par rapport à la première observation X1
s’avère être une bonne alternative, puisque cela nous conduit à la fonction de vraisem-
blance conditionnelle définie par :
T
CL (θ|xt , t = 1 : T ) = f (xt |xt−1 , θ) (III.4.2)
Y
t=2
T
log (CL (θ|xt , t = 1 : T )) = log f (xt |xt−1 ) (III.4.3)
X
t=2
84
III.4 Ajustement du modèle
Le principe de la construction d’une telle fonction est basée sur les inégalités mathé-
matiques telles que l’inégalité de la moyenne, l’inégalité de Cauchy-Schwartz, l’inégalité
de Jensen, l’inégalité de convexité etc...
Le résultat ci-dessous propose une fonction auxiliaire pour le logarithme de la fonc-
tion de probabilité de transition donnée par l’équation(III.3.8). Dans toute la suite de
ce chapitre, θn = (an , bn , βn , νn ) désignera une valeur fixée du vecteur des paramètres
θ = (a, b, β, ν)
Proposition 24.
Soit (xt ) t=1:T une séquence générée du modèle donné par la relation (III.3.1) et soit θn =
(an , bn , βn , νn ) une valeur fixée du vecteur des paramètres θ = (a, b, β, ν). Les assertions
suivantes sont vérifiées
1.
log f (xt |xt−1 , θ) > log f (xt |xt−1 , θn ) + l1,t (θ | θn , xt , xt−1 ) + l2,t (θ | θn , xt , xt−1 )
85
Chapitre III Formulation et ajustement d’un modèle de série temporelle de marges
distribuées selon une distribution P 3.
2.
log f (xt |xt−1 , θn ) = log f (xt |xt−1 , θn ) + l1,t (θn | θn , xt , xt−1 ) + l2,t (θn | θn , xt , xt−1 )
où
et
Z 1
l2,t (θ | θn , xt , xt−1 ) =b log {xt − ν − (at − ν) u} ht (u|θn ) du
0
Z 1
− bn log {xt − νn − (at − νn ) u} ht (u|θn ) du
0
Z 1
− log {xt − ν − (at − ν) u} ht (u|θn ) du
0
Z 1
+ log {xt − νn − (at − νn ) u} ht (u|θn ) du
0
x t − at Z 1 xt − ν Z 1
− uht (u|θn ) du − (1 − u) ht (u|θn ) du
β 0 β 0
(III.4.5)
Z 1
xt − νn − (at − νn ) u
+ ht (u|θn ) du
0 βn
Z 1 Z 1
+ (a − 1) log (u) ht (u|θn ) du − (an − 1) log (u) ht (u|θn ) du
0 0
Z 1
+b log (xt−1 − ν − (at − ν) u) ht (u|θn ) du
0
Z 1
− bn log (xt−1 − νn − (at − νn ) u) ht (u|θn ) du
0
Z 1
− log (xt−1 − ν − (at − ν) u) ht (u|θn ) du
0
Z 1
+ log (xt−1 − νn − (at − νn ) u) ht (u|θn ) du
0
86
III.4 Ajustement du modèle
avec
X
fEt (xt − νn − u (at − νn ) |θn ) fRtt−1 ((at − νn ) u + νn |θn )
ht (u|θn ) = (at − νn )
f (xt |xt−1 , θn )
1
fEt (xt − νn − u (at − νn ) |θn ) = (xt − νn − u (at − νn )) bn −1
βnbn Γ (bn )
xt − νn − u (at − νn )
( )
× exp − I]−∞, xt −νn ] (u)
βn at −νn
!an −1
X 1 Γ (an + bn ) (at − νn ) u
fRtt−1 ((at − νn ) u + νn |θn ) =
xt−1 − νn Γ (an ) Γ (bn ) xt−1 − νn
!bn −1
xt−1 − νn − (at − νn ) u
× I[0, xt−1 −νn ] (u)
xt−1 − νn at −νn
Dans les équations (III.4.4) et (III.4.5) ci-dessus, plusieurs composantes du vecteur des
paramètres θ sont liées. Cela n’est pas à faciliter la maximisation. Pour contourner ces
difficultés, nous proposons une deuxième phase de minorisations dont les résultats sont
donnés par les propositions25 et 26 ci-dessous.
Proposition 25. En utilisant les notations dans l’équation (III.4.4), l’inégalité suivante
est vérifiée :
l1,t (θ | θn , xt , xt−1 ) ≥ Q1,t (θ|θn , xt , xt−1 )
où
87
Chapitre III Formulation et ajustement d’un modèle de série temporelle de marges
distribuées selon une distribution P 3.
!2
b2 β bn
Q1,t (θ|θn , xt , xt−1 ) = − b log βn + b − − + bn log βn
2bn βn 2
Γ(a) Γ (b)
! !
+ (a + b) ψ (an + bn ) − (an + bn ) ψ (an + bn ) − log − 2 log
Γ(an ) Γ (bn )
2
x1:T − νn x1:T − νn a
+ (a − an ) log (at − νn ) + a−
at − νn at − νn 2an
2
x1:T − νn x1:T − νn an
−
at − ν n x1:T − ν 2
1 (x1:T − ν)2 an
" #
2 x1:T − νn
+ −a −
xt−1 − νn 2an 2(x1:T − νn )
1 x1:T − νn (x1:T − ν)2 bn
" #
+ −b2 −
xt−1 − νn 2bn 2 (x1:T − νn )
" #
x1:T − νn
+ (a + b) − log (xt−1 − νn )
xt−1 − νn
x1:T − νn x1:T − ν
+ (an + bn ) log (xt−1 − νn ) + log
xt−1 − νn x1:T − νn
Proposition 26. En utilisant les mêmes notations que dans l’équation (III.4.5), on ob-
tient le résultat suivant :
où
88
III.4 Ajustement du modèle
+ (b − bn ) I5,t (θn )
" #
b2
2
x1:T − νn bn
+ (x1:T − νn ) b − − I4,t (θn )
2bn x1:T − ν 2
+ (ν − νn ) I4,t (θn )
Avec
Z 1
I1,t (θn ) = uht (u | θn ) du
0
Z 1
I2,t (θn ) = log (u) ht (u | θn ) du
0
Z 1
1−u
I3,t (θn ) = ht (u | θn ) du
0 xt − νn − (at − νn ) u
Z 1
1−u
I4,t (θn ) = ht (u | θn ) du (III.4.6)
0 xt−1 − νn − (at − νn ) u
Z 1
I5,t (θn ) = log {xt−1 − νn − (at − νn ) u} ht (u | θn ) du
0
Z 1
I6,t (θn ) = log {xt − νn − (at − νn ) u} ht (u | θn ) du
0
89
Chapitre III Formulation et ajustement d’un modèle de série temporelle de marges
distribuées selon une distribution P 3.
la maximisation.
1.
log (CL (θ|xt , t = 1 : T )) ≥ const + Q (θ|θn , (xt )t=1:T )
où
T
Q (θ|θn , (xt )t=1:T ) = Qt (θ|θn , xt , xt−1 )
X
t=2
avec
Qt (θ|θn , xt , xt−1 ) = Q1,t (θ|θn , xt , xt−1 ) + Q2,t (θ|θn , xt , xt−1 )
2.
log (CL (θn |xt , t = 1 : T )) = const + Q (θn |θn , (xt )t=1:T )
Démonstration.
1. Par définition
T
log (CL (θ|xt , t = 1 : T )) = log f (xt |xt−1 , θ)
X
t=2
or d’après la proposition 24
log f (xt |xt−1 , θ) ≥ log f (xt |xt−1 , θn ) + l1,t (θ | θn , (xt )t=1:T ) + l2,t (θ | θn , (xt )t=1:T )
Comme l1,t (θ | θn , xt , xt−1 )+l2,t (θ | θn , xt , xt−1 ) ≥ Q1,t (θ|θn , xt , xt−1 )+Q2,t (θ|θn , xt , xt−1 ) =
Qt (θ|θn , xt , xt−1 ), on déduit que
Par conséquent
T T
log (CL (θ|xt , t = 1 : T )) ≥ log f (xt |xt−1 , θn ) + Qt (θ|θn , xt , xt−1 )
X X
t=2 t=2
≡ const + Q (θ|θn , (xt )t=1:T )
90
III.4 Ajustement du modèle
Lemme 28. La fonction auxiliaire θ → Q (θ|θn , (xt )t=1:T ) est dérivable sur l’espace Θ des
paramètres et les composantes du vecteur gradient sont données par :
1.
t=2 t=2
2.
∂Q (θ|θn , xt , xt−1 ) β (T − 1) 1 X T
= −bn + [(xt − at ) I1,t (θn ) + (xt − x1:T ) I7,t (θn )]
∂β βn2 β 2 t=2
βn (x1:T − νn ) XT
+ I7,t (θn ) (III.4.8)
β3 t=2
T −1 T
" #
β4 β X
= −b n 2 + [(xt − at ) I1,t (θn ) + (xt − x1:T ) I7,t (θn )]
β3 βn T − 1 t=2
T
βn
+ (x ) I7,t (θn )
X
1:T − ν n
β3 t=2
3.
∂Q (θ|θn , xt , xt−1 ) T
" #
a X x1:T − νn x1:T − νn
= − (T − 1) ψ (a) − +
∂a an t=2 at − νn xt−1 − νn
T T
x1:T − νn
+ log (at − νn ) + (III.4.9)
X X
t=2 t=2 at − ν n
T T
" #
x1:T − νn
(T − 1) ψ (an + bn ) + − log (xt−1 − νn ) + I2,t (θn )
X X
91
Chapitre III Formulation et ajustement d’un modèle de série temporelle de marges
distribuées selon une distribution P 3.
4.
∂Q (θ|θn , xt , xt−1 )
= − 2 (T − 1) ψ (b) (III.4.10)
∂b
T T
" #
b x1:T − νn
T −1+ + (x1:T − νn ) [I3,t (θn ) + I4,t (θn )]
X X
−
bn t=2 xt−1 − νn t=2
T
− (T − 1) log βn + T − 1 + (T − 1) ψ (an + bn ) + [I5,t (θn ) + I6,t (θn )]
X
t=2
T T T
x1:T − νn X
+ (x1:T − νn ) [I3,t (θn ) + I4,t (θn )] + log (xt−1 − νn )
X X
−
t=2 t=2 xt−1 − νn t=2
1.
∂ 2 Q (θ|θn , xt , xt−1 ) T
1 1 X T
" #
−1
= (a + ) + I7,t (θn )
X
n b n
∂ν 2 x1:T − νn t=2 xt−1 − νn βn t=2
1 T
X x1:T − νn
−
(x1:T − ν) t=2 xt−1 − νn
2
(x1:T − νn )3 X
T T
" #
an
+ (I3,t (θn ) + I4,t (θn ))
X
−3 b n
(x1:T − ν)4 t=2 at − νn t=2
2.
∂ 2 Q (θ|θn , xt , xt−1 ) (T − 1) 2 X T
= −b n − [(xt − at ) I1,t (θn ) + (xt − x1:T ) I7,t (θn )]
∂β 2 βn2 β 3 t=2
βn (x1:T − νn ) XT
−3 I7,t (θn )
β4 t=2
3.
∂ 2 Q (θ|θn , xt , xt−1 ) 1 X T
" #
x1:T − νn x1:T − νn
= − (T − 1) ψ 0
(a) − +
∂a 2 an t=2 at − νn xt−1 − νn
92
III.4 Ajustement du modèle
4.
∂ 2 Q (θ|θn , xt , xt−1 )
2
= − 2 (T − 1) ψ 0 (b)
∂b
1 T T
" #
x1:T − νn
T −1+ + (x1:T − νn ) [I3,t (θn ) + I4,t (θn )]
X X
−
bn t=2 xt−1 − νn t=2
Corollaire 30. Soit θn un point fixé dans le domaine admissible des paramètres Θ. La
fonction θ → Q (θ | θn , (xt )t=1:T ) est concave et admet donc un unique point maximum.
Il découle du corollaire ci-dessus, que le point maximum est l’unique solution du système
où la notation ∇Q (θ|θn , xt , xt−1 ) désigne le vecteur gradient dont les composantes sont
données par le lemme28. Les composantes de ∇Q (θ|θn , xt , xt−1 ) étant indépendantes, la
résolution du système(III.4.11) peut s’effectuer suivant chaque composante prise indivi-
duellement. Toutefois, il faudra noter que le système est non linéaire, rendant ainsi pénible
la recherche d’une solution analytique. Dans de pareilles situations, on peut faire appel
à des algorithmes de résolution numériques tels que la méthode de Newton Raphson, la
méthode de la bissection, etc. Des détails sur le couplage des algorithmes de résolution
numériques et des algorithmes du type MM sont disponibles dans la littérature et peuvent
être consultés ici[36]. Toutefois, il faut noter que la plupart de ces algorithmes convergent
très lentement.
Afin de faciliter la résolution numérique des équations de scores, une étude du com-
portement de chaque équation, prise comme fonction du paramètre concerné est proposée
93
Chapitre III Formulation et ajustement d’un modèle de série temporelle de marges
distribuées selon une distribution P 3.
dans les prochaines sections . Cette étude permettra dans la mesure du possible de réduire
l’espace solution.
où
1 T
1 1 X T
" #
k (u|θn ) = (an + bn ) + I7,t (θn ) u4
X
x1:T − νn x
t=2 t−1 − ν n βn t=2
T
+ [I3,t (θn ) + I4,t (θn )] u3
X
t=2
T T T
" #
x1:T − νn an
2
− (x1:T − νn ) 3
+ bn (I3,t (θn ) + I4,t (θn ))
X X X
−u
t=2 xt−1 − νn t=2 at − νn t=2
1 T
1 1 X T
" #
A (θn ) = (an + bn ) + I7,t (θn )
X
x1:T − νn t=2 xt−1 − νn βn t=2
T
B (θn ) = [I3,t (θn ) + I4,t (θn )]
X
t=2
T
x1:T − νn
C (θn ) =
X
t=2 xt−1 − νn
" T T
#
an
D (θn ) = (x1:T − νn ) 3
+ bn (I3,t (θn ) + I4,t (θn ))
X X
t=2 at − νn t=2
et
u = x1:T − νn
94
III.4 Ajustement du modèle
Des notations ci-dessus, il découle que k (u|θn ) = A (θn ) u4 +B (θn ) u3 −C (θn ) u2 −D (θn )
et la fonction dérivée k 0 (u | θn ) s’annule en
q
−3B (θn ) + 9B (θn )2 + 32A (θn ) C (θn )
u=
8A (θn )
k (u0 | θn ) < 0. Comme lim k (u) = +∞, puisque A (θn ) > 0, l’équation k (u|θn ) = 0
u→+∞
∂Q(θ|θn ,(xt )t=1:T )
admet une unique solution dans ]u0 , + ∞[ . Par conséquent l’équation ∂ν
=0
admet une unique solution dans l’intervalle]−∞,x1:T − u0 [
T
β4 β X
g (β|θn ) = −bn + [(xt − at ) I1,t (θn ) + (xt − x1:T ) I7,t (θn )]
βn2 T − 1 t=2
T
βn
+ (x1:T − νn ) I7,t (θn )
X
T −1 t=2
v
T
βn2
u
β= [(xt − at ) I1,t (θn ) + (xt − x1:T ) I7,t (θn )]
u
3
X
t
4 (T − 1) bn t=2
v
T
βn2
u
β0 = [(xt − at ) I1,t (θn ) + (xt − x1:T ) I7,t (θn )]
u
3
X
t
4 (T − 1) bn t=2
95
Chapitre III Formulation et ajustement d’un modèle de série temporelle de marges
distribuées selon une distribution P 3.
— comme I7,t (θn ) > 0, on a :
T
βn
g (0 | θn ) = (x1:T − νn ) I7,t (θn ) > 0
X
T −1 t=2
Il s’en suit donc que g (β0 | θn ) est positive. De plus limβ→+∞ g (β|θn ) = −∞. Par consé-
∂Q(θ|θn ,(xt )t=1:T )
quent l’unique solution de l’équation ∂β
= 0 appartient à l’intervalle ]β0 , +∞[
.
a
h (a|θn ) = ψ (a) + p (θn ) + c (θn )
an
avec
1 X T
" #
x1:T − νn x1:T − νn
p (θn ) = +
T − 1 t=2 at − νn xt−1 − νn
1 X T
1 X T
1 1
" !#
at − ν n
c (θn ) = − log − (x1:T − νn ) +
T − 1 t=2 xt−1 − νn T − 1 t=2 at − νn xt−1 − νn
1 X T
− I2,t (θn ) − ψ (an + bn )
T − 1 t=2
a → h (a|θn ) est une fonction croissante sur ]0, +∞[. Comme p (θn ) est positif, la fonc-
tion a → h (a|θn ) tend respectivement vers −∞ et +∞ en 0 et en +∞. On en déduit
qu’elle admet une unique racine dans l’intervalle ]0, +∞[ . Par conséquent l’équation
∂Q(θ|θn ,(xt )t=1:T )
∂a
= 0 admet une unique solution dans ]0, +∞[.
La fonction dont il est question dans cette section est donnée par l’équation(III.4.10).
Après un léger réarrangèrent des termes, on peut remarquer que la résolution de l’équation
96
III.4 Ajustement du modèle
b
l (b|θn ) = ψ(b) + p2 (θn ) + c2 (θn )
bn
où
1 1 T
x1:T − νn 1 T
p2 (θn ) = + + (x1:T − νn ) [I3,t (θn ) + I4,t (θn )]
X X
2 2 (T − 1) t=2 xt−1 − νn 2 (T − 1) t=2
log βn − 1 − ψ (an + bn ) 1 T
c2 (θn ) = [I5,t (θn ) + I6,t (θn )]
X
−
2 2 (T − 1) t=2
1 T
− (x1:T − νn ) [I3,t (θn ) + I4,t (θn )]
X
2 (T − 1) t=1
1 T
x1:T − νn 1 T
+ log (xt−1 − νn )
X X
−
2 (T − 1) t=2 xt−1 − νn 2 (T − 1) t=2
Comme I3,t (θn )et I4,t (θn ) sont toutes deux positives pour tout t ≥ 1, il découle que
p2 (θn ) > 0. De plus, la fonction b → l (b|θn )est une fonction croissante sur ]0, +∞[. p2 (θn )
étant positive, la fonction b → l (b|θn ) tend vers −∞ et +∞ respectivement en 0 et en
+∞. Elle admet donc une unique racine dans l’intervalle ]0, +∞[ . Il en est de même pour
∂Q(θ|θn ,(xt )t=1:T )
l’équation ∂b
=0.
Cette section est consacrée à la proposition d’un schema pour le calcul numérique des
estimateurs proposés dans ce chapitre. Cela passe d’abord par le calcul des intégrales
données par l’équation(III.4.6). Ces intégrales, en plus d’être complexes, présentent pour
la plupart des singularités aux niveaux des bornes. À l’absence de solution analytique,
un schema numérique pour le calacul des intégrales est proposé en Annexe B.6. Une fois
que la procédure de calcul des intégrales est implémentée, le calcul des estimateurs peut
s’effectuer à travers le schéma suivant :
97
Chapitre III Formulation et ajustement d’un modèle de série temporelle de marges
distribuées selon une distribution P 3.
Algorithme III.2 MM pour le modèle de série temporelle
Entrées:k, θ0 = (α0 , ν0 ,λ0 , β0 )
t
Vu que les estimateurs proposés n’ont pas d’expressions explicites, l’évaluation des
performances s’effectuera par des études de simulation par Monte-Carlo selon le plan
suivant :
Sans perte de généralité, les valeurs théoriques suivantes du vecteur des paramètres
noté θth ont été utilisées.
98
III.5 Évaluation des performances des estimateurs
où les notations λth , νth , βth et αth désignent respectivement les valeurs théoriques du
paramètre de forme, de localisation, d’échelle et d’amincissement.
Pour chaque quadruplet (λth , νth , βth , αth ), 1000 trajectoires de longueur respective n =
20, 50 et 100 sont générées à partir de l’algorithme III.1.
Sur chacune des trajectoires simulées dans la précédente section, nous calculons les
estimations obtenues en utilisant l’algorithme III.2.
La figure III.5.1 illustre la variabilité des estimations des différents paramètres à travers
des diagrammes de dispersion.
99
Chapitre III Formulation et ajustement d’un modèle de série temporelle de marges
distribuées selon une distribution P 3.
n = 20 n = 50 n = 100
** * * **
0.8
* ** ** * ** *
Estimations pour α
Estimations pour α
Estimations pour α
** ** **
0.6
* ** ** ** **
0.6
** ** *
** ** ** **
**
0.6
* *
0.4
0.4
0.4
*
** *
* *
0.2
* * * **
0.2
**** ***
**
*
** *
*
* **
0.2
* *** * **
** *
* ***
* *
n = 20 n = 50 n = 100
** * *
* * *
Estimations pour λ
Estimations pour λ
Estimations pour λ
20
* ** ** * ***
12
* ***
30
* ** * **
* *** * * * *
* *** *** *** ** **
** ** ** *
15
**
** **
*** ** *
**
** ***
** * * ** **
20
** ** *** *
2 4 6 8
** **
*** *** *** ** **** ** **
10
** *** * ***
* ** ** **
** *** *** ** **** **
** ***
10
**
** ** **
**
** **
5
*** *
* *** *** ***
*** * **
* **
* ** * *
0
n = 20 n = 50 n = 100
2
**
**
2
*
Estimations pour ν
Estimations pour ν
Estimations pour ν
* **
1
* *
** *** *
** ** ** ***
0
0
*** ****
−2
** * *** *
* ** ** *
* ** **
** *** *
***
−2 −1
**
* *** ** **
* **
**
*** ** **
**
−6
** **
−2
** ** ** *
* ** * ** * ***
* ** ** * **
* ** * * *
* ** **
−10
* *
** *
−4
* * *
n = 20 n = 50 n = 100
2.5
* * * *
*
Estimations pour β
Estimations pour β
Estimations pour β
*
1.5
** * **
3
* *
*** ** * **
** * ** **
* * * ** * ** * *** *
**
* * * **
1.5
* * **
* *
***
**
* *** ** ** *
** **
2
** **
1.0
*** * * *
** * *
*
1
0.5
0.5
* ** *
*
0
100
III.5 Évaluation des performances des estimateurs
mateurs proposés vis-à-vis des propriétés sus-citées, les estimations obtenues sont ensuite
résumées à travers les métriques telles que le biais et l’erreur quadratique moyenne, dé-
crites dans le chapitre précedent.
Les résultats obtenus sont résumés dans le tableau ci-après.
101
Chapitre III Formulation et ajustement d’un modèle de série temporelle de marges
102
III.5 Évaluation des performances des estimateurs
0.30
20 20
50 50
0.25
100 100
0.00
0.20
RMSE pour α
Biais pour α
0.15
−0.05
0.10
0.05
−0.10
0.00
0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0
λ λ
0.8
20
50
−0.30
0.7
100
0.6
RMSE pour β
Biais pour β
0.5
−0.20
0.4
20
0.3
−0.10
50
100
0.2
0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0
λ λ
20 20
8
4
50 50
100 100
6
3
RMSE pour λ
Biais pour λ
4
2
2
1
0
0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0
λ λ
0.0
20
50
1.5
−0.1
100
RMSE pour ν
Biais pour ν
−0.2
1.0
−0.3
0.5
−0.4
20
50
100
0.0
0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0
λ λ
5
70
20 20
50 50
60
100 100
4
50
biais joint
40
3
MSE
30
2
20
10
1
0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0
λ λ
Figure III.5.2 – Variations des métriques en fonction du paramètre de forme basés sur
1000 séries de longueurs 20, 50 et 100
Pour de faibles valeurs théoriques du paramètre de forme λ et quelle que soit la longueur
des séries, l’ampleur du biais de tous les paramètres est relativement faible. Le biais
de l’estimateur du paramètre de forme est positif à l’opposé de celui des estimateurs
103
Chapitre III Formulation et ajustement d’un modèle de série temporelle de marges
distribuées selon une distribution P 3.
du paramètre d’auto-corrélation(α) et du paramètre d’échelle(β). Celui du paramètre de
localisation est positif seulement pour des séries de longueur modérée et grande et négatif
pour des séries courtes.
Pour des valeurs théoriques du paramètre de forme de plus en plus grande la qualité du
biais des estimateurs du paramètre d’auto-corrélation, de forme ainsi que du paramètre de
localisation se détériore progressivement. Seul celle de l’estimateur du paramètre d’échelle
a tendance à s’améliorer avec la valeur théorique de λ. À l’instar de l’estimateur du
paramètre de forme, tous les autres ont un biais négatif. Cependant, pour chaque valeur
théorique du paramètre de forme, le biais de tous les paramètres s’améliorent avec la
longueur des séries.
Tous les estimateurs proposés présentent une racine carrée de l’erreur quadratique
moyenne(RMSE) relativement élevée pour des séries courtes mais diminue au fur et à
mesure que la longueur de la série augmente. L’amplitude de cette métrique a tendance
à s’augmenter avec la valeur théorique du paramètre de forme λ. Comme l’on pouvait s’y
attendre, ces mêmes comportements des estimateurs sont aussi observés sur le graphique
représentant l’erreur quadratique jointe(MSE).
III.6 Conclusion
104
Appendices
105
Annexe B
Annexe du Chapitre III
Lemme 31. Soient x ,xn , y, yn des réels strictement positifs et c une constante réelle
positive. Les rélations suivantes sont vérifiées.
1.
x
− log(x) + log(xn ) ≥ 1 − (B.1.1)
xn
2.
xn x
log(x + c) ≥ log(xn + c) + log (B.1.2)
xn + c xn
3.
yn xn
xy ≤ x2 + y2 (B.1.3)
2xn 2yn
2x
n o
x2
4. x log (y) = x − log 1
y
et par suite x log (y) ≥ x log (yn ) + x − 2xn
− yn
2y 2
n
1
( !)
x log (y) ≥ x log (yn ) − yn y −
yn
x
≥ x log (yn ) + x − yn
y
1
( )
x2
≥ x log (yn ) + x + yn − − yn xn
2xn yn 2y 2
x2 yn2 xn
≥ x log (yn ) + x − −
2xn 2y 2
107
Annexe B Annexe du Chapitre III
X
fE (xt − νn − u (at − νn ) |θn ) fRtt−1 ((at − νn ) u + νn |θn )
ht (u|θn ) = t (at − νn )
f (xt |xt−1 , θn )
(B.2.1)
où les fonctions fEt (.) et fRXtt (.) sont données respectivement par les équations
(III.3.5) et (III.3.6)
log f (xt |xt−1 , θ) ≥ log f (xt |xt−1 , θn ) + log (at − ν) − log (at − νn ) +
X
Z 1
fEt (xt − ν − u (at − ν) |θ) fRtt−1 ((at − ν) u + ν|θ)
log X
ht (u|θn ) du
0 fEt (xt − νn − u (at − νn ) |θn ) fRtt−1 ((at − νn ))u + νn |θn )
(B.2.2)
log f (xt |xt−1 , θ) ≥ log f (xt |xt−1 , θn ) + log (at − ν) − log (at − νn )
fEt (xt − ν − u (at − ν) |θ)
Z 1 " #
+ log ht (u|θn ) du
0 fEt (xt − νn − u (at − νn ) |θn )
X
Z 1
f tt−1 ((at − ν)u + ν|θ)
+ log XRt−1 ht (u|θn ) du
0 fRt ((at − νn )u + νn |θ)
108
B.2 Démonstration de la proposition 24
at − ν
log f (xt |xt−1 , θ) ≥ log f (xt |xt−1 , θn ) + log
at − ν n
Z 1
+ (b − 1) log {xt − ν − (at − ν) u} ht (u|θn ) du
0
Z 1
− (bn − 1) log {xt − νn − (at − νn ) u} ht (u|θn ) du
0
109
Annexe B Annexe du Chapitre III
at − ν
log f (xt |xt−1 , θ) ≥ log f (xt |xt−1 , θn ) + log
at − ν n
Z 1
+b log {xt − ν − (at − ν) u} ht (u|θn ) du
0
Z 1
− bn log {xt − νn − (at − νn ) u} ht (u|θn ) du
0
Z 1
− log {xt − ν − (at − ν) u} ht (u|θn ) du
0
Z 1
+ log {xt − νn − (at − νn ) u} ht (u|θn ) du
0
110
B.2 Démonstration de la proposition 24
− b log β + bn log βn
x t − at Z 1 xt − ν Z 1
− uht (u|θn ) du − (1 − u) ht (u|θn ) du
β 0 β 0
Z 1
xt − νn − (at − νn ) u
+ ht (u|θn ) du
0 βn
Γ(a + b) Γ(a) Γ(b)
! !
+ log − log − 2 log
Γ(an + bn ) Γ(an ) Γ(bn )
111
Annexe B Annexe du Chapitre III
− b log β + bn log βn
Γ (a + b) Γ(a) Γ(b)
! !
+ log − log − 2 log
Γ (an + bn ) Γ(an ) Γ(bn )
112
B.3 Démonstration de la proposition 25
et
Z 1
l2,t (θ | θn , xt , xt−1 ) =b log {xt − ν − (at − ν)u} ht (u|θn ) du
0
Z 1
− bn log {xt − νn − (at − νn ) u} ht (u|θn ) du
0
Z 1
− log {xt − ν − (at − ν) u} ht (u|θn ) du
0
Z 1
+ log {xt − νn − (at − νn ) u} ht (u|θn ) du
0
x t − at Z 1 xt − ν Z 1
− uht (u|θn ) du − (1 − u) ht (u|θn ) du
β 0 β 0
Z 1
xt − νn − (at − νn ) u
+ ht (u|θn ) du
0 βn
Z 1 Z 1
+ (a − 1) log (u) ht (u|θn ) du − (an − 1) log (u) ht (u|θn ) du
0 0
Z 1
+b log (xt−1 − ν − (at − ν) u) ht (u|θn ) du
0
Z 1
− bn log (xt−1 − νn − (at − νn ) u) ht (u|θn ) du
0
Z 1
− log (xt−1 − ν − (at − ν) u) ht (u|θn ) du
0
Z 1
+ log (xt−1 − νn − (at − νn ) u) ht (u|θn ) du
0
log f (xt | xt−1 , θ) ≥ log f (xt | xt−1 , θn ) + l1,t (θ | θn , xt , xt−1 ) + l2,t (θ | θn , xt , xt−1 )
Démonstration.
Soit (xt ) t∈N une sequence generée par le modèle définie par la relation (III.3.1) et
soit θn = (an , bn , βn , νn ) une valeur fixée du vecteur des paramètres θ = (a, b, β, ν). Les
minorisations suivantes sont vraies :
Lemme 32.
!2
b2 β bn
−b log β ≥ −b log βn + b − −
2bn βn 2
113
Annexe B Annexe du Chapitre III
Démonstration.
" #
β
−b log β ≥ b − log βn + 1 −
βn
bβ
≥ − b log βn + b −
βn
!2
b2 β bn
≥ − b log βn + b − −
2bn βn 2
Lemme 33.
Γ (a + b)
log ≥ (a + b) ψ (an + bn ) − (an + bn ) ψ (an + bn )
Γ (an + bn )
!
xt−1 − ν x1:T − νn x1:T − ν
log ≥ log (B.3.1)
xt−1 − νn xt−1 − νn x1:T − νn
x1:T − νn a2
2
x1:T − νn x1:T − νn x1:T − νn an
a log (at − ν) ≥ a log (at − νn ) + a− −
at − ν n at − νn 2an at − ν n x1:T − ν 2
Γ (a + b)
log ≥ (a + b) ψ (an + bn ) − (an + bn ) ψ (an + bn )
Γ (an + bn )
xt−1 −ν
Comme log xt−1 −νn
= log ((xt−1 − x1:T ) + (x1:T − ν)) − log (xt−1 − νn ) on a
!
xt−1 − ν x1:T − νn x1:T − ν
log ≥ log
xt−1 − νn xt−1 − νn x1:T − νn
De plus, de l’égalité log (at − ν) = log ((at − x1:T ) + (x1:T − ν)) on déduit que
x1:T − νn x1:T − ν
log (at − ν) ≥ log (at − νn ) + log
at − ν n x1:T − νn
114
B.3 Démonstration de la proposition 25
Par suite
x1:T − νn a2
2
x1:T − νn x1:T − νn x1:T − νn an
a log (at − ν) ≥ a log (at − νn )+ a− −
at − ν n at − νn 2an at − νn x1:T − ν 2
Lemme 34.
1 (x1:T − ν)2 an
" #
2 x1:T − νn
−(a + b) log(xt−1 − ν) ≥ −a − (B.3.2)
xt−1 − νn 2an 2(x1:T − νn )
1 x1:T − νn (x1:T − ν)2 bn
" #
+ −b2 −
xt−1 − νn 2bn 2 (x1:T − νn )
" #
x1:T − νn
(a + b) − log (xt−1 − νn )
xt−1 − νn
Démonstration.
ν − νn
− (a + b) log (xt−1 − ν) ≥ − (a + b) log (xt−1 − νn ) + (a + b)
xt−1 − νn
Or
ν − νn x1:T − ν x1:T − νn
(a + b) = − (a + b) + (a + b)
xt−1 − νn xt−1 − νn xt−1 − νn
1 x1:T − νn
= [−a (x1:T − ν) − b (x1:T − ν)] + (a + b)
xt−1 − νn xt−1 − νn
115
Annexe B Annexe du Chapitre III
D’où
1 (x1:T − ν)2 an
" #
2 x1:T − νn
− (a + b) log (xt−1 − ν) ≥ −a −
xt−1 − νn 2an 2 (x1:T − νn )
1 x1:T − νn (x1:T − ν)2 bn
" #
+ −b2 −
xt−1 − νn 2bn 2 (x1:T − νn )
" #
x1:T − νn
+ (a + b) − log (xt−1 − νn )
xt−1 − νn
Démonstration.
Lemme 35.
1.
xt − ν xt − x1:T (x1:T − ν)2 βn (x1:T − νn )
− ≥− − −
β β 2βn (x1:T − νn ) 2β 2
2.
3.
Démonstration.
116
B.4 Démonstration de la proposition 26
1.
xt − ν xt − x1:T x1:T − ν
− =− −
β β β
xt − x1:T (x1:T − ν)2 βn (x1:T − νn )
≥− − −
β 2βn (x1:T − νn ) 2β 2
2. Sachant que
log {xt − ν − (at − ν) u} = log [(xt − x1:T − (at − x1:T ) u) + (x1:T − ν) (1 − u)]
b2
2
x1:T − ν x1:T − νn bn
b log ≥ b− −
x1:T − νn 2bn x1:T − ν 2
et donc
117
Annexe B Annexe du Chapitre III
Démonstration. De la proposition27
T
Q (θ|θn , (xt )t=1:T ) = Qt (θ|θn , xt , xt−1 )
X
t=2
T
= {Q1,t (θ|θn , xt , xt−1 ) + Q2,t (θ|θn , xt , xt−1 )}
X
t=2
Par conséquent
1.
D’où
En outre
2.
118
B.5 Démonstration du lemme 28
D’où
3.
D’où
4.
119
Annexe B Annexe du Chapitre III
D’où
Avant de donner les détails de la procédure de calcul, nous rappelons d’abord les inté-
grales dont il est question.
Z 1
I1,t (θn ) = uht (u | θn ) du
0
Z 1
I2,t (θn ) = log (u) ht (u | θn ) du
0
Z 1
1−u
I3,t (θn ) = ht (u | θn ) du
0 xt − νn − (at − νn ) u
Z 1
1−u
I4,t (θn ) = ht (u | θn ) du (B.6.1)
0 xt−1 − νn − (at − νn ) u
Z 1
I5,t (θn ) = log {xt−1 − νn − (at − νn ) u} ht (u | θn ) du
0
Z 1
I6,t (θn ) = log {xt − νn − (at − νn ) u} ht (u | θn ) du
0
Z 1
I7,t (θn ) = (1 − u) ht (u | θn ) du = 1 − I1,t (θn )
0
où
X
fEt (xt − νn − u (at − νn ) |θn ) fRtt−1 ((at − νn ) u + νn |θn )
ht (u|θn ) = (at − νn )
f (xt |xt−1 , θn )
120
B.6 Procédure de calcul des intégrales
et
1
fEt (xt − νn − u (at − νn ) |θn ) = (xt − νn − u (at − νn )) bn −1
βnbn Γ (bn )
xt − νn − u (at − νn )
( )
× exp − I]−∞, xt −νn ] (u)
βn at −νn
!an −1
X 1 Γ (an + bn ) (at − νn ) u
fRtt−1 ((at − νn ) u + νn |θn ) =
xt−1 − νn Γ (an ) Γ (bn ) xt−1 − νn
!bn −1
xt−1 − νn − (at − νn ) u
× I[0, xt−1 −νn ] (u)
xt−1 − νn at −νn
En général, deux types de méthodes sont utilisées pour le calcul numérique des intégrales.
Les méthodes stochastiques(méthodes Monte Carlo) et les méthodes déterministes dites de
quadrature. L’une des difficultés majeures rencontrées par les utilisateurs des méthodes
stochastiques est liée à la lenteur de la convergence. Pour ce qui concerne ce travail,
toutes les intégrales doivent être mise à jour à chaque itération de l’algorithme que nous
proposerons un peu plu tard. Compte tenue du nombre d’évaluation élevé pour chaque
intégrale, les méthodes de quadratures semblent être une bonne alternative.
Le résultat suivant permet d’écrire les intégrales ci-dessus en termes d’espérance ma-
thématique.
Proposition 36. Soit U une variable aléatoire distribuée selon un modèle Bêta de pa-
ramètres an et bn de fonction de densité g (u|an , bn ) et (xt )t=1:T une série générée du
modèle(III.3.1). Notons
Z 1
X
I0,t (θn ) = fEt (xt − ν − u (at − ν) |θ) fRtt−1 ((at − ν) u + ν|θ) du
0
1. ∀t = 2 : T , Si xt ≤ xt−1 alors
121
Annexe B Annexe du Chapitre III
E (U f0xttm1 (U ))
I1,t (θn ) =
I0,t (θn )
E (ln (U ) f0xttm1 (U ))
I2,t (θn ) =
I0,t (θn )
E (f0xttm1 (U )) 1
I3,t (θn ) =
I0,t (θn ) xt − νn
(1−U )f0xttm1 (U )
E xt−1 −νn −U (xt −νn )
I4,t (θn ) =
I0,t (θn )
avec
n o
exp − xtβ−ν (1 − u)
!an −1
1
n
xt − νn
f0xttm1 (u) = (xt − νn ) bn −1 n
βn Γ (bn )
bn xt−1 − νn xt−1 − νn
!bn −1
(xt − νn ) u
× 1− I[0,1] (u)
xt−1 − νn
E (U f0xttm1 (U ))
I1,t (θn ) =
I0,t (θn )
E (ln (U ) f0xttm1 (U ))
I2,t (θn ) =
I0,t (θn )
E (f0xtm1t (U )) 1
I3,t (θn ) =
I0,t (θn ) xt − νn
(1−U )f0xtm1t (U )
E xt−1 −νn −U (xt −νn )
I4,t (θn ) =
I0,t (θn )
122
B.6 Procédure de calcul des intégrales
avec
n o
(xt − νn − u (xt−1 − νn )) bn −1 exp − xt −νn −u(x
βn
t−1 −νn )
Démonstration.
X
fEt (xt − νn − u (at − νn ) |θn ) fRtt−1 ((at − νn ) u + νn |θn )
ht (u|θn ) = X
fEt (xt − ν − u (at − ν) |θ) fRtt−1 ((at − ν) u + ν|θ) du
R1
0
X
fEt (xt − νn − u (at − νn ) |θn ) fRtt−1 ((at − νn ) u + νn |θn )
=
I0,t (θn )
avec
Z 1
X
I0,t (θn ) = fEt (xt − ν − u (at − ν) |θ) fRtt−1 ((at − ν) u + ν|θ) du
0
1
fEt (xt − νn − u (at − νn ) |θn ) = (xt − νn ) bn −1 (1 − u)bn −1
βnbn Γ (bn )
( )
x t − νn
× exp − (1 − u) I]−∞,1] (u)
βn
!an −1
X 1 Γ (an + bn ) (xt − νn ) u
fRtt−1 ((at − νn ) u + νn |θn ) =
xt−1 − νn Γ (an ) Γ (bn ) xt−1 − νn
!bn −1
xt−1 − νn − (xt − νn ) u
× I[0, xt−1 −νn ] (u)
xt−1 − νn xt −νn
123
Annexe B Annexe du Chapitre III
De plus
X
ht (u|θn ) I0,t (θn ) = fEt (xt − νn − u (at − νn ) |θn ) fRtt−1 ((at − νn ) u + νn |θn )
Γ (an + bn ) an −1 1
" #
= u (1 − u)bn −1 bn (xt − νn ) bn −1
Γ (an ) Γ (bn ) βn Γ (bn )
n o
exp − xtβ−ν (1 − u)
!an −1 !bn −1
(xt − νn ) u
n
x t − νn
× n
1− I[0,1] (u)
xt−1 − νn xt−1 − νn xt−1 − νn
Γ (an + bn ) an −1
" #
bn −1
≡ u (1 − u) f0xttm1 (u)
Γ (an ) Γ (bn )
≡ g (u|an , bn ) f0xttm1 (u)
X
fEt (xt − νn − u (at − νn ) |θn ) fRtt−1 ((at − νn ) u + νn |θn ) = g (u|an , bn ) f0xttm1 (u)
Il en decoule que :
Z 1
X
I0,t (θn ) = fEt (xt − ν − u (at − ν) |θ) fRtt−1 ((at − ν) u + ν|θ) du
0
Z 1
g (u|an , bn ) f0xttm1 (u) du
0
= E (f0xttm1 (U ))
Z 1
I1,t (θn ) = uht (u | θn ) du
0
g (u|an , bn ) uf0xttm1 (u|θn ) du
R1
= 0
I0,t (θn )
E (U f0xttm1 (U ))
I0,t (θn )
Z 1
I2,t (θn ) = ln (u) ht (u | θn ) du
0
g (u|an , bn ) ln (u) f0xttm1 (u|θn ) du
R1
= 0
I0,t (θn )
E (ln (U ) f0xttm1 (U ))
I0,t (θn )
124
B.6 Procédure de calcul des intégrales
Z 1
1−u
I3,t (θn ) = ht (u | θn ) du
0 xt − νn − (xt−1 − νn ) u
g (u|an , bn ) x(1−u)f 0xttm1 (u|θn )
R1
0 t −νn −(xt−1 −νn )u
du
=
I0,t (θn )
(1−U )f0xttm1 (U |θn )
E xt −νn −(xt−1 −νn )U
I0,t (θn )
Z 1
1−u
I4,t (θn ) = ht (u | θn ) du
0 xt−1 − νn − (xt−1 − νn ) u
g (u|an , bn ) f0xttm1 (u|θn )
R1
0 (xt−1 −νn )
du
=
I0,t (θn )
f0xttm1 (U |θn )
E (xt−1 −νn )
I0,t (θn )
Z 1
I5,t (θn ) = ln (xt−1 − νn − (xt−1 − νn ) u) ht (u | θn ) du
0
g (u|an , bn ) ln [(xt−1 − νn ) (1 − u)] f0xttm1 (u|θn ) du
R1
= 0
I0,t (θn )
E (ln [(xt−1 − νn ) (1 − U )] f0xttm1 (U |θn ))
I0,t (θn )
Z 1
I6,t (θn ) = ln (xt − νn − (xt−1 − νn ) u) ht (u | θn ) du
0
g (u|an , bn ) ln (xt − νn − (xt−1 − νn ) u) f0xttm1 (u|θn ) du
R1
= 0
I0,t (θn )
E (ln (xt − νn − (xt−1 − νn ) U ) f0xttm1 (U |θn ))
I0,t (θn )
1
fEt (xt − νn − u (at − νn ) |θn ) = (xt − νn − u (xt−1 − νn )) bn −1
βnbn Γ (bn )
xt − νn − u (xt−1 − νn )
( )
× exp − I]−∞, xt −νn ] (u)
βn xt−1 −νn
125
Annexe B Annexe du Chapitre III
1 Γ (an + bn ) an −1
(1 − u)bn −1 I[0,1] (u)
X
fRtt−1 ((at − νn ) u + νn |θn ) = u
xt−1 − νn Γ (an ) Γ (bn )
De plus
X
ht (u|θn ) I0,t (θn ) = fEt (xt − νn − u (at − νn ) |θn ) fRtt−1 ((at − νn ) u + νn |θn )
Γ (an + bn ) an −1 (xt − νn − u (xt−1 − νn )) bn −1
" #
= u (1 − u)bn −1
Γ (an ) Γ (bn ) βnbn Γ (bn )
n o
exp − xt −νn −u(x
βn
t−1 −νn )
× I[0,1] (u)
xt−1 − νn
Γ (an + bn ) an −1
" #
bn −1
≡ u (1 − u) f0xtm1t (u)
Γ (an ) Γ (bn )
≡ g (u|an , bn ) f0xtm1t (u|θn )
On en déduit que :
Z 1
X
I0,t (θn ) = fEt (xt − ν − u (at − ν) |θ) fRtt−1 ((at − ν) u + ν|θ) du
0
Z 1
g (u|an , bn ) f0xtm1t (u) du
0
= E (f0xtm1t (U ))
Z 1
I1,t (θn ) = uht (u | θn ) du
0
g (u|an , bn ) uf0xtm1t (u|θn ) du
R1
= 0
I0,t (θn )
E (U f0xtm1t (U ))
I0,t (θn )
Z 1
I2,t (θn ) = ln (u) ht (u | θn ) du
0
g (u|an , bn ) ln (u) f0xtm1t (u|θn ) du
R1
= 0
I0,t (θn )
E (ln (U ) f0xtm1t (U ))
I0,t (θn )
126
B.6 Procédure de calcul des intégrales
Z 1
1−u
I3,t (θn ) = ht (u | θn ) du
0 xt − νn − (xt−1 − νn ) u
g (u|an , bn ) x(1−u)f 0xtm1t (u|θn )
R1
0 t −νn −(xt−1 −νn )u
du
=
I0,t (θn )
(1−U )f0xtm1t (U |θn )
E xt −νn −(xt−1 −νn )U
I0,t (θn )
Z 1
1−u
I4,t (θn ) = ht (u | θn ) du
0 xt−1 − νn − (xt−1 − νn ) u
g (u|an , bn ) f0xtm1t (u|θn )
R1
0 (xt−1 −νn )
du
=
I0,t (θn )
f0xtm1t (U |θn )
E (xt−1 −νn )
I0,t (θn )
Z 1
I5,t (θn ) = ln (xt−1 − νn − (xt−1 − νn ) u) ht (u | θn ) du
0
g (u|an , bn ) ln [(xt−1 − νn ) (1 − u)] f0xtm1t (u|θn ) du
R1
= 0
I0,t (θn )
E (ln [(xt−1 − νn ) (1 − U )] f0xtm1t (U |θn ))
I0,t (θn )
Z 1
I6,t (θn ) = ln (xt − νn − (xt−1 − νn ) u) ht (u | θn ) du
0
g (u|an , bn ) ln (xt − νn − (xt−1 − νn ) u) f0xtm1t (u|θn ) du
R1
= 0
I0,t (θn )
E (ln (xt − νn − (xt−1 − νn ) U ) f0xtm1t (U |θn ))
I0,t (θn )
127
Annexe B Annexe du Chapitre III
pérance mathématique d’une fonction f (X) d’une variable aléatoire X comme suit :
n
E (f (X)) = wi f (xi )
X
i=1
où (wi )i=1:n désignent les poids et (xi )i=1:n les noeuds associés à la distribution de la
variable X.
Le package R « statmod »[62] dispose d’une fonction permettant de calculer les noeuds
et les poids associés à un certain nombre de distribution de probabilité, dont la distribution
Bêta que nous utilisons pour le calcul des intégrales au cours de ce travail.
128
Chapitre IV
Conclusion et perspectives
IV.1 Conclusion
En rappel, le premier objectif fixé au début de ce travail était d’une part de proposer une
méthode d’ajustement à une série d’observations iid issue de la distribution de Pearson de
type III. Cette méthode devant permettre de contourner les problèmes liés à l’utilisation
de la méthode du maximum de vraisemblance. Notre second objectif serait de formuler et
d’ajuster un modèle autorégressif doublement stochastique au cas ou l’indépendance des
observations serait mise à défaut.
Dans le premier cas de figure, nous avons proposé une méthode de vraisemblance mar-
ginalisée sur la première statistique d’ordre. Au juste, nous utilisons une fonction de
vraisemblance basée sur les n − 1 plus grandes statistiques d’ordre. Cette fonction étant
complexe, nous avons dû faire appel à un algorithme MM pour la partie optimisation.
Par ailleurs, la mise en oeuvre de cet algorithme nous a permis de réintégrer la première
statistique d’ordre, obtenant ainsi une fonction objectif qui, non seulement est concave
mais aussi prend en compte toutes les observations. Une forme analytique des estima-
teurs proposés n’étant pas accessibles, des études de simulations par Monte Carlo ont été
menées dans le but d’évaluer leurs performances. Comparativement à deux méthodes ré-
centes dont la méthode LSPF(Location and Scale Parameters Free Maximum Likelihood
method (LSPF-MLE) et la méthode Bayesienne(Bayesian likelihood method), nous avons
pu montrer que les estimateurs proposés se comportaient plutôt bien.
Dans les situations où les observations ne sont plus indépendantes, un modèle auto-
129
Chapitre IV Conclusion et perspectives
IV.2 Perspectives
Il est bien connu que lorsque le support d’une distribution dépend d’un paramètre
inconnu, la condition classique de régularité pour la méthode du maximum de vrai-
semblance n’est plus vérifiée. Plusieurs distributions de probabilité figurent dans
cette grande classe de distributions non régulières. Plusieurs d’entre elles présentent
des problèmes d’ajustements similaires à ceux de la distribution P 3 lorsque la mé-
thode de maximum de vraisemblance est utilisée . Parmi elles, on peut citer[61] :
!λ−1 !λ
λ x−ν x−ν
f (x|ν, λ, β) = exp − , ν < x; λ, β > 0
β β β
1 [log (x − ν) − β]2
( )
f (x|ν, λ, β) = √ exp − , ν < x; λ > 0; −∞ < β < ∞
2πλ (x − ν) 2λ
130
IV.2 Perspectives
nelle
Une des limites de cette thèse est de n’avoir pas pu appliquer le modèle formulé au
chapitre 3 à des données réelles. Dans nos travaux futurs, nous nous intéresserons à
l’applicabilité du modèle présenté dans le domaine de l’hydrologie pour l’ajustement
des débits maximums annuels.
131
Bibliographie
[2] J. Bai, A.J. Jakeman, and M. MCaleer. A new approach to maximum likelihood esti-
mation of the three-parameter gamma and weibull distributions. Australian Journal
of Statistics, Vol.33(No.3) :pp.397–410, 1991.
[3] L. Bain and M. Englehardt. Statistical analysis of reliability and life-testing models :
theory and methods. CRC Press, Second Edition, 1991.
[4] N. Balakrishnan and J. Wang. Simple efficient estimation for the three-parameter
gamma distribution. Journal of statistcal planning and inference, Vol.85(No.1-
2) :pp.115–126, 2000.
[6] F. Bobee, B.and Ashkar. The gamma family and derived distributions applied in
hydrology. Water Resources Publications, 1991.
[7] L.R. Bowman, K. O.and Shenton. Problems with maximum likelihood estimation
and the 3 parameter gamma distribution. Journal of Statistical Computation and
Simulation, Vol.72(No.5) :pp.391–401, 2002.
133
BIBLIOGRAPHIE
[9] J. Carpenter and J. Bithell. Bootstrap confidence intervals : when, which, what ? a
practical guide for medical statisticians. Statistics in Medecine, 19 :pp.1141–1164,
2000.
[12] A. C Cohen and B. J. Whiten. Modified moment and maximum likelihood estima-
tors for parameters of the three-parameter gamma distribution. Communications in
statistics-simulation and computation, Vol.11(No.2) :pp.197–216, 1982.
[13] A.C. Cohen and B.J. Whitten. Modified moment estimation for the three-parameter
gamma distribution. Journal of Quality Technology, (No.18) :pp.53–62, 1986.
[14] W.R.C. (U.S. Water Resources Concil). A uniform technique for determining flood
flow frequencies. U.S. Water Resources Concil, Washington DC, (Bull.15), 1967.
[15] H.N. David, H.A.and Nagaraja. Order statistics, Third Edition. Wiley Online Library,
2003.
[16] R. Dumonceaux and C.E. Antle. Discriminations between the log-normal and the
weibull distributions. Technometrics, Vol.15(No.4) :pp.923–926, 1973.
[17] B. Fernandez and J.D. Salas. Periodic gamma autoregressive processes for operational
hydrology. Water Resources Research, vol.22 :pp.1385–1396, 1986.
[18] B. Fernandez and J.D. Salas. Gamma autoregressive models for stream-flow simula-
tion. Journal of Hydraulic Engineering, vol.116 :pp.1403–1414, 1990.
134
BIBLIOGRAPHIE
[21] D. P. Gaver and P. A. W. Lewis. First order autoregressive gamma sequences and
point processes. Advances in Applied Probability, vol.12 :pp.727–745, 1980.
[25] P. Hall and J.Z. Wang. Bayesian likelihood methods for estimating the end point
of a distribution. Journal of the Royal Statistical Society, vol.67(No.5) :pp.717–729,
2005.
[26] A.H. Harter, H. L.and Moore. Maximum likelihood estimation of the parameters of
gamma and weibull populations from complete and from censored samples. Techno-
metrics, Vol.7(No.4) :pp.639–643, 1965.
[28] D.R. Hunter and K. Lange. A tutorial on mm algorithms. The American Statistician,
vol.58(No.1) :pp.30–37, 2004.
[30] H. Joe. Time series with univariate margins in the convolution-closed infinitely divi-
sible class. Journal of Applied Probability, vol.33(No.3) :pp.664–677, 1996.
[31] B. Jorgenson and P. X. Song. Stationary times series models with exponential dis-
persion model margins. Journal of Applied Probability, Vol.35(No.1), 1998.
135
BIBLIOGRAPHIE
[33] L. A. Klimko and P. I. Nelson. On conditional least squares estimation for stochastic
process. Annals of Statistics, vol.6 :pp.629–642, 1978.
[35] D.R. Lange, K.and Hunter and I. Yang. Optimization transfer using surrogate objec-
tive functions (with discussion). Journal of Computational and Graphical Statistics,
vol.9(No.1) :pp.1–20, 2000.
[36] K. Lange. Optimization,Second Edition, volume Vol.95. Springer New York, 2013.
[37] A. J. Lawrence. The mixed exponential solution to the first order autoregressive
model. Journal of Applied Probability, vol.17 :pp.546–552, 1980.
[40] J. Malisic. On exponential autoregressive time series models, in :p. bauer et al. (eds.).
Mathematical Statistics and Probability Theory, vol.B :pp.147–153, 1986.
[44] I. Muqattash and M. Yahdi. Infinite family of approximations of the digamma func-
tion. Math. Comput. Model, pages pp.1329–1336, 2006.
136
BIBLIOGRAPHIE
[45] H. Nagatsuka and N. Balakrishnan. Parameter and quantile estimation for the three-
parameter gamma distribution based on statistics invariant to unknown location.
Journal of Satistical planning and Inference, vol.142(No.7) :pp.2087–2102, 2012.
[47] N.U. Nair and P.G. Sankaran. Characterization of the pearson family of distributions.
IEEE Transactions on Reliability, (No.40) :pp.75–77, 1991.
[49] M. Novkovic. Autoregressive time series models with gamma and laplace distribution.
MSci Thesis, University of Belgrade, Faculty of Mathematics, 1987.
[51] I.E.A. Institution of Ingineers Australia. Australian rainfall and runnof : flood ana-
lysis and design. 1977.
[52] O. O. Olofintoye, B.F. Sule, and A.W. Salami. Best–fit probability distribution
model for peak daily rainfall of selected cities in nigeria. New York Science Journal,
Vol.2(No.3), 2009.
[53] Y. Pawitan. In All Likelihood :Statistical Modelling and Inference Using Likelihood.
CLARENDON PRESS·OXFORD, 2011.
[55] B. V. Popovic. ar(1) time series with approximated beta marginal. Publications de
l’Institut Mathematique, vol.88 :pp.87–98, 2010.
137
BIBLIOGRAPHIE
[58] C. A. Rohde. Introductory Statistical Inference with the Likelihood Function. Sprin-
ger, 2014.
[60] T. K. Sindu. An extended Pearson system useful in Reliability analysis. PhD thesis,
Departement of statistics, Cochin University of science and technology, 2002.
[61] R.L. Smith. Maximum likelihood estimation in a class of nonregular cases. Biome-
trika, vol.72(No.1) :pp.67–90, 1985.
[62] G. Smyth, Y. Hu, P Dunn, B. Phipson, and Y. Chen. statmod : Statistical Modeling,
2015. R package version 1.4.21.
[64] J. R. Stedinger and M. R. Taylor. Synthetic streamflow generation :1. model verifi-
cation and validation. Water Resources Research, vol.18 :pp.909–918, 1982.
[65] M.L. Tiku, W.K Wong, and G. Bian. Time series models with asymmetric inno-
vations. Communications in Statistics-Theory and Methods, vol.28 :pp.1331–1360,
1999.
[66] D. Tjostheim. Some doubly stochastic time series models. Journal of Time Series
Analysis, vol.7 :pp.51–72, 1986a.
[67] G. Tzavelas. Sufficient conditions for the existence of a solution for the log-likelihood
equations in three-parameter gamma distribution. Communications in Statistics-
theory and methods, Vol.33(No.9) :pp.1371–1382, 2008.
138
BIBLIOGRAPHIE
139