0% ont trouvé ce document utile (0 vote)
262 vues95 pages

Introduction à la Théorie du Risque

Transféré par

EL HOUSSEINI Mariem
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
262 vues95 pages

Introduction à la Théorie du Risque

Transféré par

EL HOUSSEINI Mariem
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Université de Montréal Automne 2012

Département de Mathématiques et Satistique

ACT3251 Théorie du risque


Professeur : Hélène Guérin
Courriel : [email protected]
Horaire du cours : Jeudi 17h30-20h30 (local S-144, Pv Roger-Gaudry)
Disponibilités : Jeudi 13h30-15h30 (local 5223, Pav. A.-Aisenstadt)
Auxiliaire d’enseignement : Younes Kabbaj
Courriel : [email protected]
Séance d’exercices : Mardi 8h30-10h30 (local Z-220, Pav. C-McNicoll)
Disponibilités : à déterminer (local 4245, Pav. A.-Aisenstadt)

⇤ Préalables
ACT2284 et MAT2717
⇤ Descriptif du cours
Modèles individuels de risque, modèles collectifs de risque pour des périodes courtes et longues,
application de la théorie ”stop-loss”. Théorie de la ruine. Modèles pour actifs financiers. Il
contribue à la préparation des examens SOA M et CAS 3.
⇤ Thèmes du cours
Une initiation au logiciel de programmation R sera donnée tout au long du cours. Pour télécharger le
logiciel (gratuit) : http ://www.r-project.org/
1. Modèles individuels du risque
Modèles pour les réclamations individuelles.
2. Modèles collectifs du risque
Loi de répartition de réclamations agrégées, distributions pour les fréquences, distributions pour les
réclamations, propriétés de certaines distributions composées, approximations.
3. Modèles collectifs comme processus stochastiques
Modèles en temps discret, modèles en temps continu, probabilité de ruine, prime stop-loss, la perte
maximale agrégée.
4. Théorie du risque
Modéles généraux pour le surplus d’une compagnie d’assurance : processus de Poisson, processus
des accroissements indépendant et stationnaires, théorie de la ruine.
5. Modèles des actifs financiers
Mouvement brownien géométrique et la loi lognormale. Modèles plus généraux : processus d’Îto,
processus à saut et leurs lois.
6. Simulation des modèles financiers et d’assurance
Simulation de di↵érents modèles de surplus et des actifs financiers : processus de Poisson composé,
mouvement brownien géométrique et processus aux accroissements indépendants et stationnaires.
Techniques de simulation appliquées en finance et en actuariat.
7. Mesures du risque
VAR (value at risk) et CTE (conditional tail expectation).

1
⇤ Dates importantes
Examen Intra : mardi 20 novembre 2012, 8h30-10h30 (local P-310, Pv Roger-Gaudry)
Projet : à rendre pour le mardi 8 janvier 2012, 12h00
Examen final : mardi 15 janvier 2013, 9h00-12h00 (local à déterminer)
Date limite d’annulation d’inscription le 17 octobre 2012.
Date limite d’abandon avec frais le 7 décembre 2012.

⇤ Bar^
eme d’évaluation
Examen Intra 35%, Projet 20%, Examen final de 45%.
Tous les étudiants sont invités à consulter le site http ://www.integrite.unmontreal.ca et à prendre connais-
sance du règlement disciplinaire sur le plagiat ou la fraude. Plagier peut entrainer un échec, la suspension
ou le renvoi de l’université.

⇤ Projet
Il s’agit d’un travail en équipe (minimum 2 - maximum 4 personnes). Le but est de mettre en pratique
les outils vus en classe. L’évaluation se fera sur un rapport écrit (minimum 10 pages + codes). En plus
de la démarche et des résultats, la mise en page sera évaluée.
Les simulations seront faites avec le logiciel R ou avec excel.
Attention : Le rapport du projet doit être remis au format pdf en y joignant le fichier des programmes
(excel ou R) par courrier électronique à l’adresse [email protected] le mardi 8 janvier à 12h au plus
tard.

⇤ Bibliographie
Le cours suivra principalement les chapitres 9, 10 et 11 de la troisième édition de Loss Models : from data
to decisions, et la dernière partie du cours reposera sur Derivatives Markets.
– Klugman, S.A. ; Panjer, H. H. et Willmot, G.E. Loss Models : From Data to Decisions. Third edition.
Wiley, 2004 (ou Second edition, 2004).
– McDonald, R.L. Derivatives Markets. Second edition, Addison Wesley, 2006.
Attention : Ne pas se procurer la dernière édition (4ème édition) de Loss Models, car les chapitres 10 et
11 ont été supprimés.
Dans l’onglet ”contributed” sur le site du CRAN http ://cran.r-project.org/ vous trouverez de nombreux
manuels d’utilisation de R au format pdf. Parmi les manuels en français, il y a
– R pour les débutants by Emmanuel Paradis, the French version of R for Beginners.
– Introduction à la programmation en R, Troisième édition by Vincent Goulet, an introduction to pro-
gramming in R.
Vous pouvez trouver les notes de cours de Manuel Morales sur sa page internet :

http ://www.dms.umontreal.ca/ morales/risk.php

Des documents vous seront transmis via la page :

studium.umontreal.ca

2
Université de Montréal ACT3251 - Automne 2012
Département de Mathématiques

Théorie du risque : introduction, lois de probabilité


Ces notes de cours ont été construite notamment à partir du livre de S.A. Klugman, H.H. Panjer et G.E.
Willmot Loss Models : from data to décisions, third edition (Wiley, 2008) et des notes de cours de Manuel
Morales http ://www.dms.umontreal.ca/⇠morales/risk.php

Table des matières


1 Objectifs 2

2 Modèles de fréquence et de sévérité 3

3 Quelques lois discrètes (fréquence) 4


3.1 Loi de Poisson P ( ), avec > 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
3.2 Binomiale B (m, q) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
3.3 Géométrique G ( ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
3.4 Binomiale négative BN (r, ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
3.5 La famille (a, b, 0) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

4 Familles de lois continues 7

5 Étude des queues (ailes) 8

6 Créer de nouvelles lois 10


6.1 Lois mélanges (ou mixtures) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
6.2 Transformations de lois . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
6.3 Inverse Gaussienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
6.4 Hyperboliques Généralisées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

7 Loi du maximum 13
7.1 Lois sous-exponentielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
7.2 Théorème de Fisher-Tippet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
7.3 Comparaison de Sn et Mn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

Hélène Guérin; 5 novembre 2012. 1


1 Objectifs
On va étudier dans ce cours plusieurs modèles et techniques pour quantifier les risques financiers et en
assurance. Voici les modèles que l’on va introduire.
En assurance :
– le modèle agrégé : On note Nt le nombre de réclamations/sinistres dans l’intervalle de temps [0, t], Xi
le montant de la ième réclamation et St le montant total des réclamations sur l’intervalle de temps [0, t].
On a alors
Nt
X
St = Xi .
i=1

20
15
10
5
0

0 5 10 15 20 25 30

– les mesures de risque


– Calcul de la probabilité de ruine d’une compagnie d’assurance
– Mesures de risque : VAR, CTE
En ACT 2284, vous avez déjà étudié les modèles de fréquence (Nt ) et les modèles de sévérité (Xi ).
En finance :
– modèles pour les actifs financiers :
– Mouvement brownien
0.0
−0.2
−0.4
−0.6
−0.8

0 10 20 30 40 50

– Modèles avec sauts


– Mesures du risque : VAR (value at risk), CTE (conditional tail expectation).
Le logiciel R sera utilisé tout le long du cours pour faire des simulations. Vous pouvez le télécharger sur
la page http ://cran.r-project.org/
Par ailleurs, sous l’onglet Contributed du site du CRAN, vous trouverez de nombreux manuels d’utilisation
de R au format pdf. Parmi les manuels en français, il y a
– R pour les débutants by Emmanuel Paradis, the French version of R for Beginners.

Hélène Guérin; 5 novembre 2012. 2


– Introduction à la programmation en R, Troisième édition by Vincent Goulet, an introduction to pro-
gramming in R.

2 Modèles de fréquence et de sévérité


On tire de l’expérience d’une compagnie des bases de données, avec lesquelles on construit des modèles
de fréquence et/ou de sévérité. Le but est en général de choisir un modèle statistique pour décrire les
observations et pouvoir faire des prévisions.
Les points important dans l’analyse exploratoire de données pour faire la sélection de modèle :
– Moyenne µ, écart-type , médiane et les modes
– Dissymétrie (skewness) = E[( X µ )3 ].
Si > 0, la distribution est décalée à gauche de la moyenne et donc une queue de distribution étalée
vers la droite.
Si < 0, la distribution est décalée à droite de la moyenne et donc une queue de distribution étalée
vers la gauche.
Si = 0, la distribution est symétrique par rapport à sa moyenne.

– Aplatissement (kurtosis) k = E[( X µ )4 ].


Si k = 3, les queues sont gaussiennes.
Si k > 3, les queues sont plus épaisses que les queues gaussiennes (valeurs extrêmes assez fréquentes)
Si k < 3, les queues sont sous-gaussiennes, plus plates que les queues gaussiennes (valeurs extrêmes
rares).
– Limited expected value
Lev(u) = E[X ^ u], où x ^ y = min(x, y).
– Mean excess loss ou Mean residual life
1
eX (d) = E[X d|X > d] = (E[X] Lev(d)) ,
1 FX (d)

où F est la fonction de répartition de X.


– Histogramme et/ou Log-histogramme
Pour construire un histogramme, on définit des intervalles (0, c1 ], (c1 , c2 ], . . . , (cm 1 , cm ]. L’histogramme
est alors défini de la façon suivante : pour x 2 (ci 1 , ci ], i = 1, . . . , m
ni
f˜n (x) =
n(ci ci 1)

où ni est le nombre d’observations dans (ci 1 , ci ] et n les nombre total d’observations.

Hélène Guérin; 5 novembre 2012. 3


Si on veut tracer un Log-histogramme, il suffit alors de considérer

f˜n0 (x) = ln(f˜n (x)) pour x 2 (ci 1 , ci ].

– analyse sur les données log-transformées.


On peut aussi grâce à ces données faire de la sélection modèle :
- Estimation des paramètres par la méthode des moments, la méthode du maximum de vrai-
semblance, les méthodes de minimalisation des distances ou les méthodes robustes.
- Estimation par intervalle de confiance en utilisant le maximum de vraisemblance.
- Tests d’évaluation des modèles : test de Kolmogorov-Smirnov, test du khi-deux, test de
Anderson-Darling,. . .

3 Quelques lois discrètes (fréquence)


3.1 Loi de Poisson P ( ), avec >0
N est une variable de Poisson de paramètre si
k
P (N = k) = e avec k 2 N
k!
On a alors
E[N ] = V ar(N ) = .
Si N1 , N2 , . . . , Nn sont des variables de Poisson indépendantes de paramètre respectif 1 , 2 , . . . , n alors
N = N1 + N2 + . . . + Nn est une variable de Poisson de paramètre = 1 + 2 + . . . + n .

Hélène Guérin; 5 novembre 2012. 4


3.2 Binomiale B (m, q)
N suit la loi binomiale si
✓ ◆
m
P(N = k) = q k (1 q)m k
avec k 2 {0, . . . , m}
k
On a
E[N ] = mq V ar(N ) = mq(1 q).
La loi binomiale modélise la situation suivante : on compte le nombre de succès parmi n expériences
réalisées de façon indépendantes.

3.3 Géométrique G ( )
N suit la loi géométrique si
✓ ◆✓ ◆k
1
P(N = k) = avec k 2 N
+1 +1
On a
E[N ] = V ar(N ) = (1 + ).
La loi géométrique modélise la situation suivante : on itére une expérience jusqu’à obtenir un succès et
on compte le nombre d’essais nécessaires.

3.4 Binomiale négative BN (r, )


N suit la loi binomiale négative si
✓ ◆✓ ◆r ✓ ◆k
r+k 1 1
P(N = k) = avec k 2 N
k +1 +1
On a
E[N ] = r V ar(N ) = r (1 + ).
On remarque que V ar(N ) > E[N ].
La loi binomiale négative modélise la situation suivante : on compte le nombre d’échec nécessaires pour
avoir n succès en répétant de façon successive une expérience où la probabilité d’avoir un succès est
1
p = +1 .

3.5 La famille (a, b, 0)


Definition 1. La distribution (pk )k60 d’une variable discrète appartient à la famille (a, b, 0) s’il existe
des constantes a, b telles que
pk b
=a+ k = 1, 2, . . .
pk 1 k
Une distribution de la famille (a, b, 0) est entièrement caractérisée par les valeurs a, b et p0 .
Toutes les distributions vues plus haut appartiennent à cette famille :
– Poisson : a = 0, b = , p0 = e .
– Binomial : a = 1 qq , b = (m + 1) 1 q q , p0 = (1 q)m
– Binomiale négative : a = , b = (r 1) 1+ , p0 = (1 + ) r
1+

Hélène Guérin; 5 novembre 2012. 5


– Géométrique : a = 1+ , b = 0, p0 = (1 + ) 1
On peut réécrire la formule récursive de la façon suivante :
pk
f (k) = k = ak + b
pk 1
est l’équation d’une droite. De façon empirique, l’allure de
p̂k nk
fˆ(k) = k =k
p̂k 1 nk 1
donne une indication sur le choix du modèle.

Comparaison entre la valeur simulée et la valeur théorique de f (k).


Exemple 2.
Nbre d’accidents Nbre de polices k nnk k 1
k nk
0 7840
1 1317 0.17
2 239 0.36
3 42 0.53
4 14 1.33
5 4 1.43
6 et plus 1 1.5
On se demande quelle est la loi sous-jacente.

Hélène Guérin; 5 novembre 2012. 6


Il est peu probable que ce soit une loi Binomiale, car la pente semble positive, par contre il est difficile de
savoir si elle est suffisamment positive pour écarter la loi de Poisson.

4 Familles de lois continues


Voici les principales lois qu’on risque de rencontrer :
– Exponentielle qui permet de modéliser des temps d’attente avec absence de mémoire de densité : soit
>0
f (x) = e x 1x>0 .
Généralisation : exponentielle inverse
– Pareto qui permet de modéliser les très gros sinistres (facile à repérer car le log de la fonction de survie
est linéaire en fonction du log des coût) de densité : soit ✓, ↵ > 0,
✓↵
f (x) = ↵ 1x>0 .
(x + ✓)↵+1
Généralisation : Pareto généralisée, Pareto inverse
– Burr souvent utilisée pour étudier les revenus des ménages, de densité : soit ↵, >0

x 1
f (x) = ↵ 1x>0 .
(1 + x )↵+1
Généralisation : Burr inverse
– Log-logistique pour modéliser des durée de vie dont l’intensité peut croı̂tre ou décroı̂tre, de densité :
soit ↵, > 0
(x/↵) 1
f (x) = 1x>0 .
↵ (1 + (x/↵) )2
– Gamma souvent utilisée en crédibilité et en tarification, de densité : soit ↵, >0

f (x) = x↵ 1
e x
1x>0 .
(↵)

Si ↵ 2 N, (↵) = (↵ 1)!.
Généralisation : Log-Gamma, Gamma inverse
– Gumbel, qui permet de modéliser un maximum, de densité : soit µ 2 R (paramètre de position), et
> 0 (paramètre d’échelle)
1 (x µ)/ ⇣ ⌘
(x µ)/
f (x) = e exp e

– Weibull qui permet aussi de modéliser la loi d’un maximum, de densité : soit ✓ > 0 (paramètre d’échelle),
⌧ > 0 (paramètre de forme)
⌧ ⇣ x ⌘⌧ 1 ( x ) ⌧
f (x) = e ✓ 1x>0
✓ ✓
Généralisation : Weibull inverse
– Normale, loi centrale en statistique, de densité : soit µ 2 R, > 0

1 (x µ)2
f (x) = p e 2 2 .
2⇡
Généralisation : LogNormale, Inverse Gaussienne

Hélène Guérin; 5 novembre 2012. 7


– Généralisée hyperbolique

Densités exponentielles Densités de Pareto Densités de Burr

Densités de Gamma Densités de Gumbel Densités de Weibull

On peut construire de nouvelles lois soit par transformation soit en faisant des mélanges de lois.
Pour simuler des lois usuelles avec R mais dont vous ne connaissez pas la commande, taper ? distribution
Pour simuler des lois peu usuelles, aller sur http ://cran.r-project.org/, cliquer sur ”Task Views”, puis sur
”Distributions”.
Ensuite installer le package utile en tapant la commande install.packages("nom du package"). Vous
pourrez alors utiliser ce package pour simuler la loi désirée.

5 Étude des queues (ailes)


Voir le chapitre 3 de Loss Models Tails of distributions.
Il est important surtout en assurance de connaitre le type de queue d’une distribution. En général on
n’aime pas avoir des queues épaisses qui signifient que les événements de grande amplitude ont une
probabilité assez forte d’arriver. Une grande catastrophe, même si elle arrive rarement, est très lourde de
conséquence pour les compagnies d’assurance et pour les cotes boursières.
Quelques objets permettant d’étudier les queues d’une loi
– hazard rate
– Limited expected value, Mean excess loss.

Definition 3. Soit X une variable de loi de densité f et de fonction de répartition F . Son hazard rate
est
f (x)
h(x) = = P(X = x + dx|X > x)
1 F (x)
Si h est décroissante, on dit alors que les queues (ailes) de la loi X sont épaisses et si h est croissante
alors les queues de X sont légères.
Rx
h(t)dt
On remarque que S(x) = 1 F (x) = e 0

Hélène Guérin; 5 novembre 2012. 8



Exemple 4. Loi de Pareto : h(x) = x+✓
Loi exponentielle : h(x) = .
Definition 5. The mean excess loss (aussi appelé mean residual life) de la variable X est définie par
1
e(d) = E[X d|X > d] = (E[X] Lev(d)) ,
1 FX (d)
où F est la fonction de répartition de X.
La fonction e caractérise la loi de X et surtout contient les informations sur les queues.
On dit qu’une distribution a des queues épaisses si e est une fonction croissante et qu’elle a des queues
légères si MEL e est une fonction décroissante.

Simulation du mean excess loss pour di↵érentes lois.

Remarque 6. Lien entre hasard rate et Mean excess Loss On remarque que
R1 Z 1 R
d S(x)dx
x
e(d) = = e d h(t)dt dx
S(d) d

Par la règle de l’hôpital, quand d ! 1,


S(d) 1
lim e(d) ! = lim .
d!1 fd d!1 h(d)

Cette relation permet de comprendre pourquoi les propriétés de queues épaisses et queues légères sont
inversées pour h et e.
Le souci est que le MEL est en général difficile à calculer et on prend parfois cette caractérisation : une
distribution a des queues épaisses si e(d) ! 1 si d ! 1 (ailes sous-exponentielles) et sinon elle a des
queues légères (ailes sur-exponentielles).
Équivalent du mean excess life quand d ! 1 pour quelques lois connues :
Pareto : ↵✓+d1 , ↵ > 1
Burr : ↵ d 1 , ↵ > 1
Loggamma : ↵ d 1 , ↵ > 1
1 ⌧
Weibull : d c⌧
Gamma : 1 (1 + ↵ 1 )
d
Exponentielle : 1.

Hélène Guérin; 5 novembre 2012. 9


Par conséquent,
9
9 Log-Normale >
>
>
>
Exponentielle = Pareto =
Gamma queues légères Weibull avec ⌧ < 1 queues épaisses
; >
>
Weibull avec ⌧ > 1 Burr >
>
;
Log-Gamma

6 Créer de nouvelles lois


6.1 Lois mélanges (ou mixtures)
On peut définir une nouvelle variable aléatoire Y de fonction de répartition :
FY (y) = ↵1 FX1 (y) + . . . + ↵N FXN (y)
où ↵1 + . . . + ↵N = 1 et les FXi sont des lois données.
Pour simuler une variable Y , il suffit de simuler les variables Xi et une variable U uniforme U ([0, 1])
indépendantes, on a
Y = X1 106U <↵1 + X2 1↵1 6U <↵1 +↵2 + . . . + XN 1↵1 +...+↵N 1 6U <1
.
Si on veut programmer ceci en R, voici ce que ça donne :
- simuler les variables Xi chacune de loi FXi
- simuler une loi variable uniforme U=runif(1,0,1)
- p=cumsum(alpha)
- Y = X1 ⇤ (U < p[1]) + X2 ⇤ (U >= p[1] & U < p[2]) + . . . + XN ⇤ (U >= p[N 1])
Exemple 7. Soit X1 une variable de Pareto(✓1 , ↵) qui représente les grandes réclamations, et X2 une
Pareto(✓2 , ↵ + 2) qui représente les petites réclamations. On note a la fréquence des grandes réclamation,
alors
Y = aX1 + (1 a)X2
représente l’ensemble des réclamations. Sa fonction de répartition est
FY (y) = aFX1 (y) + (1 a)FX2 (y)
✓ ◆↵ ✓ ◆↵+2
✓1 ✓2
=1 a (1 a)
✓1 + x ✓2 + x
Une autre façon de faire des mélanges est de mettre une loi sous-jacente sur les paramètres. Si X une
variable de fonction de répartition FX qui dépend d’un paramètre , on peut imaginer que le = ⇤ est
lui même aléatoire. On a donc X ⇠ FX|⇤ (x| ) et ⇤ ⇠ F⇤ ( ), alors
Z
FX (x) = FX|⇤ (x| )f⇤ ( )d .

On calcule alors les moments de X en utilisant l’espérance conditionnelle


E[X k ] = E[E[X k |⇤]] V ar(X) = E[V ar(X|⇤)] + V ar(E[X|⇤]).
Par exemple, on obtient la loi de pareto en mélangeant une loi exponentielle X|⇤ ⇠ E(⇤) et une loi
Gamma ⇤ ⇠ Gamma.
Une loi binomiale négative est un mélange de loi de Poisson et de Gamma : si suit une loi Gamma(n, )
et N | suit une loi de Poisson de paramètre , alors N suit une binomiale négative.
L’inverse gaussienne Normale est obtenue en mélangeant une loi normale X|W ⇠ N (µ + W, W ) et une
inverse gaussienne W ⇠ inverse gaussienne. On l’utilise pour modéliser es prix des actions.

Hélène Guérin; 5 novembre 2012. 10


6.2 Transformations de lois
On peut imaginer toutes les transformations possibles, les plus couramment utilisées sont les suivantes.
1
– Y = X⌧.
Si ⌧ > 0, alors FY (y) = FX (y 1/⌧ )
Si ⌧ < 0, alors FY (y) = 1 FX (y 1/⌧ ) (loi inverse)
On retrouve souvent, l’exponentielle inverse, la loi de Weibull qui est une transformation de la loi
exponentielle et la Weibull inverse.
– Y = eX .
On a lors FY (y) = FX (ln(y)).
On retrouve la Log-Normale et la Log-Gamma.

6.3 Inverse Gaussienne


X ⇠ IG(µ, ✓) a pour densité
✓ ◆1/2 
✓ ✓(x µ)2
fIG (x) = exp 1x2(0,1) avec ✓ > 0, µ > 0.
2⇡x3 2xµ
Le paramètre ✓ est un paramètre de forme.
Il s’agit de la loi du premier temps d’atteinte d’un niveau fixé par un mouvement brownien avec une
dérive positive : si Xt = µt + Bt est un mouvement brownien avec dérive et Ta = inf{t > 0 : Xt = a} le
temps d’atteinte du niveau a par Xt , alors Ta ⇠ IG(a/µ, a2 / 2 ).

Densités Inverse-Gaussienne.

Cette loi possède les caractéristiques suivantes :


3
– E[IG] = µ, V ar(IG) = µ✓ .
– On peut calculer les estimateurs du maximum de vraisemblance des paramètres.
– Souvent utilisée pour les pertes agrégées : la somme de variables inverse-guassiennes indépendantes est
une inverse gaussienne.
Autre paramétrisation de l’inverse gaussienne : pour x > 0

3/2 1 2 1
fIG (x) = p e x exp ( x + 2 x) .
2⇡ 2

On a alors E[IG] = et V ar(IG) = 3 .

Hélène Guérin; 5 novembre 2012. 11


On peut ainsi rapprocher l’inverse gaussienne de la fonction de Bessel de troisième espèce : pour z > 0
Z 
1 1 1
K (z) = y 1 exp z(y 1 + y) dy
2 0 2
En prenant y = x, z = et = 1/2 on voit le lien entre ces deux fonctions.
Inverse Gaussienne généralisée (GIG) : pour x > 0

( / ) 1 1 2 1 2
fGIG (x) = x exp ( x + x) .
2K ( ) 2
Les paramètres vérifient : 8
< > 0, >0 si >0
> 0, >0 si =0
:
> 0, >0 si <0
Cette loi est utilisée, par exemple, en géostatistique, en hydrologie ou en finance.
Sa fonction génératrice des moments vaut alors
q
✓ ◆ /2 K ( 1 2 u2 )
u
MGIG (u) = 1 2 2
.
K ( )
On a aussi, pour k 2 R,
h i ✓ ◆k
k K +k ( )
E GIG = .
K ( )
Propriété 8. p
A propos des fonctions de Bessel.
– K 1/2 (x) = ⇡/2x 1/2 e x
– K (x) = K (x).
– K +1 (x) = 2x K (x) + K 1 (x).
d
– dx K (x) = x K (x) + K 1 (x).
On remarque que si = 0 on retrouve la Gamma( , 2 /2) et si = 1/2 on retrouve IG( , ).

6.4 Hyperboliques Généralisées


On considère la loi de X avec X|W ⇠ N (µ + W, W ) et W ⇠ GIG. Sa densité est
Z 1 p
fGH (x; ↵, , , µ, ) = fN (x; µ + w, w)fGIG (w; , , ↵2 2 )dw
0
avec 8
< > 0, | | < ↵ si >0
> 0, | | < ↵ si =0
:
> 0, | | 6 ↵ si <0
On peut réécrire la densité de la façon suivante, pour x 2 R,
2
p
fGH (x) = A(↵, , , )( + (x µ)2 )( 1/2)/2
e (x µ)
K 1/2 (↵
2 + (x µ)2 )

avec
(↵2 2 ) /2
A(↵, , , ) = p p .
2⇡↵ 1/2 K ( ↵2 2)

Hélène Guérin; 5 novembre 2012. 12


↵ est le paramètre de forme, 0 6 | | < ↵ est le skewness, µ 2 R est un paramètre de localisation et > 0
est le paramètre d’échelle. 2 R permet de caractériser certaines sous-classes et influence beaucoup la
taille des ailes.
Sa fonction génératrice des moments :
✓ ◆ /2 p
↵ 2 2 K ( ↵2 ( + u)2 )
mGH (u) = eµu p .
↵2 ( + u)2 K ( ↵2 2)

Ses moments
2
E[GH] = µ + E[GIG] V ar(GH) = E[GIG] + V ar(GIG).
Cas Particuliers :
• = 1 : loi hyperbolique
p p
↵2 2
↵ 2 +(x µ)2 + (x µ)
fH (x; ↵, , , µ) = p e
2↵ K1 ( ↵2 2)

• = 1/2 : Inverse Gaussienne Normale N IG (mélange d’une normale et d’une IG)

↵ ⇣ p ⌘ K (↵p 2 + (x µ)2 )
1
fN IG (x; ↵, , , µ) = exp ↵2 2 + (x µ) p .
⇡ 2 + (x µ)2
Sa fonction génératrice des moments est
⇣ hp p i⌘
mN IG (u) = exp µu ↵2 ( + u)2 ↵2 2

Ses moments

E[N IG] = p +µ V ar(N IG) = ↵2 (↵2 2


) 3/2
↵2 2
!
1 1/2 2 2 1/4 ↵2 + 4 2
Skewness = 3 ↵ (↵ ) Kurtosis = 3 1 + p
↵2 ↵2 2

Densité de la loi hyperbolique pour di↵érentes valeurs des paramètres :

= 1 = 1/2 =0 =1

7 Loi du maximum
On considère X1 , X2 , . . . des variables i.i.d. de loi F et

Mn = max(X1 , . . . , Xn ) Sn = X 1 + X 2 + . . . + X n

Hélène Guérin; 5 novembre 2012. 13


7.1 Lois sous-exponentielles
On note F ⇤n la loi de Sn : F ⇤n = F ⇤ F ⇤ . . . ⇤ F où est le symbole de convolution.
(n fois)

Definition 9. Une loi F sur (0, 1) est sous-exponentielle si pour tout n > 2,
F ⇤n (x) 1 F ⇤n (x)
lim = lim = n.
x!1 F (x) x!1 1 F (x)
On a
P(Mn 6 x) = P(X1 6 x, . . . , Xn 6 x) = F n (x).
Par conséquent F n (x) = P(Mn > x).
Par ailleurs, en utilisant les résultats sur les séries géométriques, on a pour tous les x tels que F (x) < 1,
n
X1 1 F n (x) F n (x)
F k (x) = = .
1 F (x) F (x)
k=0
Pn 1 k Pn 1 k
D’où, P(Mn > x) = F (x) k=0 F (x). Par ailleurs, il est clair que si x ! 1, k=0 F (x) ! n et donc
P(Mn > x) ⇠ nF (x) quand x ! 1.
Pour une loi sous-exponentielle, on a
F ⇤n (x) ⇠ nF (x) pour x grand
ce qui signifie que les queues de la somme se comportent comme celle du maximum,
X 1 + X 2 + . . . + X n ⇠ Mn .
Propriété 10. Si F est une sous-exponentielle alors pour tout y > 0,
F (x y)
lim =1
x!1 F (x)
Ceci signifie que X peut prendre des grandes valeurs car pour x grand, P(X + y > x) ' P(X > x) pour
tout y > 0

7.2 Théorème de Fisher-Tippet


Theorem 11. théorème de Fisher-Tippet S’il existe une normalisation cn > 0 et dn 2 R et une variable
H telles que
Mn dn Loi
! H quand n ! 1
cn
alors la loi de H est une loi des valeurs extrêmes de densité, pour 1 + x > 0
( 1/
e (1+ x) pour 6= 0
f (x) = x
ee pour = 0
On remarque que pour > 0 on a une loi de Fréchet, pour < 0 une loi de Weibull et pour = 0 une
loi de Gumbel.
Quand la condition du théorème est vérifiée, on dit que la loi F est dans le Max-domaine d’attraction
(MDA) de f . Les lois dans le MDA de la loi de Fréchet ( > 0) ont des queues épaisses, comme les lois
de Pareto, Cauchy, Burr, ↵ stable.
Les lois dans le MDA de la loi de Gumbel ont des des queues modérées, comme les lois normale, log-
normale, exponentielle, Gamma,...
Les lois dans le MDA de la loi de Weibull ont des queues légères, comme les lois uniforme, bêta.

Hélène Guérin; 5 novembre 2012. 14


7.3 Comparaison de Sn et Mn
Propriété 12. E[X] < 1 si et seulement si

Mn a.s
! 0.
Sn
Quand E[X] n’est pas fini, on peut avoir ce type de comportement

Mn Loi Mn proba
!Z ou ! 1
Sn Sn
Mn
Traçons l’évolution de Sn en fonction de n pour di↵érentes lois :

Exponentielle Log-Normale Pareto


Par analogie, pour tout k > 0, en notant

Mn (k) = max(X1k , . . . , Xnk ) Sn (k) = X1k + X2k + . . . + Xnk

on a E[X k ] < 1 si et seulement si


Mn (k) a.s
! 0.
Sn (k)
Mn (k)
Traçons l’évolution de Sn (k) en fonction de n pour di↵érentes lois et di↵érentes valeurs de k :

Exponentielle avec k = 2 k=3 k = 10

Log-Normale avec k = 2 Log-Normale avec k = 3 Pareto avec k = 2

Hélène Guérin; 5 novembre 2012. 15


Université de Montréal ACT3251 - Automne 2012
Département de Mathématiques

Théorie du risque : les modèles agrégés des pertes


Ces notes de cours ont été construites notamment à partir du chapitre 9 du livre de S.A. Klugman, H.H.
Panjer et G.E. Willmot Loss Models : from data to décisions, third edition (Wiley, 2008) et des notes de
cours de Manuel Morales http ://www.dms.umontreal.ca/⇠morales/risk.php

Table des matières


1 Les modèles 2

2 Choix de modèles 3
2.1 Pour la sévérité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2.2 Pour la fréquence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.3 Pour les pertes agrégées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

3 Loi de SN en fonction de la loi de X et de N 4


3.1 Fonction de répartition et densité de SN . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
3.2 Fonction génératrice des moments de SN . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
3.3 Moments de SN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
3.4 Cas particulier : variables de Poisson composé . . . . . . . . . . . . . . . . . . . . . . . . . 9

4 Prime Stop-Loss 12

5 Résultats analytiques : calculs explicites et approximations de la loi de SN 15


5.1 Lois fermées pour la convolution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
5.2 Méthode d’inversion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
5.3 Algorithme de Panjer pour calculer la loi de SN pour des sévérités discrètes . . . . . . . . 16
5.4 Généralisation de l’algorithme de Panjer à des sévérités continues . . . . . . . . . . . . . . 20
5.4.1 Méthode des arrondis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
5.4.2 Méthode des moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

6 Influence de la police d’assurance sur les pertes agrégées 24


6.1 Nombre et montant des paiements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
6.2 Paiements e↵ectifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

7 Quelques mots à propos du modèle individuel 26

8 Quelques exercices 28
8.1 Propriétés et étude de SN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
8.2 Prime Stop-Loss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
8.3 Calcul de la loi de SN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
8.4 Algorithme de Panjer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

Hélène Guérin; 29 novembre 2012. 1


1 Les modèles
Le modèle collectif
On considère une compagnie d’assurance où les pertes sont enregistrées au fur et à mesure qu’elles arrivent.
On note Xi le montant de la ième perte et N le nombre de pertes. N peut par exemple être le nombre de
pertes sur une année pour la compagnie. Le montant global est

SN = X 1 + X 2 + . . . + X N

On suppose
• les Xi indépendantes et de même loi
• N est indépendante des Xi .
On parle de modèle collectif car on associe la même loi à chaque perte.
Le modèle individuel de risque
On modélise les pertes totales de chaque contrat et on regarde le montant global pour la compagnie
d’assurance
Sn = X 1 + X 2 + . . . + X n
où
• n est le nombre de contrats dont s’occupe la compagnie d’assurance (valeur connue, ce n’est pas une
variable aléatoire)
• Xi est le montant total des réclamations du ième contrat. Les Xi sont supposées indépendants, mais pas
forcément de même loi. En général, la distribution de chaque Xi a une masse en 0 qui correspond à la
probabilité de ne pas avoir de perte pour chaque contrat.
Ce modèle est souvent utilisé en assurance santé lorsqu’on considère un groupe de n employés d’une
entreprise où il est difficile de modéliser les pertes par des variables de même loi. En e↵et, chaque employé
a une couverture di↵érente (car fonction de leur salaire) et un comportement di↵érent (les dépenses
dépendent notamment de l’âge des employés).
On parle de modèle individuel car on regarde les caractéristiques de chaque individu.
Le modèle individuel avec des Xi de même loi est un cas particulier du modèle collectif quand N est une
constante (P(N = n) = 1).

Remarque 1.1. Il est assez naturel de vouloir relâcher l’hypothèse d’indépendance entre les Xi . Le modèle
individuel est plus facile à étudier que le collectif dans le cas où les Xi ne sont pas indépendantes.

Exemple 1.2. Regardons un modèle collectif de pertes. On sait que les pertes suivent la loi FX . L’assureur
paye 80% des pertes individuelles en excès de 1 000$ avec un paiement maximal de 100 000$.
Tous les paiements en excès de 50 000$ sont réassurés. On va décrire des modèles pour
1. les pertes totales pour l’assuré avant l’assurance :
on note N le nombre de perte (a priori aléatoire), on a alors
a
SN = X1 + . . . + XN

avec Xi ⇠ FX
2. les pertes totales pour la compagnie d’assurance avant la réassurance :
On note Yi le ième paiement fait par l’assureur avant réassurance. Si Xi 6 1000, alors Yi = 0. Si
Xi > 1 000, alors le paiement est Yi = 0.8(Xi 1000). Par ailleurs cette valeur ne peut pas excéder

Hélène Guérin; 29 novembre 2012. 2


100 000$, ce qui correspond à une valeur de 1 000 + 100 000/0.8 = 126 000$. Par conséquent, le
montant total des pertes pour l’assureur avant réassurance est
c
SN = Y1 + . . . + YN

avec Yi = min(0.8(Xi 1 000), 100 000)1Xi >1 000 .


3. les pertes totales pour le réassureur :
Le réassureur paye tous les paiements en excès de 50 000$. Un paiement de 50 000$ correspond à
une perte de 1 000 + 50 000/0.8 = 63 500$. Par ailleurs, le montant maximal versé par la compagnie
est de 100 000$ et donc le montant maximal versé par le réassureur est 50 000$. Par conséquent, les
pertes totales pour le réassureur sont
r
SN = Z1 + . . . + ZN

avec Zi = min(0.8(Xi 63 500), 50 000)1Xi >63 500 .


4. les pertes totales pour la compagnie d’assurance après réassurance :
N
X
PNc = SN
c r
SN = [0.8(Xi 1 000)11 0006Xi <63 500 + 50 0001Xi >63 500 ]
i=1
N
X
= min(0.8(Xi 1 000), 50 000)11 0006Xi .
i=1

5. les pertes totales pour l’assuré après assurance :


N
X
PNa = a
SN c
SN = [Xi 1Xi <1 000 + (800 + 0.2Xi )11 0006Xi 6126 000 + (Xi 100 000)1Xi >126 000 ] .
i=1

2 Choix de modèles
Certaines caractéristiques sont recherchées dans un modèle pour la fréquence et/ou sévérité.

2.1 Pour la sévérité


Pour la sévérité on aime avoir une loi avec un paramètre d’échelle, du fait de la notion d’unité. En e↵et,
le choix de la devise ne doit pas a↵ecter la loi : la conversion en dollars, en euros, en yen,... ne doit pas
modifier le modèle. De plus, lorsqu’on considère une loi avec un paramètre d’échelle, il est assez simple
de prendre en considération l’inflation.
Definition 2.1. Une loi FX est dite à échelle si pour tout c > 0 P(cX 6 x) appartient à la même famille
que FX .
Exemple 2.2. Loi exponentielle E( ) : soit c > 0

P(cX 6 x) = P(X 6 x/c) = 1 e c


x

On reste dans la famille des lois exponentielles car cX ⇠ E( /c).


Definition 2.3. Un paramètre ✓ 2 R est dit d’échelle pour une v.a. X ⇠ FX✓ si pour tout c > 0 la loi de
cX est FXc✓ , les autres paramètres restant inchangés.

Hélène Guérin; 29 novembre 2012. 3


Exemple 2.4. Loi Gamma(↵, ✓) de densité

1 ⇣ x ⌘↵ 1
x/✓
f (x; ↵, ✓) = e 1x>0
✓ (↵) ✓

et de fonction de répartition pour x > 0


Z x/✓
1
FX (x; ↵, ✓) = t↵ 1
e t dt.
(↵) 0

Par conséquent, pour c > 0

P(cX 6 x) = P(X 6 x/c) = FX (x; ↵, c✓).

2.2 Pour la fréquence


Pour la fréquence, on aime avoir des lois qui sont préservées par la somme. Comme par exemple, la somme
de deux lois de Poisson indépendantes est une loi de Poisson. Cette propriété permet l’ajout de nouvelles
données de façon assez simple.
Pour la fréquence N on choisit souvent des lois dépendant d’un paramètre telle qu’il existe une variable
N tel que N peut s’écrire comme la somme de variables N indépendantes. Ceci se traduit sur la fonction
génératrice des moments de la façon suivante :
⇥ ⇤
MN (z; ↵) := E ezN = MN (z) .

Ce type de loi est appelée loi infiniment divisible.

Exemple 2.5. Si N ⇠ P( ), alors

(ez 1) z
MN (z; ) = e = ee 1
= MN (z)

avec N ⇠ P(1).

2.3 Pour les pertes agrégées


On note S = X1 + . . . + XN la perte totale d’une compagnie d’assurance.
On doit choisir un modèle pour la fréquence N et un modèle pour les sévérités Xi , pour ensuite étudier
la loi du modèle S.

3 Loi de SN en fonction de la loi de X et de N


3.1 Fonction de répartition et densité de SN
Proposition 3.1. La convolution.
Soit X1 et X2 deux variables
Z indépendantes de même loi de densité fX alors la densité de X1 + X2 est la
convolution fX ⇤ fX (x) = fX (y)fX (x y)dy.
R

Hélène Guérin; 29 novembre 2012. 4


Démonstration. Soit X1 et X2 deux variables indépendantes de même loi de densité fX , alors la fonction
de répartition de X1 + X2 est
ZZ ZZ
P(X1 + X2 6 x) = f(X1 ,X2 ) (y, z)dydz = fX (y)fX (z)dydz
y+z6x y+z6x
Z +1 ✓Z x y ◆ Z +1
= fX (y) fX (z)dz dy = fX (y)FX (x y)dy.
1 1 1

On dérive par rapport à x et on obtient que la densité de X1 + X2 vaut


Z +1
fX1 +X2 (x) = fX (y)fX (x y)dy = fX ⇤ fX (x).
1

On remarque que si X1 et X2 sont des variables positives, la fonction de répartition de X1 + X2 vérifie


Z x
FX1 +X2 (x) = fX (y)FX (x y)dy.
0

Definition 3.2. Soit FX une fonction de répartition d’une loi à densité fX à support sur R+ . On considère
X1 , . . . , Xn des v.a.Z i.i.d. de loi FX .
x
On note FX⇤2 (x) = fX (y)FX (x y)dy la fonction de répartition de S2 = X1 + X2 .
0
Par itération, pour tout n > 1, la fonction de répartition de Sn = X1 + . . . + Xn , notée FX⇤n , vérifie
Z x
⇤n ⇤(n 1)
FX (x) = fX (y)FX (x y)dy.
0

1 pour x > 0
avec FX⇤0 (x) =
0 pour x < 0

1 pour x = 0
De même pour n > 1, on note fX
⇤n (x) = f ⇤ . . . ⇤ f (x) et f ⇤0 (x) = .
| X {z X
} 0 pour x 6= 0
n fois

Exemple 3.3. On considère deux temps d’attente X1 et X2 indépendants de loi E( ), par exemple Xi
représente le temps d’attente au guichet i. Alors la somme des temps d’attente X1 + X2 admet pour
densité, pour x > 0
Z x Z x
⇤2 2
fX (x) = fX (y)fX (x y)dy = e x dy = 2 xe x .
0 0

On reconnait la loi Gamma(2, ) (résultat bien connu).


PN
Proposition 3.4. On considère le modèle de pertes agrégées SN = i=1 Xi où les Xi sont i.i.d. de loi
FX et indépendantes de N .
Alors la fonction de répartition de SN est
1
X
FSN (x) = pn FX⇤n (x) avec pn = P(N = n)
n=0

et sa densité est
1
X
⇤n
fSN (x) = pn f X (x).
n=0

Hélène Guérin; 29 novembre 2012. 5


Démonstration. On a
1
X
FSN (x) = P(SN 6 x) = P(Sn 6 x, N = n)
n=0
1
X
= P(Sn 6 x)P(N = n) par indépendance entre les Xi et N
n=0
X1
= pn FX⇤n (x).
n=0

Remarque 3.5. Quand la loi des Xi est discrète


Le raisonnement est exactement le même, sauf qu’à la place d’avoir des intégrales on a des sommes :
Sn = X1 + . . . + Xn où Xi sont des variables positives i.i.d. de loi discrète fX (y) = P(X = y) a pour
fonction de répartition
x
X
⇤n
F (x) = F ⇤(n 1)
(x y)fX (y), pour x = 0, 1, . . .
y=0

et pour loi
x
X
⇤n
P(Sn = x) = fX (x) = f ⇤(n 1)
(x y)fX (y).
y=0

Exemple Assurance Dentaire


Pour un plan d’assurance dentaire pour un groupe, on a compilé les statistiques des coûts annuel par
personne :
x 1 2 3 4 5
fX (x) 0.20 0.30 0.25 0.20 0.05
où x représente des unités de 100$. Par ailleurs les fréquences estimées des réclamations par police sont
n 0 1 2 3 4
pn 0.10 0.25 0.3 0.20 0.15
On souhaite calculer la loi du montant total annuel SN pour une police de ce groupe.
Il est clair que SNPest une variable discrète à valeurs dans {0, 1, 2, . . . , 20} (unités de 100$). En utilisant
la formule fSN = n>0 pn f ⇤n (x), on obtient
x f ⇤0 (x) f ⇤1 (x) f ⇤2 (x) f ⇤3 (x) f ⇤4 (x) fS (x)
0 1 0 0 0 0 0.1
1 0 0.2 0 0 0 0.05
2 0 0.3 0.04 0 0 0.087
3 0 0.25 0.12 0.008 0 0.1001
4 0 0.2 0.19 0.036 0.0016 0.11444
5 0 0.05 0.23 0.084 0.0096 0.09974
6 0 0 0.2025 0.141 0.0296 0.09339
.. .. .. .. .. .. ..
. . . . . . .
19 0 0 0 0 10 4 1.5 ⇥ 10 5
20 0 0 0 0 6.25 ⇥ 10 6 9.375 ⇥ 10 7
pn 0.10 0.25 0.3 0.20 0.15

Hélène Guérin; 29 novembre 2012. 6


car

f ⇤2 (2) = P(X1 + X2 = 2) = P(X1 = 1)P(X2 = 1) = 0.04


f ⇤2 (3) = P(X1 + X2 = 3) = 2P(X1 = 1)P(X2 = 2) = 0.12
f ⇤2 (4) = P(X1 + X2 = 2) = 2P(X1 = 1)P(X2 = 3) + P(X1 = 2)P(X2 = 2) = 0.19
f ⇤2 (5) = P(X1 + X2 = 2) = 2P(X1 = 1)P(X2 = 4) + 2P(X1 = 2)P(X2 = 3) = 0.23
f ⇤3 (4) = P((X1 + X2 ) + X3 = 4) = P((X1 + X2 ) = 3)P(X3 = 1) + P((X1 + X2 ) = 2)P(X3 = 2) = 0.036
..
.

On applique ensuite la formule obtenu précédemment :


4
X
fSN (x) = pn f ⇤n (x).
n=0

Le calcul de la loi de SN n’est pas simple, on verra dans la suite une méthode itérative pour la calculer
dans le cas où la loi de N appartient à la famille (a, b, 0).

3.2 Fonction génératrice des moments de SN


On note
PNMY la fonction génératrice des moments d’une variable Y . Alors la fonction génératrice de
SN = i=1 Xi vérifie
1
X
⇥ zX1 +...+zXN
⇤ ⇥ ⇤
MSN (z) = E e = E ezX1 +...+zXn 1N =n
n=0
1
X ⇥ ⇤
= E ezX1 +...+zXn P(N = n) par indépendance entre les Xi et N
n=0
X1
⇥ ⇤n
= E ezX P(N = n) par indépendance entre les Xi
n=0
= MN (ln (MX (z)))

3.3 Moments de SN
• Moyenne : par indépendance entre les Xi et N on a
" "N ## "N #
X X
E[SN ] = E E Xi |N =E E[Xi |N ] = E[N ]E[X]
i=1 i=1

• Variance : on utilise la formule de la décomposition de la variance

V ar(SN ) = E[V ar(SN |N )] + V ar(E[SN |N ])


N
X N
X
= E[ V ar(Xi |N )] + V ar( E[Xi |N ]) par indépendance entre les Xi
i=1 i=1
= E[N V ar(X)] + V ar(N E[X]) car les Xi sont de même loi et indépendants de N
V ar(SN ) = E[N ]V ar(X) + V ar(N )E[X]2 .

Hélène Guérin; 29 novembre 2012. 7


• Moment centré d’ordre 3 : de même, on a
h i h i h i
E (SN E[SN ])3 = E[N ]E (X E[X])3 + 3V ar(N )E[X]V ar(X) + E (N E[N ])3 E[X]3 .

En e↵et,
2 !3 3
h i N
X
E (SN E[SN ])3 = E4 (Xi E[X]) + (N E[N ])E[X] 5
i=1
2 !3
N
X
= E4 (Xi E[X]) + (N E[N ])3 E[X]3
i=1
!2 ! 3
N
X N
X
+3 (Xi E[X]) (N E[N ])E[X] + 3 (Xi E[X]) (N E[N ])2 E[X]2 5
i=1 i=1
" #
h i h i N
X
3 3 3
= E[N ]E (X E[X]) + E (N E[N ]) E[X] + 3E (Xi E[X])2 (N E[N ]) E[X]
i=1
h i h i
= E[N ]E (X E[X])3 + E (N E[N ])3 E[X]3 + 3V ar(N )V ar(X)E[X].

Exemple Assurance Dentaire


On reprend l’exemple précédent. On a E[SN ] = E[N ]E[X] = 2.05 ⇥ 2.6 = 5.33 (en unités de 100$) et
V ar(SN ) = E[N ]V ar(X) + V ar(N )E[X]2 = 2.05 ⇥ 1.34 + 1.4475 ⇥ (2.6)2 = 12.532.
On aurait pu utiliser la loi de SN (calculée plus tôt), mais les calculs auraient été plus lourds car SN peut
prendre 20 valeurs.

Exemple 3.6. La moyenne et l’écart-type observés pour le nombre de réclamations dans les 10 derniers
mois sont 6.7 et 2.3. La moyenne et l’écart-type pour la taille des réclamations est de 179 247 et 52 141.
Alors la moyenne et l’écart-type pour la perte agrégée est

E[S] = 6.7 ⇥ 179 247 = 1 200 955


V ar(S) = 6.7 ⇥ (52 141)2 + (2.3)2 ⇥ (179 247)2
p
V ar(S) = 433 797

On souhaite approcher P(S > 1, 4 ⇥ 1 200 955).


En utilisant l’approximation normale :
S1 200 955 0, 4 ⇥ 1 200 955
P(S > 1, 4 ⇥ 1 200 955) = P( > )
433 797 433 797
' P(Z > 1, 107) = 0.134 avec Z ⇠ N (0, 1).

En utilisant l’approximation Log-Normale : S ' X avecX ⇠ Log-Normale(µ, 2 ).

Cherchons les coefficients µ, 2 convenables :


2 /2
eµ+ = 1 200 955 = e13.9986
2
e2µ+2 = (433 797)2 + (1 200 955)2 = e28,1199

Hélène Guérin; 29 novembre 2012. 8


On obtient µ = 13.9373 et 2 = 0.1226 et donc

P(S > 1, 4 ⇥ 1 200 955) ' P(X > 1681337)


✓ ◆
ln(1681337) 13.9373
=1 p =1 '(1.136) = 0.128.
0.1226
où (x) est la fonction de répartition de la loi N (0, 1).

3.4 Cas particulier : variables de Poisson composé


On va utiliser les résultats généraux de la partie précédente pour trouver les propriétés d’une variable de
Poisson composé.
Definition 3.7. Une variable de Poisson composé P C( , FX ) est un modèle agrégé de pertes où la
fréquence suit une loi de Poisson :
S = X1 + . . . + XN
avec
– les variables Xi sont i.i.d. de loi FX ,
– N suit une loi de Poisson P( ),
– Les Xi et N sont indépendants.
Exemple 3.8. On suppose que la fréquence des pertes N suit une loi de Poisson P( ) et que la sévérité
suit une loi exponentielle E( ) de moyenne 1/ . Alors S a pour densité
1
X n 1
X
x ( x)n
fS (x) = e fGamma(n, ) (x) = e .
n! n!(n 1)!x
n=0 n=0

Densité d’un Poisson Composé dans le cas où la sévérité est exponentielle.
Proposition 3.9. Fonction génératrice des moments d’un PC
Si S ⇠ P C( , FX ), alors
MS (z) = e (MX (z) 1)
où MX (z) = E[ezX ] est la fonction génératrice des moments de X.
Démonstration. Il suffitPde conditionner par N et utiliser le fait que la fonction génératrice d’une loi de
n z
Poisson vaut MN (z) = 1 n=0 n! e ezn = e (e 1) .

Hélène Guérin; 29 novembre 2012. 9


Exemple 3.10. Si on suppose que Xi ⇠ E( ), alors
(
si z <
z
MX (z) =
+1 sinon
z
et donc MS (z) = e z si z < et MS (z) = 1 sinon.

Propriété 3.11. Moments d’un PC


h i
E[S] = E[X], V ar(S) = E[X 2 ] et E (S E[S])3 = E[X 3 ].

Le coefficient de dissymétrie de SN est donc

E[X 3 ] E[X 3 ]
(S) = 3/2 E[X 2 ]3/2
= p .
E[X 2 ]3/2

On remarque que si X prend des valeurs positives, alors > 0 (la queue de distribution est toujours étalée
vers la droite).

Démonstration. On utilise le fait que si N ⇠ P( ), alors E[N ] = V ar(N ) = . h i


De plus, en utilisant la fonction génératrice des moments d’une loi Poisson on a E (N E[N ])3 = et
donc h i h i
E (S E[S])3 = E (X E[X])3 + 3 E[X]V ar(X) + E[X]3 = E[X 3 ].
h i
Remarque : on peut directement calculer E (S E[S])3 sans utiliser la formule précédente (qui est
impossible à retenir !), en utilisant la fonction génératrice des moments de S. En e↵et,
h i ⇥ ⇤ ⇥ ⇤
E (S E[S])3 = E S 3 3E S 2 E[S] + 2E[S]3
(3)
= MS (0) 3 E[X]MS00 (0) + 2 3
E[X]3 .

Comme MS (z) ⇣
=e (MX (z) 1) , MS0 (z) = MX
0 (z)e (MX (z) 1) ,
⌘ MS00 (z) = 00 (z) + M 0 (z)2 e
MX X
(MX (z) 1)
(3) (3) 0 (z)M 00 (z) + 2 M 0 (z)3 (MX (z) 1) ,
et MS (z) = MX (z) + 3 MX X X e on a
h i
3
E (S E[S]) = E[X 3 ] + 3 E[X]E[X 2 ] + 2
E[X]3 3 2
E[X] E[X 2 ] + E[X]2 + 2 3
E[X]3
= E[X 3 ].

⇣ ⌘↵
Exemple 3.12. Si S ⇠ P C( , FX ) avec FX (x) = 1 x+ loi de Pareto(↵, ), avec ↵ > 3.
On sait que

2 2 6 3
E[X] = E[X 2 ] = E[X] =
↵ 1 (↵ 1)(↵ 2) (↵ 1)(↵ 2)(↵ 3)

et donc p
2 2 3
(↵ 1)(↵ 2)
E[S] = V ar(S) = (S) = p .
↵ 1 (↵ 1)(↵ 2) 2 (↵ 3)

Hélène Guérin; 29 novembre 2012. 10


Propriété 3.13. Somme de PC
Soient k > 1 fixé et S1 , . . . , Sk des v.a. de Poisson composé indépendantes : Si ⇠ P C( i , Fi ). Alors
S1 + . . . + Sk est un P C(⇤, F ) avec
k
X k
1X
⇤= i, F (x) = i Fi (x).

i=1 i=1

Démonstration. Calculons la fonction génératrice des moments de S = S1 + . . . + Sk :


k
Y
E[ezS ] = E[ezSi ] par indépendance
i=1
k k
!!
Y X i
i (Mi (z) 1)
= e = exp ⇤ Mi (z) 1 .

i=1 i=1

k
X i 1 Pk
Par ailleurs, on remarque que Mi (z) est la fonction génératrice de la loi mélange F (x) = ⇤ i=1 i Fi (x).

i=1

Hélène Guérin; 29 novembre 2012. 11


4 Prime Stop-Loss
Il est usuel d’appliquer une franchise sur le montant des pertes.
Definition 4.1. Un contrat d’assurance avec une franchise d sur les pertes est appelé Stop-Loss. Son coût
moyen est appelé prime stop-loss nette ( stop-loss premium) et vaut
E[(S d)+ ] où x+ = max(x, 0),

où S est le montant des sinistres.


On remarque que
Z 1 Z 1
E[(S d)+ ] = (x d)fS (x)dx = [1 FS (x)]dx dans le cas où les pertes sont à densité,
d
X X d
E[(S d)+ ] = (x d)fS (x) = [1 FS (x)] dans le cas où les pertes sont discrètes.
x>d x>d

Démonstration. En e↵et, dans le cas à densité


Z 1 Z 1
1
[1 FS (x)]dx = [(1 FS (x))(x d)]d + (x d)fS (x)dx par IPP avec u = 1 FS (x) et v = x d
d d
Z 1
= (x d)fS (x)dx.
d

et dans le cas discret


X X XX
[1 FS (x)] = P(S > x) = fS (y)
x>d x>d x>d y>x
X X X X
= fS (y) = (y d)fS (y) = (y d)fS (y).
y>d d6x<y y>d y>d

Evolution de la prime Stop−Loss pour un Poisson Composé (10,Exp(2))


5


4


Prime Stop−Loss


2


1







● ●
● ● ● ●
● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●
0

0 5 10 15 20

Theorem 4.2. Soit a < b tels que P(a < S < b) = 0. Alors pour a 6 d 6 b, on a
b d d a
E[(S d)+ ] = E[(S a)+ ] + E[(S b)+ ].
b a b a
La prime stop-loss peut être calculée par interpolation linéaire.

Hélène Guérin; 29 novembre 2012. 12


Démonstration. L’hypothèse signifie que FS (x) = FS (a) pour tout x 2 [a, b). On a donc
Z 1
E[(S d)+ ] = (1 FS (x))dx
d
Z d
= E[(S a)+ ] (1 FS (x))dx = E[(S a)+ ] (d a)(1 FS (a))
a
Z b
= E[(S b)+ ] + (1 FS (x))dx = E[(S b)+ ] + (b d)(1 FS (a))
d

Par conséquent, en faisant la di↵érence, on a (b a)(1 FS (a)) = E[(S a)+ ] E[(S b)+ ] et donc
d a b d
E[(S d)+ ] = E[(S b)+ ] + E[(S a)+ ].
b a b a
La preuve dans le cas discret est similaire, il suffit de remarquer que :
X X
E[(S d)+ ] = E[(S a)+ ] (1 FS (x)) = E[(S b)+ ] + (1 FS (x)).
a6x<d d6x<b

Exemple Assurance Dentaire

Reprenons l’exemple précédent. On souhaite calculer le prime stop-loss avec une franchise de 100$, de
150$, de 200$ et enfin de 1800$.
1. pour d = 1 (SN a été étudié en unité de 100$) : on a
X
E[(SN 1)+ ] = E[SN 1] (x 1)fS (x)
x61
= 5.33 1 ( 1.fS (0) + 0.fS (1))
= 4.33 + 0.1 = 4.43 (unités de 100$).

2. pour d = 2 : on a
X
E[(SN 2)+ ] = E[SN 2] (x 2)fS (x)
x62
= 5.33 2 ( 2.fS (0) 1.fS (1) 0..fS (2))
= 3.33 + 2 ⇥ 0.1 + 1 ⇥ 0.05 = 3.58.

3. pour d = 1, 5 : on a P(1 < S < 2) = 0 (S est à valeurs entières), par conséquent

E[(SN 1.5)+ ] = 0.5E[(SN 1)+ ] + 0.5E[(SN 2)+ ]


= 4.005

4. pour d = 18 : on a
X
E[(SN 18)+ ] = (x 18)fS (x) = fS (19) + 2.fS (20)
x>18
5
= 1, 6875 ⇥ 10

Hélène Guérin; 29 novembre 2012. 13


Remarque 4.3. Dans le cas discret, si on suppose SN à valeurs dans {0, h, 2h, 3h, . . .} pour h > 0 fixé.
On note fk = P(S = kh). alors

E[(S (k + 1)h)+ ] = E[(S kh)+ ] h(1 FS (kh)).

Cette remarque permet de calculer la prime stop-loss pas à pas dans le cas discret.
On a bien dans l’exemple précédent,

E[(SN 2)+ ] = E[(SN 1)+ ] (1 FSN (1)) = 4.43 (1 0.1 0.05) = 3.58.

Démonstration.
X
E[(S kh)+ ] = (x kh)fk
x>kh
X X X X
= (ih kh)fk = h (i k)fk = h j = 0i k 1
fk
i>k i>k+1 i>k+1
XX X
=h i > k + j + 1fk = h [1 FS ((k + j)h)]
j>0 j>0

Par conséquent,
X
E[(S kh)+ ] = h(1 FS (kh)) + h [1 FS ((k + j)h)] = h(1 FS (kh)) + E[(S (k + 1)h)+ ].
j>1

Hélène Guérin; 29 novembre 2012. 14


5 Résultats analytiques : calculs explicites et approximations de la loi
de SN
En général, la fonction de répartition de SN est difficilement calculable. Cependant, il existe certains cas
où on a des résultats analytiques plus ou moins faciles à utiliser.
Exemple 5.1. Si N suit une géométrique G( ) et X suit une exponentielle de moyenne ✓
La fonction génératrice de N est
1
MN (z) =
1 (ez 1)
et celle de X est
1
MX (z) = si z < 1/✓
1 ✓z
Alors
1 ✓z (1 + )(1 ✓z)
MSN (z) = MN (ln (MX (z))) = =
1 ✓(1 + )z (1 + )(1 ✓(1 + )z)
1 1
= +
(1 + ) + 1 1 ✓(1 + )z
Ceci est le fonction génératrice des moments d’une loi connue. Il s’agit en fait du mélange qui vaut 0 avec
probabilité 1/( + 1) et qui vaut E avec probabilité /( + 1) et E suit une loi exponentielle de moyenne
✓( + 1).
Loi
La variable SN = Z ⇥ E où Z ⇠ Bernoulli de paramètre /( + 1) et E ⇠ Exp de moyenne ✓( + 1)
avec Z et E indépendantes.
La fonction de répartition d’une telle variable est, pour x > 0
1 x x
FSN (x) = + (1 e ✓( +1) )=1 e ✓( +1) .
(1 + ) +1 +1

5.1 Lois fermées pour la convolution


Definition 5.2. La loi fX (x, ↵) d’une variable X est dite fermée pour la convolution si la loi de la somme
de n variables indépendantes de loi fX (x, ↵) est fX (x, n↵), i.e. fX (x, ↵)⇤n = fX (x, n↵) (on reste dans la
même famille).
Exemple 5.3. La loi Gamma, la loi binomiale négative et la loi Normale sont fermées pour la convolution.
Exemple 5.4. L’inverse Gaussienne est fermée pour la convolution
Démonstration. On considère l’inverse Gaussienne IG( , ). On souhaite montrer que si X1 , . . . , Xn sont
des variables indépendantes de loi IG( , ), alors X1 + . . . + Xn a pour loi IG(n , ).
La fonction génératrice des moments d’une IG( , ) est
Z 1 
zx 3/2 1 2 1
MX (z) = p e e x exp ( x + 2 x) dx
2⇡ 0 2
Z 1 
1 2 1
=p e x 3/2 exp ( x + ( 2 2z)x) dx
2⇡ 0 2
p Z
2⇡ p 2 2z
=p e ⇥ e fIG( ,p 2 2z) (x)dx
2⇡ R
⇣p ⌘
2 2z+
=e pour z < 2 /2.

Hélène Guérin; 29 novembre 2012. 15


Par conséquent,
⇣p ⌘
n 2 2z+
n 2
MX1 +...+Xn (z) = (MX (z)) = e pour z < /2.

Par conséquent, X1 + . . . + Xn ⇠ IG(n , ).

Les calculs numériques de la loi d’une somme agrégée sont plus simples lorsque
– N prend un nombre fini de valeurs (par exemple, loi Binomiale),
– la loi de X est fermée pour la convolution.

5.2 Méthode d’inversion


Il est en général plus facile de calculer la fonction génératrice de S que sa densité. On va voir une méthode
d’inversion permettant de trouver la loi de S à partir non pas de sa fonction génératrice, mais de sa
transformée de Fourier.
La transformée de Fourier de S est définie par
Z
ˆ izS
fS (z) = E[e ] = eizx fS (x)dx = MS (iz) avec z 2 R.
R

Le théorème de Lévy stipule que si la transformée de Fourier fˆS est intégrable, alors
Z
1
fS (x) = e izx fˆS (z)dz.
2⇡ R

Il existe di↵érentes méthodes numériques pour calculer ce type d’intégrale. Cette méthode ne sera pas
exploitée dans ce cours.

5.3 Algorithme de Panjer pour calculer la loi de SN pour des sévérités discrètes
On se place dans le cadre où N appartient à la famille (a, b, 0) et où X est discrète à valeurs dans
{0, 1, 2, . . . , m} (m peut être 1). On va montrer qu’on a alors une formule récursive pour calculer fSN .
Comme N appartient à la famille (a, b, 0), pn = P(N = n) vérifie

b
pn = (a + )pn 1, n > 1.
n
La loi de SN est définie comme la somme pondérée des convolées de la loi de X :
1
X x
X
⇤n ⇤n ⇤(n 1)
fSn (x) = pn f X (x) avec fX (x) = fX (y)fX (x y).
n=0 y=0

Faisons d’abord deux remarques :


n
X x
E[X1 | Xi = x] =
n
i=1
n
X ⇤(n 1)
fX (y)fX (x y)
P(X1 = y| Xi = x) = ⇤n pour y 2 {0, 1, . . . , x}.
fX (x)
i=1

Hélène Guérin; 29 novembre 2012. 16


En e↵et,
n
X n
X n
X
nE[X1 | Xi = x] = E[Xi | Xi = x] = x car les Xi sont de même loi,
i=1 i=1 i=1
Xn P
P(X1 = y, ni=2 Xi = x y)
P(X1 = y| Xi = x) = P
P( ni=1 Xi = x)
i=1
P
P(X1 = y)P( ni=2 Xi = x y)
= P par indépendance entre les Xi
P( ni=1 Xi = x)
⇤(n 1)
fX (y)fX (x y)
= ⇤n .
fX (x)

On obtient par conséquent, pour x > 1


1
X 1
X b
fSN (x) = pn f ⇤n (x) = (a +
)pn 1 fX⇤n
(x) car pour x > 1, fX ⇤0
(x) = 0
n
n=0 n=1
1 1
" n
#
X X X 1
X
⇤n ⇤n
=a pn 1 fX (x) + b E | X i = x pn 1 f X (x)
x
n=1 n=1 i=1
X1 x
X 1 X
X x ⇤(n 1)
⇤(n 1) y fX (y)f X (x y) ⇤n
=a pn 1 fX (y)fX (x y) + b ⇤n pn 1 fX (x)
x fX (x)
n=1 y=0 n=1 y=0
Xx X1 Xx X 1
⇤(n 1) y ⇤(n 1)
=a fX (y) pn 1 f X (x y) + b fX (y) pn 1 fX (x y)
x
y=0 n=1 y=0 n=1
Xx x
X y
=a fX (y)fSN (x y) + b fX (y)fSN (x y)
x
y=0 y=0
x h
X yi
= afX (0)fSN (x) + a+ fX (y)fSN (x y)
x
y=1

Proposition 5.5. Si N appartient à la famille (a, b, 0) et si X est à valeurs discrètes, alors pour tout
x>1
x h
1 X yi
fSN (x) = a + b fSN (x y)fX (y).
1 afX (0) x
y=1

On peut donc calculer fSN (x) pour x > 1 de façon récursive :


1
X
fSN (0) = pn (fX (0))n
n=0
1
fSN (1) = (a + b)fSN (0)fX (1)
1 afX (0)
1
fSN (2) = [(a + b/2)fSN (1)fX (1) + (a + b)fSN (0)fX (2)]
1 afX (0)
..
.

Remarque 5.6.

Hélène Guérin; 29 novembre 2012. 17


– Si m est fini, alors fX (y) = 0 pour y > m et donc la formule se réécrit
1 Xh
x^m
yi
fSN (x) = a + b fSN (x y)fX (y)
1 afX (0) x
y=1

où x ^ m = min(x, m).


– Si fX (0) = P(X = 0) = 0, alors fSN (0) = p0 = P(N = 0).
– Si fSN (0) est très petite au point que la calculatrice lui associe la valeur 0, alors enP
utilisant cette méthode
la calculatrice donnera fSN (x) = 0 pour tout x > 1 ! ! ! (ce qui est impossible car x>0 fSN (x) = 1). On
ne peut pas appliquer la formule récursive directement. On verra plus tard un moyen de contourner ce
problème dans le cadre des v.a. de Poisson composé.
– Un autre inconvénient de cette méthode est qu’on accumule au fur et à mesure les erreurs d’arrondi.
Notamment si N suit une loi binomiale (a < 0) et on pourrait se retrouver avec des probabilités négatives
à cause des erreurs d’arrondi.
Exemple 5.7. Supposons que N suit une loi de Poisson P( ). N est dans la famille (a, b, 0) avec a = 0
et b = . Par conséquent
Xx
fSN (x) = xfSN (x y)fX (y).
n
y=1
Application 5.8. Double composition
Lorsqu’on regarde le cas des réclamations pour des polices couvrant plusieurs individus, la fréquence est
elle même un modèle composé. Par exemple, on pourrait imaginer que chaque police couvre au maximum
n personnes qui ont chacune une probabilité q d’avoir un sinistre :
M
X
N= Ni avec M ⇠ P( ) et N i ⇠ Binomiale(n, q)
i=1
où Ni est le nombre de réclamations de la police i et M le nombre de police.
N est un P C( , Binomiale(n, q)) et n’est pas dans la famille (a, b, 0). On ne pas utiliser directement la
formule récursive.
Par contre, en découpant selon chaque police d’assurance, on a
N
X M
X Ni
X
(loi)
SN = Xj = Si avec Si = Xj .
j=1 i=1 j=1

Comme N ⇠ Binomiale(n, q) il appartient à la famille (a, b, 0), on peut donc utiliser la formule récursive
pour calculer la loi de S avec a = q/(1 q) et b = (n + 1)q/(1 q). Puis, comme M appartient aussi à
la famille (a, b, 0) avec a = 0 et b = , on en déduit la loi de S.
Exemple 5.9. Plaçons nous dans le cadre de l’application précédente en supposant que X ne prenne que
deux valeurs
P(X = 1) = P(X = 2) = 1/2
et que N ⇠ Binomiale(n = 2, q = 1/2) et M ⇠ P(1). S est à valeurs dans {0, 1, 2, 3, 4} et a = 1 et b = 3
fS (0) = P(N = 0) = 1/22 = 1/4
fS (1) = 2.1/4.1/2 = 1/4
fS (2) = ( 1 + 3/2).1/4.1/2 + 2.1/4.1/2 = 5/16
fS (3) = ( 1 + 1).5/16.1/2 + ( 1 + 2)1/4.1/2 = 1/8
fS (4) = ( 1 + 3/4).1/8.1/2 + ( 1 + 6/4).5/16.1/2 = 1/64 + 5/64 = 1/16.

Hélène Guérin; 29 novembre 2012. 18


SN est à valeurs dans N, avec a = 0 et b = 1
1
X
1 1 3/4
fS (0) = e =e = 0.4723
m!4m
m=0
1
fS (1) = fS (0)fS (1) = e 3/4 = 0.1181
4 ✓ ◆
1 1 1 10 11
fS (2) = fS (1)fS (1) + 2fS (0)fS (2) = + e 3/4 = e 3/4 = 0.1624
2 2 16 16 32
✓ ◆
1 1 11 10 3 79
fS (3) = fS (2)fS (1) + 2fS (1)fS (2) + 3fS (0)fS (3) = + + e 3/4 = e 3/4
= 0.0972
3 3 128 64 8 384
..
.
x^4
1X
fS (x) = xfS (x y)fS (y)
n
y=1

Remarque 5.10. Supposons que N suit une loi de Poisson P( ) et que fS (0) est très proche de zéro.
Pour pouvoir tout de même utiliser la formule récursive, on fixe k > 1 et on définit N ⇤ ⇠ P( ⇤ ) avec
⇤ = /2k .

On remarque que N est la somme de 2k variables N ⇤ indépendantes. P



On applique la formule récursive avec N ⇤ pour calculer la loi de S ⇤ = N i=1 Xi et en utilisant la double
(loi) P2k ⇤ ⇤ ⇤
composition on obtient la loi de S = j=1 Sj avec Sj i.i.d. de même loi que S en calculant les convolées
successives de fS ⇤ via la formule :
X ⇤(n 1)
fS⇤n⇤ (x) = fS ⇤ (y)fS ⇤ (x y).
y>0

Plus k est grand plus la valeur de fS ⇤ (0) sera grande. Il faut donc choisir k suffisamment grand pour
Pk
que fS ⇤ (0) soit assez grand, mais pas trop grand afin que le calcul de la loi de 2j=1 Sj⇤ ne soit pas trop
pénible.

Exemple 5.11. Supposons que N ⇠ P(1) et X de loi

x 0 1 2 3 4
fX (x) 1/4 1/4 5/16 1/8 1/16

On a fS (0) = e 3/4 = 0.4723. Même si fS (0) est suffisamment grand, on va utiliser la remarque précédente
avec k = 1. P n
On a fS ⇤ (0) = 1 n (1/2) e 1/2 = e1/8 1/2 = e 3/8 = 0.6873, qui est bien plus grand que f (0).
n=0 (1/4) n! S
En utilisant R, on calcule la loi de S ⇤

x 0 1 2 3 4 ...
fS ⇤ (x) 0.6873 0.0859 0.1127 0.0566 0.0361 . . .

Pour trouver la loi de S = S1⇤ + S2⇤ avec S1⇤ et S2⇤ indépendantes de même loi que S ⇤ , on utilise R :

x 0 1 2 3 4 ...
fS (x) 0.4724 0.1181 0.1624 0.0972 0.0720 . . .

Hélène Guérin; 29 novembre 2012. 19


5.4 Généralisation de l’algorithme de Panjer à des sévérités continues
Supposons que N appartient
PN à la famille (a, b, 0) et que X suit une loi fX sur R+ . On peut montrer que
la densité de SN = i=1 Xi vérifie
Z xh
yi
fSN (x) = p1 fX (x) + a + b fX (y)fSN (x y)dy.
0 x

Cette formule est beaucoup moins exploitable que dans le cas discret. Il existe cependant des méthodes
numériques pour trouver une approximation de la solution de ce type d’équation, méthodes que nous ne
verrons pas.
L’idée qu’on va plutôt utiliser est la suivante :
– on discrétise la loi de X (on parle d’arithmétisation des lois continues),
– on applique la formule de Panjer avec la loi discrétisée de X.
Le but de cette section est d’expliquer la discrétisation de lois continues par di↵érentes méthodes.
Notations :
– Si FX est la fonction de répartition de la variable X, alors

FX (x ) = P(X < x).

– Soit h une fonction et FX une fonction de répartition, on note


Z v Z
h(x)dFX (x) = h(x)dFX (x).
u [u,v)

Si FX est la fonction de répartition d’une loi à densité fX , on a alors


Z v Z v
h(x)dFX (x) = h(x)fX (x)dx.
u u

5.4.1 Méthode des arrondis


On note FX la fonction de répartition de X. On choisit le pas de discrétisation h > 0.
On approche la loi FX par une loi discrète sur {0, h, 2h, . . .}.

h 2h 3h 4h 5h

Hélène Guérin; 29 novembre 2012. 20


On définit
h
f h (0) = P(X < ) = FX (h/2 )
2
h h
f h (h) = P( 6 X < h + ) = FX ((h + h/2) ) FX (h/2 )
2 2
..
.
h h
f h (jh) = P(jh 6 X < jh + ) = FX ((jh + h/2) ) FX ((jh h/2) )
2 2
On remarque que l’on a bien
1
X 1
X
f h (j) = FX ((jh + h/2) ) FX ((jh h/2) ) = lim FX ((jh + h/2) ) = 1.
j!1
j=0 j=0

Exemple 5.12. Si X suit la loi Exp(0.1). On choisit h = 2, on a alors

f h (0) = P(X < 1) = 1 e 0.1

f h (2) = P(1 6 X < 3) = e 0.1


e 0.3

..
.
f h (2j) = P(2j 1 6 X < j + 1) = e 0.1(2j 1)
e 0.1(2j+1)

On trouve
x = 2j 0 2 4 6 ...
f 2 (x) 0.09516258 0.16401920 0.13428756 0.10994536 . . .
Plus on garde de décimal dans l’approximation de fX meilleur est cette méthode. Le grand intérêt de
cette méthode est qu’elle est très facilement implémentable avec n’importe quel logiciel.

5.4.2 Méthode des moments


Attention cafouillage : il se peut que la notation du cours soit légèrement de celle des notes pour les poids :
mkj , mjk . . .
On choisit p > 0 et h > 0.
On va construire une loi discrète dont ses moments jusqu’à l’ordre p correspondent aux moments de la
loi initiale des sévérités.
Considérons un intervalle arbitraire de longueur ph : [xk , xk + ph), avec h > 0 fixé.
On associe au point xk , xk + h, xk + 2h, . . . , xh + ph les poids m0k , m1k , m2k , . . . , mpk de tel manière que les
p premiers moments sur l’intervalle [xk , xk + ph) soient préservés :
p
X Z xk +ph
(xk + jh)r mjk = xr dFX (x) pour r = 0, 1, . . . , p.
j=0 xk

On pose x0 = 0 et xk+1 = xk + ph (i.e. xk = kph). À chaque point on associe les poids suivants
x0 = 0 f h (0) = m00 x1 = x0 + ph f h (p) = mp0 + m01 x2 = x1 + ph f h (2p) = mp1 + m02 ...
x0 + h f h (1) = m10 x1 + h f (p + 1) = m11
h
x2 + h f (2p + 1) = m12
h
...
.. .. .. ..
. . . .
x0 + (p 1)h f h (p 1) = mp0 1
x1 + (p 1)h f h ((2p 1)h) = mp1 1
x2 + (p 1)h f h ((3p 1)h) = mp2 1
...

Hélène Guérin; 29 novembre 2012. 21


m00 m01 m02 m03 m0p-1 m0p m 1 m12
1
+m10

X1=X0p
X0=0 =ph

X01 X02 X03 …. X0p-1 X11 X12


= = = = = =
h 2h 3h (p-1)h X1+h 1 +2h
X

Vérifions que les p premiers moments de la loi discrétisée f h sont égaux à ceux de la loi FX . Soit r 6 p,
on a
Z 1 X1 Z xk+1
xr dFX (x) = xr dFX (x)
0 k=0 xk
X1 Xp
= (xk + jh)r mjk
k=0 j=0
p 1
1 X
X
= (xk + jh)r f h (kp + j).
k=0 j=0

Il reste maintenant à trouver les valeurs mjk qui vérifient la relation


p
X Z xk +ph
(xk + jh) r
mjk = xr dFX (x) pour r = 0, 1, . . . , p.
j=0 xk

Proposition 5.13. On a
Z xk +ph p
Y x xk ih
mjk = dFX (x) j = 0, 1, . . . , p.
xk (j i)h
i=0
i6=j

De manière général on utilise cette discrétisation avec p = 1, 2 ou 3.

Démonstration. Soit g une fonction qui passe par les points (y0 , g(y0 )), (y1 , g(y1 )), . . . , (yn , g(yn )). Le
polynôme de Lagrange Pg est le seul polynôme de degré au plus n qui approche la fonction g en passant
par les points (y0 , g(y0 )), (y1 , g(y1 )), . . . , (yn , g(yn )) :
n
X Y y yi
Pg (y) = g(yj ) .
yj yi
j=0 i6=j

Hélène Guérin; 29 novembre 2012. 22


On utilise cette approximation pour la fonction polynomiale g(y) = y r avec les yj = xk + jh, j = 0 . . . , p :
pour y 2 [xk , xk + ph)
p
X Yy xk ih
Pr (y) = y r = (xk + jh)r
(j i)h
j=0 i6=j

On intègre par rapport à la loi de X sur [xk , xk + ph) et on obtient


Z xk +ph p
X Z xk +ph Yy
r r xk ih
y dFX (y) = (xk + jh) dFX (y).
xk xk (j i)h
j=0 i6=j
| {z }
mjk

Exemple 5.14. Si X suit la loi Exp(0.1). On va utiliser la méthode avec p = 1 et h = 2. On a donc

x0 = 0 f h (0) = m00 , x1 = 2 f h (1) = m10 + m01 , . . . , xk = 2k f h (k) = m1k 1 + m0k , . . .

Calculons les valeurs mjk :


Z 2k+2 ✓ ◆ 2k+2
x 2k 2 x 2k 2 1
m0k = 0.1e 0.1x
dx = + e 0.1x
= 5e 0.1(2k+2)
4e 0.1⇥2k
2k 2 2 0.2 2k
Z 2k+2 ✓ ◆ 2k+2
x 2k x 2k 1
m1k = 0.1e 0.1x
dx = e 0.1x
= 6e 0.1(2k+2)
+ 5e 0.1⇥2k
2k 2 2 0.2 2k

On a par conséquent

x = 2k 0 2 4 6 ...
f 2 (x) m00 1
m0 + m10 1 0
m1 + m2 = 1
m2 + m30 ...
= 0.09365377 = 0.16429270 = 0.13451149 = 0.11012869

Cette méthode de discrétisation est meilleur que la première dans le sens où elle approche la loi continue
sans biais sur les p premiers moments, mais elle est malheureusement plus compliquée à implémenter.

Dans le package ”actuar” de R, il y a la fonction discretize qui permet de discrétiser une loi continue
avec di↵érentes méthodes : upper qui correspond à la méthode des arrondis par valeur supérieur, lower
qui correspond à la méthode des arrondis par valeur inférieur, rounding qui correspond à la méthode des
arrondis comme expliquée ici et enfin unbiased qui correspond à la méthode des moments avec p = 1.

Hélène Guérin; 29 novembre 2012. 23


6 Influence de la police d’assurance sur les pertes agrégées
Le nombre de pertes considérées et le montant des paiements e↵ectués par un assureur dépendent des
termes du contrat d’assurance (par exemple de la franchise, du taux maximal de remboursement, etc. . . ).
On introduit
– N le nombre des pertes,
– N P le nombre de paiements,
– Xj le montant de la perte j et
– Yj le montant du paiement pour la j ème perte.
On va dans cette partie s’intéresser aux variables N P et Yj .

Exemple 6.1. Si la police d’assurance comprend juste une franchise d, alors une perte a une probabilité
P(X > d) d’avoir un paiement. Il y a des pertes qui n’auront pas de paiement.
Par ailleurs, le paiement sera Y = (X d)+ pour une perte valant X. (Voir l’exemple 1.2 de ce chapitre).

6.1 Nombre et montant des paiements


Notons v = P( la perte X induit un paiement Y ) la probabilité d’avoir un paiement et g la fonction qui
donne la valeur du paiement en fonction du montant de la perte :

Y = g(X).

0 si Yj = 0
On introduit les variables Ij = 1Yj >0 = pour chaque paiement Yj . La variable I suit une
1 si Yj > 0
loi Bernoulli(v). Le nombre total de paiements est donc
N
X
NP = Ij .
j=1

Dans un modèle de pertes agrégées le nombre de perte N et les montants des pertes Xj sont (en général)
supposés indépendants. Par conséquent, les variables N et Ij sont indépendantes et N P est une somme
composée.
On remarque que
E[N P ] = vE[N ].
La fonction génératrice des moments de N P est donnée par :
h P
i h i
MN P (z) = E ezN = E (1 + v(ez 1))N .

Exemple 6.2. Supposons que N ⇠ BN (r = 2, = 3) et X ⇠ P areto(↵ = 3, ✓ = 1000). On considère


une police avec une franchise d = 250$. Par conséquent :
✓ ◆3
1000
Y = (X 250)+ et v = P(X > 250) = = 0.512.
1000 + 250

Comme N ⇠ BN (r = 2, = 3),
✓ ◆2
⇥ N
⇤ 1
PN (z) = E z =
1 3(z 1)

Hélène Guérin; 29 novembre 2012. 24


la fonction génératrice du nombre de paiements est :
✓ ◆2
1
MN P (z) = .
1 3v(ez 1))

On reconnait la fonction génératrice de la loi BN (r = 2, ⇤ = 3v). Ce résultat est logique car une loi
Binomiale négative représente le nombre d’échecs nécessaires pour avoir r succès. En introduisant une
franchise, on a juste modifié la probabilité d’avoir un succès.
Le nombre moyenne de pertes est E[N ] = r = 6 alors que le nombre moyen de paiements est E[N P ] =
6v = 3, 072.
Si jamais la compagnie décide de passer d’une franchise de 250$ à 500$, le nombre moyenne de paiements
sera alors ✓ ◆3
P 1000
E[N ] = 6 ⇤ = 1, 778.
1000 + 500

6.2 Paiements e↵ectifs


On peut vouloir ne s’intéresser qu’aux paiements e↵ectifs : Y P = Y |Y > 0. On a P(Y P = 0) = 0.
Nos données ne concernent alors que les pertes qui ont donné lieu à un paiement (on n’est pas au courant
des pertes qui n’ont pas enclenché de paiement.)
Étudions la loi de Y P :

FY P (y) = P(Y P 6 y) = P(Y 6 y|Y > 0)


P(0 < Y 6 y) P(Y 6 y) P(Y = 0)
= =
P(Y > 0) v
1 (1 v)
= FY (y) .
v v
1 1 v
MY p (z) = E[ezY |Y > 0] = MY (z)
v v
Exemple 6.3. Considérons une police avec une franchise d = 2. On suppose que le montant des pertes
X ⇠ Exp de moyenne ✓ = 10. On a
Y = g(X) = (X 2)+ .
Cherchons la loi de Y P . On a v = P(X > 2) = e 0.2 . Par ailleurs, pour y > 0
y+2
FY (y) = P((X 2)+ 6 y) = P(X 6 y + 2) = 1 e 10

et donc ⇣ y+2
⌘ y
FY P (y) = e0.2 1 e 10 e0.2 1 e 0.2
=1 e 10

On remarque que Y P ⇠ Exp de moyenne 10.

Remarque 6.4. – Si on connaı̂t X on peut connaı̂tre Y et Y P .


– Si on connaı̂t la loi de Y P , on peut connaı̂tre Y .

Le paiements total des pertes s’écrit


N NP
X X
S= Yj = YjP .
j=1 j=1

Hélène Guérin; 29 novembre 2012. 25


Si on regarde la loi de S, on a alors
⇥ ⇤ ⇥ ⇤ h P
i
MS (z) = E MY (z)N = E (1 v + vMY P (z))N = E MY p (z)N

Les pertes agrégées peuvent donc être modélisées en terme de Y ou de Y P . Le choix dépendra des données
disponibles et des calculs à faire.
Exemple 6.5. On suppose que le nombre de pertes suit une loi Poisson( = 3) et que le montant des
pertes X ⇠ P areto(↵ = 4, ✓ = 10).
On considère une police d’assurance avec une franchise d = 6$ et qui rembourse 75% des pertes en l’excès.
On souhaite trouver la loi des pertes agrégées et leur montant espéré.
P
1. Si on utilise S = N j=1 Yj avec Yj = 0.75(Xj 6)+ , on a E[S] = E[N ]E[Y ], avec E[N ] = 3 et

E[Y ] = 0.75E[(X 6)+ ]


= 0.75[E[X] E[X ^ 6]] = 0.75[E[X] LevX (6)]
" ✓ ◆↵ 1 !#
✓ ✓ ✓
= 0.75 1
↵ 1 ↵ 1 6+✓
Z 1
ou ↵✓↵
= 0.75[E[(X 6)1X>6 ]] = 0.75 (x 6) dx
6 (x + ✓)↵+1
Z 1✓ ◆
↵✓↵ (✓ + 6)↵✓↵ 0.75 ↵ ↵+1
= 0.75 ↵ ↵+1
dx = ✓ (6 + ✓)
6 (x + ✓) (x + ✓) ↵ 1
= 0.61035.

et donc E[S] = 1.83105.


PN P P
2. Si on utilise S = Y , il faut calculer E[N P ] et E[Y P ]. On remarque que N P suit la loi
⇣ j ⌘↵
j=1

Poisson(v ) avec v = 6+✓ = 0.1526 et = 3.
Cherchons la loi de S : on a, pour y > 0

FY P (y) = P(0.75(X 6) 6 y|X > 6) = 1 P(X > 6 + y/0.75|X > 6)


✓ ◆↵
P(X > 6 + y/0.75) 6+✓
=1 =1
P(X > 6) 6 + y/0.75 + ✓
✓ ◆4
16
=1
16 + y/0.75

Pour obtenir la loi de S, on peut discrétiser la loi de Y P (par la méthode des moments ou des
arrondis) et ensuite utiliser l’algorithme de Panjer avec N P appartient à la la famille (a, b, 0) avec
a = 0 et b = 3v = 0.45776.

7 Quelques mots à propos du modèle individuel


Ce modèle a été introduit en assurance vie. On considère n polices d’assurance, n est connu (c’est une
constante). On note Xi le montant des réclamation de la ième police. Le montant total des réclamations
est
Xn
S= Xi
i=1

Hélène Guérin; 29 novembre 2012. 26


où les Xi sont supposés indépendants,
⇢ mais pas forcément de même loi.
0 si la personne i est en vie
En assurance vie, on a Xi = , bi étant le montant inscrit dans la police
bi si la personne i décède
d’assurance de la personne i.
On note qi la probabilité que la personne i décède. On a donc P(Xi = bi ) = 1 P(Xi = 0) = qi

Remarque 7.1. Si les Xi sont i.i.d. avec bi = 1 alors S ⇠ Binomiale(n, q).

Le montant moyen des réclamations est


n
X n
X
E[S] = E[Xi ] = bi q i .
i=1 i=1

Comme les Xi sont indépendants, la variance des réclamations est


n
X n
X
V ar(S) = V ar(Xi ) = b2i qi (1 qi ).
i=1 i=1

La fonction génératrice des moments de S est par indépendance des Xi


n
Y n
Y
MS (z) = MXi (z) = (qi ezbi + (1 qi )).
i=1 i=1

On peut généraliser ce modèle en prenant des montants de paiement Bi aléatoires :



0 avec proba 1 qi
Xi = Ii ⇥ Bi avec Ii = en supposant Bi et Ii indépendants.
1 avec proba qi

On a alors
n
X n
X n
X
E[S] = qi E[Bi ] V ar(S) = V ar(Ii Bi ) = qi V ar(Bi ) + qi (1 qi )E[Bi ]2 .
i=1 i=1 i=1

Exemple 7.2. Une police d’assurance vie pour un groupe d’employés contient une compensation en cas
de décès accidentel.
La probabilité de décès est 0.01 et 30% des décès sont accidentels.
Pour 50 employés, le bénéfice est 50 000$ en cas de décès ordinaire et 100 000$ en cas de décès accidentel.
Pour 25 employés, le bénéfice est 75 000$ en cas de décès ordinaire et 150 000$ en cas de décès accidentel.
Calculons la moyenne et la variance des paiements pour l’assureur.
Pour les employés, on a ⇢ qi = 0.01. ⇢
50 000 avec proba 0.7 100 000 avec proba 0.7
Pour i = 1, . . . , 50, Bi = et pour i = 51, . . . , 75, Bi = .
100 000 avec proba 0.3 150 000 avec proba 0.3
X75
Alors E[S] = qi E[Bi ] = 0.01(50 ⇥ (50 000 ⇤ 0.7 + 100 000 ⇤ 0.3) + 25 ⇥ (75 000 ⇤ 0.7 + 150 000 ⇤ 0.3)) = 56 875
i=1
et V ar(S) = 5 001 984 375.

Hélène Guérin; 29 novembre 2012. 27


8 Quelques exercices
8.1 Propriétés et étude de SN
Exercice 1. Une compagnie modélise ses pertes agrégées. On modélise la moyenne des pertes m, qui est
inconnue, avec une loi uniforme U ([2, 4]). Connaissant m, les pertes agrégées sont modélisées avec une loi
exponentielle. Calculer la valeur espérée des pertes.

Corrigé On sait que S|m ⇠ Exp(1/m) et m ⇠ U([2, 4]).

E[SN ] = E[E[SN |m]] = E[m] = (4 + 2)/2 = 3.

Exercice 2. On suppose que N ⇠ BN (r = 15, = 5) et Xi ⇠ U ([0, 10]). Calculer la prime ⇡ telle que
P(SN > ⇡) = 0.05 en utilisant une approximation normale.

Corrigé On a

E[SN ] = E[N ]E[X] = 15 ⇥ 5 ⇥ 5 = 375


100
V ar(SN ) = E[N ]V ar(X) + V ar(N )E[X]2 = 75 ⇥ + 75 ⇥ 6 ⇥ 52 = 11875.
12
Alors ✓ ◆ ✓ ◆
S 375 ⇡ 375 ⇡ 375
P(S > ⇡) = 0.05 = P p >p 'P Z>
11875 11875 sqrt11875
⇡ 375
avec Z ⇠ N (0, 1), d’où p
11875
= 1.6449 et donc ⇡ = 554.245. 4

Exercice 3. Les assurés automobiles sont regroupés en trois classes (en fonction du nombre d’accidents de
l’année précédente). Le nombre de réclamation pour chaque assuré suit une loi de Poisson P( ). Calculer
la variance du nombre de réclamations d’un assuré choisi au hasard.
On a les données suivantes
classe % de la population
1 0.25 5
2 0.25 3
3 0.50 2
Corrigé On est dans un cadre d’un mélange de lois : si on note N le nombre de réclamation d’un assuré,
on a N | ⇠ P( ) et suit la loi discrète : P( = 5) = 0.25 = P( = 3) et P( = 2) = 0.5.
On a alors
V ar(N ) = E[V ar(N | )] + V ar(E[N | ]) = E[ ] + V ar( ) = 3 + 1.5 = 4.5
On remarque que E[N ] = 3 6= V ar(N ). La variable N ne suit pas une loi de Poisson ! 4

Exercice 4. On suppose que les remboursements Xi ⇠ N (µ = 100, 2 = 9) et que la fréquence N suit la


loi
n 0 1 2 3
fN (n) 0.5 0.2 0.2 0.1
Déterminer la probabilité que la somme agrégée SN des remboursements soit plus grande que 100, sans
utiliser d’approximation.

Hélène Guérin; 29 novembre 2012. 28


Corrigé On sait que la somme de deux normales indépendantes est encore une normale d’espérance la
somme des espérances et de variance la somme des variances. Par conséquent, la loi de SN |N = n est
une loi N (100n, 9n). La fonction de répartition de SN est
3
X ✓ ◆
⇤n ⇤n x 100n
FSN (x) = pn F (x) avec F (x) = p
n=0
9n

où est la fonction de répartition de N (0.1). Par conséquent


✓ ◆ ✓ ◆ ✓ ◆
100 100 100 200 100 300
FSN (100) = 0.5 + 0.2 p + 0.2 p + 0.1 p
9 18 27
1
= 0.5 + 0.2 ⇥ + 0.2 ( 23.57) + 0.1 ( 38.49)
2
' 0.6.

D’où P(SN > 100) = 0.4. 4

8.2 Prime Stop-Loss


Exercice 5. On sait que les réclamations agrégées suivent une loi uniforme U ([0, 10]).
L’assureur A propose une couverture stop-loss avec une franchise de 6$ pour une prime égale à la valeur
espérée stop-loss.
L’assureur B propose une couverture totale pour une prime de 7$. En plus il propose un remboursement
de l’excès au dessus de 7k$.
On cherche la valeur de k pour laquelle les deux propositions ont le même coût.

Corrigé
– Assureur A : la couverture est (S 6)+ et la prime ⇡ = E[(S 6)+ ], le coût espéré est

CA = E[(S 6)+ ] ⇡ = 0.

– Assureur B : la couverture est S, la prime ⇡ = 7 et un remboursement de (S 7k)+ . Le coût espéré est


Z 10
x 7k (10 7k)2
CB = E[S] ⇡ + E[(S 7k)+ ] = 5 7+ dx = 2+
7k 10 20

Il faut donc que (10 7k)2 = 40, soit k = 0.525.


4

Hélène Guérin; 29 novembre 2012. 29


8.3 Calcul de la loi de SN
Exercice 6. Calculer la densité de SN pour N ⇠ Logarithme( ) et X ⇠ Exp de moyenne ✓.
Rappel : N est à valeurs dans {1, 2, 3, . . .} et
n
pn = P(N = n) = .
n(1 + )n ln(1 + )
P1 ⇤n ⇤n (x) densité de la loi Gamma(n, 1/✓). D’où
Corrigé On a fSN (x) = n=1 pn fX (x) avec fX
1
X n 1
fSN (x) = xn 1
e x/✓
n(1 + )n ln(1 + ) (n 1)!✓n
n=1
X 1
e x/✓ ( x)n
=
x ln(1 + ) n!((1 + )✓)n
n=1
✓ ◆
e x/✓ x
= e (1+ )✓ 1
x ln(1 + )
1 ⇣ x x

= e (1+ )✓ e ✓
x ln(1 + )
La densité est explicite ! 4
Exercice 7.
On suppose que N suit une loi binomiale négative BN (r, ) et X ⇠ Exp de moyenne ✓
1. Calculer la fonction génératrice d’une loi Géométrique( ) et en déduire la fonction génératrice de
N.
P
2. Calculer la fonction génératrice de S = N i=1 Xi avec Xi i.i.d. de même loi que X et indépendants
de N .
P
3. Remarquer que la loi de S est la même que celle de S̃ = Ñ i=1 X̃i avec Ñ ⇠ Binomiale(m, p) et
X̃ ⇠ Exp de moyenne ↵, en explicitant les valeurs de m, p, ↵ en fonction de r, , ✓.
Corrigé
1. Soit G ⇠ Géométrique( ) :
1 ✓ ◆k
1 X ez
MG (z) =
+1 +1
i=0
1 1 1 ez
= ez
= pour < 1.
+11 1 (ez 1) +1
+1

On remarque qu’une BN (r, ), avec r 2 N⇤ , est la somme de r variables géométriques indépendantes,


donc pour z assez petit ✓ ◆r
1
MN (z) =
1 (ez 1)
2. Calculons la fonctions génératrice de X :
Z " #1
1 1 (z 1
)x 1 1 (z 1
)x
Mx (z) = e ✓ dx = 1 e ✓
✓ 0 ✓ z ✓ 0
1
= pour z < 1/✓.
1 ✓z

Hélène Guérin; 29 novembre 2012. 30


On en déduit la fonction génératrice de la somme agrégée est pour z assez petit
!r
1
MSN (z) = MN (ln (MX (z))) =
1 ( 1 1✓z 1)
✓ ◆r ✓ ✓ ◆◆r
1 ✓z 1
= = +1 .
1 ( + 1)✓z + 1 1 ( + 1)✓z

3. On remarque que la fonction génératrice d’une binomiale N ⇠ B(r, p) est


X r ✓ ◆
r
MN (z) = (pez )k q r k = (pez + q)r avec q = 1 p.
k
k=0

et donc si X ⇠ Exp de moyenne ↵, on a


✓ ◆r
1
MS (z) = p +q .
N 1 ↵z
Par conséquent, la loi de SN avec N ⇠ BN (r, ) et X ⇠ Exp de moyenne ✓ est la même que la loi
de SN avec N ⇠ B(r, p) avec p = /( + 1) et X ⇠ Exp de moyenne ( + 1)✓.
4

8.4 Algorithme de Panjer


Exercice 8. On considère une somme agrégée des coûts avec une fréquence N ⇠ P(2) et des sévérités
X ⇠ fX avec fX (1) = 1/4 et fX (2) = 3/4.
La compagnie d’assurance couvre toutes les pertes avec une prime de ⇡ = 6$ et elle paye les dividendes
selon la formule (4.5 S)+ : si la perte est inférieure à 4.5, elle rembourse en plus la di↵érence.
Calculer le coût total moyen pour l’assuré :

⇡ E[S] E[(4.5 S)+ ].

Corrigé On a
E[S] = E[N ]E[X] = 2(1/4 + 2.3/4) = 7/2 = 3.5
S prend ses valeurs dans N. Pour calculer E[(4.5 S)+ ], il faut connaitre fS (k) pour k = 0, 1, . . . , 4.
Utilisons l’algorithme de Panjer avec a = 0 et b = 2 :
2
fS (0) = P(N = 0) = e = 0.13534
fS (1) = 2fS (0)/4 = 0.06767
fS (2) = fS (1)/4 + 2fS (0) ⇥ 3/4 = 0.21992
2
fS (3) = (fS (2)/4 + 2fS (1) ⇥ 3/4) = 0.10432
3
1
fS (4) = (fS (3)/4 + 2fS (3) ⇥ 3/4) = 0.17798.
2
Donc E[(4.5 S)+ ] = 4.5fS (0) + 3.5fS (1) + 2.5fS (2) + 1.5fS (3) + 0.5fS (4) = 1.641117.
Le coût moyen pour cette couverture est

⇡ E[S] E[(4.5 S)+ ] = 6 3.5 1.641117 = 0.859.

Hélène Guérin; 29 novembre 2012. 31


Université de Montréal ACT3251 - Automne 2012
Département de Mathématiques

Théorie du risque : probabilité de ruine


Ces notes de cours ont été construites notamment à partir des chapitres 10 et 11 du livre de S.A. Klugman,
H.H. Panjer et G.E. Willmot Loss Models : from data to décisions, third edition (Wiley, 2008) et des
notes de cours de Manuel Morales http ://www.dms.umontreal.ca/⇠morales/risk.php

Table des matières


1 Introduction 1

2 Quelques rappels sur les processus 2

3 Premiers modèles en assurance 3


3.1 Modélisation du surplus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
3.2 Probabilité de ruine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

4 Probabilité de ruine en temps discret à horizon fini 4

5 Théorie de la ruine en temps continu 8


5.1 Estimation de la probabilité de ruine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
5.2 Coefficient d’ajustement de Lundberg . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
5.3 Estimation du coefficient de Lundberg . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
5.4 Déficit au moment de la ruine et probabilité de ruine . . . . . . . . . . . . . . . . . . . . . 13
5.5 Perte cumulée maximale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
5.6 Valeur asymptotique de la probabilité de ruine . . . . . . . . . . . . . . . . . . . . . . . . 19
5.6.1 Approximation de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
5.6.2 Approximation pour des pertes de fonction d’équilibre sous-exponentielle . . . . . 20

6 Approximation du surplus en temps continu par un mouvement brownien 21


6.1 Approximation par le mouvement brownien . . . . . . . . . . . . . . . . . . . . . . . . . . 21
6.2 Probabilité de ruine pour un mouvement brownien . . . . . . . . . . . . . . . . . . . . . . 22

7 Approximation par simulation de la probabilité de ruine 24


7.1 Simulation d’un processus de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
7.2 Simulation d’un processus de Poisson composé . . . . . . . . . . . . . . . . . . . . . . . . 26
7.3 Simulation du surplus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
7.4 Calcul approché de la probabilité de ruine . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

1 Introduction
Dans le chapitre Modèles Agrégés nous avons étudié les pertes totales S pour une période de temps fixée
(1 semaine, 1 mois, 1 an,. . . ). Dans ce chapitre on va considérer l’évolution en temps des pertes.
On pourra se placer dans le cadre des temps discret S1 , S2 , S3 , . . . lorsqu’on considèrera les pertes pour
des périodes définies (toutes les semaines, tous les mois,. . . ) ou dans le cadre des temps continus (St )t>0
si on veut une analyse fine des pertes (notamment dans le cadre financier).

Hélène Guérin; 30 novembre 2012. 1


Par ailleurs, on va aussi prendre en compte d’autres variables d’intérêt : l’inflation, les taux d’intérêt, les
primes, les dépenses, les investissements, etc. . .
On étudiera cependant dans ce cours des modèles simplifiés afin que l’analyse mathématiques ne soit pas
trop complexe. Ces modèles peuvent être généralisés pour ajouter di↵érentes réalités.

2 Quelques rappels sur les processus


Définition 2.1. Un processus stochastique est une famille (Xt )t2T de variables aléatoires Xt . L’indice t
représente, dans le cadre de ce cours, le temps.
On va parfois considérer des processus en temps discret, i.e. T est un ensemble discret, parfois des pro-
cessus en temps continu, i.e. T est un intervalle de R, en général T = [0, 1).
La fonction qui à t associe la variable Xt est appelée trajectoire : t 7! Xt . Une trajectoire est aléatoire.
4
2
0
−2
−4

0 5 10 15 20

Trois réalisations d’une trajectoire d’un mouvement brownien sur l’intervalle de temps [0,20].

Définition 2.2. La loi d’un processus est définie par ses lois d-dimensionnelles pour tout d > 1 (on parle
aussi de lois finies dimensionnelles).
La loi d-dimensionnelle du processus (Xt )t2T est l’ensemble des lois jointes (Xt1 , Xt2 , . . . , Xtd ) pour tout
(t1 , t2 , . . . , td ) 2 T .

Définition 2.3. Un processus (Xt )t2T est dit à accroissement indépendants si pour tout u 6 v 6 s 6 t
Xt Xs est indépendant de Xv Xu .
Un processus (Xt )t2T est dit à accroissement stationnaires si la loi Xt+h Xt ne dépend que de la longueur
h de l’intervalle [t, t + h], i.e. pour tout t, s > 0, h > 0
Loi
Xt+h Xt = Xs+h Xs .

En assurance, on suppose souvent que le processus des pertes (St )t2T est à accroissement indépendants
et stationnaires (AIS). En e↵et les pertes sont en général indépendantes (sauf s’il s’agit un évènement
extrême, comme un ouragan). Par contre, l’hypothèse de stationnarité est moins légitime en général (on
peut avoir des changements de régime, par exemple liés aux cycles climatiques).

Hélène Guérin; 30 novembre 2012. 2


Exemple 2.4. On suppose les pertes individuelles Xi i.i.d. et N un processus de Poisson indépendant
des Xi d’intensité . Alors
XNt
St = Xi
i=1
est un PAIS (processus à accroissement indépendants et stationnaires). Le processus (St )t>0 est appelé
processus de Poisson composé P P C( , FX ).
En e↵et, on remarque que si t, h > 0
Nt+h Nh
X Loi
X
St+h St = Xi = X i = Sh
i=Nt +1 i=1
Loi
car N est un PAIS : Nt+h Nt = Nh et le nombre de pertes Nt+h Nt sur l’intervalle de temps (t, t + h]
est indépendant du nombre de pertes Nt avant l’instant t et comme les Xi sont indépendants, St+h St
est indépendant de St .

3 Premiers modèles en assurance


3.1 Modélisation du surplus
On souhaite modéliser le processus des surplus d’une compagnie d’assurance. On note ce processus (Ut )t>0 ,
où Ut représente le surplus de la compagnie à l’instant t.
On a
U t = u + Pt S t
où
– u est le capital initial (U0 = u),
– Pt est le processus des gains (primes reçues, intérêts issus d’investissements et tous les autres sources
de revenu),
– St est le processus des pertes (indemnisations versées, intérêts issus de crédits,. . . ).
De façon générale, Pt peut dépendre de (Su )u<t . En e↵et, les primes peuvent s’actualiser en fonction des
pertes versées de façon à mieux représenter le niveau du risque. Par exemple en assurance automobile,
la prime de chaque conducteur est ré-évaluée chaque année en fonction du nombre d’accidents de l’année
précédente.
De façon générale, les pertes St ne s’écrivent pas forcément comme des sommes agrégées et si tel est le
cas les Xi ne sont pas forcément indépendants.
Cependant dans ce cours, on va étudier seulement deux modèles simplifiés :
– Cas discret : on étudie le modèle à travers ses accroissements. On note Wt = Ut Ut 1 l’accroissement
du surplus pour la période (t 1, t] :
Wt = Pt Pt 1 (St St 1 ), t = 1, 2, . . .
On a alors Ut = Ut 1 + Wt pour t = 1, 2, . . .
– Cas continu : on étudie le modèle de Poisson Composé
Nt
X
Ut = u + ct Xi
i=1
P t
où u le capital initial, St = N
i=1 Xi un processus de Poisson composé où N est un processus de Poisson
d’intensité et c la prime par unité de temps de la forme c = (1 + ✓)E[St ] = (1 + ✓) E[X].

Hélène Guérin; 30 novembre 2012. 3


3.2 Probabilité de ruine
La compagnie d’assurance souhaite que son surplus reste positif, mais du fait des aléas elle ne peut pas
en général en être certaine.

Définition 3.1. La probabilité de survie à horizon fini T en temps continu est

(u, T ) = P(Ut > 0 : 8t 2 [0, T ]|U0 = u).

Si on considère le processus en temps discret, on vérifie seulement à la fin de chaque période le surplus
˜(u, T ) = P(Ut > 0 : 8t 2 {0, 1, 2, T }|U0 = u).

Définition 3.2. La probabilité de survie à horizon infini en temps continu est

(u) = P(Ut > 0 : 8t > 0|U0 = u)

et en temps discret
˜(u) = P(Ut > 0 : 8t 2 N|U0 = u).

Remarque 3.3.
– (u) 6 ˜(u) 6 ˜(u, T ).
– (u) 6 (u, T ) 6 ˜(u, T ).
– limT !1 (u, T ) = (u).
– limT !1 ˜(u, T ) = ˜(u).

Définition 3.4. La probabilité de ruine à horizon fini T en temps continu est

(u, T ) = 1 (u, T )

et en temps discret ˜(u, T ) = 1 ˜(u, T ).


La probabilité de ruine à horizon infini en temps continu est (u) = 1 (u) et en temps discret ˜(u) =
1 ˜(u).

4 Probabilité de ruine en temps discret à horizon fini


On considère le modèle
t
X
Ut = u + [Pj + Cj Sj ] = U t 1 + Pt + Ct St , pour t = 0, 1, 2, . . .
j=1

où Ut est la valeur du processus de surplus à la fin de la tème période et


– u est le capital initial,
– Pt représente les primes reçues pendant la tème période,
– Ct représente les autres gains reçues pendant la tème période (issus d’investissements par exemple)
– St représente les pertes payées pendant la tème période
Hypothèse : On suppose que le processus (Ut )t>0 est un processus de Markov.
Ceci signifie que l’évolution du processus après l’instant t dépend de la valeur Ut à l’instant t mais pas
des valeurs précédentes.

Hélène Guérin; 30 novembre 2012. 4


On souhaite évaluer de la probabilité de ruine de notre modèle avant l’instant T :

(u, T ) = 1 (u, T ) = P(il existe t 2 {0, . . . , T } : Ut < 0).

On introduit un nouveau processus Ut⇤ égal à Ut tant que Ut est positif et qui reste négatif jusqu’à la fin
dès que Ut passe en dessous de zéro.
Pour cela, on note Wt = Ut Ut 1 pour t > 1 (d’où Ut = Wt + Ut 1 ) et on définit

⇤ ⇤ ⇤ ⇤ ⇤ Wt si Ut⇤ 1 > 0
U t = Wt Ut 1 avec U0 = u et Wt =
0 si Ut⇤ 1 < 0

La probabilité de survie sur l’intervalle [0, T ] se calcule alors en regardant juste la valeur finale de U ⇤ :
˜(u, T ) = P(U ⇤ > 0).
T

Exemple 4.1. On suppose que


– le surplus initial est u = 2$,
– la prime est constante
⇢ égale à 3$ par unité de temps,
0$ avec probabilité 0.6
– les pertes S =
6$ avec probabilité 0.4
et qu’il n’y a pas d’autres coûts ou revenus. On a donc
t
X ⇢
3$ avec probabilité 0.6
Ut = 2 + 3t Si et Wt = 3 St =
3$ avec probabilité 0.4
i=1

On veut calculer ˜(u = 2, T = 2) et ˜(u = 2, T = 3). On a

U3 = 11
0.6
U2 = 8
0.6 0. 4

U1 = 5 U3 = 5
0.4 0.6
0. 6
U2 = 2 0.4
U0 = 2
U3 = 1
0.4

U1 = 1

Par conséquent, ˜(u = 2, T = 2) = 1 0.4 = 0.6 et ˜(u = 2, T = 3) = P(Ut > 0 : 8t = 0, 1, 2) =


1 0.4 0.6 ⇥ 0.4 ⇥ 0.4 = 0.504.
Si on considère U ⇤ , on a

Hélène Guérin; 30 novembre 2012. 5


U3⇤ = 11
0.6
U2⇤ = 8
0.6 0. 4

U1⇤ = 5 U3⇤ = 5
0.4 0. 6
0. 6
U2⇤ = 2
0. 4
U0⇤ =2
U3⇤ = 1
0.4

1 1
U1⇤ = 1 U2⇤ = 1 U3⇤ = 1

Par conséquent, ˜(u = 2, T = 2) = P(U2⇤ > 0) = 1 0.4 et ˜(u = 2, T = 3) = P(U3⇤ > 0) = (0.6)3 + 2 ⇥
(0.6)2 ⇥ 0.4 = 0.504.

De manière général, on a va utiliser la méthode des convolutions dans le cas discret. On fixe T > 0 et on
note
– fj = P(UT⇤ 1 = uj ) pour j > 1 et uj > 0 : fréquences des valeurs positives de UT⇤ 1 ,
– gj,k = P(WT = wj,k |UT⇤ 1 = uj ) : loi conditionnelle de WT sachant que UT⇤ 1 = uj .
La probabilité de ruine avant l’instant T s’exprime à partir de la probabilité de ruine avant l’instant T 1
de la façon suivante
˜(u, T ) = P(9t 2 {1, 2, . . . , T } : Ut < 0)
= ˜(u, T 1) + P(UT⇤ 1 > 0 et UT⇤ = UT⇤ 1 + WT < 0)
X
= ˜(u, T 1) + P(uj + WT < 0|UT⇤ 1 = uj )P(UT⇤ 1 = uj )
j>1
X
= ˜(u, T 1) + P(WT < uj |UT⇤ 1 = uj )fj
j>1
X X
= ˜(u, T 1) + gj,k fj
j>1 k:wj,k < uj

Cette méthode récursive permet de calculer la probabilité de ruine pas à pas.

Exemple 4.2. Les pertes annuelles suivent la loi

s 0 2 4 6
fS 0.4 0.3 0.2 0.1

La prime annuelle est de 2.5, payée en début d’année et le surplus initial est u = 2. Par ailleurs 10%
d’intérêt est crédité sur le surplus disponible au début de l’année puisque les pertes sont payée à la fin de
l’année.
Il y a un rabais de 0.5 sur les années où il n’y a pas de pertes. Par conséquent, U0 = 2 et

Ut = Ut 1 + Wt avec Wt = 2.5 + 0.1(Ut 1 + 2.5) S 0.51S=0

On souhaite calculer ˜(2, 0), ˜(2, 1), ˜(2, 2).

Hélène Guérin; 30 novembre 2012. 6


– Comme u = 2 > 0, ˜(2, 0) = 0.
– La loi de U0⇤ est f1 = P(U0⇤ = 2) = 1. Calculons maintenant la loi conditionnelle de W1 sachant que
U0⇤ = 2 :
k 1 2 3 4
w1,k 2.45 0.95 1.05 3.05
g1,k 0.4 0.3 0.2 0.1
Par conséquent, on a
X
˜(2, 1) = ˜(u, 0) + f1 gj,k
k:wj,k < 2

= 0 + 0.1 = 0.1

– Les fréquences des valeurs positives de U1⇤ = U0⇤ + Wt⇤ = 2 + Wt⇤ sont

j 1 2 3
uj 4.45 2.95 0.95
fj 0.4 0.3 0.2

La loi conditionnelle de W2 sachant que U1⇤ = uj : wj,k = 2.5 + 0.1(uj + 2.5) sk 0.51sk =0

k
1 2 3 4
fj j uj gj,1 = 0.4 gj,2 = 0.3 gj,3 = 0.2 gj,4 = 0.1
wj,1 wj,2 wj,3 wj,4
0.4 1 4.45 2.695 1.195 0.805 2.805
0.3 2 2.95 2.545 1.045 0.955 2.955
0.2 3 0.95 2.345 0.845 1.155 3.155

et donc
X X
˜(2, 2) = ˜(u, 1) + fj gj,k
j>1 k:wj,k < uj

= 0.1 + 0.3 ⇥ 0.1 + 0.2 ⇥ 0.2 + 0.2 ⇥ 0.1 = 0.19

Hélène Guérin; 30 novembre 2012. 7


5 Théorie de la ruine en temps continu
Le modèle classique en temps continu est celui où les pertes sont modélisées par un processus de Poisson
composé : pour t > 0
XNt
Ut = u + ct St avec St = Xi .
i=1

où
– u représente le capital initial,
– c est la prime par unité de temps,
– St représente les pertes agrégées jusqu’à l’instant t, avec
N est un processus de Poisson d’intensité (voir notes de cours sur les processus de Poisson
dans Studium),
les Xi représentent les pertes individuelles, ils sont supposés i.i.d. d’espérance µ et indépendants
de N .
15
10
5
0

0 10 20 30 40 50

Trajectoire du surplus partant de u = 10


avec des pertes exponentielles (µ = 3, c = 1, = 0.3).

St est un processus de Poisson composé. On a

E[St ] = E[Nt ]E[X] = tµ, V ar(St ) = tE[X 2 ].

Et par conséquent
E[Ut ] = u + (c µ)t, V ar(Ut ) = tE[X 2 ].
On peut montrer que si c 6 µ, alors la compagnie est sure d’être ruinée :

(u) = P(9t > 0 : Ut < 0|U0 = u) = 1.

Dans le cas où c >P µ, en utilisant la loi des grands nombres, on a


– 1t St = Ntt ⇥ N1t N t
i=1 i ! µ quand t ! +1 et donc
X
✓ ◆
St
Ut = u + t c ! +1 quand t ! +1,
t

– (u) < 1.

Hélène Guérin; 30 novembre 2012. 8


Nous allons dans la suite considérer une prime par unité de temps de la forme

c = (1 + ✓) µ avec ✓ > 0.

60
40
20
0

0 20 40 60 80 100

Plusieurs trajectoires du surplus partant de u = 10


avec des pertes exponentielles (µ = 3, = 0.3, ✓ = 0.5).

5.1 Estimation de la probabilité de ruine


Définition 5.1. On définit ⌧ l’instant de ruine partant du capital initial U0 = u :

⌧ = inf {t > 0 : Ut < 0} = inf {t > 0 : St ct > u}.

L’événement ”8t > 0, Ut > 0” est équivalent à ”⌧ = 1”. On remarque donc que

(u) = P(9t > 0 : Ut < 0|U0 = u) = P(⌧ < 1|U0 = u).

Regardons la fonction génératrice de u Ut = St ct :


h i
E ez(St ct) = e ctz MSt (z) = e ctz
MNt (ln(MX (z)))
= et( (MX (z) 1) cz)
.
⇥ ⇤
On remarque que MSt ct (0) = E e0⇥(St ct) = 1 pour tout t > 0.
Hypothèse : Supposons qu’il existe ⇢ > 0 tel que (MX (⇢) 1) c⇢ = 0. Alors pour tout t > 0,
h i
E e⇢(St ct) = 1.

Notons Mt = e⇢(St ct) . Alors, pour s 6 t


h i
⇢c(t s)
E[Mt |Ms ] = Ms e E e⇢(St Ss )
|Ms .
P Nt
Or St Ss = i=Ns +1 Xi et le nombre de sauts Nt Ns est indépendant de Ns de même loi que
P Nt s
Nt s . Comme les Xi sont i.i.d., St Ss est indépendant de Ss et a même loi que St s = i=1 Xi . Par
conséquent, h i h i
E[Mt |Ms ] = Ms e ⇢c(t s) E e⇢(St Ss ) = Ms E e⇢(St s c(t s)) = Ms .

Hélène Guérin; 30 novembre 2012. 9


Le processus M = (Mt )t>0 est appelé martingale car il vérifie pour tout t, s avec t > s

E[Mt |Ms ] = Ms .

Comme E[Mt ] = 1 pour tout t > 0, on a notamment pour tout n > 0 (Théorème d’arrêt pour les
martingales)
E[M⌧ ^n ] = 1.
Par conséquent,

1 = E[M⌧ 1⌧ 6n ] + E[Mn 1⌧ >n ] (⇤)

On remarque que sur {⌧ > n}, Mn = e⇢(Sn cn) < e⇢u et comme Sn cn = u Un ! 1, on obtient
n!1
par passage à la limite dans l’équation (⇤) quand n ! +1

1 = E[M⌧ 1⌧ <1 ]

Par ailleurs, comme S⌧ c⌧ > u, on a M⌧ = e⇢(S⌧ c⌧ ) > e⇢u et

(u) = P(⌧ < 1|U0 = u) 6 e ⇢u


.

Proposition 5.2. S’il existe ⇢ > 0 tel que (MX (⇢) 1) c⇢ = 0. Alors la probabilité de ruine vérifie

(u) 6 e ⇢u

et par conséquent, (u) ! 0 avec une vitesse exponentielle.


u!+1

5.2 Coefficient d’ajustement de Lundberg


Si on considère des primes de la forme c = (1 + ✓) µ avec ✓ > 0, l’équation de Lundberg s’écrit

(MX (⇢) 1) c⇢ = (MX (⇢) 1 (1 + ✓)µ⇢) = 0.

Définition 5.3. Le coefficient d’ajustement est la plus petite solution strictement positive ⇢ > 0 telle que

MX (⇢) = 1 + (1 + ✓)µ⇢.

Remarque 5.4. Pour certaines lois MX n’est pas défini (par exemple : Pareto, Log-Normale) et donc le
coefficient d’ajustement ⇢ n’existe pas.

Si MX est bien défini, alors le coefficient existe mais n’est pas toujours simple à calculer. En e↵et, on
cherche ⇢ > 0 tel que
MX (⇢) = 1 + (1 + ✓)µ⇢.
La courbe z 7! 1 + (1 + ✓)µz est une droite partant de 1 en zéro, de pente (1 + ✓)µ.
La courbe z 7! MX (z) passe par 1 en zéro et sa pente en 0 est MX 0 (0) = E[X] = µ < (1 + ✓)µ. Par ailleurs,

comme M ”X (z) = E[X 2 ezX ] > 0, la fonction z 7! MX (z) est convexe.


Il existe forcément ⇢ > 0 où les courbes se croisent à nouveau :

Hélène Guérin; 30 novembre 2012. 10


3.5
3.0
Mx(z)
1+(1+theta)mu z

2.5
2.0
1.5
1.0
0.0 0.5 1.0 1.5 2.0 2.5 3.0

Exemple 5.5. Si X suit le loi exponentielle de moyenne µ, alors


⇢ 1
1 µz si z < 1/µ
MX (z) =
+1 sinon.

On doit résoudre l’équation de Lundberg


1
= 1 + (1 + ✓)µz
1 µz
, ✓µz (1 + ✓)µ2 z 2 = 0

, z = 0 ou z = .
(1 + ✓)µ

Par conséquent, dans le cas de la loi exponentielle le coefficient de Lundberg est



⇢= .
(1 + ✓)µ

Exemple 5.6. Si X suit le loi Gamma G(↵ = 2, ) et ✓ = 2, on a


( ⇣ ⌘↵
1
1 z si z < 1/
MX (z) =
+1 sinon.

On doit par conséquent résoudre (µ = ↵ = 2 et 1 + ✓ = 3)


✓ ◆2
1
=1+6 z
1 z
2 2
, 1=1+6 z 2 z(1 + 6 z) + z (1 + 6 z)
2 2 3 3
, 4 z 11 z +6 z =0
2 2
, z = 0 ou 6 11 z + 4 = 0 z
1 4
, z = 0 ou z = ou z = .
2 3
4 1 4
Comme 3 > 2 (par ailleurs 3 est en dehors du domaine de MX ), le coefficient de Lundberg est

1
⇢= .
2

Hélène Guérin; 30 novembre 2012. 11


5.3 Estimation du coefficient de Lundberg
Exemple 5.7. On considère une prime c = 2.99, un taux de saut = 1 et on suppose que les réclamations
suivent la loi
P(X = 1) = 0.2 P(X = 2) = 0.3 P(X = 3) = 0.5
Calculons MX :
MX (z) = 0.2ez + 0.3e2z + 0.5e3z .
Par conséquent, il faut résoudre ((1 + ✓)µ = 2.99)

0.2ez + 0.3e2z + 0.5e3z = 1 + 2.99z.

Ceci n’est pas simple à résoudre à la main. On peut soit utiliser une logiciel de calcul formel (Matlab,
Mathematica,. . . ), soit faire une résolution numérique par R ou Excel. On trouve ⇢ = 0.1943.

Lorsque le coefficient de Lundberg est difficile à calculer, soit on trouve une approximation par résolution
numérique dans lePcas où MX est facilement calculable, soit on approche la fonction MX .
1 zk 2 2
On sait que e = k=0 k! > 1+z + z2 , d’où MX (z) > 1+zE[X]+ z2 E[X 2 ] avec µ = E[X]. Par conséquent,
z

l’équation de Lundberg s’écrit

⇢2 2✓µ
1 + (1 + ✓)µ⇢ > 1 + ⇢µ + E[X 2 ] , > ⇢.
2 E[X 2 ]

On obtient ainsi une majoration du coefficient de Lundberg


2✓µ
⇢6 .
E[X 2 ]

Exemple 5.8. Si les pertes suivent une loi Gamma(↵ = 2, ) avec ✓ = 2. On a

µ = ↵ = 2 et E[X 2 ] = ↵(↵ + 1) 2
=6 2
.

On en déduit que
8 4
⇢6 = .
6 3
Reprenons l’exemple précédent

Exemple 5.9. On considère une prime c = 2.99, un taux de saut = 1 et on suppose que les réclamations
suivent la loi
P(X = 1) = 0.2 P(X = 2) = 0.3 P(X = 3) = 0.5
On a µ = 2.3, ✓ = 0.3 et E[X 2 ] = 5.9. Par conséquent
0.6.3
⇢6 = 0.2339.
5.9
L’estimation mauvaise (la vraie valeur étant 0.1943), mais on peut utiliser cette valeur pour résoudre
numériquement ⇢ via R ou excel car on sait qu’il faut le chercher sur l’intervalle (0, 0.2339].

Hélène Guérin; 30 novembre 2012. 12


Exemple 5.10. Supposons que les pertes suivent une GIG, alors
✓ q ◆
✓ ◆ /2 K u
1 2 2
u
MX (z) = 1 2 2 ,
K ( )
h i ✓ ◆k
k K +k ( )
E X = .
K ( )
Par conséquent
2✓ K +1 ( )
⇢6 .
K +2 ( )
À l’aide de cette estimation, on peut résoudre numériquement l,équation de Lundberg et trouver la valeur
de ⇢.

5.4 Déficit au moment de la ruine et probabilité de ruine


On considère le processus de surplus
Nt
X
Ut = u + ct Xi .
i=1
où
– u représente le capital initial,
– N est un processus de Poisson d’intensité ,
– Xi i.i.d. d’espérance µ et indépendants de N ,
– c = (1 + ✓) µ est la prime par unité de temps.

On note l’instant de ruine ⌧ = inf {t > 0 : Ut < 0}.


Définition 5.11. On appelle déficit au moment de la ruine la variable positive U⌧ .

τ

On souhaite étudier la loi du déficit U⌧ :

G(u, y) = P( U⌧ 6 y, ⌧ < 1|U0 = u).

On remarque que
lim G(u, y) = (u).
y!1

Hélène Guérin; 30 novembre 2012. 13


L’intérêt d’étudier la loi du déficit est qu’elle ne dépend pas de l’existence du coefficient de Lundberg.
Considérer des lois à queues épaisses, où le coefficient de Lundberg n’existe pas, ne pose alors aucun
problème.
Théorème 5.12. La fonction G(u, y) vérifie l’équation di↵érentielle : pour u, y > 0
Z u
@u G(u, y) = G(u, y) G(u x, y)dFX (x) [FX (u + y) FX (u)],
c c 0 c
où FX est la fonction de répartition de X.
En prenant la limite quand y ! +1 on obtient alors :
Corollaire 5.13. (u) vérifie l’équation
Z u
0
(u) = (u) (u x)dFX (x) [1 FX (u)].
c c 0 c
Démonstration.
Rappel : soient U, V deux variables aléatoires, alors
Z 1
P(U 6 u) = P(U 6 u|V = v)fV (v)dv.
0

L’idée est de conditionner par rapport au premier instant de saut et à la taille du premier saut.
On note T1 le premier instant de saut du processus de Poisson : T1 ⇠ Exp( ).
En fonction de la taille du premier saut il peut arriver deux choses
– si 0 6 X1 6 u + cT1 , alors la première réclamation n’a pas provoqué de ruine,
– si X1 > u + cT1 , alors il y a ruine : ⌧ = T1 et le déficit vaut X1 u cT1 .
À l’instant T1 le surplus vaut
UT1 = u + cT1 X1 .
Par conséquent, en utilisant le rappel avec V = (X1 , T1 ), les variables T1 et X1 étant indépendantes, on
obtient
ZZ 1
G(u, y) = P( U⌧ 6 y, ⌧ < 1|U0 = u, T1 = t, X1 = x) e t dtdFX (x)
0
Z 1 Z u+ct Z 1 Z y+u+ct
= P( U⌧ 6 y, ⌧ < 1|U0 = u, T1 = t, X1 = x)dFX (x) e dt + t
dFX (x) e t
dt
0 0 0 u+ct
Z 1 Z u+ct
= P( U⌧ 6 y, ⌧ < 1|U0 = u + ct x)dFX (x) e t dt par la propriété de Markov
0
Z 10
+ [FX (y + u + ct) FX (u + ct)] e t dt
0
Z 1 Z u+ct Z 1
t
= G(u + ct x, y)dFX (x) e dt + [FX (y + u + ct) FX (u + ct)] e t dt.
0 0 0

On pose s = u + ct, d’où ds = cdt et donc


Z 1 Z s Z 1
(s u) (s u)
G(u, y) = G(s x, y)dFX (x) e c ds + [FX (y + s) FX (s)]e c ds
c u c u
Z 10 Z s
u s
= ec G(s x, y)dFX (x) + [FX (y + s) FX (s)] e c ds
c u 0

Hélène Guérin; 30 novembre 2012. 14


R1
Dérivons par rapport à u en utilisant @u u K(v)dv = K(u)
Z u
u u u
@u G(u, y) = G(u, y) e c G(u x, y)e c dFX (x) + [FX (y + u) FX (u)]e c
c c
Z u 0
= G(u, y) G(u x, y)dFX (x) [FX (y + u) FX (u)]
c c 0 c

Théorème 5.14. La fonction G(0, y) vérifie pour y > 0


Z y
G(0, y) = [1 FX (x)]dx
c 0
En prenant la limite quand y ! +1 on obtient alors :
Corollaire 5.15. (0) vérifie l’équation
1
(0) = .
✓+1
Ce résultat est étonnant, car partant d’un capital nul la probabilité de ruine ne semble pas dépendre de
la loi de X, ni de mais juste de ✓. En fait ✓, µ, sont liés par la valeur de la prime c = (1 + ✓) µ.

Démonstration. En prenant la limite quand y ! +1 on obtient


Z 1
µ 1
(0) = [1 FX (x)]dx = = .
c 0 c ✓+1

Démonstration. On remarque que comme pour tout y > 0

0 6 G(u, y) 6 (u) 6 e ⇢u

on a
lim G(u, y) = 0.
u!+1
Par conséquent, en intégrant l’expression du théorème précédent, on a
Z 1
G(v, y) = @u G(u, y)du.
v

Par conséquent,
Z 1 Z 1Z u Z 1
G(0, y) = G(u, y)du + G(u x, y)dFX (x)du + [FX (y + u) FX (u)]du
c 0 c 0 0 c 0
Z 1 Z 1 Z 1 Z 1
= G(u, y)du + G(u x, y)du dFX (x) + [FX (y + u) 1 + 1 FX (u)du]
c 0 c 0 x c 0
On pose r = u x (dr = du) et donc
Z 1 Z 1 Z 1  Z 1 Z 1
G(0, y) = G(u, y)du + G(r, y)dr dFX (x) + (1 FX (u))du + (1 FX (u))du .
c 0 c 0 0 c y 0
| {z }
=0

Hélène Guérin; 30 novembre 2012. 15


On peut démontrer de la même manière le théorème suivant
Théorème 5.16. La fonction G(u, y) vérifie pour y, u > 0
Z u Z u+y
G(u, y) = G(u x, y)[1 FX (x)]dx + [1 FX (x)]dx.
c 0 c u
En prenant la limite quand y ! +1 on obtient alors :
Corollaire 5.17. (u) vérifie l’équation
Z u Z 1
(u) = (u x)[1 FX (x)]dx + [1 FX (x)]dx.
c 0 c u

Exemple 5.18. Supposons que les pertes individuelles sont exponentielles de moyenne µ. D’après le
Corollaire 5.13, la probabilité de perte vérifie
Z u
x u
0
(u) = (u) (u x)e µ dx eµ
c µc 0 c
Z u
u z u
= (u) eµ (z)e µ dz eµ
c cµ 0 c
Dérivons cette expression, la fonction vérifie l’équation
Z u
u z u u u
0
”(u) = (u) + 2 e µ (z)e µ dz e µ (u)e µ + e µ
c cµ 0 cµ cµ
✓ ◆
0 1 0
= (u) + (u) (u) (u)
c µ c cµ
µ c 0
= (u).
µc
Comme c = (1 + ✓) µ, on a
✓ 0
”(u) = (u).
(1 + ✓)µ
On intègre deux fois et on obtient
(1 + ✓)µ (1+✓)µ
✓u
(u) = c1 + c2 e .

1
Comme (0) = ✓+1 et limu!1 (u) = 0, on a

c1 = 0 et c2 = .
µ(1 + ✓)2
Par conséquent, si X est exponentielle de moyenne µ, on a
1 ✓u
(u) = e (1+✓)µ .
(1 + ✓)
Si par exemple, on suppose que les pertes sont exponentielles et que le capital initial de la compagnie est
u, on cherche ✓ de façon à ce que la probabilité de ruine soit égale à ↵ = 0.5.
Par conséquent on cherche ✓ tel que
1 ✓u
e (1+✓)µ = 0.5
(1 + ✓)
La valeur de ✓ sera obtenue de façon numérique avec Excel ou R.

Hélène Guérin; 30 novembre 2012. 16


5.5 Perte cumulée maximale
Partons d’un capital initial u, la probabilité que le capital passe sous la valeur u est (0) par invariance
par translation du problème. Sachant que l’on est passé sous la valeur u, on note Y l’amplitude de cette
chute.

Propriété 5.19. La loi de l’amplitude Y d’une chute sachant que le surplus est passé sous le capital
initial u ne dépend pas de u et a pour densité la loi d’équilibre
1
fe (x) = (1 FX (x)).
µ
Démonstration. La probabilité d’avoir une chute sous le capital initial d’amplitude d’au plus y est
Z y Z y
1 1 FX (x)
G(0, y) = [1 FX (x)]dx = dx
c 0 1+✓ 0 µ

Comme la probabilité de passer sous le capital initial est (0) = 1/(1 + ✓), la probabilité d’avoir une
chute d’amplitude au plus y sachant que l’on est passé sous le capital initial est
Z y
G(0, y)
P(Y 6 y) = = fe (x)dx
(0) 0

où fe (x) = (1 FX (x))/µ est la loi d’équilibre.

Étudions maintenant la probabilité de ruine partant d’un capital initial u. Supposons qu’après le premier
passage sous le niveau u,R 1le capital fait une chute d’amplitude y. Soit y > u et alors il y a ruine (avec
probabilité P(Y > u) = u fe (x)dx, soit y 6 u et la compagnie n’est pas ruinée. Si y 6 u on recommence
le processus partant d’un capital u y. Par ailleurs ce qui se passe après la première chute est indépendant
de ce qui se passait avant du fait que notre processus est markovien. La probabilité que le capital passe
par la suite sous le niveau u y est (0) et la loi de l’amplitude de la seconde chute est fe .
Le nombre K total de ”chute” suit par conséquent une loi géométrique de paramètre = 1/✓ :

P(K = 0) = 1 (0)
P(K = 1) = [1 (0)] (0)
✓ ◆k
k✓ 1
P(K = k) = [1 (0)] (0) = .
1+✓ 1+✓

Juste après chaque chute, le surplus croı̂t grâce à la prime, par conséquent le plus bas niveau du surplus
est u L où L est la somme cumulée des chutes. L est appelé la perte cumulée maximale.
Si on note Yj la suite des amplitudes des pertes, les Yj sont indépendants et de loi fe et on a

L = Y1 + . . . + YK

L est donc une somme composée géométrique.


On a clairement
(u) = P(L 6 u) et (u) = P(L > u).

Hélène Guérin; 30 novembre 2012. 17


u
Y1 u
Y1
Y2
Y3
Y4
Y2
Y5
Y6
Y7
Y3
Y8

Théorème 5.20. (Décomposition de Ladder-Height)


La probabilité de ruine à horizon infini est la fonction de survie d’une somme géométrique de paramètre
= 1/✓ de variables Yi indépendantes de loi d’équilibre fe (x) = (1 FX (x))/µ :

(u) = P(Y1 + . . . + YK > u).

La quantité L = Y1 + . . . + YK représente la perte maximale. Ceci donne analytiquement,


1 ✓ ◆n Z
✓ X 1 1
(u) = Se⇤n (u) avec Se (u) = fe (x)dx.
1+✓ 1+✓ u
n=1

De même, la probabilité de survie


1 ✓ ◆n Z
✓ X 1 u
(u) = Fe⇤n (u) avec Fe (u) = fe (x)dx.
1+✓ 1+✓ 0
n=1

De façon numérique, cette méthode est facile à implémenter pour calculer la probabilité de ruine. On
peut soit l’utiliser via la loi des grands nombres en faisant plusieurs expériences pour obtenir une valeur
approchée de la probabilité de ruine : chaque expérience consiste à simuler K selon une géométrique de
paramètre = 1/✓, puis simuler le bon nombre de variables Y selon la loi fe (x) = 1 FµX (x) et enfin à
regarder si Y1 + . . . + YK > u. L’autre façon d’utiliser cette méthode est d’utiliser l’algorithme récursif de
Panjer pour calculer la loi de Y1 + . . . + YK et en déduire sa fonction de survie.

Exemple 5.21. Supposons que les pertes individuelles suivent une loi de Pareto avec ↵ = 3 et de moyenne
500. Prenons ✓ = 0.2. Calculons la probabilité de survie en utilisant le résultat précédent. On a
 ⇣ ⌘3
1000 ✓ ◆3
1 1 1000+u
1 FX (x) 1 1000
fe (x) = = =
µ 500 500 1000 + u

est la densité d’une pareto avec ↵ = 2 et de moyenne 1000. On utilise l’algorithme de Panjer (après
discrétisation de la loi de Pareto) pour évaluer la loi de la somme composé Y1 + . . . + YK où K suit la
loi géométrique de paramètre = 1/✓ = 5. On obtient ainsi la probabilité de ruine en fonction de u en
calculant numériquement la fonction de survie de Y1 + . . . + YK .

On reviendra sur la simulation plus tard.

Hélène Guérin; 30 novembre 2012. 18


5.6 Valeur asymptotique de la probabilité de ruine
Notre but est d’estimer les valeurs de u (capital initial) et de ✓ (prime) afin que la probabilité de ruine
soit inférieur à un certain seuil ↵ et il n’y qu’un seul cas où on a pu calculer explicitement la probabilité
de ruine (lorsque les pertes sont exponentielles). On va dans cette partie donner des approximations de
la probabilité de ruine qui nous permettrons de répondre à la question initiale.

5.6.1 Approximation de Cramer


Théorème 5.22. Considérons des pertes dont la génératrice des moments existe. Soit ⇢ le coefficient
d’ajustement de Lundberg :
MX (⇢) = 1 + (1 + ✓)µ⇢.
Alors la probabilité de ruine vérifie

(u) µ✓
lim ⇢u
= 1 avec C = 0 .
u!1 Ce MX (⇢) µ(1 + ✓)

Autrement dit, (u) ⇠ Ce ⇢u .


u!1

Exemple 5.23. Considérons des pertes exponentielles de moyenne µ. On sait que


✓ 1 ✓u
⇢= et (u) = e (1+✓)µ .
(1 + ✓)µ (1 + ✓)

Par ailleurs, pour z < 1/µ


1 0 µ
MX (z) = MX (z) = .
1 µz (1 µz)2
On a donc
µ✓ ✓ 1
C= µ = 2
= .
(1 µ⇢)2
µ(1 + ✓) (1 + ✓) (1 + ✓) 1+✓
L’approximation de Cramer donne dans cet exemple la vraie valeur de la probabilité de ruine :
1 ✓u
(u) ⇠ e (1+✓)µ .
u!1 1+✓
Exemple 5.24. Supposons que les pertes suivent une loi Gamma (↵ = 2, ) et ✓ = 2. On avait déjà
obtenu le coefficient de Lundberg :
1
⇢= .
2
Par ailleurs, pour µ = 2 et pour z < 1/
✓ ◆2
1 0 2
MX (z) = MX (z) = .
1 z (1 z)3
0 (⇢) = 16 et
D’où MX
4 2 2 2u
C= = et (u) ⇠ e .
16 6 5 u!1 5

Hélène Guérin; 30 novembre 2012. 19


Application 5.25. Une compagnie d’assurance souhaite avoir une probabilité de ruine de 1%. Les pertes
sont Gamma (↵ = 2, ) et ✓ = 2. Cherchons la valeur de u satisfaisant cette exigence. On doit avoir
2 2u
e = 0.01 , u = 2 ln(0.025).
5
Si la moyenne des pertes est 500, alors = 250 et u = 1844.44.
Une autre question serait de se fixer u = 2000 et se demander quelle valeur moyenne des pertes permet
d’avoir une probabilité de ruine (2000) = 0.01. Il faut
2 1000 1000
e = 0.01 , = = 271, 085,
5 ln(0.025)
soit µ = 542, 17.
Le souci de cet approximation est qu’elle ne peut pas être utilisée dans certaines situations. En e↵et dès
que la loi des pertes est à queues lourdes, la fonction génératrice des moments n’existe pas. On va donc
voir une seconde approximation de la probabilité de ruine.

5.6.2 Approximation pour des pertes de fonction d’équilibre sous-exponentielle


On considère dans cette section des pertes dontPla loi d’équilibre est sous-exponentielle, i.e. la loi du
maximum maxi2{1,...,n} Yi et la loi de la somme ni=1 Yi sont les mêmes pour n grand (Voir la section 7
du chapitre 1 sur les lois de probabilité).
1 FX (x)
Théorème 5.26. On considère des pertes telles que la loi d’équilibre fe (x) = µ est sous-exponentielle.
Alors
(u) 1
lim =
u!1 1 Fe (u) ✓
1 Fe (u)
ce qui signifie, (u) ⇠ ✓ .
u!1

Dans ce cas, la décroissance n’est pas exponentielle, mais beaucoup plus lente.
Remarque 5.27. La condition est sur la loi d’équilibre et non sur la loi de X. Il se peut que FX soit
sous-exponentielle et pas fe , mais en général ça marche :
– LogNormale
– Pareto
– Burr
– LogGamma.
Exemple 5.28. Supposons que les pertes suivent la loi de Pareto (↵, ), calculons fe :
✓ ◆↵
1 (↵ 1) ↵ 1
fe (x) = = .
+x ( + x)↵
↵ 1
⇣ ⌘↵ 1
On remarque que fe ⇠Pareto(↵ 1, ), par conséquent 1 Fe (x) = +x et donc
✓ ◆↵ 1
1
(u) ⇠ .
u!1 ✓ +u
La probabilité de ruine décroı̂t de façon polynomiale.

Hélène Guérin; 30 novembre 2012. 20


Si on se fixe une probabilité de ruine égale à p, il faut que
✓ ◆↵ 1
1 1/(↵ 1)
✓= et u = (✓p) .
p +u

Pour ✓ = 2, ↵ = 3 et = 1000, pour avoir (u) = 0.01 il faut u = 6071, 067.


Pour u = 10 000, ↵ = 3 et = 1000, pour avoir (u) = 0.01 il faut ✓ = 0.82.
u
Pour ✓ = 2, u = 10 000 et ↵ = 3, pour avoir (u) = 0.01 il faut = (✓p) 1/(↵ 1) 1
= 1647, 16, soit
µ = 823, 58.

6 Approximation du surplus en temps continu par un mouvement


brownien
6.1 Approximation par le mouvement brownien
Rappelons brièvement ce qu’est un mouvement brownien (voir notes de cours sur Studium pour plus
d’informations).

Définition 6.1. Soit W = (Wt , t > 0) une famille de variables indexées par le temps. On dit que W
est un mouvement brownien de coefficient de di↵usion 2 si c’est un processus continu à accroissements
indépendants et stationnaires tel que
1. W0 = 0,
2. 8t > 0, Wt ⇠ N (0, 2 t).

Quand = 1, on parle de mouvement brownien standard.


Un mouvement brownien avec dérive ⌫ est

Bt = ⌫t + Wt .

L’idée dans cette partie est d’approcher le surplus Ut par un brownien avec dérive de la forme u + Bt . On
considère le processus de surplus
XNt
Ut = u + ct Xi .
i=1

où
– u représente le capital initial,
– N est un processus de Poisson d’intensité ,
– Xi i.i.d. d’espérance µ et indépendants de N ,
– c = (1 + ✓) µ est la prime par unité de temps.

Introduisons Zt = Ut u. On a Z0 = 0 et
⇥ ⇤
E[Zt ] = (c µ)t et V ar(Zt ) = E X 2 t.
⇥ ⇤
Posons ⌫ = c µ et 2 = E X 2 et on introduit

Dt = u + Bt = u + ⌫t + Wt ,

où W est un mouvement brownien de di↵usion 2.

Hélène Guérin; 30 novembre 2012. 21


Regardons maintenant ce qui se passe lorsque le taux de saut tend vers l’infini et que l’amplitude des
sauts tend vers zéro. On a de plus en plus de sauts de hauteur de plus en plus petite. Notre but est de
montrer que le processus tend alors vers un mouvement brownien avec dérive.

⌫ et 2 sont maintenant fixés et on pose


2 2µ
= c=⌫+ .
E[X 2 ] E[X 2 ]
avec X = ↵Y , d’où
2 2 E[Y ]
= c=⌫+ .
↵2 E[Y 2 ] ↵E[Y 2]

Quand ↵ ! 0, on a alors
X!0 , !1 et c ! 1.
Regardons maintenant comment se comporte le processus Zt = Ut u :
h i
MZt (z) = E ez(ct St ) = ezct+ t[MX ( z) 1]
= ezct+ t[MY ( ↵z) 1]

Par conséquent
h i
1 E ( ↵zY )k
X
ln MZt (z) = czt + t
k!
k=1
1
X ( 1)k ↵k 2zk h i
= (c ↵E[Y ])zt + t↵2 E Yk
k!
k=2
" #
2t
z2 ⇥ 2⇤ X ( 1)k ↵k 1 3zk h i
k
= z⌫t + E Y + ↵ E Y
E[Y 2 ] 2 k!
k=3
2 tz 2
! z⌫t +
↵!0 2
2 tz 2
Par conséquent, MZt (z) ! ez⌫t+ 2 , i.e. Zt converge en loi quand ↵ ! 0 vers N (⌫t, 2 t). On peut
↵!0
montrer qu’en fait le processus Zt = Ut u converge en loi vers le brownien avec dérive Bt = ⌫t + Wt .

6.2 Probabilité de ruine pour un mouvement brownien


On a des résultats précis de la probabilité de ruine pour un mouvement brownien à horizon fini et à
horizon infini.
Théorème 6.2. Soit u > 0 et t > 0. On considère Dt = u + Bt où B est un mouvement brownien avec
dérive ⌫ et di↵usion 2 .
On note ⌧ = inf {t > 0 : Ds < 0} l’instant de ruine. On a alors
✓ ◆ ✓ ◆
u + ⌫t 2⌫u u ⌫t
(u, t) = P( inf Ds < 0) = P(⌧ 6 t) = p +e 2 p ,
06s6t 2t 2t

où (x) est la fonction de répartition d’une variable N (0.1).


En faisant tendre t ! +1, on a la probabilité de ruine à horizon infini
2⌫u
(u) = P(⌧ < 1) = e 2 .

Hélène Guérin; 30 novembre 2012. 22


Pour la preuve voir Loss Models.

Corollaire 6.3. L’instant de ruine partant d’un capital initial u a pour fonction de répartition
✓ ◆ ✓ ◆
(u, t) 2⌫u u + ⌫t u ⌫t
P(⌧ 6 t|⌧ < 1) = =e 2 p + p .
(u) 2t 2t

En dérivant l’expression, on obtient que la densité de ⌧ est

u (u ⌫t)2
3/2
f⌧ (t) = p t e 2 2t .
2⇡
u u 2
La loi de ⌧ est une inverse gaussienne de moyenne ⌫ et de variance ⌫3
.

Démonstration.
⇣u ⌫ ⌘ ✓ u + ⌫t ◆ 2⌫u ⇣ u ⌫ ⌘ ✓ u ⌫t ◆
3/2 1/2 0 3/2 1/2 0
f⌧ (t) = t t p e 2 + t t p
2 2 2t 2 2 2t

t 3/2 (u+⌫t)2 2⌫u t 3/2 (u ⌫t)2


= p (u ⌫t)e 2 2 t e 2 + p (u + ⌫t)e 2 2t
2 2⇡ 2 2⇡
t 3/2 (u ⌫t)2
= p e 2 2 t ((u ⌫t) + (u + ⌫t))
2 2⇡
u (u ⌫t)2
= p t 3/2 e 2 2 t .
2⇡

Exemple 6.4. On considère un surplus


Nt
X
Ut = u + ct Xi .
i=1

où
– N est un processus de Poisson d’intensité = 10,
– Xi indépendantes de loi Gamma(↵ = 3, = 100),
– c = 3 µ est la prime par unité de temps (✓ = 2).
On veut trouver une valeur approchée de la probabilité de ruine.
On calcule alors
2
⌫=c µ = 6000 = 10 ⇥ 6 ⇥ 2 = 1 200 000.
Alors,
2⌫u
0.01 u
(u) = e 2 =e .
On a donc (100) = 0.368, (500) = 0.0067 quand on considère Ut c comme un mouvement brownien
avec dérive (on peut avoir quelques doutes vu que la taille moyenne des sauts est 300 !).

Hélène Guérin; 30 novembre 2012. 23


7 Approximation par simulation de la probabilité de ruine
Considérons le cas classique en temps continu :
Nt
X
Ut = u + ct Xi
i=1

où
– u représente le capital initial,
– N est un processus de Poisson d’intensité ,
– Xi i.i.d. d’espérance µ et indépendants de N ,
– c = (1 + ✓) µ est la prime par unité de temps.

7.1 Simulation d’un processus de Poisson


Pour simuler des trajectoires du surplus Ut , on a besoin de simuler un processus de Poisson.
Rappelons quelques résultats sur les instants de saut d’un processus de Poisson N d’intensité .

Proposition 7.1. La suite des instants inter-arrivées (Wn )n>1 est une suite de variables indépendantes
Pexponentielle E( ).
identiquement distribuées de loi
Le nième instant de saut Tn = ni=1 Wi étant la somme de n variables indépendantes de loi exponentielle,
suit la loi Gamma(n, ).

W1 W2 W3 W4

T1 T2 T3 T4

Instants de saut d’un processus de Poisson.

Par conséquent si on veut simuler un processus de Poisson jusqu’à l’instant t, il suffit de simuler des
variables exponentielles indépendantes jusqu’à ce que leur somme dépasse t.
Voici ce que donne le programme en R :

# Longueur de l’intervalle de temps


t=30
# Intensite du paramètre de Poisson
lambda=0.3
# Simulation des temps entre deux sauts
W=c(0)
while (sum(W)<t)

Hélène Guérin; 30 novembre 2012. 24


{W=c(W,rexp(1,lambda))}
# Calcul des instants de saut (on enlève la dernière valeur qui dépasse forcément t)
T=cumsum(W[-length(W)])
N=length(T)-1
plot(c(T,t),c((0:N),N),type="s",col="dark red",xlab=" ",ylab=" ")

Cette méthode de programmation est très intuitive, mais elle a l’inconvénient d’avoir une boucle while
qui ralentit grandement le programme. On va voir maintenant une autre façon de simuler un processus
de Poisson sur un intervalle de temps.

On considère le processus de Poisson sur l’intervalle [0, t]. Sur cet intervalle, le nombre de saut suit une
loi de Poisson de paramètre t. Connaissant le nombre de sauts, que peut-on dire de la loi des instants
de sauts ?
Par exemple, sachant qu’il n’y a eu qu’un saut sur l’intervalle de temps [0, t], quelle est la loi du premier
instant de saut T1 . Cet instant est forcément inférieur à t. On a pour s 6 t
P(T1 < s, Nt = 1) P(avoir 1 saut sur [0, s) et aucun saut sur [s, t])
P(T1 < s|Nt = 1) = =
P(Nt = 1) te t
P(avoir 1 saut sur [0, s))P(avoir aucun saut sur [s, t])
= par indépendance des accroissements
te t
se s e (t s) ) s
= t
=
te t
Par conséquent la loi de T1 sachant que Nt = 1 est la loi uniforme sur [0, t].

Définition 7.2. Considérons Y1 , . . . , Yn des variables aléatoires. On définit la statistique d’ordre Y(1) , . . . , Y(n)
comme étant les variables réordonnées par ordre croissant : Y(k) est le k ème plus petite valeur parmi
Y1 , . . . , Y n .
On a Y(1) 6 Y(2) 6 . . . 6 Y(n) .

Proposition 7.3. Sachant que Nt = k, les instants de saut T1 , T2 , . . . , Tk ont la même loi que la statistique
d’ordre d’un k-échantillon de loi uniforme sur [0, t] : (U(1) , . . . , U(k) ).

Ce résultat est très utile en simulation quand on veut simuler un processus de Poisson jusqu’à un instant
choisi t. Le nombre de sauts sur cet intervalle de temps suit une loi de Poisson P( t). On simule par
conséquent N ⇠ P( T ), puis on simule N variables uniforme sur [0, t] que l’on ordonne par ordre croissant
pour avoir les instants de sauts de notre processus.
En R, cela donne le programme suivant :

# Longueur de l’intervalle de temps


t=30
# Intensite du parametre de Poisson
lambda=0.3

# Simulation du nombre de sauts N sur l’intervalle [0,t]


N=rpois(1,lambda*t)
# Simulation de N variables uniforme sur [0,T] independantes
U=runif(N,min=0,max=t)
# Ordonnement les variables uniformes par ordre croissant
T=sort(U)

Hélène Guérin; 30 novembre 2012. 25


# Dessin d’une realisation du processus de Poisson sur l’intervalle [0,t]
plot(c(0,T,t),c(0:N,N),type="s",col="dark red",
xlab="Temps",ylab="Processus de Poisson",
main="Trajectoire d’un processus de Poisson d’intensite 0.3")

Voici le résultat :

8
6
4
2
0

0 5 10 15 20 25 30

Trajectoire sur [0.30] d’un processus de Poisson d’intensité = 0.3.

7.2 Simulation d’un processus de Poisson composé


Passer d’une la simulation d’un processus de Poisson à un processus de Poisson composé est très simple.
Une fois qu’on a simulé le processus de Poisson, on connaı̂t le nombre de saut sur l’intervalle [0, t], on
simule alors le nombre de variables Xi correspondantes. Voici ce que donne le programme si les Xi suivent
une loi exponentielle :

t=30
lambda=2/10
# simulation du processus de Poisson
N=rpois(1,lambda*t)
U=runif(N,min=0,max=t)
T=sort(U)
# simulation des pertes
X=rexp(N,1/3)
Z=cumsum(X)
Z=c(0,Z,Z[N])
plot(c(0,T,t),Z,type="s",col="dark red",xlab=" ",ylab=" ")

Quand la loi des pertes fait partie des lois usuelles, il suffit d’utiliser la fonction de R correspondante. Par
contre, si la loi des pertes n’est pas une loi usuelle, on peut simuler les variables X est utilisant l’inverse
de la fonction de répartition. En e↵et :

Proposition 7.4. Soit X une variable de fonction de répartition FX et U une variable uniforme sur
[0, 1], alors FX 1 (U ) a pour loi FX .

Hélène Guérin; 30 novembre 2012. 26


Démonstration. Calculons la fonction de répartition de FX 1 (U ) :

P(FX 1 (U ) 6 x) = P(U 6 FX (x)) = FX (x)

car U ⇠ U([0.1]).

7.3 Simulation du surplus


Une fois que l’on a simulé le processus de Poisson composé, pour simuler une trajectoire du surplus il faut
intégrer la prime. La procédure n’est pas simple, mais s’applique à n’importe quelle loi de pertes.

t=100
lambda=0.3
mu=3
u=10
theta=0.5
# calcul de la prime
c=(1+theta)*lambda*mu
# Simulation du processus de Poisson et de ses instants de saut
N=rpois(1,lambda*t)
U=runif(N,min=0,max=t)
Tsaut=sort(U)
Tsaut=c(0,Tsaut)
# Simulation des pertes selon la loi exponentielle
X=rexp(N,rate=1/mu)
X=c(0,X)

# Surplus à chaque instant de saut


S=u+c*Tsaut-cumsum(X)

Voici le résultat lorsqu’on complique légèrement le programme afin de tracer la trajectoire entre chaque
instant de saut :
15
10
5
0

0 10 20 30 40 50

Une trajectoire du surplus.

Hélène Guérin; 30 novembre 2012. 27


7.4 Calcul approché de la probabilité de ruine
Première méthode :
On a vu de façon théorique diverses façons d’approcher la probabilité de ruine. L’une de ces méthodes
consiste à approcher par calculs numériques la loi de la perte cumulée maximale

(u) = P(Y1 + . . . + YK > u).

où K suit le loi géométrique de paramètre = 1/✓ et variables Yi sont indépendantes et indépendantes de
K de loi d’équilibre fe (x) = (1 FX (x))/µ. Afin d’utiliser ce résultats, il faut calculer la loi d’équilibre,
la discrétiser si besoin et enfin utiliser l’algorithme de Panjer pour calculer (u). Ce résultat est très
intéressant pour estimer la probabilité de ruine à horizon infini, mais difficile à utiliser à horizon fini.

Exemple 7.5. On suppose que ✓ = 0.5, u = 10, = 2 et que les pertes suivent une loi de Weibull( , ⌧ )
avec = 5 et ⌧ = 2. On va calculer la probabilité de ruine à horizon infini (10) = P(Y1 + . . . + YK > 10).
Calculons tout d’abord la loi d’équilibre : on a
⇣ ⌘⌧
x
FX (x) = 1 e et µ = E[X] = (1 + 1/⌧ )

d’où ⇣ ⌘⌧
x
1 FX (x) e
fe (x) = = .
µ (1 + 1/⌧ )
Pour calculer (10) = P(Y1 + . . . + YK > 10) par Panjer, il faut calculer la fonction de répartition de fe :
Z ⇣ ⌘⌧ ✓ ◆⌧
1 x y y
Fe (x) = e dy on pose z = d’où y = z 1/⌧
µ 0
⇣ ⌘
Z x ⌧ ⌧⇣ ⌘1 ⌧
1
= e z z 1/⌧ dz
µ 0 ⌧
⇣ ⌘
Z x ⌧
= e z z 1/⌧ 1 dz
⌧µ 0
✓ ⌧ ◆
1 x 1
= ,
⌧ ⌧
⌧ (1 + 1/⌧ )
Rx
où (x, ↵) = 0 t↵ 1 e t dt. Comme (↵ + 1) = ↵ (↵), on a
✓ ⌧ ◆
1 x 1
Fe (x) = ,
⌧ ⌧
(1/⌧ )

On reconnaı̂t la fonction de répartition d’une loi Gamma(1, 1/⌧ ) prise au point x⌧ / ⌧. On discrétise alors
la loi d’équilibre pour utiliser Panjer :

f h (k) = Fe (kh h/2) Fe (kh + h/2).

Hélène Guérin; 30 novembre 2012. 28


Seconde méthode :
Une autre méthode consiste à simuler di↵érentes trajectoires U i du surplus sur l’intervalle [0, t]. On note
⌧ i l’instant de ruine de la ième trajectoire. On estime alors la probabilité de ruine par la méthode dite de
Monte-Carlo (méthode basée sur la loi des grands nombres) :
n n
1X 1X
lim 1{U i passe sous zéro sur l’intervalle [0,t]} = lim 1{⌧ i <t} = E[1{⌧ <t} ] = (u, t)
n!1 n n!1 n
i=1 i=1

où ⌧ i est l’instant de ruine du ième surplus U i .


Par conséquent, pour chaque trajectoire on regarde s’il y a ruine et le nombre moyen de ruine sur n
simulations est proche de la probabilité de ruine sur l’intervalle [0, t]. Pour calculer la valeur de 1{⌧ <t} , il
suffit de regarder le surplus aux instants de saut du processus de Poisson Tk et il y a ruine si l’une des
valeurs est strictement négative : ⇢
{⌧ < t} = min(UTk ) < 0 .
k

Cette méthode sous estime la probabilité de ruine à horizon infini :

(u, t) 6 (u).

Un avantage de cette seconde méthode est de pouvoir construire un intervalle de confiance. En e↵et par
le théorème limite central, on a p
n
2
(⌧ n (u, t)) ! N (0, 1)
ˆn n!1

où ⌧ n et ˆn2 sont respectivement la moyenne et la variance empirique :


n n
1X 1X 2
⌧n = 1{⌧ i <t} ˆn2 = 1{⌧ i <t} ⌧n = ⌧n (⌧ n )2
n n
i=1 i=1

car 1{⌧ i <t} sont des variables de Bernoulli. Un intervalle de confiance au niveau 1 ↵ de (u, t) est par
conséquent : " r r #
⌧ n (1 ⌧ n ) ⌧ n (1 ⌧ n )
⌧ n z↵ , ⌧ n + z↵
n n
avec P(Z 6 z↵ ) = 1 ↵ où Z ⇠ N (0, 1).
Exemple 7.6. Utilisons cette seconde méthode pour approcher la probabilité de ruine. En utilisant les
programmes précédents et en regardant l’évolution en fonction de n on obtient :
0.5
0.4
c(ProbaRuine)

0.3
0.2
0.1

0 200 400 600 800 1000

(1:Nexp)

Evolution de ⌧ n (en rouge) et de son intervalle de confiance (en bleu) en fonction de n, avec t = 100 et
des pertes de Weibull.

Hélène Guérin; 30 novembre 2012. 29


Troisième méthode :
On peut combiner les deux méthodes en simulant plusieurs variables Y1 + . . . + YK afin d’estimer la
probabilité de ruine à horizon infini (u) = P(Y1 + . . . + YK > u) par la méthode de Monte-Carlo. On a
n r
1X n
n = 1{Y i +...+Y i >u} ! (u) et n (u) ! N (0, 1)
n 1 K n!1
n (1 n)
n!1
i=1

Par conséquent, 2 s s 3
4 n (1 n) n (1 n) 5
n z↵ , n + z↵
n n

avec P(Z 6 z↵ ) = 1 ↵ où Z ⇠ N (0, 1), est un intervalle de confiance au niveau 1 ↵ de (u).

Hélène Guérin; 30 novembre 2012. 30


Université de Montréal ACT3251 - Automne 2012
Département de Mathématiques

Théorie du risque : modèles pour les actifs financiers


et mesures de risque
Ces notes de cours ont été construites notamment à partir des chapitres 18, 19 et 26 du livre de R. L.
McDonalds Derivatives Markets et des notes de cours de Manuel Morales
http ://www.dms.umontreal.ca/⇠morales/risk.php

Table des matières


1 Modèles en finance 1
1.1 Premier Modèle : modèle sans saut . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.1 Interprétation des paramètres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.2 Estimation des paramètres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Second modèle : modèle avec sauts . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.1 Cas particulier : l’amplitude des sauts suit la loi normale . . . . . . . . . . . . . . 4
1.2.2 Autres modèles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

2 Mesures de risque 8

3 VaR : Value at Risk 9


3.1 Utilisation en assurance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
3.2 Utilisation en finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

4 Tail-Value (ou Conditional Tail Expectation) 11


4.1 Utilisation en assurance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
4.2 Utilisation en finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

5 Mesures par distorsion 16

1 Modèles en finance
Lorsque le rendement est constant alors le prix d’une action vérifie St = S0 e t . On se place ici dans un
cadre plus général où le rendement est aléatoire et peut subir des sauts :

St = S0 eBt +Jt

où
– S0 est le prix initial,
– Bt = µt + Wt est un mouvement brownien avec dérive µ et volatilité qui représente la partie continue
du rendement,
P t
– Jt = N i=0 Xi est un processus de Poisson composé, indépendant de Bt , avec Xi i.i.d. de loi FX à support
sur R qui représente les sauts du rendement (les sauts peuvent être positifs ou négatifs (crash)).

Hélène Guérin; 15 décembre 2012. 1


La grande di↵érence avec ce que l’on a vu concernant le surplus d’une compagnie d’assurance est qu’ici
les sauts peuvent être à la fois positifs et négatifs. On ne peut notamment plus utiliser l’algorithme de
Panjer pour trouver la loi de Jt .
On remarque que le processus des rendements Rt = Bt +Jt est un processus à accroissements indépendants
et stationnaires car Bt et Jt le sont. Ceci signifie que les rendements dans l’intervalle [0, t] est la somme
indépendante des rendements sur [0.s] et de ceux sur [s, t].

1.1 Premier Modèle : modèle sans saut


On considère le modèle sans saut (la composant Jt n’apparaı̂t pas). On a

St = S0 e B t

où Bt = µt + Wt est un mouvement brownien avec dérive : Bt ⇠ N (µt, 2 t). On connaı̂t par conséquent
le loi de St :
St ⇠ Log-Normale(ln(S0 ) + µt, 2 t).
Loi
On remarque St = S0 eBt Bs +Bs = S0 eBt s +Bs = St s eBs pour tout 0 6 s 6 t.
Le choix de mettre une loi Log-Normale sur le montant des actifs vient du fait qu’on suppose les rendements
i.i.d. (hypothèse malheureusement contestable) et donc par le théorème central limite la somme des
rendements suit une loi normale.

Rappel : Une variable aléatoire X suit la loi log-normale de paramètre µ et 2 si la variable Y = ln(X)
suit la loi normale N (µ, 2 ). On a alors

1 (ln(x) µ)2 2 2 2
fX (x) = p e 2 2 1x>0 , E[X] = eµ e 2 , V ar(X) = (e 1)e2µ+ .
x 2⇡
0.6
0.4
0.2
0.0

0 1 2 3 4 5 6

Densité Log-Normale.

1.1.1 Interprétation des paramètres


⇣ 2

µ+ t
Si Bt ⇠ N (µt, ⇣⇣ alors⌘E[St ] ⌘
2 t) = S0 e . Par conséquent si on change la paramétrisation en prenant
2

2
plutôt Bt ⇠ N µ 2
2 t, t , on a alors

E[St ] = S0 eµt

µ représente alors le rendement espéré (ou rendement moyen) par unité de temps.

Hélène Guérin; 15 décembre 2012. 2


⇣⇣ 2
⌘ ⌘
Propriété 1.1. On considère St = S0 eBt avec Bt ⇠ N µ 2 t, 2t , alors
- µ représente le rendement moyen par unité de temps,
- représente la volatilité des rendements par unité de temps.
On peut réécrire le modèle sous la forme
⇣ 2
⌘ p
µ t+ tZ
St = S0 e 2
avec Z ⇠ N (0, 1).
Exemple 1.2. Le prix d’aujourd’hui vaut 100 $, le rendement espéré est µ = 10% par an, la volatilité est
= 30% par an.
Par conséquent sur une période de deux ans le rendement moyen et la volatilité sont
p p
µt = 0.1 ⇥ 2 = 0.2, t = 0.3 ⇥ 2 = 0.424
Le prix espéré est alors
E[S2 ] = 100e0.2 = 122.14 $.
Le prix au bout de deux ans est
⇣ ⌘ p
0.32
2 0.1 +0.3 2Z
S2 = 100e 2
= 111.63 e0.424Z avec Z ⇠ N (0.1).
Par conséquent, comme P(Z < 0) = 1/2, on en déduit que le prix au bout de deux ans vérifie
P(S2 < 111, 63) = 1/2.
Le prix a une chance sur deux d’être inférieur à 111.63.
De même, comme P(Z > 1) = P(Z < 1) = 0.1587, on a
P(S2 > 111.63 e0.424 ) = P(S2 > 170.62) = 0.1587 et P(S2 < 111.63 e 0.424
) = P(S2 < 73.03) = 0.1587.
Le prix S2 se trouvera donc entre 73.03 et 170.62 avec probabilité de 0.6826.
On a P(|Z| < 1.96) = 0.95 et donc
P(49.43 < S2 < 252.08) = 0.95.
Quand on veut évaluer P(St < K) pour une valeur de K donnée il faut se ramener à la loi N (0.1) et on
a donc 0 ⇣ ⌘ 1
2
ln (K) ln (S0 ) µ 2 t
P(St < K) = @ p A
t

où est la fonction de répartition de N (0.1).


Exemple 1.3. Le prix d’une action veut aujourd’hui 50 $, le rendement moyen est 15% et la volatilité
est 30% par an.
Le rendement moyen pour un mois est
2
(µ /2)t = (0.15 0.32 /2) ⇥ 1/12 = 0.00875
et la volatilité pour un mois p p
t = 0.3 1/12 = 0.0866.
On souhaite évaluer P(S1/12 > 62.09 $) :
✓ ◆
ln (62.09) ln (50) 0.00875
P(S1/12 > 62.09 $) = 1 =1 (2.3997) = 0.02275.
0.0866

Hélène Guérin; 15 décembre 2012. 3


1.1.2 Estimation des paramètres
En général on a les prix d’une action pour des périodes de longueur h = 1/N (prix journaliers, mensuels,
annuels,. . . ) : ⇣ ⌘ 2 p
µ h+ hZ
S0 , Sh , S2h , . . . avec St = St he
2
,
d’où ✓ ◆ ✓ ◆ ✓✓ ◆ ◆
St 2 p 2
2
X = ln = µ h+ hZ ⇠ N µ h, h .
St h 2 2
2
⇣ ⌘
ˆX
Alors h1 X est un estimateur de µ 2 et 1 2
h ˆX est un estimateur de 2. On en déduit que 1
h X+ 2 est
un estimateur du rendement espéré µ.
Remarque 1.4. En général les rendements ne semblent pas suivre une loi Normale (ailes épaisses selon
le coefficient de Kurtosis, Log-Histogramme n’est pas une parabole). En fait, les trajectoires de St ne sont
pas vraiment continues.
Quand on suppose que la trajectoire est continue avec un rendement moyen de 15% et une volatilité de
20%, alors la probabilité d’avoir une baisse d’au moins 20% en une journée est
0 ⇣ ⌘ 1
✓ ◆ ln (0.8)
2
0.15 0.22 /365
S1/365
P 6 0.8 = @ p A = ( 21.35) ' 0
S0 0.2/ 365

et pourtant ça arrive ! (voir les crashs boursiers de 1987 ou de 2008).


Pour modéliser les crashs, un outil mathématique est d’introduire des sauts afin d’avoir des lois à queues
épaisses.

1.2 Second modèle : modèle avec sauts


On considère le modèle
St = S0 eBt +Jt
où
– S0 est le prix initial, ⇣⇣ ⌘ ⌘
2
– Bt est un mouvement brownien avec dérive : Bt ⇠ N µ t, 2t ,
2
P Nt
– Jt = X
i=0 i est un processus de Poisson composé, indépendant de Bt , avec Xi i.i.d. de loi FX à
support sur R et Nt un processus de Poisson d’intensité .
On note Stc = S0 eBt la partie continue du prix. Dans ce modèle, Stc suit une loi Log-Normale mais pas St .

1.2.1 Cas particulier : l’amplitude des sauts suit la loi normale


⇣⇣ 2
⌘ ⌘
Supposons que l’amplitude des sauts Xi suit la loi normale Xi ⇠ N µJ J
, 2 . Alors Yi = eXi suit
2 J
une loi Log-Normale et on peut écrire
✓ 2

µJ J + J Zi
Yi = eXi = e
2

avec Zi des variables indépendantes de loi N (0.1). On a


P Nt Nt
Y
Bt Xi
S t = S0 e e i=0 = Stc Yi .
i=0

Hélène Guérin; 15 décembre 2012. 4


Au k ème instant de saut, le pourcentage de variation du prix vaut
ST k ST Y k ST ST
k k k
= = Yk 1.
ST ST
k k

Donc en moyenne le prix saute de E[Yk 1] = (eµJ 1) %.


Si µJ > 0 alors e µJ 1 > 0.
Si µJ < 0 alors eµJ 1 < 0.

Remarque 1.5. Sachant que Nt = m, on a


m
Y ✓✓ 2 ◆ ◆
m
e Jt = Yi ⇠ Log-Normale µJ J
m, 2
Jm .
2
i=0

Étudions maintenant la loi de St : sachant que Nt = m, on a


✓ ◆
⇣ 2
⌘ p 2
J
Pm
Loi µ t+ tZ µJ 2
m+ J i=1 Zi
St = S0 e 2
e

avec Z et Zi des variables


⇣ indépendantes
⌘ N (0.1). ⌘
de loi ⇣⇣ ⇣ ⌘ ⌘
2 2
St 2t 2
Par conséquent, L S0 |Nt = m = Log-Normale µ 2 t + m µJ 2
J
, +m J et

E[St |Nt = m] = S0 eµt emµJ

On en déduit que ⇥ ⇤ t(eµJ


E[St ] = S0 eµt E eNt µJ = S0 eµt e 1)
.
Ce qui signifie que le rendement moyen par unité de temps est µ + (eµJ 1).

On pose µ⇤ = µ (eµJ 1) et on redéfinit notre modèle de la façon suivante :



St = S0 eBt +Jt
⇣⇣ 2
⌘ ⌘ P Nt ⇣⇣ 2
⌘ ⌘
avec Bt ⇠ N µ⇤ 2 t, 2t et Jt = i=0 Xi où Xi ⇠ N µJ J
2 , 2
J . Alors

Nt
!
Loi p X
St = S0 exp µ (eµJ 1) 2
/2 t + tZ + Nt (µJ 2
J /2) + J Zi
i=1

et E[St ] = S0 eµt .

Connaitre la loi de St = S0 eBt +Jt est très compliqué car en e↵et si on regarde sa fonction de répartition :

P(St 6 K) = P(Bt⇤ + Jt 6 ln(K) ln(S0 ))

où Bt⇤ + Jt est la somme d’une variable normale et d’une variable de Poisson composé. Le plus simple est
d’estimer la loi de St par simulation afin de calculer la fonction empirique de St .

Hélène Guérin; 15 décembre 2012. 5


10000
8000
6000
4000
2000
0 5 10 15 20 25 30

Di↵érentes trajectoires de St pour Xi gaussien.


Histogramme de St Fonction de répartition empirique de St

1.2

1.0
1.0

0.8
0.8

0.6
Density

Fn(x)
0.6

0.4
0.4

0.2
0.2
0.0

0.0
3.5 4.0 4.5 5.0 5.5 0 50 100 150 200 250 300 350

log(St) x

Histograme et fonction de répartition de St .


On peut de même simuler les rendements par unité de temps : en simulant plusieurs fois B1⇤ + J1 on
obtient l’histogramme des rendements.
Histogramme du rendement Fonction de répartition empirique du rendement
1.0



●●●
1.0


●●●●●
2


●●

●●
●●


●●

●●



●●
●●

●●
●●


●●

●●

●●

0.8

●●

●●



●●



●●



●●

●●
●●


●●

●●


1


0.8




●●

●●




●●


●●

●●

●●
●●


●●


●●



●●





●●
●●





●●



●●
0.6




●●


●●



●●
0




●●
●●


0.6




●●




●●





●●
●●


●●


●●


●●

●●

●●


●●



●●



●●
−1





●●


0.4






●●



0.4



●●




●●

●●

●●


●●


●●


●●
●●
●●


●●


−2



●●

●●





●●

0.2




0.2


●●


●●
●●●●
−3

●●


0.0

0.0

−1.5 −1.0 −0.5 0.0 0.5 1.0 −1.5 −1.0 −0.5 0.0 0.5 1.0 −3 −2 −1 0 1 2 3

R x norm quantiles

Histograme, fonction de répartition et QQ-plot du rendement par rapport à la loi normale.

1.2.2 Autres modèles


On se considère encore le modèle
St = S0 eBt +Jt
avec ⇣⇣ ⌘ ⌘
2
– Bt ⇠ N µ 2t ,
2 t,
P t
– Jt = N i=0 Xi et Nt un processus de Poisson d’intensité .
Les Xi peuvent n’importe quelle loi (Pareto, Gamma, NIG, etc. . . ) et donc la loi de St est alors encore
plus complexe.

Au lieu d’étudier Bt et Jt séparément, on va chercher un processus Zt tel que

St = S0 e Z t

possède les bonnes propriétés pour un processus de prix, i.e.


1. (Zt )t>0 doit avoir des accroissements indépendants et stationnaires : pour s 6 t, Zt Zs indépendant
de Zs et de même loi que Zt s (hypothèse usuelle en finance mais pas forcément réaliste),

Hélène Guérin; 15 décembre 2012. 6


2. la loi de Zt devrait avoir des ailes épaisses (pour modéliser les grandes amplitudes),
3. la loi de Zt doit être connue afin de pouvoir estimer les paramètres.
De tels modèles existent.

Faisons d’abord une petite remarque : dans le modèle Log-Normal, St = S0 eBt avec Bt ⇠ N (µt, 2 t), la
volatilité et le rendement espéré par unité de temps sont constants au court du temps alors que lorsqu’on
analyse des données du marché on observe que ce n’est pas le cas.
Si on regarde l’indice S&P 500, on voit bien qu’il y a des périodes à forte volatilité et des périodes à faible
volatilité :
S&P 500

1600
1400
1200
1000
800

2007 2008 2009 2010 2011 2012 2013

Xabs

De même le rendement n’est en général pas constant.

Cas particulier : le modèle généralisé hyperbolique


On reparamétrise tout d’abord notre modèle :

St = S0 e B t

avec Bt ⇠ N ((µ + !)t, !t), où ! est un paramètre aléatoire positif de loi F! .
Étudions la loi de St :
Z 1
P(St 6 K) = P(St 6 K|! = x) f! (x)dx
0 | {z }
Loi Log-Normale((µ+ x)t,xt)
Z 1 ✓ ◆
ln(K) ln(S0 ) (µ + x)t
= p f! (x)dx
0 xt
L’expression reste très compliquée.
⇣ ⌘
p
Dans le cas où ! ⇠ GIG , t, ↵2 2 , alors on retrouve une loi hyperbolique généralisée :

P(St 6 K) = FGH( ,↵, , t,µt) (ln(K) ln(S0 ))

On peut facilement calculer cette quantité avec R en utilisant la fonction pgh du package fBasics.
Vérifions que ce modèle possède les bonnes propriétés. On considère donc

St = S0 eZt avec Zt ⇠ GH( , ↵, , t, µt).

Hélène Guérin; 15 décembre 2012. 7


Pour simuler St on peut soit utiliser la fonction rgh du package fBasics, soit faire le mélange d’une GIG
(package gamlss.dist) et d’une loi Normale. L’inconvénient de la fonction rgh est que la paramétrisation
de la densité d’une hyperbolique n’est pas spécifiée dans l’aide du package fBasics, il semble cependant
que ce soit la même que celle utilisée dans le premier chapitre du cours.
Pour faire des simulations sous excel, voir les notes du cours de Manuel Morales.

2 Mesures de risque
On considère par exemple un actif dont l’évolution est stochastique : St peut-être le prix d’un actif boursier
ou le surplus d’une compagnie d’assurance et on souhaite mesurer le risque lié à cet actif.
Il faut savoir que les niveaux minimaux pour faire face aux risques financiers et en assurance sont des
fonctions des mesures de risque. La façon de les calculer est souvent imposée par les organismes régulateurs.
Ce que l’on va voir dans la suite peut se généraliser à l’étude de plusieurs actifs (St1 , St2 , . . . , StN ).
On se place sur une période [0, t] et on considère la ”perte” entre l’instant t et l’instant initial :
rt
X = S0 e St

où r est le facteur d’actualisation. Si X > 0 on a eu une perte et si X < 0 on a eu un gain. On souhaite
mesurer le risque lié à l’actif considéré.
Dans la suite on ne prendra pas en compte le facteur d’actualisation pour ne pas alourdir les résultats,
mais dans la réalité il faut le prendre en compte.
Attention : Dans certains livres, notamment dans Derivatives Market, les pertes sont définies comme

X = St S0 .

Une première façon de mesurer le risque est de regarder la valeur moyenne de la perte E[X]. Plus la
valeur moyenne est grande, plus on est dans une situation risquée. Mais comme chacun sait on peut avoir
une valeur moyenne faible et donc penser que la situation n’est pas risquée alors que la variance est très
grande. ⇢
12 M $ avec probabilité 0.5
Par exemple, si X = , en moyenne la perte est de 1 M $. Si par contre
10 M $ avec probabilité 0.5
la perte est constante égale à X = 1 M $, on a encore une perte moyenne de 1 M $. Dans le premier
cas, on a une chance sur 2 de perdre 10 M $, alors que dans le second cas on est toujours sur de gagner
1 M $. Le second cas est de toute évidence moins risqué.
On pourrait par considérer la variance comme mesure de risque, mais seules les grandes valeurs de X sont
inquiétantes (pas les faibles).

Enfin, pourquoi mesurer le risque ?Essentiellement pour comparer deux actifs et pouvoir choisir le moins
risqué. Dans l’idéal, une mesure de risque R doit vérifier les propriétés suivantes :
loi
– invariance en loi : si X = Y , alors R(X) = R(Y ),
– croissance : si X 6 Y (i.e., P(X 6 Y ) = 1), alors R(X) 6 R(Y ),
– respecte la translation : pour tout u 2 R, R(X + u) = R(X) + u,
– homogénéité : pour tout a > 0, R(aX) = aR(X),
– sous-additivité : R(X + Y ) 6 R(X) + R(Y ),
– convexité : pour tout ↵ 2 [0, 1], R(↵X + (1 ↵)Y ) 6 ↵R(X) + (1 ↵)R(Y ).
En pratique, les mesures de risque utilisées ne vérifient que certaines de ces bonnes propriétés. L’ho-
mogénéité assure que le risque est invariant par changement de devise. La sous-additivité vient du fait

Hélène Guérin; 15 décembre 2012. 8


qu’on espère que la diversification des investissements doit réduire le risque : le risque d’un portefeuille
est moins important que le risque des actifs séparés. La convexité s’interprète de la même façon.
Une mesure de risque est dite cohérente si elle respecte la translation, est homogène, sous-additive et
monotone.
Les mesures de risque portent sur des variables aléatoires, pas sur les processus. En e↵et, si on considère
X = S0 St , seule la valeur à l’instant t de l’actif est prise en compte et non de toute la trajectoire sur
l’intervalle [0.t]. On peut avoir un comportement très risqué entre les instants 0 et l’instant t, mais la
mesure ne le prend pas en compte. C’est un des points faibles de ces mesures de risque lorsqu’on étudie
des processus.

3 VaR : Value at Risk


La V aR est apparue (sous ce nom) dans les années 90, en réponse à de nombreux désastres qui ont touché
les marchés de capitaux à cette période.

Définition 3.1. V aR est le quantile d’ordre ↵ de la loi des pertes FX , i.e.

V aR↵ (X) = FX 1 (↵)

et donc P(X > V aR↵ ) = 1 ↵.

On prend en général ↵ de l’ordre 95% ou 99%. C’est une fonction croissante de ↵.


Dans le cas où la loi de X n’est pas continue, définir FX 1 (↵) n’est pas forcément simple (la fonction FX
possède des sauts et des paliers). On définit alors

V aR↵ (X) = min {K : P(X 6 K) > ↵}.

Propriété 3.2. La V aR respecte la translation, est homogène, mais malheureusement n’est pas sous-
additive.

En e↵et : prenons

1000 avec proba 0.04 Loi
X= et Y = X indépendante de X.
0 avec proba 0.96

Les fonctions de répartition de X et X + Y sont donc

x 0 1000 x 0 1000 2000


FX (x) 0.96 1 FX+Y (x) 0.9216 0.9984 1

On a V aR0.95 (X) = V aR0.95 (Y ) = 0 et V aR0.95 (X + Y ) = 1000 > V aR0.95 (X) + V aR0.95 (Y ).

3.1 Utilisation en assurance


La grande di↵érence entre la finance et l’assurance est qu’en assurance la loi des pertes est définie sur
[0, +1) et représente des pertes associées à des réclamations. Il n’y a dans ce cas aucun gain contrairement
aux produits financiers.

Hélène Guérin; 15 décembre 2012. 9


Exemple 3.3. Supposons que les pertes suivent une loi de Pareto :

fX (x) = +1
.
(x + ✓)

Supposons que les paramètres valent ✓ = 39.66 et = 2.2. Alors


✓ ◆
↵ ✓
P(X > V aR ) = =1 ↵
V aR↵ + ✓

d’où V aR0.95 = 114.95.

Exemple 3.4. Regardons un exemple dans le cas discret. Les pertes mensuelles suivent la loi

x 0 10 50 100
P(X = x) 0.85 0.10 0.045 0.005

On a par conséquent
x 0 10 50 100
FX (x) 0.85 0.95 0.995 1
et par conséquent V aR0.95 = 10, V aR0.99 = 50.

3.2 Utilisation en finance


La V aR↵ (X) vérifie
P(X > V aR↵ ) = 1 ↵.
Par conséquent, si se place dans le cadre d’actifs financiers et qu’on suppose les rendements sur chaque
unité de temps indépendants, une perte supérieure à V aR↵ arrive selon la loi géométrique de paramètre
1 ↵. Le temps moyen pour avoir une telle perte est donc 1/(1 ↵). Par exemple, si on prendre ↵ = 0.95,
alors on observe une perte supérieure à V aR0.95 (X) en moyenne une fois sur 20.
Le modèle Log-Normal :
p
St = S0 e ( µ )t+
2 /2 tZ
avec Z ⇠ N (0, 1)
on a
✓ ✓ ◆ ✓ ◆◆
St K
P(St < K) = P ln < ln
S0 S0
0 ⇣ ⌘ 1
ln SK0 µ 2 /2 t
= @ p A.
t

Par conséquent, comme X = S0 St ,

V aR↵ (X) = S0 K↵

avec P(St < K ↵ ) = 1 ↵. On obtient la valeur de K ↵ en inversant la fonction de répartition de St :


p
K ↵ = S0 e ( µ )t+
2 /2 t 1 (1 ↵)
.

Hélène Guérin; 15 décembre 2012. 10


Exemple 3.5. On place 3 M $ dans une action avec un rendement moyen de 15% et de volatilité 30%
par an. On suppose que le prix suit notre modèle Log-Normal. La valeur dans une semaine vaut
q
1 1
= 3e(
0.15 (0.3)2 /2) 52 +0.3 Z
S1/52 52 avec Z ⇠ N (0.1).

Par conséquent, q
1 1
= 3e(
0.95 0.15 (0.3)2 /2) 52 +0.3 1 (0.05)
K 52 .
Comme 1 (0.05) = 1.645, K 0.95 = 2.8072 et donc

V aR0.95 = S0 K 0.95 = 0.1928 M.

ceci signifie qu’une perte de 0.1928 M $ arrive en moyenne une semaine sur 20.

Exemple 3.6. Dans cet exemple on utlise le modèle N IG :

St = S0 eZt avec Zt ⇠ N IG(↵, , t, µt)

pour une action dont S0 = 50. Les paramètres annualisés sont estimés à l’aide des rendements :

↵ = 2, = 1.5, = 0.2, µ = 0.2027

On souhaite calculer V aR0.9 sur un an : 0.1 = P(X > V aR0.9 ). On obtient avec R, V aR0.9 = 31.4.

Exemple 3.7. Pour l’action Bayer, on peut modéliser les rendements journalier par une loi hyperbolique
a été ajustée avec les paramètres :

↵ = 139, = 5.35, = 0.0044, µ = 0.003

On souhaite calculer V aR0.95 sur 30 jours avec S0 = 100$ : 0.05 = P(X > V aR0.95 ). On obtient avec R,
V aR0.95 = 12.8.

4 Tail-Value (ou Conditional Tail Expectation)


La VaR est un montant d’argent que l’on peut perdre avec une certaine probabilité. On pourrait avoir
exactement la même VaR dans deux modèles de pertes di↵érents. Le but est de non seulement mesurer
la probabilité des pertes mais aussi leurs magnitudes.

Définition 4.1. La Tail Value-at-Risk est définie comme la perte excessive espérée :

T V aR↵ (X) = E[X|X > V aR↵ ].

Il s’agit de la perte moyenne dans les pires 1 ↵% des cas.


Cette mesure de risque est parfois appelée CT E ↵ : Conditional Tail Expectation.
(Il n’existe malheureusement pas de théorie uniformisant les définitions des mesures de risque).

On remarque que T V aR↵ (X) est une fonction croissante de ↵.

Hélène Guérin; 15 décembre 2012. 11


Remarque 4.2. Dans certains livres, la Tail Value-at-Risk est définie comme la moyenne de VaR de
niveau supérieur à ↵ : Z 1
↵ 1
T V aR (X) = V aRu (X)du
1 ↵ ↵
Si FX est continue et comme FX 1 (↵) = V aR↵ (X) et donc
Z +1
1
T V aR↵ (X) = vF 0 (v)dv en posant v = FX 1 (u)
1 ↵ V aR↵ (X) X
1 ⇥ ⇤
= E X1X>V aR↵ (X) = E[X|X > V aR↵ ].
1 ↵
Par conséquent, dans le cas où la loi des pertes FX est continue, les deux définitions coı̈ncident.

Proposition 4.3. Quand FX est continue, on a


E[X] LevX (V aR↵ (X))
T V aR↵ (X) = V aR↵ (X) + .
1 ↵
Démonstration. On remarque que

T V aR↵ (X) = E[X|X > V aR↵ ]


= E[X V aR↵ (X) + V aR↵ (X)|X > V aR↵ ]
= melX (V aR↵ ) + V aR↵ (X)

où melX (u) = E[X u|X > u] est le mean excess loss.
Comme melX (u) = 1 F1 (u) (E[X] E[X ^ u]) = 1 F1 (u) (E[X] LevX (u)) où LevX (u) est la limited ex-
pected value, on a
E[X] LevX (V aR↵ )
T V aR↵ (X) = V aR↵ (X) + .
1 F (V aR↵ (X))
On conclut facilement car lorsque FX est continue, on a F (V aR↵ (X)) = ↵.

Propriété 4.4. T V aR↵ respecte la translation, est homogène, sous-additive et monotone. C’est donc une
mesure cohérente.

Il existe un lien entre la TVaR et la prime Stop-Loss (utile notamment pour les réassureurs) :
On dit que X 6T V aR Y si pour tout ↵ 2 [0, 1], T V aR↵ (X) 6 T V aR↵ (Y ). On a alors le résultat suivant :

X 6T V aR Y () E[(X t)+ ] 6 E[(Y t)+ ] 8t 2 R.

4.1 Utilisation en assurance


Exemple 4.5. Les pertes d’une compagnie d’assurance suivent la loi

x 0 100 1000
P(X = x) 0.9 0.06 0.04

On a par conséquent
x 0 100 1000
FX (x) 0.90 0.96 1
On en déduit que V aR0.90 = 0, V aR0.95 = 100, V aR0.96 = 100.

Hélène Guérin; 15 décembre 2012. 12


Calculons T V aR0.90 :
E[X] 6 + 40
T V aR0.90 = E[X|X > 0] = = = 460.
P (X > 0) 0.1

Pour ↵ = 0.95 :
E[X1X>100 ] 40
T V aR0.95 = E[X|X > 100] = = = 1000.
P (X > 100) 0.04
Pour ↵ = 0.96, on a encore
T V aR0.96 = E[X|X > 100] = 1000.
En fait, T V aR↵ telle que définie est constante pour ↵ 2 (0.9, 0.96].

Comme la V aR↵ , le calcul de la T V aR↵ pose problème dans le cas discret. Pour éviter d’avoir une T V aR↵
constante par morceaux, on va l’approcher de façon linéaire de la façon suivante.

Proposition 4.6. Si la loi de X n’est pas continue, pour ↵ > 0 fixé, on introduit
n o
↵0 = max : V aR = V aR↵

et on définit alors
(↵0 ↵)V aR↵ + (1 ↵0 )E[X|X > V aR↵ ]
T V aR↵ = .
1 ↵
Quand ↵0 = ↵, on retrouve T V aR↵ = E[X|X > V aR↵ ].

Exemple 4.7. Reprenons l’exemple précédent, on a pour ↵ = 0.96, T V aR0.96 = 1000 et pour ↵ = 0.95,
↵0 = 0.96,
0.01 ⇥ 100 + 0.04E[X|X > 100]
T V aR0.95 = = 820.
0.05
Exemple 4.8. Supposons que les pertes suivent une loi de Pareto :

fX (x) = +1
.
(x + ✓)

Comme ✓ ◆
↵ ✓
P(X > V aR ) = =1 ↵
V aR↵ + ✓
On en déduit que ✓ ◆
↵ 1
V aR = ✓ 1 .
(1 ↵)1/
Par ailleurs, en utilisant la formule

E[X] LevX (V aR↵ )


T V aR↵ (X) = V aR↵ +
1 ↵

Hélène Guérin; 15 décembre 2012. 13


✓ ⇣ ⌘ ◆
1
✓ ✓
et comme LevX (V aR↵ ) = 1 1 ✓+x , on obtient

✓ ◆ 1
↵ ↵ 1 ✓ ✓
T V aR (X) = V aR +
1 ↵ 1 ✓ + V aR↵
✓ + V aR↵
= V aR↵ +
1
1
= V aR↵ + ✓.
1 1

4.2 Utilisation en finance


Le modèle Log-Normal sans saut :
⇣ 2
⌘ p
µ t+ tZ
S t = S0 e 2
avec Z ⇠ N (0, 1).

Pour X = S0 St , on a

T V aR↵ (X) = E[X|X > V aR↵ (X)] = S0 E[St |St < S0 V aR↵ (X)]

Rappel : Z u
xfX (x)
E[X|X < u] = dx.
1 FX (u)
Dans notre cas,
Z u Z ln u
xfSt (x)dx = ey fµ, (y)dy
1 1
⇣ 2

avec fµ, (y) densité de la loi N (µ, 2) avec µ = µ t + ln(S0 ) et 2 = 2 t. On a
2

Z a Z a
1 (y µ)2 2 2 y
y
e fµ, (y)dy = p
e 2 2 dy
1 1 2⇡
Z a 2 )2
1 (y µ 2
= p e 2 2 eµ+ 2 dy
1 2⇡
✓ 2

2 a µ
= eµ+ 2

où est la fonction de répartition de N (0, 1). Par conséquent,


Z u ✓ 2

µ+ 2
2 ln(u) µ
xfSt (x)dx = e .
1

Par ailleurs ✓ ◆
ln(u) µ
FSt (u) = P(St 6 u) =

Hélène Guérin; 15 décembre 2012. 14


On en déduit que,
✓ 2

1 µ+
2 ln(u) µ
E[St |St < u] = ⇣ ⌘e 2
ln(u) µ

⇣ 2
⌘ !
ln(u/S0 ) µ+ 2
t
p
t
= S0 eµt ⇣ 2
⌘ !
ln(u/S0 ) µ 2
t
p
t

⇣ 2

S0
ln S0 V aR↵
+ µ+ 2
t p
En notant d1 = p
t
et d2 = d1 t, on a donc

( d1 )
T V aR↵ = S0 S0 eµt
( d2 )

Remarque 4.9. Les constantes d1 et d2 apparaissent souvent en finance, notamment en valuation d’op-
tion (Black-Scholes).

Exemple 4.10. Le prix d’aujourd’hui d’une action est S0 = 100$, la volatilité est de 30% et le rendement
de 15% par unité de temps. Sur un horizon de t = 0.5, calculer V aR↵ et T V aR↵ pour ↵ = 0.95.
Calculons V aR↵ en premier. On a
p
S0 e ( µ )t+
2 /2 t 1 (1 ↵)
V aR↵ = S0 .

Comme 1 (0.005) = 1.645, on obtient


⇣ p ⌘
V aR↵ = 100 1 e(0.15 0.32 /2)/2 0.3⇥.645/ 2
= 25.65

Par conséquent, ✓ ◆
↵ 0.15⇥0.5 ( d1 )
T V aR = 100 1 e
( d2 )
avec d1 = 1.857 et d2 = 1.645 et donc
✓ ◆
↵ 0.15⇥0.5 0.03166
T V aR = 100 1 e = 31.75
0.05

Pour des modèles plus compliqués que le modèle LogNormal, on estime T V aR↵ par simulation :
n
X
1
T V aR↵ = E[S0 St |S0 St > V aR↵ ] ' (S0 Sti )1S0 Sti >V aR↵
n(1 ↵)
i=1

car P(S0 St > V aR↵ ) = 1 ↵.

Hélène Guérin; 15 décembre 2012. 15


Evolution de la VaR simulée en fonction du nombre de simulations Evolution de la TVaR simulée en fonction du nombre de simulations

60
25

50
40
20

30
15

20
10
10

VaR empirique TVaR empirique


VaR exacte TVaR exacte

0
0 1000 2000 3000 4000 5000 0 1000 2000 3000 4000 5000

Comparaison de la valeur simulée et de la valeur exacte de la V aR et de la T V aR pour le modèle


LogNormal en fonction du nombre de simulation.

5 Mesures par distorsion


En assurance, les pertes sont toujours positives et on a
Z 1
E[X] = SX (x)dx où SX (x) = 1 FX (x) est la fonction de survie.
0

On sait que la moyenne ne permet pas de mesurer le risque façon optimale, par contre on peut définir
une nouvelle mesure de risque modifiant l’espérance :

Définition 5.1. Une mesure ⇢ par distorsion (ou mesure de Wang) est définie par
Z 1
⇢(X) = g(SX (x))dx où SX (x) = 1 FX (x) est la fonction de survie
0

avec g fonction croissante telle que g(0) = 0 et g(1) = 1.

Les mesures par distorsion sont homogènes, monotones et respectent la translation. On peut montrer que
si g est concave, alors la mesure ⇢ est sous-additive.

Remarque 5.2. On remarque que g(SX (x)) est une fonction de survie et donc si Y est une v.a. de
fonction de survie g(SX (x)), on a ⇢(X) = E[Y ].
Attention : Y 6= g(X) ! C’est malheureusement plus compliqué.

On remarque V⇢aR↵ et T V aR↵ sont des mesures de distorsion. En e↵et


0 si x 6 1 ↵
– Soit g(x) = , alors
1 si x > 1 ↵
Z 1 Z 1
⇢(X) = 1SX (x)>1 ↵ dx = 1x6V ar↵ (X) dx = V aR↵ (X).
0 0

Hélène Guérin; 15 décembre 2012. 16


⇢ x
1 ↵ si x 6 1 ↵
– Soit g(x) = , alors
1 si x > 1 ↵
Z 1 Z 1
x
⇢(X) = 1SX (x)61 ↵ dx + 1SX (x)>1 ↵ dx
0 1 ↵ 0
Z 1 Z 1
SX (x)
= 1 ↵ dx + 1x<V aR↵ (X) dx
1 ↵ x>V aR (X)
Z0 1 0
SX (x)
= dx + V aR↵ (X)

V aR (X) 1 ↵
= E[X V aR↵ (X)|X > V aR↵ (X)] + V aR↵ (X) = T V aR↵ (X).

Autre exemple : mesure de risque à hasard proportionnel g(x) = x↵ avec 0 6 ↵ 6 1.


Si X suit la loi de pareto
✓ ◆ ✓ ◆↵
✓ ✓
SX (x) = alors g(SX (x)) =
x+✓ x+✓

et donc Z 1✓ ◆↵
✓ ✓
⇢HP (X) = dx = si ↵ > 1.
0 x+✓ ↵ 1
On parle de mesure de Gini si g(x) = (1 + ↵)x ↵x2 , de Transformation Exponentielle si g(x) =
(1 ↵x )/(1 ↵), de Dual Power si g(x) = 1 (1 x)1/↵ , . . .

Hélène Guérin; 15 décembre 2012. 17

Vous aimerez peut-être aussi