Introduction à la Théorie du Risque
Introduction à la Théorie du Risque
⇤ Préalables
ACT2284 et MAT2717
⇤ Descriptif du cours
Modèles individuels de risque, modèles collectifs de risque pour des périodes courtes et longues,
application de la théorie ”stop-loss”. Théorie de la ruine. Modèles pour actifs financiers. Il
contribue à la préparation des examens SOA M et CAS 3.
⇤ Thèmes du cours
Une initiation au logiciel de programmation R sera donnée tout au long du cours. Pour télécharger le
logiciel (gratuit) : http ://www.r-project.org/
1. Modèles individuels du risque
Modèles pour les réclamations individuelles.
2. Modèles collectifs du risque
Loi de répartition de réclamations agrégées, distributions pour les fréquences, distributions pour les
réclamations, propriétés de certaines distributions composées, approximations.
3. Modèles collectifs comme processus stochastiques
Modèles en temps discret, modèles en temps continu, probabilité de ruine, prime stop-loss, la perte
maximale agrégée.
4. Théorie du risque
Modéles généraux pour le surplus d’une compagnie d’assurance : processus de Poisson, processus
des accroissements indépendant et stationnaires, théorie de la ruine.
5. Modèles des actifs financiers
Mouvement brownien géométrique et la loi lognormale. Modèles plus généraux : processus d’Îto,
processus à saut et leurs lois.
6. Simulation des modèles financiers et d’assurance
Simulation de di↵érents modèles de surplus et des actifs financiers : processus de Poisson composé,
mouvement brownien géométrique et processus aux accroissements indépendants et stationnaires.
Techniques de simulation appliquées en finance et en actuariat.
7. Mesures du risque
VAR (value at risk) et CTE (conditional tail expectation).
1
⇤ Dates importantes
Examen Intra : mardi 20 novembre 2012, 8h30-10h30 (local P-310, Pv Roger-Gaudry)
Projet : à rendre pour le mardi 8 janvier 2012, 12h00
Examen final : mardi 15 janvier 2013, 9h00-12h00 (local à déterminer)
Date limite d’annulation d’inscription le 17 octobre 2012.
Date limite d’abandon avec frais le 7 décembre 2012.
⇤ Bar^
eme d’évaluation
Examen Intra 35%, Projet 20%, Examen final de 45%.
Tous les étudiants sont invités à consulter le site http ://www.integrite.unmontreal.ca et à prendre connais-
sance du règlement disciplinaire sur le plagiat ou la fraude. Plagier peut entrainer un échec, la suspension
ou le renvoi de l’université.
⇤ Projet
Il s’agit d’un travail en équipe (minimum 2 - maximum 4 personnes). Le but est de mettre en pratique
les outils vus en classe. L’évaluation se fera sur un rapport écrit (minimum 10 pages + codes). En plus
de la démarche et des résultats, la mise en page sera évaluée.
Les simulations seront faites avec le logiciel R ou avec excel.
Attention : Le rapport du projet doit être remis au format pdf en y joignant le fichier des programmes
(excel ou R) par courrier électronique à l’adresse [email protected] le mardi 8 janvier à 12h au plus
tard.
⇤ Bibliographie
Le cours suivra principalement les chapitres 9, 10 et 11 de la troisième édition de Loss Models : from data
to decisions, et la dernière partie du cours reposera sur Derivatives Markets.
– Klugman, S.A. ; Panjer, H. H. et Willmot, G.E. Loss Models : From Data to Decisions. Third edition.
Wiley, 2004 (ou Second edition, 2004).
– McDonald, R.L. Derivatives Markets. Second edition, Addison Wesley, 2006.
Attention : Ne pas se procurer la dernière édition (4ème édition) de Loss Models, car les chapitres 10 et
11 ont été supprimés.
Dans l’onglet ”contributed” sur le site du CRAN http ://cran.r-project.org/ vous trouverez de nombreux
manuels d’utilisation de R au format pdf. Parmi les manuels en français, il y a
– R pour les débutants by Emmanuel Paradis, the French version of R for Beginners.
– Introduction à la programmation en R, Troisième édition by Vincent Goulet, an introduction to pro-
gramming in R.
Vous pouvez trouver les notes de cours de Manuel Morales sur sa page internet :
studium.umontreal.ca
2
Université de Montréal ACT3251 - Automne 2012
Département de Mathématiques
7 Loi du maximum 13
7.1 Lois sous-exponentielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
7.2 Théorème de Fisher-Tippet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
7.3 Comparaison de Sn et Mn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
20
15
10
5
0
0 5 10 15 20 25 30
0 10 20 30 40 50
où ni est le nombre d’observations dans (ci 1 , ci ] et n les nombre total d’observations.
3.3 Géométrique G ( )
N suit la loi géométrique si
✓ ◆✓ ◆k
1
P(N = k) = avec k 2 N
+1 +1
On a
E[N ] = V ar(N ) = (1 + ).
La loi géométrique modélise la situation suivante : on itére une expérience jusqu’à obtenir un succès et
on compte le nombre d’essais nécessaires.
x 1
f (x) = ↵ 1x>0 .
(1 + x )↵+1
Généralisation : Burr inverse
– Log-logistique pour modéliser des durée de vie dont l’intensité peut croı̂tre ou décroı̂tre, de densité :
soit ↵, > 0
(x/↵) 1
f (x) = 1x>0 .
↵ (1 + (x/↵) )2
– Gamma souvent utilisée en crédibilité et en tarification, de densité : soit ↵, >0
↵
f (x) = x↵ 1
e x
1x>0 .
(↵)
Si ↵ 2 N, (↵) = (↵ 1)!.
Généralisation : Log-Gamma, Gamma inverse
– Gumbel, qui permet de modéliser un maximum, de densité : soit µ 2 R (paramètre de position), et
> 0 (paramètre d’échelle)
1 (x µ)/ ⇣ ⌘
(x µ)/
f (x) = e exp e
– Weibull qui permet aussi de modéliser la loi d’un maximum, de densité : soit ✓ > 0 (paramètre d’échelle),
⌧ > 0 (paramètre de forme)
⌧ ⇣ x ⌘⌧ 1 ( x ) ⌧
f (x) = e ✓ 1x>0
✓ ✓
Généralisation : Weibull inverse
– Normale, loi centrale en statistique, de densité : soit µ 2 R, > 0
1 (x µ)2
f (x) = p e 2 2 .
2⇡
Généralisation : LogNormale, Inverse Gaussienne
On peut construire de nouvelles lois soit par transformation soit en faisant des mélanges de lois.
Pour simuler des lois usuelles avec R mais dont vous ne connaissez pas la commande, taper ? distribution
Pour simuler des lois peu usuelles, aller sur http ://cran.r-project.org/, cliquer sur ”Task Views”, puis sur
”Distributions”.
Ensuite installer le package utile en tapant la commande install.packages("nom du package"). Vous
pourrez alors utiliser ce package pour simuler la loi désirée.
Definition 3. Soit X une variable de loi de densité f et de fonction de répartition F . Son hazard rate
est
f (x)
h(x) = = P(X = x + dx|X > x)
1 F (x)
Si h est décroissante, on dit alors que les queues (ailes) de la loi X sont épaisses et si h est croissante
alors les queues de X sont légères.
Rx
h(t)dt
On remarque que S(x) = 1 F (x) = e 0
Remarque 6. Lien entre hasard rate et Mean excess Loss On remarque que
R1 Z 1 R
d S(x)dx
x
e(d) = = e d h(t)dt dx
S(d) d
Cette relation permet de comprendre pourquoi les propriétés de queues épaisses et queues légères sont
inversées pour h et e.
Le souci est que le MEL est en général difficile à calculer et on prend parfois cette caractérisation : une
distribution a des queues épaisses si e(d) ! 1 si d ! 1 (ailes sous-exponentielles) et sinon elle a des
queues légères (ailes sur-exponentielles).
Équivalent du mean excess life quand d ! 1 pour quelques lois connues :
Pareto : ↵✓+d1 , ↵ > 1
Burr : ↵ d 1 , ↵ > 1
Loggamma : ↵ d 1 , ↵ > 1
1 ⌧
Weibull : d c⌧
Gamma : 1 (1 + ↵ 1 )
d
Exponentielle : 1.
Densités Inverse-Gaussienne.
avec
(↵2 2 ) /2
A(↵, , , ) = p p .
2⇡↵ 1/2 K ( ↵2 2)
Ses moments
2
E[GH] = µ + E[GIG] V ar(GH) = E[GIG] + V ar(GIG).
Cas Particuliers :
• = 1 : loi hyperbolique
p p
↵2 2
↵ 2 +(x µ)2 + (x µ)
fH (x; ↵, , , µ) = p e
2↵ K1 ( ↵2 2)
↵ ⇣ p ⌘ K (↵p 2 + (x µ)2 )
1
fN IG (x; ↵, , , µ) = exp ↵2 2 + (x µ) p .
⇡ 2 + (x µ)2
Sa fonction génératrice des moments est
⇣ hp p i⌘
mN IG (u) = exp µu ↵2 ( + u)2 ↵2 2
Ses moments
= 1 = 1/2 =0 =1
7 Loi du maximum
On considère X1 , X2 , . . . des variables i.i.d. de loi F et
Mn = max(X1 , . . . , Xn ) Sn = X 1 + X 2 + . . . + X n
Definition 9. Une loi F sur (0, 1) est sous-exponentielle si pour tout n > 2,
F ⇤n (x) 1 F ⇤n (x)
lim = lim = n.
x!1 F (x) x!1 1 F (x)
On a
P(Mn 6 x) = P(X1 6 x, . . . , Xn 6 x) = F n (x).
Par conséquent F n (x) = P(Mn > x).
Par ailleurs, en utilisant les résultats sur les séries géométriques, on a pour tous les x tels que F (x) < 1,
n
X1 1 F n (x) F n (x)
F k (x) = = .
1 F (x) F (x)
k=0
Pn 1 k Pn 1 k
D’où, P(Mn > x) = F (x) k=0 F (x). Par ailleurs, il est clair que si x ! 1, k=0 F (x) ! n et donc
P(Mn > x) ⇠ nF (x) quand x ! 1.
Pour une loi sous-exponentielle, on a
F ⇤n (x) ⇠ nF (x) pour x grand
ce qui signifie que les queues de la somme se comportent comme celle du maximum,
X 1 + X 2 + . . . + X n ⇠ Mn .
Propriété 10. Si F est une sous-exponentielle alors pour tout y > 0,
F (x y)
lim =1
x!1 F (x)
Ceci signifie que X peut prendre des grandes valeurs car pour x grand, P(X + y > x) ' P(X > x) pour
tout y > 0
Mn a.s
! 0.
Sn
Quand E[X] n’est pas fini, on peut avoir ce type de comportement
Mn Loi Mn proba
!Z ou ! 1
Sn Sn
Mn
Traçons l’évolution de Sn en fonction de n pour di↵érentes lois :
2 Choix de modèles 3
2.1 Pour la sévérité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2.2 Pour la fréquence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.3 Pour les pertes agrégées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
4 Prime Stop-Loss 12
8 Quelques exercices 28
8.1 Propriétés et étude de SN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
8.2 Prime Stop-Loss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
8.3 Calcul de la loi de SN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
8.4 Algorithme de Panjer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
SN = X 1 + X 2 + . . . + X N
On suppose
• les Xi indépendantes et de même loi
• N est indépendante des Xi .
On parle de modèle collectif car on associe la même loi à chaque perte.
Le modèle individuel de risque
On modélise les pertes totales de chaque contrat et on regarde le montant global pour la compagnie
d’assurance
Sn = X 1 + X 2 + . . . + X n
où
• n est le nombre de contrats dont s’occupe la compagnie d’assurance (valeur connue, ce n’est pas une
variable aléatoire)
• Xi est le montant total des réclamations du ième contrat. Les Xi sont supposées indépendants, mais pas
forcément de même loi. En général, la distribution de chaque Xi a une masse en 0 qui correspond à la
probabilité de ne pas avoir de perte pour chaque contrat.
Ce modèle est souvent utilisé en assurance santé lorsqu’on considère un groupe de n employés d’une
entreprise où il est difficile de modéliser les pertes par des variables de même loi. En e↵et, chaque employé
a une couverture di↵érente (car fonction de leur salaire) et un comportement di↵érent (les dépenses
dépendent notamment de l’âge des employés).
On parle de modèle individuel car on regarde les caractéristiques de chaque individu.
Le modèle individuel avec des Xi de même loi est un cas particulier du modèle collectif quand N est une
constante (P(N = n) = 1).
Remarque 1.1. Il est assez naturel de vouloir relâcher l’hypothèse d’indépendance entre les Xi . Le modèle
individuel est plus facile à étudier que le collectif dans le cas où les Xi ne sont pas indépendantes.
Exemple 1.2. Regardons un modèle collectif de pertes. On sait que les pertes suivent la loi FX . L’assureur
paye 80% des pertes individuelles en excès de 1 000$ avec un paiement maximal de 100 000$.
Tous les paiements en excès de 50 000$ sont réassurés. On va décrire des modèles pour
1. les pertes totales pour l’assuré avant l’assurance :
on note N le nombre de perte (a priori aléatoire), on a alors
a
SN = X1 + . . . + XN
avec Xi ⇠ FX
2. les pertes totales pour la compagnie d’assurance avant la réassurance :
On note Yi le ième paiement fait par l’assureur avant réassurance. Si Xi 6 1000, alors Yi = 0. Si
Xi > 1 000, alors le paiement est Yi = 0.8(Xi 1000). Par ailleurs cette valeur ne peut pas excéder
2 Choix de modèles
Certaines caractéristiques sont recherchées dans un modèle pour la fréquence et/ou sévérité.
1 ⇣ x ⌘↵ 1
x/✓
f (x; ↵, ✓) = e 1x>0
✓ (↵) ✓
(ez 1) z
MN (z; ) = e = ee 1
= MN (z)
avec N ⇠ P(1).
Definition 3.2. Soit FX une fonction de répartition d’une loi à densité fX à support sur R+ . On considère
X1 , . . . , Xn des v.a.Z i.i.d. de loi FX .
x
On note FX⇤2 (x) = fX (y)FX (x y)dy la fonction de répartition de S2 = X1 + X2 .
0
Par itération, pour tout n > 1, la fonction de répartition de Sn = X1 + . . . + Xn , notée FX⇤n , vérifie
Z x
⇤n ⇤(n 1)
FX (x) = fX (y)FX (x y)dy.
0
⇢
1 pour x > 0
avec FX⇤0 (x) =
0 pour x < 0
⇢
1 pour x = 0
De même pour n > 1, on note fX
⇤n (x) = f ⇤ . . . ⇤ f (x) et f ⇤0 (x) = .
| X {z X
} 0 pour x 6= 0
n fois
Exemple 3.3. On considère deux temps d’attente X1 et X2 indépendants de loi E( ), par exemple Xi
représente le temps d’attente au guichet i. Alors la somme des temps d’attente X1 + X2 admet pour
densité, pour x > 0
Z x Z x
⇤2 2
fX (x) = fX (y)fX (x y)dy = e x dy = 2 xe x .
0 0
et sa densité est
1
X
⇤n
fSN (x) = pn f X (x).
n=0
et pour loi
x
X
⇤n
P(Sn = x) = fX (x) = f ⇤(n 1)
(x y)fX (y).
y=0
Le calcul de la loi de SN n’est pas simple, on verra dans la suite une méthode itérative pour la calculer
dans le cas où la loi de N appartient à la famille (a, b, 0).
3.3 Moments de SN
• Moyenne : par indépendance entre les Xi et N on a
" "N ## "N #
X X
E[SN ] = E E Xi |N =E E[Xi |N ] = E[N ]E[X]
i=1 i=1
En e↵et,
2 !3 3
h i N
X
E (SN E[SN ])3 = E4 (Xi E[X]) + (N E[N ])E[X] 5
i=1
2 !3
N
X
= E4 (Xi E[X]) + (N E[N ])3 E[X]3
i=1
!2 ! 3
N
X N
X
+3 (Xi E[X]) (N E[N ])E[X] + 3 (Xi E[X]) (N E[N ])2 E[X]2 5
i=1 i=1
" #
h i h i N
X
3 3 3
= E[N ]E (X E[X]) + E (N E[N ]) E[X] + 3E (Xi E[X])2 (N E[N ]) E[X]
i=1
h i h i
= E[N ]E (X E[X])3 + E (N E[N ])3 E[X]3 + 3V ar(N )V ar(X)E[X].
Exemple 3.6. La moyenne et l’écart-type observés pour le nombre de réclamations dans les 10 derniers
mois sont 6.7 et 2.3. La moyenne et l’écart-type pour la taille des réclamations est de 179 247 et 52 141.
Alors la moyenne et l’écart-type pour la perte agrégée est
Densité d’un Poisson Composé dans le cas où la sévérité est exponentielle.
Proposition 3.9. Fonction génératrice des moments d’un PC
Si S ⇠ P C( , FX ), alors
MS (z) = e (MX (z) 1)
où MX (z) = E[ezX ] est la fonction génératrice des moments de X.
Démonstration. Il suffitPde conditionner par N et utiliser le fait que la fonction génératrice d’une loi de
n z
Poisson vaut MN (z) = 1 n=0 n! e ezn = e (e 1) .
E[X 3 ] E[X 3 ]
(S) = 3/2 E[X 2 ]3/2
= p .
E[X 2 ]3/2
On remarque que si X prend des valeurs positives, alors > 0 (la queue de distribution est toujours étalée
vers la droite).
Comme MS (z) ⇣
=e (MX (z) 1) , MS0 (z) = MX
0 (z)e (MX (z) 1) ,
⌘ MS00 (z) = 00 (z) + M 0 (z)2 e
MX X
(MX (z) 1)
(3) (3) 0 (z)M 00 (z) + 2 M 0 (z)3 (MX (z) 1) ,
et MS (z) = MX (z) + 3 MX X X e on a
h i
3
E (S E[S]) = E[X 3 ] + 3 E[X]E[X 2 ] + 2
E[X]3 3 2
E[X] E[X 2 ] + E[X]2 + 2 3
E[X]3
= E[X 3 ].
⇣ ⌘↵
Exemple 3.12. Si S ⇠ P C( , FX ) avec FX (x) = 1 x+ loi de Pareto(↵, ), avec ↵ > 3.
On sait que
2 2 6 3
E[X] = E[X 2 ] = E[X] =
↵ 1 (↵ 1)(↵ 2) (↵ 1)(↵ 2)(↵ 3)
et donc p
2 2 3
(↵ 1)(↵ 2)
E[S] = V ar(S) = (S) = p .
↵ 1 (↵ 1)(↵ 2) 2 (↵ 3)
k
X i 1 Pk
Par ailleurs, on remarque que Mi (z) est la fonction génératrice de la loi mélange F (x) = ⇤ i=1 i Fi (x).
⇤
i=1
●
4
●
Prime Stop−Loss
●
2
●
1
●
●
●
●
●
●
● ●
● ● ● ●
● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●
0
0 5 10 15 20
Theorem 4.2. Soit a < b tels que P(a < S < b) = 0. Alors pour a 6 d 6 b, on a
b d d a
E[(S d)+ ] = E[(S a)+ ] + E[(S b)+ ].
b a b a
La prime stop-loss peut être calculée par interpolation linéaire.
Par conséquent, en faisant la di↵érence, on a (b a)(1 FS (a)) = E[(S a)+ ] E[(S b)+ ] et donc
d a b d
E[(S d)+ ] = E[(S b)+ ] + E[(S a)+ ].
b a b a
La preuve dans le cas discret est similaire, il suffit de remarquer que :
X X
E[(S d)+ ] = E[(S a)+ ] (1 FS (x)) = E[(S b)+ ] + (1 FS (x)).
a6x<d d6x<b
Reprenons l’exemple précédent. On souhaite calculer le prime stop-loss avec une franchise de 100$, de
150$, de 200$ et enfin de 1800$.
1. pour d = 1 (SN a été étudié en unité de 100$) : on a
X
E[(SN 1)+ ] = E[SN 1] (x 1)fS (x)
x61
= 5.33 1 ( 1.fS (0) + 0.fS (1))
= 4.33 + 0.1 = 4.43 (unités de 100$).
2. pour d = 2 : on a
X
E[(SN 2)+ ] = E[SN 2] (x 2)fS (x)
x62
= 5.33 2 ( 2.fS (0) 1.fS (1) 0..fS (2))
= 3.33 + 2 ⇥ 0.1 + 1 ⇥ 0.05 = 3.58.
4. pour d = 18 : on a
X
E[(SN 18)+ ] = (x 18)fS (x) = fS (19) + 2.fS (20)
x>18
5
= 1, 6875 ⇥ 10
Cette remarque permet de calculer la prime stop-loss pas à pas dans le cas discret.
On a bien dans l’exemple précédent,
E[(SN 2)+ ] = E[(SN 1)+ ] (1 FSN (1)) = 4.43 (1 0.1 0.05) = 3.58.
Démonstration.
X
E[(S kh)+ ] = (x kh)fk
x>kh
X X X X
= (ih kh)fk = h (i k)fk = h j = 0i k 1
fk
i>k i>k+1 i>k+1
XX X
=h i > k + j + 1fk = h [1 FS ((k + j)h)]
j>0 j>0
Par conséquent,
X
E[(S kh)+ ] = h(1 FS (kh)) + h [1 FS ((k + j)h)] = h(1 FS (kh)) + E[(S (k + 1)h)+ ].
j>1
Les calculs numériques de la loi d’une somme agrégée sont plus simples lorsque
– N prend un nombre fini de valeurs (par exemple, loi Binomiale),
– la loi de X est fermée pour la convolution.
Le théorème de Lévy stipule que si la transformée de Fourier fˆS est intégrable, alors
Z
1
fS (x) = e izx fˆS (z)dz.
2⇡ R
Il existe di↵érentes méthodes numériques pour calculer ce type d’intégrale. Cette méthode ne sera pas
exploitée dans ce cours.
5.3 Algorithme de Panjer pour calculer la loi de SN pour des sévérités discrètes
On se place dans le cadre où N appartient à la famille (a, b, 0) et où X est discrète à valeurs dans
{0, 1, 2, . . . , m} (m peut être 1). On va montrer qu’on a alors une formule récursive pour calculer fSN .
Comme N appartient à la famille (a, b, 0), pn = P(N = n) vérifie
b
pn = (a + )pn 1, n > 1.
n
La loi de SN est définie comme la somme pondérée des convolées de la loi de X :
1
X x
X
⇤n ⇤n ⇤(n 1)
fSn (x) = pn f X (x) avec fX (x) = fX (y)fX (x y).
n=0 y=0
Proposition 5.5. Si N appartient à la famille (a, b, 0) et si X est à valeurs discrètes, alors pour tout
x>1
x h
1 X yi
fSN (x) = a + b fSN (x y)fX (y).
1 afX (0) x
y=1
Remarque 5.6.
Comme N ⇠ Binomiale(n, q) il appartient à la famille (a, b, 0), on peut donc utiliser la formule récursive
pour calculer la loi de S avec a = q/(1 q) et b = (n + 1)q/(1 q). Puis, comme M appartient aussi à
la famille (a, b, 0) avec a = 0 et b = , on en déduit la loi de S.
Exemple 5.9. Plaçons nous dans le cadre de l’application précédente en supposant que X ne prenne que
deux valeurs
P(X = 1) = P(X = 2) = 1/2
et que N ⇠ Binomiale(n = 2, q = 1/2) et M ⇠ P(1). S est à valeurs dans {0, 1, 2, 3, 4} et a = 1 et b = 3
fS (0) = P(N = 0) = 1/22 = 1/4
fS (1) = 2.1/4.1/2 = 1/4
fS (2) = ( 1 + 3/2).1/4.1/2 + 2.1/4.1/2 = 5/16
fS (3) = ( 1 + 1).5/16.1/2 + ( 1 + 2)1/4.1/2 = 1/8
fS (4) = ( 1 + 3/4).1/8.1/2 + ( 1 + 6/4).5/16.1/2 = 1/64 + 5/64 = 1/16.
Remarque 5.10. Supposons que N suit une loi de Poisson P( ) et que fS (0) est très proche de zéro.
Pour pouvoir tout de même utiliser la formule récursive, on fixe k > 1 et on définit N ⇤ ⇠ P( ⇤ ) avec
⇤ = /2k .
Plus k est grand plus la valeur de fS ⇤ (0) sera grande. Il faut donc choisir k suffisamment grand pour
Pk
que fS ⇤ (0) soit assez grand, mais pas trop grand afin que le calcul de la loi de 2j=1 Sj⇤ ne soit pas trop
pénible.
x 0 1 2 3 4
fX (x) 1/4 1/4 5/16 1/8 1/16
On a fS (0) = e 3/4 = 0.4723. Même si fS (0) est suffisamment grand, on va utiliser la remarque précédente
avec k = 1. P n
On a fS ⇤ (0) = 1 n (1/2) e 1/2 = e1/8 1/2 = e 3/8 = 0.6873, qui est bien plus grand que f (0).
n=0 (1/4) n! S
En utilisant R, on calcule la loi de S ⇤
x 0 1 2 3 4 ...
fS ⇤ (x) 0.6873 0.0859 0.1127 0.0566 0.0361 . . .
Pour trouver la loi de S = S1⇤ + S2⇤ avec S1⇤ et S2⇤ indépendantes de même loi que S ⇤ , on utilise R :
x 0 1 2 3 4 ...
fS (x) 0.4724 0.1181 0.1624 0.0972 0.0720 . . .
Cette formule est beaucoup moins exploitable que dans le cas discret. Il existe cependant des méthodes
numériques pour trouver une approximation de la solution de ce type d’équation, méthodes que nous ne
verrons pas.
L’idée qu’on va plutôt utiliser est la suivante :
– on discrétise la loi de X (on parle d’arithmétisation des lois continues),
– on applique la formule de Panjer avec la loi discrétisée de X.
Le but de cette section est d’expliquer la discrétisation de lois continues par di↵érentes méthodes.
Notations :
– Si FX est la fonction de répartition de la variable X, alors
h 2h 3h 4h 5h
..
.
f h (2j) = P(2j 1 6 X < j + 1) = e 0.1(2j 1)
e 0.1(2j+1)
On trouve
x = 2j 0 2 4 6 ...
f 2 (x) 0.09516258 0.16401920 0.13428756 0.10994536 . . .
Plus on garde de décimal dans l’approximation de fX meilleur est cette méthode. Le grand intérêt de
cette méthode est qu’elle est très facilement implémentable avec n’importe quel logiciel.
On pose x0 = 0 et xk+1 = xk + ph (i.e. xk = kph). À chaque point on associe les poids suivants
x0 = 0 f h (0) = m00 x1 = x0 + ph f h (p) = mp0 + m01 x2 = x1 + ph f h (2p) = mp1 + m02 ...
x0 + h f h (1) = m10 x1 + h f (p + 1) = m11
h
x2 + h f (2p + 1) = m12
h
...
.. .. .. ..
. . . .
x0 + (p 1)h f h (p 1) = mp0 1
x1 + (p 1)h f h ((2p 1)h) = mp1 1
x2 + (p 1)h f h ((3p 1)h) = mp2 1
...
X1=X0p
X0=0 =ph
Vérifions que les p premiers moments de la loi discrétisée f h sont égaux à ceux de la loi FX . Soit r 6 p,
on a
Z 1 X1 Z xk+1
xr dFX (x) = xr dFX (x)
0 k=0 xk
X1 Xp
= (xk + jh)r mjk
k=0 j=0
p 1
1 X
X
= (xk + jh)r f h (kp + j).
k=0 j=0
Proposition 5.13. On a
Z xk +ph p
Y x xk ih
mjk = dFX (x) j = 0, 1, . . . , p.
xk (j i)h
i=0
i6=j
Démonstration. Soit g une fonction qui passe par les points (y0 , g(y0 )), (y1 , g(y1 )), . . . , (yn , g(yn )). Le
polynôme de Lagrange Pg est le seul polynôme de degré au plus n qui approche la fonction g en passant
par les points (y0 , g(y0 )), (y1 , g(y1 )), . . . , (yn , g(yn )) :
n
X Y y yi
Pg (y) = g(yj ) .
yj yi
j=0 i6=j
On a par conséquent
x = 2k 0 2 4 6 ...
f 2 (x) m00 1
m0 + m10 1 0
m1 + m2 = 1
m2 + m30 ...
= 0.09365377 = 0.16429270 = 0.13451149 = 0.11012869
Cette méthode de discrétisation est meilleur que la première dans le sens où elle approche la loi continue
sans biais sur les p premiers moments, mais elle est malheureusement plus compliquée à implémenter.
Dans le package ”actuar” de R, il y a la fonction discretize qui permet de discrétiser une loi continue
avec di↵érentes méthodes : upper qui correspond à la méthode des arrondis par valeur supérieur, lower
qui correspond à la méthode des arrondis par valeur inférieur, rounding qui correspond à la méthode des
arrondis comme expliquée ici et enfin unbiased qui correspond à la méthode des moments avec p = 1.
Exemple 6.1. Si la police d’assurance comprend juste une franchise d, alors une perte a une probabilité
P(X > d) d’avoir un paiement. Il y a des pertes qui n’auront pas de paiement.
Par ailleurs, le paiement sera Y = (X d)+ pour une perte valant X. (Voir l’exemple 1.2 de ce chapitre).
Y = g(X).
⇢
0 si Yj = 0
On introduit les variables Ij = 1Yj >0 = pour chaque paiement Yj . La variable I suit une
1 si Yj > 0
loi Bernoulli(v). Le nombre total de paiements est donc
N
X
NP = Ij .
j=1
Dans un modèle de pertes agrégées le nombre de perte N et les montants des pertes Xj sont (en général)
supposés indépendants. Par conséquent, les variables N et Ij sont indépendantes et N P est une somme
composée.
On remarque que
E[N P ] = vE[N ].
La fonction génératrice des moments de N P est donnée par :
h P
i h i
MN P (z) = E ezN = E (1 + v(ez 1))N .
Comme N ⇠ BN (r = 2, = 3),
✓ ◆2
⇥ N
⇤ 1
PN (z) = E z =
1 3(z 1)
On reconnait la fonction génératrice de la loi BN (r = 2, ⇤ = 3v). Ce résultat est logique car une loi
Binomiale négative représente le nombre d’échecs nécessaires pour avoir r succès. En introduisant une
franchise, on a juste modifié la probabilité d’avoir un succès.
Le nombre moyenne de pertes est E[N ] = r = 6 alors que le nombre moyen de paiements est E[N P ] =
6v = 3, 072.
Si jamais la compagnie décide de passer d’une franchise de 250$ à 500$, le nombre moyenne de paiements
sera alors ✓ ◆3
P 1000
E[N ] = 6 ⇤ = 1, 778.
1000 + 500
et donc ⇣ y+2
⌘ y
FY P (y) = e0.2 1 e 10 e0.2 1 e 0.2
=1 e 10
Les pertes agrégées peuvent donc être modélisées en terme de Y ou de Y P . Le choix dépendra des données
disponibles et des calculs à faire.
Exemple 6.5. On suppose que le nombre de pertes suit une loi Poisson( = 3) et que le montant des
pertes X ⇠ P areto(↵ = 4, ✓ = 10).
On considère une police d’assurance avec une franchise d = 6$ et qui rembourse 75% des pertes en l’excès.
On souhaite trouver la loi des pertes agrégées et leur montant espéré.
P
1. Si on utilise S = N j=1 Yj avec Yj = 0.75(Xj 6)+ , on a E[S] = E[N ]E[Y ], avec E[N ] = 3 et
Pour obtenir la loi de S, on peut discrétiser la loi de Y P (par la méthode des moments ou des
arrondis) et ensuite utiliser l’algorithme de Panjer avec N P appartient à la la famille (a, b, 0) avec
a = 0 et b = 3v = 0.45776.
On a alors
n
X n
X n
X
E[S] = qi E[Bi ] V ar(S) = V ar(Ii Bi ) = qi V ar(Bi ) + qi (1 qi )E[Bi ]2 .
i=1 i=1 i=1
Exemple 7.2. Une police d’assurance vie pour un groupe d’employés contient une compensation en cas
de décès accidentel.
La probabilité de décès est 0.01 et 30% des décès sont accidentels.
Pour 50 employés, le bénéfice est 50 000$ en cas de décès ordinaire et 100 000$ en cas de décès accidentel.
Pour 25 employés, le bénéfice est 75 000$ en cas de décès ordinaire et 150 000$ en cas de décès accidentel.
Calculons la moyenne et la variance des paiements pour l’assureur.
Pour les employés, on a ⇢ qi = 0.01. ⇢
50 000 avec proba 0.7 100 000 avec proba 0.7
Pour i = 1, . . . , 50, Bi = et pour i = 51, . . . , 75, Bi = .
100 000 avec proba 0.3 150 000 avec proba 0.3
X75
Alors E[S] = qi E[Bi ] = 0.01(50 ⇥ (50 000 ⇤ 0.7 + 100 000 ⇤ 0.3) + 25 ⇥ (75 000 ⇤ 0.7 + 150 000 ⇤ 0.3)) = 56 875
i=1
et V ar(S) = 5 001 984 375.
Exercice 2. On suppose que N ⇠ BN (r = 15, = 5) et Xi ⇠ U ([0, 10]). Calculer la prime ⇡ telle que
P(SN > ⇡) = 0.05 en utilisant une approximation normale.
Corrigé On a
Exercice 3. Les assurés automobiles sont regroupés en trois classes (en fonction du nombre d’accidents de
l’année précédente). Le nombre de réclamation pour chaque assuré suit une loi de Poisson P( ). Calculer
la variance du nombre de réclamations d’un assuré choisi au hasard.
On a les données suivantes
classe % de la population
1 0.25 5
2 0.25 3
3 0.50 2
Corrigé On est dans un cadre d’un mélange de lois : si on note N le nombre de réclamation d’un assuré,
on a N | ⇠ P( ) et suit la loi discrète : P( = 5) = 0.25 = P( = 3) et P( = 2) = 0.5.
On a alors
V ar(N ) = E[V ar(N | )] + V ar(E[N | ]) = E[ ] + V ar( ) = 3 + 1.5 = 4.5
On remarque que E[N ] = 3 6= V ar(N ). La variable N ne suit pas une loi de Poisson ! 4
Corrigé
– Assureur A : la couverture est (S 6)+ et la prime ⇡ = E[(S 6)+ ], le coût espéré est
CA = E[(S 6)+ ] ⇡ = 0.
Corrigé On a
E[S] = E[N ]E[X] = 2(1/4 + 2.3/4) = 7/2 = 3.5
S prend ses valeurs dans N. Pour calculer E[(4.5 S)+ ], il faut connaitre fS (k) pour k = 0, 1, . . . , 4.
Utilisons l’algorithme de Panjer avec a = 0 et b = 2 :
2
fS (0) = P(N = 0) = e = 0.13534
fS (1) = 2fS (0)/4 = 0.06767
fS (2) = fS (1)/4 + 2fS (0) ⇥ 3/4 = 0.21992
2
fS (3) = (fS (2)/4 + 2fS (1) ⇥ 3/4) = 0.10432
3
1
fS (4) = (fS (3)/4 + 2fS (3) ⇥ 3/4) = 0.17798.
2
Donc E[(4.5 S)+ ] = 4.5fS (0) + 3.5fS (1) + 2.5fS (2) + 1.5fS (3) + 0.5fS (4) = 1.641117.
Le coût moyen pour cette couverture est
1 Introduction
Dans le chapitre Modèles Agrégés nous avons étudié les pertes totales S pour une période de temps fixée
(1 semaine, 1 mois, 1 an,. . . ). Dans ce chapitre on va considérer l’évolution en temps des pertes.
On pourra se placer dans le cadre des temps discret S1 , S2 , S3 , . . . lorsqu’on considèrera les pertes pour
des périodes définies (toutes les semaines, tous les mois,. . . ) ou dans le cadre des temps continus (St )t>0
si on veut une analyse fine des pertes (notamment dans le cadre financier).
0 5 10 15 20
Trois réalisations d’une trajectoire d’un mouvement brownien sur l’intervalle de temps [0,20].
Définition 2.2. La loi d’un processus est définie par ses lois d-dimensionnelles pour tout d > 1 (on parle
aussi de lois finies dimensionnelles).
La loi d-dimensionnelle du processus (Xt )t2T est l’ensemble des lois jointes (Xt1 , Xt2 , . . . , Xtd ) pour tout
(t1 , t2 , . . . , td ) 2 T .
Définition 2.3. Un processus (Xt )t2T est dit à accroissement indépendants si pour tout u 6 v 6 s 6 t
Xt Xs est indépendant de Xv Xu .
Un processus (Xt )t2T est dit à accroissement stationnaires si la loi Xt+h Xt ne dépend que de la longueur
h de l’intervalle [t, t + h], i.e. pour tout t, s > 0, h > 0
Loi
Xt+h Xt = Xs+h Xs .
En assurance, on suppose souvent que le processus des pertes (St )t2T est à accroissement indépendants
et stationnaires (AIS). En e↵et les pertes sont en général indépendantes (sauf s’il s’agit un évènement
extrême, comme un ouragan). Par contre, l’hypothèse de stationnarité est moins légitime en général (on
peut avoir des changements de régime, par exemple liés aux cycles climatiques).
Si on considère le processus en temps discret, on vérifie seulement à la fin de chaque période le surplus
˜(u, T ) = P(Ut > 0 : 8t 2 {0, 1, 2, T }|U0 = u).
et en temps discret
˜(u) = P(Ut > 0 : 8t 2 N|U0 = u).
Remarque 3.3.
– (u) 6 ˜(u) 6 ˜(u, T ).
– (u) 6 (u, T ) 6 ˜(u, T ).
– limT !1 (u, T ) = (u).
– limT !1 ˜(u, T ) = ˜(u).
(u, T ) = 1 (u, T )
On introduit un nouveau processus Ut⇤ égal à Ut tant que Ut est positif et qui reste négatif jusqu’à la fin
dès que Ut passe en dessous de zéro.
Pour cela, on note Wt = Ut Ut 1 pour t > 1 (d’où Ut = Wt + Ut 1 ) et on définit
⇢
⇤ ⇤ ⇤ ⇤ ⇤ Wt si Ut⇤ 1 > 0
U t = Wt Ut 1 avec U0 = u et Wt =
0 si Ut⇤ 1 < 0
La probabilité de survie sur l’intervalle [0, T ] se calcule alors en regardant juste la valeur finale de U ⇤ :
˜(u, T ) = P(U ⇤ > 0).
T
U3 = 11
0.6
U2 = 8
0.6 0. 4
U1 = 5 U3 = 5
0.4 0.6
0. 6
U2 = 2 0.4
U0 = 2
U3 = 1
0.4
U1 = 1
U1⇤ = 5 U3⇤ = 5
0.4 0. 6
0. 6
U2⇤ = 2
0. 4
U0⇤ =2
U3⇤ = 1
0.4
1 1
U1⇤ = 1 U2⇤ = 1 U3⇤ = 1
Par conséquent, ˜(u = 2, T = 2) = P(U2⇤ > 0) = 1 0.4 et ˜(u = 2, T = 3) = P(U3⇤ > 0) = (0.6)3 + 2 ⇥
(0.6)2 ⇥ 0.4 = 0.504.
De manière général, on a va utiliser la méthode des convolutions dans le cas discret. On fixe T > 0 et on
note
– fj = P(UT⇤ 1 = uj ) pour j > 1 et uj > 0 : fréquences des valeurs positives de UT⇤ 1 ,
– gj,k = P(WT = wj,k |UT⇤ 1 = uj ) : loi conditionnelle de WT sachant que UT⇤ 1 = uj .
La probabilité de ruine avant l’instant T s’exprime à partir de la probabilité de ruine avant l’instant T 1
de la façon suivante
˜(u, T ) = P(9t 2 {1, 2, . . . , T } : Ut < 0)
= ˜(u, T 1) + P(UT⇤ 1 > 0 et UT⇤ = UT⇤ 1 + WT < 0)
X
= ˜(u, T 1) + P(uj + WT < 0|UT⇤ 1 = uj )P(UT⇤ 1 = uj )
j>1
X
= ˜(u, T 1) + P(WT < uj |UT⇤ 1 = uj )fj
j>1
X X
= ˜(u, T 1) + gj,k fj
j>1 k:wj,k < uj
s 0 2 4 6
fS 0.4 0.3 0.2 0.1
La prime annuelle est de 2.5, payée en début d’année et le surplus initial est u = 2. Par ailleurs 10%
d’intérêt est crédité sur le surplus disponible au début de l’année puisque les pertes sont payée à la fin de
l’année.
Il y a un rabais de 0.5 sur les années où il n’y a pas de pertes. Par conséquent, U0 = 2 et
= 0 + 0.1 = 0.1
– Les fréquences des valeurs positives de U1⇤ = U0⇤ + Wt⇤ = 2 + Wt⇤ sont
j 1 2 3
uj 4.45 2.95 0.95
fj 0.4 0.3 0.2
La loi conditionnelle de W2 sachant que U1⇤ = uj : wj,k = 2.5 + 0.1(uj + 2.5) sk 0.51sk =0
k
1 2 3 4
fj j uj gj,1 = 0.4 gj,2 = 0.3 gj,3 = 0.2 gj,4 = 0.1
wj,1 wj,2 wj,3 wj,4
0.4 1 4.45 2.695 1.195 0.805 2.805
0.3 2 2.95 2.545 1.045 0.955 2.955
0.2 3 0.95 2.345 0.845 1.155 3.155
et donc
X X
˜(2, 2) = ˜(u, 1) + fj gj,k
j>1 k:wj,k < uj
où
– u représente le capital initial,
– c est la prime par unité de temps,
– St représente les pertes agrégées jusqu’à l’instant t, avec
N est un processus de Poisson d’intensité (voir notes de cours sur les processus de Poisson
dans Studium),
les Xi représentent les pertes individuelles, ils sont supposés i.i.d. d’espérance µ et indépendants
de N .
15
10
5
0
0 10 20 30 40 50
Et par conséquent
E[Ut ] = u + (c µ)t, V ar(Ut ) = tE[X 2 ].
On peut montrer que si c 6 µ, alors la compagnie est sure d’être ruinée :
– (u) < 1.
c = (1 + ✓) µ avec ✓ > 0.
60
40
20
0
0 20 40 60 80 100
L’événement ”8t > 0, Ut > 0” est équivalent à ”⌧ = 1”. On remarque donc que
E[Mt |Ms ] = Ms .
Comme E[Mt ] = 1 pour tout t > 0, on a notamment pour tout n > 0 (Théorème d’arrêt pour les
martingales)
E[M⌧ ^n ] = 1.
Par conséquent,
On remarque que sur {⌧ > n}, Mn = e⇢(Sn cn) < e⇢u et comme Sn cn = u Un ! 1, on obtient
n!1
par passage à la limite dans l’équation (⇤) quand n ! +1
1 = E[M⌧ 1⌧ <1 ]
Proposition 5.2. S’il existe ⇢ > 0 tel que (MX (⇢) 1) c⇢ = 0. Alors la probabilité de ruine vérifie
(u) 6 e ⇢u
Définition 5.3. Le coefficient d’ajustement est la plus petite solution strictement positive ⇢ > 0 telle que
MX (⇢) = 1 + (1 + ✓)µ⇢.
Remarque 5.4. Pour certaines lois MX n’est pas défini (par exemple : Pareto, Log-Normale) et donc le
coefficient d’ajustement ⇢ n’existe pas.
Si MX est bien défini, alors le coefficient existe mais n’est pas toujours simple à calculer. En e↵et, on
cherche ⇢ > 0 tel que
MX (⇢) = 1 + (1 + ✓)µ⇢.
La courbe z 7! 1 + (1 + ✓)µz est une droite partant de 1 en zéro, de pente (1 + ✓)µ.
La courbe z 7! MX (z) passe par 1 en zéro et sa pente en 0 est MX 0 (0) = E[X] = µ < (1 + ✓)µ. Par ailleurs,
2.5
2.0
1.5
1.0
0.0 0.5 1.0 1.5 2.0 2.5 3.0
1
⇢= .
2
Ceci n’est pas simple à résoudre à la main. On peut soit utiliser une logiciel de calcul formel (Matlab,
Mathematica,. . . ), soit faire une résolution numérique par R ou Excel. On trouve ⇢ = 0.1943.
Lorsque le coefficient de Lundberg est difficile à calculer, soit on trouve une approximation par résolution
numérique dans lePcas où MX est facilement calculable, soit on approche la fonction MX .
1 zk 2 2
On sait que e = k=0 k! > 1+z + z2 , d’où MX (z) > 1+zE[X]+ z2 E[X 2 ] avec µ = E[X]. Par conséquent,
z
⇢2 2✓µ
1 + (1 + ✓)µ⇢ > 1 + ⇢µ + E[X 2 ] , > ⇢.
2 E[X 2 ]
µ = ↵ = 2 et E[X 2 ] = ↵(↵ + 1) 2
=6 2
.
On en déduit que
8 4
⇢6 = .
6 3
Reprenons l’exemple précédent
Exemple 5.9. On considère une prime c = 2.99, un taux de saut = 1 et on suppose que les réclamations
suivent la loi
P(X = 1) = 0.2 P(X = 2) = 0.3 P(X = 3) = 0.5
On a µ = 2.3, ✓ = 0.3 et E[X 2 ] = 5.9. Par conséquent
0.6.3
⇢6 = 0.2339.
5.9
L’estimation mauvaise (la vraie valeur étant 0.1943), mais on peut utiliser cette valeur pour résoudre
numériquement ⇢ via R ou excel car on sait qu’il faut le chercher sur l’intervalle (0, 0.2339].
τ
Uτ
On remarque que
lim G(u, y) = (u).
y!1
L’idée est de conditionner par rapport au premier instant de saut et à la taille du premier saut.
On note T1 le premier instant de saut du processus de Poisson : T1 ⇠ Exp( ).
En fonction de la taille du premier saut il peut arriver deux choses
– si 0 6 X1 6 u + cT1 , alors la première réclamation n’a pas provoqué de ruine,
– si X1 > u + cT1 , alors il y a ruine : ⌧ = T1 et le déficit vaut X1 u cT1 .
À l’instant T1 le surplus vaut
UT1 = u + cT1 X1 .
Par conséquent, en utilisant le rappel avec V = (X1 , T1 ), les variables T1 et X1 étant indépendantes, on
obtient
ZZ 1
G(u, y) = P( U⌧ 6 y, ⌧ < 1|U0 = u, T1 = t, X1 = x) e t dtdFX (x)
0
Z 1 Z u+ct Z 1 Z y+u+ct
= P( U⌧ 6 y, ⌧ < 1|U0 = u, T1 = t, X1 = x)dFX (x) e dt + t
dFX (x) e t
dt
0 0 0 u+ct
Z 1 Z u+ct
= P( U⌧ 6 y, ⌧ < 1|U0 = u + ct x)dFX (x) e t dt par la propriété de Markov
0
Z 10
+ [FX (y + u + ct) FX (u + ct)] e t dt
0
Z 1 Z u+ct Z 1
t
= G(u + ct x, y)dFX (x) e dt + [FX (y + u + ct) FX (u + ct)] e t dt.
0 0 0
0 6 G(u, y) 6 (u) 6 e ⇢u
on a
lim G(u, y) = 0.
u!+1
Par conséquent, en intégrant l’expression du théorème précédent, on a
Z 1
G(v, y) = @u G(u, y)du.
v
Par conséquent,
Z 1 Z 1Z u Z 1
G(0, y) = G(u, y)du + G(u x, y)dFX (x)du + [FX (y + u) FX (u)]du
c 0 c 0 0 c 0
Z 1 Z 1 Z 1 Z 1
= G(u, y)du + G(u x, y)du dFX (x) + [FX (y + u) 1 + 1 FX (u)du]
c 0 c 0 x c 0
On pose r = u x (dr = du) et donc
Z 1 Z 1 Z 1 Z 1 Z 1
G(0, y) = G(u, y)du + G(r, y)dr dFX (x) + (1 FX (u))du + (1 FX (u))du .
c 0 c 0 0 c y 0
| {z }
=0
Exemple 5.18. Supposons que les pertes individuelles sont exponentielles de moyenne µ. D’après le
Corollaire 5.13, la probabilité de perte vérifie
Z u
x u
0
(u) = (u) (u x)e µ dx eµ
c µc 0 c
Z u
u z u
= (u) eµ (z)e µ dz eµ
c cµ 0 c
Dérivons cette expression, la fonction vérifie l’équation
Z u
u z u u u
0
”(u) = (u) + 2 e µ (z)e µ dz e µ (u)e µ + e µ
c cµ 0 cµ cµ
✓ ◆
0 1 0
= (u) + (u) (u) (u)
c µ c cµ
µ c 0
= (u).
µc
Comme c = (1 + ✓) µ, on a
✓ 0
”(u) = (u).
(1 + ✓)µ
On intègre deux fois et on obtient
(1 + ✓)µ (1+✓)µ
✓u
(u) = c1 + c2 e .
✓
1
Comme (0) = ✓+1 et limu!1 (u) = 0, on a
✓
c1 = 0 et c2 = .
µ(1 + ✓)2
Par conséquent, si X est exponentielle de moyenne µ, on a
1 ✓u
(u) = e (1+✓)µ .
(1 + ✓)
Si par exemple, on suppose que les pertes sont exponentielles et que le capital initial de la compagnie est
u, on cherche ✓ de façon à ce que la probabilité de ruine soit égale à ↵ = 0.5.
Par conséquent on cherche ✓ tel que
1 ✓u
e (1+✓)µ = 0.5
(1 + ✓)
La valeur de ✓ sera obtenue de façon numérique avec Excel ou R.
Propriété 5.19. La loi de l’amplitude Y d’une chute sachant que le surplus est passé sous le capital
initial u ne dépend pas de u et a pour densité la loi d’équilibre
1
fe (x) = (1 FX (x)).
µ
Démonstration. La probabilité d’avoir une chute sous le capital initial d’amplitude d’au plus y est
Z y Z y
1 1 FX (x)
G(0, y) = [1 FX (x)]dx = dx
c 0 1+✓ 0 µ
Comme la probabilité de passer sous le capital initial est (0) = 1/(1 + ✓), la probabilité d’avoir une
chute d’amplitude au plus y sachant que l’on est passé sous le capital initial est
Z y
G(0, y)
P(Y 6 y) = = fe (x)dx
(0) 0
Étudions maintenant la probabilité de ruine partant d’un capital initial u. Supposons qu’après le premier
passage sous le niveau u,R 1le capital fait une chute d’amplitude y. Soit y > u et alors il y a ruine (avec
probabilité P(Y > u) = u fe (x)dx, soit y 6 u et la compagnie n’est pas ruinée. Si y 6 u on recommence
le processus partant d’un capital u y. Par ailleurs ce qui se passe après la première chute est indépendant
de ce qui se passait avant du fait que notre processus est markovien. La probabilité que le capital passe
par la suite sous le niveau u y est (0) et la loi de l’amplitude de la seconde chute est fe .
Le nombre K total de ”chute” suit par conséquent une loi géométrique de paramètre = 1/✓ :
P(K = 0) = 1 (0)
P(K = 1) = [1 (0)] (0)
✓ ◆k
k✓ 1
P(K = k) = [1 (0)] (0) = .
1+✓ 1+✓
Juste après chaque chute, le surplus croı̂t grâce à la prime, par conséquent le plus bas niveau du surplus
est u L où L est la somme cumulée des chutes. L est appelé la perte cumulée maximale.
Si on note Yj la suite des amplitudes des pertes, les Yj sont indépendants et de loi fe et on a
L = Y1 + . . . + YK
De façon numérique, cette méthode est facile à implémenter pour calculer la probabilité de ruine. On
peut soit l’utiliser via la loi des grands nombres en faisant plusieurs expériences pour obtenir une valeur
approchée de la probabilité de ruine : chaque expérience consiste à simuler K selon une géométrique de
paramètre = 1/✓, puis simuler le bon nombre de variables Y selon la loi fe (x) = 1 FµX (x) et enfin à
regarder si Y1 + . . . + YK > u. L’autre façon d’utiliser cette méthode est d’utiliser l’algorithme récursif de
Panjer pour calculer la loi de Y1 + . . . + YK et en déduire sa fonction de survie.
Exemple 5.21. Supposons que les pertes individuelles suivent une loi de Pareto avec ↵ = 3 et de moyenne
500. Prenons ✓ = 0.2. Calculons la probabilité de survie en utilisant le résultat précédent. On a
⇣ ⌘3
1000 ✓ ◆3
1 1 1000+u
1 FX (x) 1 1000
fe (x) = = =
µ 500 500 1000 + u
est la densité d’une pareto avec ↵ = 2 et de moyenne 1000. On utilise l’algorithme de Panjer (après
discrétisation de la loi de Pareto) pour évaluer la loi de la somme composé Y1 + . . . + YK où K suit la
loi géométrique de paramètre = 1/✓ = 5. On obtient ainsi la probabilité de ruine en fonction de u en
calculant numériquement la fonction de survie de Y1 + . . . + YK .
(u) µ✓
lim ⇢u
= 1 avec C = 0 .
u!1 Ce MX (⇢) µ(1 + ✓)
Dans ce cas, la décroissance n’est pas exponentielle, mais beaucoup plus lente.
Remarque 5.27. La condition est sur la loi d’équilibre et non sur la loi de X. Il se peut que FX soit
sous-exponentielle et pas fe , mais en général ça marche :
– LogNormale
– Pareto
– Burr
– LogGamma.
Exemple 5.28. Supposons que les pertes suivent la loi de Pareto (↵, ), calculons fe :
✓ ◆↵
1 (↵ 1) ↵ 1
fe (x) = = .
+x ( + x)↵
↵ 1
⇣ ⌘↵ 1
On remarque que fe ⇠Pareto(↵ 1, ), par conséquent 1 Fe (x) = +x et donc
✓ ◆↵ 1
1
(u) ⇠ .
u!1 ✓ +u
La probabilité de ruine décroı̂t de façon polynomiale.
Définition 6.1. Soit W = (Wt , t > 0) une famille de variables indexées par le temps. On dit que W
est un mouvement brownien de coefficient de di↵usion 2 si c’est un processus continu à accroissements
indépendants et stationnaires tel que
1. W0 = 0,
2. 8t > 0, Wt ⇠ N (0, 2 t).
Bt = ⌫t + Wt .
L’idée dans cette partie est d’approcher le surplus Ut par un brownien avec dérive de la forme u + Bt . On
considère le processus de surplus
XNt
Ut = u + ct Xi .
i=1
où
– u représente le capital initial,
– N est un processus de Poisson d’intensité ,
– Xi i.i.d. d’espérance µ et indépendants de N ,
– c = (1 + ✓) µ est la prime par unité de temps.
Introduisons Zt = Ut u. On a Z0 = 0 et
⇥ ⇤
E[Zt ] = (c µ)t et V ar(Zt ) = E X 2 t.
⇥ ⇤
Posons ⌫ = c µ et 2 = E X 2 et on introduit
Dt = u + Bt = u + ⌫t + Wt ,
Quand ↵ ! 0, on a alors
X!0 , !1 et c ! 1.
Regardons maintenant comment se comporte le processus Zt = Ut u :
h i
MZt (z) = E ez(ct St ) = ezct+ t[MX ( z) 1]
= ezct+ t[MY ( ↵z) 1]
Par conséquent
h i
1 E ( ↵zY )k
X
ln MZt (z) = czt + t
k!
k=1
1
X ( 1)k ↵k 2zk h i
= (c ↵E[Y ])zt + t↵2 E Yk
k!
k=2
" #
2t
z2 ⇥ 2⇤ X ( 1)k ↵k 1 3zk h i
k
= z⌫t + E Y + ↵ E Y
E[Y 2 ] 2 k!
k=3
2 tz 2
! z⌫t +
↵!0 2
2 tz 2
Par conséquent, MZt (z) ! ez⌫t+ 2 , i.e. Zt converge en loi quand ↵ ! 0 vers N (⌫t, 2 t). On peut
↵!0
montrer qu’en fait le processus Zt = Ut u converge en loi vers le brownien avec dérive Bt = ⌫t + Wt .
Corollaire 6.3. L’instant de ruine partant d’un capital initial u a pour fonction de répartition
✓ ◆ ✓ ◆
(u, t) 2⌫u u + ⌫t u ⌫t
P(⌧ 6 t|⌧ < 1) = =e 2 p + p .
(u) 2t 2t
u (u ⌫t)2
3/2
f⌧ (t) = p t e 2 2t .
2⇡
u u 2
La loi de ⌧ est une inverse gaussienne de moyenne ⌫ et de variance ⌫3
.
Démonstration.
⇣u ⌫ ⌘ ✓ u + ⌫t ◆ 2⌫u ⇣ u ⌫ ⌘ ✓ u ⌫t ◆
3/2 1/2 0 3/2 1/2 0
f⌧ (t) = t t p e 2 + t t p
2 2 2t 2 2 2t
où
– N est un processus de Poisson d’intensité = 10,
– Xi indépendantes de loi Gamma(↵ = 3, = 100),
– c = 3 µ est la prime par unité de temps (✓ = 2).
On veut trouver une valeur approchée de la probabilité de ruine.
On calcule alors
2
⌫=c µ = 6000 = 10 ⇥ 6 ⇥ 2 = 1 200 000.
Alors,
2⌫u
0.01 u
(u) = e 2 =e .
On a donc (100) = 0.368, (500) = 0.0067 quand on considère Ut c comme un mouvement brownien
avec dérive (on peut avoir quelques doutes vu que la taille moyenne des sauts est 300 !).
où
– u représente le capital initial,
– N est un processus de Poisson d’intensité ,
– Xi i.i.d. d’espérance µ et indépendants de N ,
– c = (1 + ✓) µ est la prime par unité de temps.
Proposition 7.1. La suite des instants inter-arrivées (Wn )n>1 est une suite de variables indépendantes
Pexponentielle E( ).
identiquement distribuées de loi
Le nième instant de saut Tn = ni=1 Wi étant la somme de n variables indépendantes de loi exponentielle,
suit la loi Gamma(n, ).
W1 W2 W3 W4
T1 T2 T3 T4
Par conséquent si on veut simuler un processus de Poisson jusqu’à l’instant t, il suffit de simuler des
variables exponentielles indépendantes jusqu’à ce que leur somme dépasse t.
Voici ce que donne le programme en R :
Cette méthode de programmation est très intuitive, mais elle a l’inconvénient d’avoir une boucle while
qui ralentit grandement le programme. On va voir maintenant une autre façon de simuler un processus
de Poisson sur un intervalle de temps.
On considère le processus de Poisson sur l’intervalle [0, t]. Sur cet intervalle, le nombre de saut suit une
loi de Poisson de paramètre t. Connaissant le nombre de sauts, que peut-on dire de la loi des instants
de sauts ?
Par exemple, sachant qu’il n’y a eu qu’un saut sur l’intervalle de temps [0, t], quelle est la loi du premier
instant de saut T1 . Cet instant est forcément inférieur à t. On a pour s 6 t
P(T1 < s, Nt = 1) P(avoir 1 saut sur [0, s) et aucun saut sur [s, t])
P(T1 < s|Nt = 1) = =
P(Nt = 1) te t
P(avoir 1 saut sur [0, s))P(avoir aucun saut sur [s, t])
= par indépendance des accroissements
te t
se s e (t s) ) s
= t
=
te t
Par conséquent la loi de T1 sachant que Nt = 1 est la loi uniforme sur [0, t].
Définition 7.2. Considérons Y1 , . . . , Yn des variables aléatoires. On définit la statistique d’ordre Y(1) , . . . , Y(n)
comme étant les variables réordonnées par ordre croissant : Y(k) est le k ème plus petite valeur parmi
Y1 , . . . , Y n .
On a Y(1) 6 Y(2) 6 . . . 6 Y(n) .
Proposition 7.3. Sachant que Nt = k, les instants de saut T1 , T2 , . . . , Tk ont la même loi que la statistique
d’ordre d’un k-échantillon de loi uniforme sur [0, t] : (U(1) , . . . , U(k) ).
Ce résultat est très utile en simulation quand on veut simuler un processus de Poisson jusqu’à un instant
choisi t. Le nombre de sauts sur cet intervalle de temps suit une loi de Poisson P( t). On simule par
conséquent N ⇠ P( T ), puis on simule N variables uniforme sur [0, t] que l’on ordonne par ordre croissant
pour avoir les instants de sauts de notre processus.
En R, cela donne le programme suivant :
Voici le résultat :
8
6
4
2
0
0 5 10 15 20 25 30
t=30
lambda=2/10
# simulation du processus de Poisson
N=rpois(1,lambda*t)
U=runif(N,min=0,max=t)
T=sort(U)
# simulation des pertes
X=rexp(N,1/3)
Z=cumsum(X)
Z=c(0,Z,Z[N])
plot(c(0,T,t),Z,type="s",col="dark red",xlab=" ",ylab=" ")
Quand la loi des pertes fait partie des lois usuelles, il suffit d’utiliser la fonction de R correspondante. Par
contre, si la loi des pertes n’est pas une loi usuelle, on peut simuler les variables X est utilisant l’inverse
de la fonction de répartition. En e↵et :
Proposition 7.4. Soit X une variable de fonction de répartition FX et U une variable uniforme sur
[0, 1], alors FX 1 (U ) a pour loi FX .
car U ⇠ U([0.1]).
t=100
lambda=0.3
mu=3
u=10
theta=0.5
# calcul de la prime
c=(1+theta)*lambda*mu
# Simulation du processus de Poisson et de ses instants de saut
N=rpois(1,lambda*t)
U=runif(N,min=0,max=t)
Tsaut=sort(U)
Tsaut=c(0,Tsaut)
# Simulation des pertes selon la loi exponentielle
X=rexp(N,rate=1/mu)
X=c(0,X)
Voici le résultat lorsqu’on complique légèrement le programme afin de tracer la trajectoire entre chaque
instant de saut :
15
10
5
0
0 10 20 30 40 50
où K suit le loi géométrique de paramètre = 1/✓ et variables Yi sont indépendantes et indépendantes de
K de loi d’équilibre fe (x) = (1 FX (x))/µ. Afin d’utiliser ce résultats, il faut calculer la loi d’équilibre,
la discrétiser si besoin et enfin utiliser l’algorithme de Panjer pour calculer (u). Ce résultat est très
intéressant pour estimer la probabilité de ruine à horizon infini, mais difficile à utiliser à horizon fini.
Exemple 7.5. On suppose que ✓ = 0.5, u = 10, = 2 et que les pertes suivent une loi de Weibull( , ⌧ )
avec = 5 et ⌧ = 2. On va calculer la probabilité de ruine à horizon infini (10) = P(Y1 + . . . + YK > 10).
Calculons tout d’abord la loi d’équilibre : on a
⇣ ⌘⌧
x
FX (x) = 1 e et µ = E[X] = (1 + 1/⌧ )
d’où ⇣ ⌘⌧
x
1 FX (x) e
fe (x) = = .
µ (1 + 1/⌧ )
Pour calculer (10) = P(Y1 + . . . + YK > 10) par Panjer, il faut calculer la fonction de répartition de fe :
Z ⇣ ⌘⌧ ✓ ◆⌧
1 x y y
Fe (x) = e dy on pose z = d’où y = z 1/⌧
µ 0
⇣ ⌘
Z x ⌧ ⌧⇣ ⌘1 ⌧
1
= e z z 1/⌧ dz
µ 0 ⌧
⇣ ⌘
Z x ⌧
= e z z 1/⌧ 1 dz
⌧µ 0
✓ ⌧ ◆
1 x 1
= ,
⌧ ⌧
⌧ (1 + 1/⌧ )
Rx
où (x, ↵) = 0 t↵ 1 e t dt. Comme (↵ + 1) = ↵ (↵), on a
✓ ⌧ ◆
1 x 1
Fe (x) = ,
⌧ ⌧
(1/⌧ )
On reconnaı̂t la fonction de répartition d’une loi Gamma(1, 1/⌧ ) prise au point x⌧ / ⌧. On discrétise alors
la loi d’équilibre pour utiliser Panjer :
(u, t) 6 (u).
Un avantage de cette seconde méthode est de pouvoir construire un intervalle de confiance. En e↵et par
le théorème limite central, on a p
n
2
(⌧ n (u, t)) ! N (0, 1)
ˆn n!1
car 1{⌧ i <t} sont des variables de Bernoulli. Un intervalle de confiance au niveau 1 ↵ de (u, t) est par
conséquent : " r r #
⌧ n (1 ⌧ n ) ⌧ n (1 ⌧ n )
⌧ n z↵ , ⌧ n + z↵
n n
avec P(Z 6 z↵ ) = 1 ↵ où Z ⇠ N (0, 1).
Exemple 7.6. Utilisons cette seconde méthode pour approcher la probabilité de ruine. En utilisant les
programmes précédents et en regardant l’évolution en fonction de n on obtient :
0.5
0.4
c(ProbaRuine)
0.3
0.2
0.1
(1:Nexp)
Evolution de ⌧ n (en rouge) et de son intervalle de confiance (en bleu) en fonction de n, avec t = 100 et
des pertes de Weibull.
Par conséquent, 2 s s 3
4 n (1 n) n (1 n) 5
n z↵ , n + z↵
n n
avec P(Z 6 z↵ ) = 1 ↵ où Z ⇠ N (0, 1), est un intervalle de confiance au niveau 1 ↵ de (u).
2 Mesures de risque 8
1 Modèles en finance
Lorsque le rendement est constant alors le prix d’une action vérifie St = S0 e t . On se place ici dans un
cadre plus général où le rendement est aléatoire et peut subir des sauts :
St = S0 eBt +Jt
où
– S0 est le prix initial,
– Bt = µt + Wt est un mouvement brownien avec dérive µ et volatilité qui représente la partie continue
du rendement,
P t
– Jt = N i=0 Xi est un processus de Poisson composé, indépendant de Bt , avec Xi i.i.d. de loi FX à support
sur R qui représente les sauts du rendement (les sauts peuvent être positifs ou négatifs (crash)).
St = S0 e B t
où Bt = µt + Wt est un mouvement brownien avec dérive : Bt ⇠ N (µt, 2 t). On connaı̂t par conséquent
le loi de St :
St ⇠ Log-Normale(ln(S0 ) + µt, 2 t).
Loi
On remarque St = S0 eBt Bs +Bs = S0 eBt s +Bs = St s eBs pour tout 0 6 s 6 t.
Le choix de mettre une loi Log-Normale sur le montant des actifs vient du fait qu’on suppose les rendements
i.i.d. (hypothèse malheureusement contestable) et donc par le théorème central limite la somme des
rendements suit une loi normale.
Rappel : Une variable aléatoire X suit la loi log-normale de paramètre µ et 2 si la variable Y = ln(X)
suit la loi normale N (µ, 2 ). On a alors
1 (ln(x) µ)2 2 2 2
fX (x) = p e 2 2 1x>0 , E[X] = eµ e 2 , V ar(X) = (e 1)e2µ+ .
x 2⇡
0.6
0.4
0.2
0.0
0 1 2 3 4 5 6
Densité Log-Normale.
2
plutôt Bt ⇠ N µ 2
2 t, t , on a alors
E[St ] = S0 eµt
µ représente alors le rendement espéré (ou rendement moyen) par unité de temps.
Nt
!
Loi p X
St = S0 exp µ (eµJ 1) 2
/2 t + tZ + Nt (µJ 2
J /2) + J Zi
i=1
et E[St ] = S0 eµt .
⇤
Connaitre la loi de St = S0 eBt +Jt est très compliqué car en e↵et si on regarde sa fonction de répartition :
où Bt⇤ + Jt est la somme d’une variable normale et d’une variable de Poisson composé. Le plus simple est
d’estimer la loi de St par simulation afin de calculer la fonction empirique de St .
1.2
1.0
1.0
0.8
0.8
0.6
Density
Fn(x)
0.6
0.4
0.4
0.2
0.2
0.0
0.0
3.5 4.0 4.5 5.0 5.5 0 50 100 150 200 250 300 350
log(St) x
●
●
●●●
1.0
●
●●●●●
2
●
●●
●
●●
●●
●
●
●●
●
●●
●
●
●
●●
●●
●
●●
●●
●
●
●●
●
●●
●
●●
●
0.8
●●
●
●●
●
●
●
●●
●
●
●
●●
●
●
●
●●
●
●●
●●
●
●
●●
●
●●
●
●
1
●
0.8
●
●
●
●●
●
●●
●
●
●
●
●●
●
●
●●
●
●●
●
●●
●●
●
●
●●
●
●
●●
●
●
●
●●
●
●
●
●
●
●●
●●
●
●
●
●
●
●●
●
●
●
●●
0.6
●
●
●
●●
●
●
●●
●
●
●
●●
0
●
●
●
●●
●●
●
●
0.6
●
●
●
●●
●
●
●
●
●●
●
●
●
●
●
●●
●●
●
●
●●
●
●
●●
●
●
●●
●
●●
●
●●
●
●
●●
●
●
●
●●
●
●
●
●●
−1
●
●
●
●
●●
●
●
0.4
●
●
●
●
●
●●
●
●
●
0.4
●
●
●●
●
●
●
●
●●
●
●●
●
●●
●
●
●●
●
●
●●
●
●
●●
●●
●●
●
●
●●
●
●
−2
●
●
●●
●
●●
●
●
●
●
●
●●
●
0.2
●
●
●
0.2
●
●●
●
●
●●
●●●●
−3
●●
●
●
0.0
0.0
−1.5 −1.0 −0.5 0.0 0.5 1.0 −1.5 −1.0 −0.5 0.0 0.5 1.0 −3 −2 −1 0 1 2 3
R x norm quantiles
St = S0 e Z t
Faisons d’abord une petite remarque : dans le modèle Log-Normal, St = S0 eBt avec Bt ⇠ N (µt, 2 t), la
volatilité et le rendement espéré par unité de temps sont constants au court du temps alors que lorsqu’on
analyse des données du marché on observe que ce n’est pas le cas.
Si on regarde l’indice S&P 500, on voit bien qu’il y a des périodes à forte volatilité et des périodes à faible
volatilité :
S&P 500
1600
1400
1200
1000
800
Xabs
St = S0 e B t
avec Bt ⇠ N ((µ + !)t, !t), où ! est un paramètre aléatoire positif de loi F! .
Étudions la loi de St :
Z 1
P(St 6 K) = P(St 6 K|! = x) f! (x)dx
0 | {z }
Loi Log-Normale((µ+ x)t,xt)
Z 1 ✓ ◆
ln(K) ln(S0 ) (µ + x)t
= p f! (x)dx
0 xt
L’expression reste très compliquée.
⇣ ⌘
p
Dans le cas où ! ⇠ GIG , t, ↵2 2 , alors on retrouve une loi hyperbolique généralisée :
On peut facilement calculer cette quantité avec R en utilisant la fonction pgh du package fBasics.
Vérifions que ce modèle possède les bonnes propriétés. On considère donc
2 Mesures de risque
On considère par exemple un actif dont l’évolution est stochastique : St peut-être le prix d’un actif boursier
ou le surplus d’une compagnie d’assurance et on souhaite mesurer le risque lié à cet actif.
Il faut savoir que les niveaux minimaux pour faire face aux risques financiers et en assurance sont des
fonctions des mesures de risque. La façon de les calculer est souvent imposée par les organismes régulateurs.
Ce que l’on va voir dans la suite peut se généraliser à l’étude de plusieurs actifs (St1 , St2 , . . . , StN ).
On se place sur une période [0, t] et on considère la ”perte” entre l’instant t et l’instant initial :
rt
X = S0 e St
où r est le facteur d’actualisation. Si X > 0 on a eu une perte et si X < 0 on a eu un gain. On souhaite
mesurer le risque lié à l’actif considéré.
Dans la suite on ne prendra pas en compte le facteur d’actualisation pour ne pas alourdir les résultats,
mais dans la réalité il faut le prendre en compte.
Attention : Dans certains livres, notamment dans Derivatives Market, les pertes sont définies comme
X = St S0 .
Une première façon de mesurer le risque est de regarder la valeur moyenne de la perte E[X]. Plus la
valeur moyenne est grande, plus on est dans une situation risquée. Mais comme chacun sait on peut avoir
une valeur moyenne faible et donc penser que la situation n’est pas risquée alors que la variance est très
grande. ⇢
12 M $ avec probabilité 0.5
Par exemple, si X = , en moyenne la perte est de 1 M $. Si par contre
10 M $ avec probabilité 0.5
la perte est constante égale à X = 1 M $, on a encore une perte moyenne de 1 M $. Dans le premier
cas, on a une chance sur 2 de perdre 10 M $, alors que dans le second cas on est toujours sur de gagner
1 M $. Le second cas est de toute évidence moins risqué.
On pourrait par considérer la variance comme mesure de risque, mais seules les grandes valeurs de X sont
inquiétantes (pas les faibles).
Enfin, pourquoi mesurer le risque ?Essentiellement pour comparer deux actifs et pouvoir choisir le moins
risqué. Dans l’idéal, une mesure de risque R doit vérifier les propriétés suivantes :
loi
– invariance en loi : si X = Y , alors R(X) = R(Y ),
– croissance : si X 6 Y (i.e., P(X 6 Y ) = 1), alors R(X) 6 R(Y ),
– respecte la translation : pour tout u 2 R, R(X + u) = R(X) + u,
– homogénéité : pour tout a > 0, R(aX) = aR(X),
– sous-additivité : R(X + Y ) 6 R(X) + R(Y ),
– convexité : pour tout ↵ 2 [0, 1], R(↵X + (1 ↵)Y ) 6 ↵R(X) + (1 ↵)R(Y ).
En pratique, les mesures de risque utilisées ne vérifient que certaines de ces bonnes propriétés. L’ho-
mogénéité assure que le risque est invariant par changement de devise. La sous-additivité vient du fait
Propriété 3.2. La V aR respecte la translation, est homogène, mais malheureusement n’est pas sous-
additive.
En e↵et : prenons
⇢
1000 avec proba 0.04 Loi
X= et Y = X indépendante de X.
0 avec proba 0.96
Exemple 3.4. Regardons un exemple dans le cas discret. Les pertes mensuelles suivent la loi
x 0 10 50 100
P(X = x) 0.85 0.10 0.045 0.005
On a par conséquent
x 0 10 50 100
FX (x) 0.85 0.95 0.995 1
et par conséquent V aR0.95 = 10, V aR0.99 = 50.
V aR↵ (X) = S0 K↵
Par conséquent, q
1 1
= 3e(
0.95 0.15 (0.3)2 /2) 52 +0.3 1 (0.05)
K 52 .
Comme 1 (0.05) = 1.645, K 0.95 = 2.8072 et donc
ceci signifie qu’une perte de 0.1928 M $ arrive en moyenne une semaine sur 20.
pour une action dont S0 = 50. Les paramètres annualisés sont estimés à l’aide des rendements :
On souhaite calculer V aR0.9 sur un an : 0.1 = P(X > V aR0.9 ). On obtient avec R, V aR0.9 = 31.4.
Exemple 3.7. Pour l’action Bayer, on peut modéliser les rendements journalier par une loi hyperbolique
a été ajustée avec les paramètres :
On souhaite calculer V aR0.95 sur 30 jours avec S0 = 100$ : 0.05 = P(X > V aR0.95 ). On obtient avec R,
V aR0.95 = 12.8.
Définition 4.1. La Tail Value-at-Risk est définie comme la perte excessive espérée :
où melX (u) = E[X u|X > u] est le mean excess loss.
Comme melX (u) = 1 F1 (u) (E[X] E[X ^ u]) = 1 F1 (u) (E[X] LevX (u)) où LevX (u) est la limited ex-
pected value, on a
E[X] LevX (V aR↵ )
T V aR↵ (X) = V aR↵ (X) + .
1 F (V aR↵ (X))
On conclut facilement car lorsque FX est continue, on a F (V aR↵ (X)) = ↵.
Propriété 4.4. T V aR↵ respecte la translation, est homogène, sous-additive et monotone. C’est donc une
mesure cohérente.
Il existe un lien entre la TVaR et la prime Stop-Loss (utile notamment pour les réassureurs) :
On dit que X 6T V aR Y si pour tout ↵ 2 [0, 1], T V aR↵ (X) 6 T V aR↵ (Y ). On a alors le résultat suivant :
x 0 100 1000
P(X = x) 0.9 0.06 0.04
On a par conséquent
x 0 100 1000
FX (x) 0.90 0.96 1
On en déduit que V aR0.90 = 0, V aR0.95 = 100, V aR0.96 = 100.
Pour ↵ = 0.95 :
E[X1X>100 ] 40
T V aR0.95 = E[X|X > 100] = = = 1000.
P (X > 100) 0.04
Pour ↵ = 0.96, on a encore
T V aR0.96 = E[X|X > 100] = 1000.
En fait, T V aR↵ telle que définie est constante pour ↵ 2 (0.9, 0.96].
Comme la V aR↵ , le calcul de la T V aR↵ pose problème dans le cas discret. Pour éviter d’avoir une T V aR↵
constante par morceaux, on va l’approcher de façon linéaire de la façon suivante.
Proposition 4.6. Si la loi de X n’est pas continue, pour ↵ > 0 fixé, on introduit
n o
↵0 = max : V aR = V aR↵
et on définit alors
(↵0 ↵)V aR↵ + (1 ↵0 )E[X|X > V aR↵ ]
T V aR↵ = .
1 ↵
Quand ↵0 = ↵, on retrouve T V aR↵ = E[X|X > V aR↵ ].
Exemple 4.7. Reprenons l’exemple précédent, on a pour ↵ = 0.96, T V aR0.96 = 1000 et pour ↵ = 0.95,
↵0 = 0.96,
0.01 ⇥ 100 + 0.04E[X|X > 100]
T V aR0.95 = = 820.
0.05
Exemple 4.8. Supposons que les pertes suivent une loi de Pareto :
✓
fX (x) = +1
.
(x + ✓)
Comme ✓ ◆
↵ ✓
P(X > V aR ) = =1 ↵
V aR↵ + ✓
On en déduit que ✓ ◆
↵ 1
V aR = ✓ 1 .
(1 ↵)1/
Par ailleurs, en utilisant la formule
✓ ◆ 1
↵ ↵ 1 ✓ ✓
T V aR (X) = V aR +
1 ↵ 1 ✓ + V aR↵
✓ + V aR↵
= V aR↵ +
1
1
= V aR↵ + ✓.
1 1
Pour X = S0 St , on a
T V aR↵ (X) = E[X|X > V aR↵ (X)] = S0 E[St |St < S0 V aR↵ (X)]
Rappel : Z u
xfX (x)
E[X|X < u] = dx.
1 FX (u)
Dans notre cas,
Z u Z ln u
xfSt (x)dx = ey fµ, (y)dy
1 1
⇣ 2
⌘
avec fµ, (y) densité de la loi N (µ, 2) avec µ = µ t + ln(S0 ) et 2 = 2 t. On a
2
Z a Z a
1 (y µ)2 2 2 y
y
e fµ, (y)dy = p
e 2 2 dy
1 1 2⇡
Z a 2 )2
1 (y µ 2
= p e 2 2 eµ+ 2 dy
1 2⇡
✓ 2
◆
2 a µ
= eµ+ 2
Par ailleurs ✓ ◆
ln(u) µ
FSt (u) = P(St 6 u) =
⇣ 2
⌘ !
ln(u/S0 ) µ+ 2
t
p
t
= S0 eµt ⇣ 2
⌘ !
ln(u/S0 ) µ 2
t
p
t
⇣ 2
⌘
S0
ln S0 V aR↵
+ µ+ 2
t p
En notant d1 = p
t
et d2 = d1 t, on a donc
( d1 )
T V aR↵ = S0 S0 eµt
( d2 )
Remarque 4.9. Les constantes d1 et d2 apparaissent souvent en finance, notamment en valuation d’op-
tion (Black-Scholes).
Exemple 4.10. Le prix d’aujourd’hui d’une action est S0 = 100$, la volatilité est de 30% et le rendement
de 15% par unité de temps. Sur un horizon de t = 0.5, calculer V aR↵ et T V aR↵ pour ↵ = 0.95.
Calculons V aR↵ en premier. On a
p
S0 e ( µ )t+
2 /2 t 1 (1 ↵)
V aR↵ = S0 .
Par conséquent, ✓ ◆
↵ 0.15⇥0.5 ( d1 )
T V aR = 100 1 e
( d2 )
avec d1 = 1.857 et d2 = 1.645 et donc
✓ ◆
↵ 0.15⇥0.5 0.03166
T V aR = 100 1 e = 31.75
0.05
Pour des modèles plus compliqués que le modèle LogNormal, on estime T V aR↵ par simulation :
n
X
1
T V aR↵ = E[S0 St |S0 St > V aR↵ ] ' (S0 Sti )1S0 Sti >V aR↵
n(1 ↵)
i=1
60
25
50
40
20
30
15
20
10
10
0
0 1000 2000 3000 4000 5000 0 1000 2000 3000 4000 5000
On sait que la moyenne ne permet pas de mesurer le risque façon optimale, par contre on peut définir
une nouvelle mesure de risque modifiant l’espérance :
Définition 5.1. Une mesure ⇢ par distorsion (ou mesure de Wang) est définie par
Z 1
⇢(X) = g(SX (x))dx où SX (x) = 1 FX (x) est la fonction de survie
0
Les mesures par distorsion sont homogènes, monotones et respectent la translation. On peut montrer que
si g est concave, alors la mesure ⇢ est sous-additive.
Remarque 5.2. On remarque que g(SX (x)) est une fonction de survie et donc si Y est une v.a. de
fonction de survie g(SX (x)), on a ⇢(X) = E[Y ].
Attention : Y 6= g(X) ! C’est malheureusement plus compliqué.
et donc Z 1✓ ◆↵
✓ ✓
⇢HP (X) = dx = si ↵ > 1.
0 x+✓ ↵ 1
On parle de mesure de Gini si g(x) = (1 + ↵)x ↵x2 , de Transformation Exponentielle si g(x) =
(1 ↵x )/(1 ↵), de Dual Power si g(x) = 1 (1 x)1/↵ , . . .