CNAM16
CNAM16
net/publication/370934807
CITATIONS READS
0 607
1 author:
Guillaume Gorge
National Conservatory of Arts and Crafts
6 PUBLICATIONS 1 CITATION
SEE PROFILE
All content following this page was uploaded by Guillaume Gorge on 21 May 2023.
G. GORGE
21 mai 2023
Table des matières
5 Solvabilité 40
5.1 Cadre général de la solvabilité . . . . . . . . . . . . . . . . . . . . 40
5.2 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
5.3 Problèmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
Solutions 68
1
Première partie
1
Chapitre 1
Introduction
Act102 - Mathématiques
1.1 Qu’est ce que l’actuariat vie actuarielles fondamentales de
l’assurance vie
Qu’est ce que l’assurance vie (pour un actuaire) ? Kristiano Beijko : Contrôle des
Assurances.
Définition 1 : Assurance vie / décès - définition actuarielle.
Assurance soumis à un aléa lié à la survie ou à la mort d’une ou plusieurs per-
sonnes.
Cela couvre :
— Retraites1 1 En France, la retraite est essen-
2
CHAPITRE 1. INTRODUCTION 3
Pourquoi ne pas s’arrêter à ce paradigme ? Parce que le risque vie n’est pas
uniquement un risque de mortalité
Pour simplifier les calculs, on a longtemps fait les hypothèses suivantes qui sont à la
base de l’actuariat vie :
— Tout est simple !
— le risque de mortalité peut se modéliser selon une loi qui va simplifier les calculs
— le taux sans risque (le taux que prêtent les Etats) est le même quelque soit la
durée.
— grâce à cela, des modèles simples et élégants (les nombre de commutations)
Paradigme financier Au XXIe , avec l’assurance vie qui vend essentiellement des
produits d’épargne, avec des options financières, vous devez tarifer, comptabiliser et
calculer les risques comme une ”banque”, avec le paradigme ou le langage financier.
Quel est ce paradigme :
— Marché parfait et complet avec comme conséquence Black & Scholes, Valeur
risque-neutre, calcul stochastique, ...
— moins ambitieux que le paradigme moderne classique qui vise à tout expliquer :
ici, on cherche uniquement à expliquer le marché et la valeur du risque implicite.
— mais il n’en ait pas plus ”juste”, il est juste plus adapté pour les questions
financières (cf paradigme newtonien vs relativité)
— en assurance, le mélange actuariat + finance donne des outils de modélisation
/ simulation (comme Prophet ou Moses) On notera la référence divinatoire
utilisée par ces logiciels
Les Choix pour ce cours : un choix classique Choix possible entre approche
théorique / Pratique et paradigme financier vs paradigme actuariel :
— paradigme actuariel : Choix de la continuité : reprendre les objectifs du cours
qui nous a été transmis l’année dernière : le choix d’une introduction à ACT206,
en mélangeant pratique et théorie.
— Paradigme financier : choix des formations actuarielles comme l’ENSAE : théo-
rie financière d’abord puis application actuarielle, en insistant sur la théorie.
— Approche pratique : Refondre le cours dans une approche académique anglaise :
AU UK, on commence par la pratique (ex : dès la licence d’actuariat, les étu-
diants sont exposés à Prophet et aux outils de projection). Et ce n’est qu’après la
licence et les examens qu’on développe la théorie (selon le paradigme financier).
Ce cours se veut comme une introduction :
— insister sur la démarche historique, les problématiques ayant conduit à telle
décision
— présenter les approches alternatives qu’on utiliserait aujourd’hui (comme les
modèles de régression (GLM))
— modèles classiques actuariels partagés avec l’IARD (Cramér-Lundberg)
1.2 Bibliographie
— Alain Tosetti, Béhar, Fromenteau, Ménart : Assurance : comptabilité, réglemen-
tation, actuariat (Economica, 2002)
— Tosetti, Weiss, Poincelin (édition économica) : Les outils de l’actuariat vie
CHAPITRE 1. INTRODUCTION 4
5
CHAPITRE 2. CONSTRUIRE UNE TABLE DE MORTALITÉ 6
Mon cher monsieur, répondit l’agent principal, nos primes sont établies
avec une justesse mathématique, qui est tout à l’honneur de la Compagnie.
Elles ne sont plus basées, comme elles l’étaient autrefois, sur les tables de
Duvillars... Connaissez-vous Duvillars ?
Je ne connais pas Duvillars.
Un statisticien remarquable, mais déjà ancien... tellement ancien, même,
qu’il est mort. À l’époque où il établit ses fameuses tables, qui servent
encore à l’échelle de primes de la plupart des compagnies européennes, très
arriérées, la moyenne de la vie était inférieure à ce qu’elle est présentement.
grâce au progrès de toutes choses. Nous nous basons donc sur une moyenne
plus élevée, et par conséquent plus favorable à l’assuré, qui paie moins cher
et vit plus longtemps...
Quel sera le montant de ma prime ? reprit Kin-Fo, désireux d’arrêter le
verbeux agent, qui ne négligeait aucune occasion de placer ce boniment en
faveur de la Centenaire.
Monsieur, répondit William J. Bidulph, j’aurai l’indiscrétion de vous de-
mander quel est votre âge ?
Trente et un ans.
Eh bien, à trente et un ans, s’il ne s’agissait que d’assurer les risques ordi-
naires, vous paieriez, dans toute compagnie, deux quatre- vingt-trois pour
CHAPITRE 2. CONSTRUIRE UNE TABLE DE MORTALITÉ 7
Cet outil est surtout utilisé en démographie et en actuariat afin d’étudier le nombre
de décès, les probabilités de décès ou de survie et l’espérance de vie selon l’âge et le
sexe. Il existe deux types de tables de mortalité :
— la table de mortalité du moment
— la table de mortalité par génération.
nous reviendrons sur cette distinction entre moment et génération.
Pour l’Insee :
”Une table de mortalité annuelle suit le cheminement d’une génération
fictive de 100 000 nouveau-nés à qui l’on fait subir aux divers âges les
conditions de mortalité observées sur les diverses générations réelles, durant
l’année étudiée. Pour éviter les aléas des tables annuelles et pour disposer
d’une table détaillée par âge aussi précise que possible, on calcule également
une table de mortalité couvrant une période de trois années.”
Par définition, il ne s’agit pas d’estimer l’espérance réelle d’un nourrisson aujourd’hui
(nous ne savons pas quels seront les progrès techniques ou les guerres qui affecteront
son espérance de vie réelle) mais de figer la photo des taux de mortalités à chaque âge
et d’utiliser cette information pour, de proche en proche, calculer l’espérance de vie de
ce nourrisson.
Ce sera sûrement plus facile à comprendre en regardant comment pratiquement on
créé une table de mortalité.
l x +t
t px =
lx
0
t+t xp = p
t x × t0 p x +t
l x +t
t qx =1 −
lx
l x +1
qx = 1 −
lx
( l x +t − l x +t+t0 )
t/t0 q x = t p x − t+t0 p x =
lx
Dans la table de Carlisle comme dans la plupart des tables de mortalités, q x ne dépend
pas du facteur temps car t = 0 et t0 = 1 : on considère le taux de mortalité sur un an.
CHAPITRE 2. CONSTRUIRE UNE TABLE DE MORTALITÉ 9
Le taux de mortalité q x annuelle à 31 ans est de 1.02%, donnant une idée de la marge
que prend la centenaire (2.70% de prime soit une marge de 1.68%).
On voit l’intérêt de présenter des q x dans une table de mortalité, qui permet des calculs
rapides.
43%
(1 − q x )10 =
50%
soit qx = 1.5%. Effectivement, la table de Duvillard est beaucoup plus conservatrice
mais cela traduit aussi la formidable amélioration de l’espérance de vie au XIXème
siècle.
“To be sure,” said she, “it is better than parting with fifteen hundred
pounds at once, But then if Mrs. Dashwood should live fifteen years, we
shall be completely taken in. ”
“Fifteen years ! My dear Fanny ; her life cannot be worth half that purchase.
”
“Certainly not ; but if you observe, people always live for ever when there
is any annuity to be paid them ; and she is very stout and healthy, and
hardly forty. An annuity is a very serious business, and there is no getting
rid of it” (Austen, Sense and Sensibility,chapitre 1).
Dashwood et sa femme doivent évaluer laquelle des deux options financières est la
moins généreuse :
— un paiement de 1,500 livres aujourd’hui,
— ou un accord pour payer à une femme de 40 ans 100 livres par an pour le reste
de sa vie.
1. Les Dashwood sont ils complètement ”dupés” si Mme Dashwood vit 15 ans (we
shall be completely taken in.) ?
2. En utilisant la table de Carslile, quelle est la ”meilleure option” pour les Dash-
wood ? (pour cela, il faudra calculer ä)
[Solution]
de survivants parmi ces individus t années plus tard (on rappelle que lx+t Définition 3 : lx .
est l’espérance de L x+t i.e. On note par convention un
nombre d’individus vivants
Lx Lx d’âge x, l(x) ou lx .
lx+t = E( L x+t ) = E( ∑ Xi (t)) = ∑ E(Xi (t))
i =1 i =1
Or, dans notre table de mortalité, les individus d’âge x sont justement ceux
qui sont caractérisés par le nombre probable de survivants lx . En prenant
L x = lx , on retombe donc bien sur nos pieds et toutes nos notations sont
cohérentes.
CHAPITRE 2. CONSTRUIRE UNE TABLE DE MORTALITÉ 11
On remarque comme attendu que les femmes sont plus âgées (en particulier par le
décalage du dernier quartile en bleu). Par ailleurs, on voit à partir de 2000, la baisse
de la natalité.
6 hue="SEXE",
7 palette="ch:r=-.2,d=.3_r" ,
8 sizes =(1, 8), linewidth =0,
9 ax=ax)
Remarque
le graphique présente un certain nombre d’éléments :
— On remarque tout d’abord le taux de mortalité très faible jusqu’à 75 ans. Nous
reviendrons sur cette orthogonalisation des taux de mortalité
— On voit une hausse régulière du taux jusqu’à 100 ans et un taux de mortalité
de 50%
— puis un comportement erratique voire aberrant avec des taux de mortalité né-
gatifs.
Exercice 2
Pourquoi avons-nous des taux de mortalité négatifs ?
[Solution]
6 palette='seismic ',
7 inner='quartile ')
8 plt.show ()
Nous pouvons alors juxtaposer les données de mortalité et les données d’exposition,
avec par exemple le code suivant :
1 DEATHSynthese = DEATHData.groupby (["SEXE","ANAIS"])['SEXE ']. count ().rename('
NombreMorts ').to_frame ()
2 EXPOMORTData = pd.merge(EXPOData [['SEXE ','ANAIS ','AGE','EXPOSITION ','CENSURE '
]], DEATHSynthese , on=['SEXE ','ANAIS '], how='left ')
Les taux de mortalité q x négatifs ont disparu, confirmation que ces taux venaient d’une
déformation de la population à chaque âge. On voit qu’on arrive à un pic de mortalité
très faible avant 75 ans, qui augmente fortement à partir de 80 ans jusqu’à atteindre
un pic à 100 ans autour de 60% de taux de mortalité pour une génération donnée.
La baisse des taux de mortalités aux âges jeunes, sans pour autant que l’âge ultime de
vie semble évoluer sensiblement, a pour conséquence un phénomène d’« orthogonalisa-
tion » des tables de mortalité, de plus en plus de personnes décédant à un âge élevé :
Les tables homologuées sont aussi appelées Tables de référence car elles permettent
de présenter des résultats de différentes sociétés d’assurance de façon homogène. En
France, l’utilisation des tables de mortalité par les assureurs est encadrée par l’article
A132-18 du Code des Assurances. Ils peuvent ainsi utiliser soit une des tables réglemen-
taires homologuées, établies par l’Insee, soit utiliser une table d’expérience construite
sur les données spécifiques de l’assureur et certifiée par un actuaire indépendant.
Les tables réglementaires en vigueur en France actuellement sont :
— les tables TH 00-02 et TF 00-02 pour les assurance en cas de décès ;
— les tables TH 00-02 et TF 00-02 avec décalages d’âges pour les assurances en
cas de vie (hors rentes) ;
— les tables de générations TGH 05 et TGF 05 pour les rentes viagères.
Calcul pour Kin-fo s’il était né en 2000 Ainsi, la TGH 05 pour les personnes
nées en 2000 (100.000 en 2000) :
Ce qui donnerait pour l’honorable Fo s’il était né en 2000 un risque annuel de 199.034 =
0.02% Mais c’est une table de mortalité pour une rente viagère, donc qui intègre une
marge de prudence.
Exercice 4
Afin de vous familiariser avec ces tables, quelle serait ce risque avec la table réglemen-
taire pour l’assurance décès ?
2.2 Conclusion
Synthèse 1
Ce que je retiens de cette visite à la Centenaire :
— Comment on construit pratiquement une table de mortalité : à partir de
la table Exposition, à partir des individus présents à chaque âge.
— cette première méthode présente des résultats parfois aberrants car elle
suppose en particulier la stabilité de l’exposition à chaque âge. Nous avons
donc utilisé en plus le nombre de morts réels par âge, qui vient effective-
ment améliorer les tables.
— si sexe et âge sont les variables les plus explicatives du risque de mortalité,
elles ne sont pas les seules. Nous verrons dans les prochains chapitres
quelles méthodes statistiques pour détecter les variables significatives dans
le contexte des tables de mortalité.
— le taux de mortalité q x s’est amélioré à tous les âges de la vie depuis deux
siècles de façon remarquable, entraînant une orthogonalisation des tables
de mortalités : très peu de morts jusqu’à un âge avancé puis la mortalité
reprend.
2.3 Problèmes
Et si les tables de mortalité ne dépendaient pas de l’âge et du sexe : l’as-
surance des passagers de l’Olympic, sister-ship du Titanic Petit exercice de
programmation à partir d’une table de mortalité un peu spéciale mais qui sert à tous
les apprentis data-scientists, la base kaggle titanic4 . 4 La base titanic est aussi accessible
dans le package python seaborn
Exercice 5
Après le Titanic qui a coulé, vous voulez proposer aux personnes qui traversent l’At-
lantique de s’assurer contre la mort. Un client va prendre l’Olympic, le sister-ship du
Titanic. Vous considérez qu’il y a 10% de chance que ce bateau coule. Vous voulez
utiliser les statistiques du Titanic pour calculer la prime à demander à deux clients :
Table 2.1
Jack Rose
15 ans 17 ans
part de Southampton
Créez une table de mortalité ”traversée de l’Atlantique” en tenant compte des statis-
tiques du titanic.
Cette méthode suppose que l’âge et le sexe sont les informations les plus importantes
pour discriminer la mortalité. Mais on peut supposer que la classe et le fait de voyager
seul ou non sont des informations importantes. Essayez d’estimer le risque de mortalité
en utilisant ces informations. Pour cela, vous pouvez vous inspirer des codes du kaggle
titanic.
Exercice 6
Nous allons travailler plusieurs séances sur le fichier Table ACT102 sur l’espace de
travail partagé. Le but pour la prochaine séance est :
— se familiariser avec la base de données (portefeuille à analyser),...
Chapitre 3
3.1 Introduction
Synthèse 2
Nous avons vu dans le chapitre précédent :
— Ce qu’était une table de mortalité
— le taux de mortalité q x
— le fait que l’on pouvait avoir des tables sur population générale, très larges
mais pas forcément adaptées au portefeuille d’un assureur.
18
CHAPITRE 3. LES MODÈLES ACTUARIELS VIE STATIQUES 19
cas discret On suppose que Tx ne peut prendre que des valeurs entières jusqu’à
(ωx ) (où ω est l’âge maximal : par exemple ω = 120 ans). On cherche à exprimer
pour tout entier k, la probabilité P( Tx = k + 1) que Tx vaille k + 1, en fonction de k p x
et k+1 p x .
La solution est la suivante :
L’espérance de vie résiduelle de Jeanne Calment était de 4.84 années lorsqu’elle avait
90 ans
Néanmoins, nous avons vu page 14 que le taux instantané de mortalité tend à ne plus
progresser après 100 ans et ne pas dépasser 50-60% par an. La probabilité d’un âge
très âgé est donc plus importante que ce qu’on pourrait penser a priori.
Yn = f ( Xn ) + ϵn
2 (y − z)
1 2
Moindre carré régressions linéaires Table 3.1 : Diverses fonctions de
y perte. voir aussi déviance
déviance GLM y(log( z ) − y + z) GLM Poisson
Poisson
entropie croisée −[y · log(z) + (1 − y)log(1 − z)] réseaux de Neu-
(cross-entropy) rones
min g J ( g) + Rλ ( g)
avec
— g le modèle de régression,
— Rλ ( g) est le terme de régularisation qui vient pénaliser les modèles complexes
par rapport aux modèles simples.
Cette propriété parait assez classique mais en pratique, elle n’est pas toujours respectée
(nous verrons en particulier à cause des accidents).
CHAPITRE 3. LES MODÈLES ACTUARIELS VIE STATIQUES 22
Dans la pratique, le passage par des modèles paramétriques fait que l’on préfère utiliser
un modèle continu plutôt qu’un modèle discret. Pour cela, Gompertz a défini la Force
de Mortalité.
t+dt p x −t p x
P(t < Tx < t + dt | Tx > t) =
p
t x
1 ∂
µ x +t = qx
t p x ∂t t
Exercice 7
Montrer qu’on peut aussi écrire µ( x ) comme :
l 0 (x) d
µx = − = − ln[l ( x )]
l (x) dx
En effet le terme de survie t p x est proche de 1 sauf dans les âges élevés et sur un faible
intervalle dt peut être négligé.
Exercice 8
Démontrer La probabilité qu’une personne soumise à cette force µ x,t meurt dans l’in-
tervalle (t,t+dt) est approximativement µ x,t dt quand dt est petit en utilisant les déve-
loppement limités.
En considérant que µ x,t dt est constant (λ) entre x et x + 1, on peut démontrer que :
Exercice 9
Montrer que cette approximation est plus précise que l’approximation dt q x ' dt × µ x .
[Solution]
Graphiquement, si l’on représente q x,t et µ x,t à partir de cette approximation, on voit
que les deux sont proches quand q x est stable.
Exercice 10
Pourquoi q x,t et µ x,t sont proches quand q x est stable ?
Notations
— les actuaires utilisent plutôt la notation µ x = eθ0 +θ1 x
— µ x respecte notre première propriété 7 et augmente avec l’âge.
Sur nos données INSEE France, le modèle de Gompertz fonctionne à peu près bien
entre 20 et 100 ans sur les données masculines :
CHAPITRE 3. LES MODÈLES ACTUARIELS VIE STATIQUES 25
µ x = A + Bc x
Remarque
Dans la plupart des cas, on aura T (y) = y. Le terme exp(− a(η )) peut être vu comme
un terme de normalisation qui assure que la somme des probabilités est égale à 1.
Poisson ln(λ) y eη 1
y!
Définition 13 : GLM.
un modèle Linéaire Généralisé (GLM) vise à prédire une v.a. y comme une fonc-
tion caractérisée par les hypothèses suivantes :
— y | x, θ ⇝ Famille Exponentielle(η )
— hθ = E[y | x; θ ]
— η = θT x
CHAPITRE 3. LES MODÈLES ACTUARIELS VIE STATIQUES 26
log(µ x ) = b + cX
On peut donc estimer avec un modèle linéaire généralisé (GLM) Poisson (du fait de
l’indépendance entre les x,t) et avec lien log. C’est ce qu’on appelle le lien canonique
pour une GLM avec une distribution de Poisson.5 5 [3] Pour programmer un GLM en
python : video, et Chapitre en an-
Remarque glais sur les GLM
A noter que l’on peut travailler directement sur le nombre de décès en ajoutant un
offset sur l’évolution de la population ex,t est une mesure de la taille moyenne de la
population âgée de x à la date de l’année civile t, exposition dite centrale au risque.
Exercice 11
Montrer qu’il est équivalent d’utiliser
— un modèle GLM Poisson pour µ avec une fonction lien log
— un modèle GLM distribution binomiale et une fonction lien cloglog6 6 complementary loglog =
[Solution] log(−log(1 − q))
On peut donc écrire l, le nombre de morts comme une décomposition des différents de
mortalité. Ce type de modèle peut être estimé par des modèles Additifs Généralisés
(GAM) qui expriment Y en fonction d’une fonction polynomiale de X
Synthèse 4
Vous devez savoir :
— ce qu’est un modèle supervisé
— ce qu’est un modèle linéaire et un modèle linéaire généralisé
— la définition de la force de mortalité µ, c’est à dire la forme continue du
taux de mortalité, qui sera la variable réponse dans le modèle.
— le lien entre force de mortalité et quotient de mortalité
— le modèle de Gompertz permettait une adéquation assez bonne aux don-
nées historiques mais c’est moins le cas aujourd’hui avec l’orthogonalisa-
tion des tables de mortalité. En particulier, un modèle sur tous les âges
a tendance à présenter un facteur faible dépendant de l’âge voire négatif
pour tenir compte de l’amélioration aux âges très élevés et de la stabilité
pour les homme de la mortalité avant 40 ans.
— Par ailleurs, nous avons vu que les dynamiques homme / femme étaient
très différentes (il nous faut croiser les variables âge et sexe et nous les
considérer de façon indépendante).
3.6 Problèmes
Exercice 12 : Et l’on revient à Titanic.
Après avoir fait une table de mortalité, essayer de faire une régression GLM de type
logistique (fonction lien logit et distribution binomiale) sur la variable ”survived” pour
expliquer quelles variables expliquent la mortalité. Puis recalculer la prime à demander
à Jack et Rose !
CHAPITRE 3. LES MODÈLES ACTUARIELS VIE STATIQUES 29
que Jeanne Calment, doyenne de l’humanité, n’est pas morte en 1997 mais en 1934. Died in 1934—Not 1997
Dans la première partie, il étudie le sujet d’un point de vue actuariel.
Certains chercheurs concluent que, pour une raison indéterminée, la force
de la mortalité s’écarte progressivement de la célèbre formule de Gompertz
aux âges extrêmes et est presque constante après 105 ans (et aussi presque
invariante avec le sexe, le pays et l’année de naissance), tandis que d’autres
concluent que la force de la mortalité continue d’augmenter avec l’âge. 8 8 Some researchers conclude that,
for whatever reason, the force
1. Donner la définition de la force de mortalité. of mortality progressively departs
2. Donner la définition de la formule de Gompertz. from the celebrated Gompertz for-
mula at extreme ages and is almost
3. Est-ce que la formule de Gompertz peut donner une force de mortalité qui constant after 105 years (and also
diminue avec l’âge ? nearly invariant with sex, country,
and year of birth), while others
4. Citer un cas vu en cours où la force de mortalité baisse pratiquement avec l’âge conclude that the force of mortality
– ou a minima est stable. continues to rise with age
10. Le pourcentage de 50% de taux de stabilité a été calculé à partir des don-
nées italiennes des super-centenaires. Or, la France est le pays européen des
centenaires (par rapport aux personnes atteignant 60 ans). Si cette tendance
se poursuit au-delà de 100 ans de façon constante, quelle serait la probabilité
d’une personne de 119 ans de survivre jusqu’à 122 ans ?
Intégrer la dimension
temporelle des tables de
mortalité
4.1 Introduction
Jusqu’à présent, on a considéré des tables de mortalité stables, qui n’évoluent pas avec
le temps : la tables de Duvillard, Carlisle, ... Parallèlement, nous avons pu noter que ces
tables étaient rapidement obsolètes du fait de l’évolution de la mortalité (amélioration
de la médecine,...). Face à ces tables statiques, nous pouvons introduire des tables
dynamiques, qui intègrent des prédictions d’évolution de l’espérance de vie.
Définition 14 : table de mortalité statique.
La table de mortalité statique, périodique ou instantanée (ou « table de mortalité
du moment ») permet de caractériser la mortalité d’une population à un moment
précis, toutes générations confondues.
Elle est établie à partir d’une génération réelle (et non fictive ou ”moyenne” comme
la précédente table), observant les niveaux de mortalité réels en fonction de l’année
de naissance. Si elle est plus représentative que l’autre, elle nécessite des méthodes
d’extrapolation, et donc des hypothèses supplémentaires pour extrapoler.
Remarque
On parle aussi de Modèles d’amélioration de la mortalité (Mortalité Improvement mo-
delling 10 ). 10 [5, p.85]
31
CHAPITRE 4. INTÉGRER LA DIMENSION TEMPORELLE DES TABLES DE MORTALITÉ32
La trajectoire de vie d’un célibataire est donc une droite de pente 1 (car le temps
calendaire et l’âge avancent au même rythme). Les données tabulées énumèrent le
nombre d’événements et le temps de risque (somme des durées des trajectoires de vie)
dans certains sous-ensembles du diagramme de Lexis, généralement des sous-ensembles
classés par âge et par période à des intervalles également longs.
Les lignes de vie individuelles peuvent être affichées avec une coloration en fonction de Figure 4.1 : Observed and Projec-
ted age-period domains with typi-
différents états (maladie ou autre), ou le diagramme peut simplement être affiché pour cal cohort [9]
indiquer quels âges et périodes sont couverts, et quels sous-ensembles sont utilisés pour
la classification des événements et le temps de risque.
Sur l’axe des abscisses, on note les années et sur l’axe des ordonnées, l’âge de la
personne.
liées, et le modèle peut donc être paramétré de différentes manières, et toujours senter ces trois variables en deux di-
mensions !
produire les mêmes taux estimés.
CHAPITRE 4. INTÉGRER LA DIMENSION TEMPORELLE DES TABLES DE MORTALITÉ33
Diagramme de Lexis pour les femmes en France A partir des données INSEE,
calculons le diagramme de Lexis à partir des q x des femmes par génération : Figure 4.4 : Format de la base IN-
SEE
Exercice 15
A la différence du diagramme de Lexis précédent, l’effet génération est moins notable.
Avez-vous une explication [Solution]
On peut ensuite représenter l’évolution du taux de mortalité ou de l’espérance de vie,
par exemple pour une femme à 90 ans.
L’espérance de vie de Jeanne Calment à 90 ans augmente de 3.6 ans à 5.2 ans sur la
période. Du fait de populations plus faibles, la hausse est un peu heurtée.
Propriété 12
On voit sur cet exemple qu’il faudra tenir compte dans le choix du modèle que
nos échantillons seront moins nombreux, avec un risque de non-robustesse du
modèle s’il y a trop de paramètres : il apprend ”bien” sur les données mais prédit
”mal” le futur.
On constate que l’espérance de vie a été beaucoup plus importante pour un homme
de 51 ans en absolu (+7 ans). En relatif, l’espérance de vie a augmenté de 29% alors
qu’elle a augmenté de 44% pour les femmes de 90 ans.
CHAPITRE 4. INTÉGRER LA DIMENSION TEMPORELLE DES TABLES DE MORTALITÉ35
Propriété 13
L’évolution de l’espérance de vie n’est donc pas la même selon les âges (ce que
nous avions vu avec le diagramme de Lexis) et il convient donc de le modéliser
en tenant compte non seulement de l’année calendaire t mais aussi de l’âge.
Approche pratique On traduira par trois courbes les hypothèses prises plus hauts,
qui pourraient être par exemple :
— Les taux estimés par âge dans la cohorte de de référence (ex : 1940).
— L’estimation de l’effet cohorte par rapport à la cohorte de référence.
— L’estimation de l’effet période pris comme résidu (car il est contraint à 0 en
moyenne avec une pente de 0).
Ce type de choix pour la paramétrisation n’est pas lié au choix particulier de modéliser
les trois effets, soit un modèle factoriel, des splines, des polynômes fractionnaires, ...
S’il y a une amélioration de l’espérance de vie une année donnée pour les jeunes, alors
il y aura aussi une amélioration de l’espérance de vie pour les vieux. Hypothèse qui
parait réaliste a priori mais qui est finalement assez forte, par exemple, en 2003 ou en
2020, les chocs de mortalité ont touchés essentiellement les populations âgées.
Pour le programmer, on utilise une décomposition en valeur singulière (comme par
exemple pour l’Analyse en Composantes Principales -ACP) 12 : 12 implementation en Python par
Andy Chen
1 def lee_carter(rate , T, N):
2
3 logm_xt = np.log(rate).T
4 a_x = logm_xt.sum(axis =1) / T # Alpha est la moyenne des alpha x
sur les années t
5 z_xt = logm_xt - a_x.reshape(N, 1) # z_xt est une regression à erreur
emboîtée (on travaille sur le résidu) qu'on va ensuite décomposer en
valeur singuliere.
6 # Singular Value Decomposition.
7 U, S, V = np.linalg.svd(z_xt , full_matrices=True)
8 bxkt = S[0] * np.dot(U[:, 0]. reshape(N, 1), V[0, :]. reshape(T, 1).T)
9 eps = z_xt - bxkt
10 logm_xt_lcfitted = bxkt + a_x.reshape(N, 1)
11
12 b_x = U[:, 0]/U[:, 0]. sum()
13 k_t = V[0, :]*S[0]*U[:, 0]. sum()
14 a_x = a_x + k_t.sum()*b_x
15 k_t = k_t - k_t.sum()
16
17 kwargs = {"U": U, "S": S, "V": V, "logm_xt": logm_xt ,
18 "z_xt": z_xt , "eps": eps , "logm_xt_lcfitted": logm_xt_lcfitted }
# variables pouvant être sorties sur demande
19
20 return (a_x , b_x , k_t , kwargs)
21
22 # mise en forme des données françaises de l'INSEE : 1 ligne par année , 1
colonne par âge
23 rate = pd.pivot_table(df , values='MUx', index =['Annee '],
24 columns =['Age'], aggfunc=np.mean).to_numpy ()
25 T=np.shape(rate)[0] #Nombre d'année t
26 N=np.shape(rate)[1] # Age maximum
27
28 a_x , b_x , k_t =lee_carter(rate , T, N)
Limites de Lee-Carter Bien que le modèle de Lee-Carter ait donné lieu à de nom-
breuses applications, il présente quelques difficultés opérationnelles, en particulier une
faible adéquation aux données réelles. Cela vient en partie que le modèle assume (im-
plicitement) une corrélation parfaite entre les âges de l’amélioration de la mortalité,
alors que la réalité ne montre pas une telle corrélation.
CHAPITRE 4. INTÉGRER LA DIMENSION TEMPORELLE DES TABLES DE MORTALITÉ37
4.5 Synthèse
Synthèse 5
Ce que je retiens de cette exploration à travers la dynamique dans le temps des
tables de mortalité :
— Lors du cours précédent, nous avons élaboré une table statique à un mo-
ment donné mais qui ne tient pas compte des dynamiques en jeu sous-
jacentes aux tables de mortalité : baisse des accidents, meilleurs traite-
ments, ... On risque de sous-estimer l’espérance de vie en ne tenant pas
compte de ces tendances. Par exemple, nous avons vu que l’espérance de
vie résiduelle avait augmenté de 7 ans en 40 ans pour un homme de 51
ans.
CHAPITRE 4. INTÉGRER LA DIMENSION TEMPORELLE DES TABLES DE MORTALITÉ38
4.6 Exercices
Exercice 16 : Le diagramme de Lexis pour représenter les causes de mor-
talité.
Le diagramme de Lexis permet d’étudier non seulement l’évolution des taux de décès,
mais aussi les causes de la mortalité. Ainsi, on peut représenter la cause principale de
mortalité en France selon la période et l’âge, ainsi que la proportion de cette cause
principale par rapport à tous les décès.
On peut aussi représenter ce diagramme par plusieurs diagramme de Lexis (un par
type de cause, l’intensité indiquant une proportion croissante de cette cause dans la
mortalité totale de la période et de l’âge) :
1. Commentez les principales conclusions de ces diagrammes.
2. Un assureur souhaite proposer une assurance « décès en cas de cancer » (appelé
aussi néoplasme) pour les personnes de 50-60 ans. Que pensez-vous de cette
garantie ? à partir de ces graphiques ? En utilisant aussi les discussions en cours
sur l’évolution de la mortalité ?
[Solution]
Exercice 17
Sur les fichiers ACT102 (fichier des tables de mortalité de l’INSEE, 1977... 2019), faire
tourner un modèle de Lee-Carter. En déduire la mortalité 2020 attendue.
— Des onglets des années 1977 à 2019 (t) 2. Et pour chaque onglet des ages de 0
à 99 ou 104 suivant les onglets (x)
[Solution]
CHAPITRE 4. INTÉGRER LA DIMENSION TEMPORELLE DES TABLES DE MORTALITÉ39
Solvabilité
Qu’est ce que la ruine ? Imaginons une société avec un risque S(t) qui soit normal
avec une variance de 1, une espérance E(S) couverte par des provisions et par un
capital de 1. Alors, la société est en ruine dans les cas en bleu.
1 mu = 0 # hypothèse de résultat moyen nul
2 variance = 1 # volatilité du risque mesuré par la variance
3 Capital = 1 # capital
4 sigma = math.sqrt(variance)
5 x = np.linspace(mu - 3*sigma , mu + 3*sigma , 100)
6 plt.plot(x, stats.norm.pdf(x, mu , sigma))
7 plt.fill_between(x, stats.norm.pdf(x, mu , sigma), 0, x<-Capital)
40
CHAPITRE 5. SOLVABILITÉ 41
Modèle de Cramér-Lundberg :
— Le processus de valeur de sinistres : ( Xk ) est iid13 positif avec la valeur moyenne 13 iid : Variables indépendantes et
N (t) = sup {n ≥ 1 : Tn ≤ t}
— Le temps entre deux sinistres est noté Y et suit une loi exponentielle (sans
mémoire) de moyenne EY = λ1
— X et Y sont indépendants.
— Le processus de risque U (t) correspond à la richesse de la société (wealth), c’est
à dire ses fonds propres à n’importe quel moment t et qui s’exprime dans ce
modèle comme :
U (t) = u + ct − S(t)
avec :
— u le capital initial, c les primes (considérées comme un flux constant),
— S(t) le processus de la charge totale des sinistres (∑ Xi ). En moyenne, cette
charge E (St ) = λµ
1 + (1 + ρ)µr = m X (r )
avec
m X (r ) = E[erX ]
La solution est appelée probabilité de ruine ψ(u) = P u {τ < ∞}, est liée à la
richesse initiale u. La plus grande solution − R est appelée coefficient d’ajustement
et fournit l’approximation asymptotique de Cramér-Lundberg :
ψ(u) ≈ e− Ru
Dans le cas particulier où la taille des sinistres suit une loi exponentielle, alors la
probabilité de ruine peut s’exprimer comme :
( )
λµ − λ
µ− c
1 u
ψ(u) = e .
c
Remarque
Quelques remarques :
— il faut d’abord couvrir le risque en moyenne (c = λµ). c’est le rôle des provisions
économiques.
— Mais si on n’a que les provisions économiques (et donc pas de marge de sécurité
c = µλ), on voit que la probabilité de ruine est égale à 1 . ψ(u) = e0 .
— C’est élégant mathématiquement mais difficilement opérationalisable : effets de
la dépendance, saisonnalité, sinistres non elliptiques... Par ailleurs, les assureurs
ont cherché un modèle qui permet d’optimiser le capital et pas seulement de
savoir que la ruine est possible (ce sera le modèle de Finetti).
— pour les mathématiciens, le processus de Cramér-Lundberg est un cas particulier
d’un processus de Lévy, très utilisé en finance. 2018.
Nous cherchons à calculer la probabilité de ruine à 1 an, qui est le cadre de Solvabilité
II. rn (K ) = P (S − E(S) + K < 0) la probabilité de ruine avec le capital K avec n
clients.
1 def SimulationCapital( NbreAnneeSimulees = 10000 , NbreClients = 10000 ,Qx =
0.00094 , CapitalAssure= 200000):
CHAPITRE 5. SOLVABILITÉ 43
2 # Paramètres
3 # indiquer le nombre de simulations que l'on veut NbreAnneeSimulees
4 # nombre de clients NbreClients
5 # Probabilité de mourir de King Fo Qx
6 # Capital Assuré CapitalAssure
7 Provision = CapitalAssure * Qx * NbreClients
8
9 df = np.random.rand(NbreAnneeSimulees , NbreClients)
10 df = np.where(df <= Qx , - CapitalAssure , 0)
11
12 S = np.sum(df , axis =1)
13 SituationFinAnnee = S + Provision
14
15 sns.displot( SituationFinAnnee)
16 print ('Provision :',Provision)
17 print ('n :', NbreClients)
18 print ('Quantile 1% : ',np.quantile(SituationFinAnnee , 0.01))
19 print ('r(K)',np.sum(np.where(SituationFinAnnee <0,1/ NbreAnneeSimulees ,0))
)
20 SimulationCapital (NbreClients = 1)
21 SimulationCapital (NbreClients = 1000)
Avec un seul client, le risque est très concentré dans la zone autour de 0, avec quelques
années où King Fo meurt et la perte de la compagnie très importante (en proportion
des provisions). A noter que le capital pour couvrir le risque centenaire est faible (et
même négatif ! ), puisque le risque que King Fo ne meurt est inférieur à 1%.
On note qu’avec 1000 clients, la provision de 188 000 permet de payer à peu près 1
mort par an. Le quantile 1% est constitué de 4 morts dans la même année.
Tout d’abord avec la mortalité actuelle, alors qu’on a multiplié le nombre de clients
par 10, on n’a besoin de multiplier le capital que par 2,5.
Méthode 2 : par calcul formel la méthode par simulation est simple mais peut
rapidement devenir très consommatrice en ressource machine (surtout si c’est mal
programmé). Il est toujours utile de passer par un calcul formel (je protège ma planète).
Soit :
— n personnes ayant la probabilité de décès au cours de l’année q x .
— on verse le capital assuré C si la personne décède au cours d’année.
— le capital de la société est K. il faut donc k = K C morts la même année pour faire
faillite.
Alors la variable aléatoire CS suit une loi binomiale de paramètres n, q x simplifié q pour
ne pas alourdir les notations, c’est à dire :
∑ Xi
= k) = Cn qk (1 − q)n−k
p
P(
C
ζ −np
En posant t = √ (pour centrer réduire la distribution), on obtient :
np(1− p)
( )
Sn ζ − np
P( ≤ ζ) ≈ Φ √
C np(1 − p)
Remarque : sur cette approximation.
On a donc :
— La loi normale suivie par SCn est une loi de moyenne m = n.p et d’écart type
σ2 = np(1 − p).
— Cette approximation est bonne en général pour n p (1 − p) ≥ 10.
Synthèse 6
En utilisant la propriété que suit une binomiale n,q et en posant t = √ −k
Sn
C np(1− p)
√
(pour réduire la distribution), et en multipliant par C np(1 − p) on obtient :
( )
k
rn (K ) = P(Sn − npC ≤ −K ) ≈ Φ √ (5.1)
np(1 − p)
On voit que la probabilité augmente pour devenir 1 à partir de 105 clients. Le fait
d’introduire la provision fait peut évoluer la probabilité de défaut, par la probabilité
de mortalité est très faible. En revanche, dès que l’on arrive à n6 , la probabilité de
ruine augmente certes mais moins vite que sans provision. si on augmente le prix de
l’assurance, peut on faire descendre la probabilité de ruine ?
Exercice 18
Le calculer avec l’approximation normale 5.1.
On rappelle qu’on a ( )
Sn
− np
P √C ≤t ≈ Φ(t)
np(1 − p)
Propriété 18
La ruine arrive quand le résultat R = Sn − n p C − λ n p C dépasse le capital
K = C k.
( )
k λnp
rn (K ) = P(Sn − npC − λnpC ≤ K ) ≈ Φ √ +√
np(1 − p) np(1 − p)
— homogeneité : on peut avoir dans le portefeuille un grand risque, comme l’ho- distribuée - iid est aussi utilisé en
anglais
norable king fo, qui déséquilibre le portefeuille
— indépendance : on peut avoir plusieurs clients dans le titanic. Ou le Covid.
Pour les risques non indépendants : simuler les corrélations entre les risques
Ex : repartons du modèle de Lee Carter calculé dans la partie p. 37. Au lieu du calcul
direct de Lee Carter (qui donne les estimateurs mais pas leur variance), on peut utiliser
une régression linéaire généralisée (GLM) qui nous permet d’obtenir la volatilité du
résultat de façon aisée.
1 # On calcule MuX avec un intervalle de confiance de 0.5%
2 df['ResultsMuMean ']= dfLeeCarterSimu.summary_frame ()['mean ']
3 df['ResultsMuMax ']= dfLeeCarterSimu.summary_frame(alpha =0.005)['mean_ci_upper '
]
4 display(df[(df['Age']==31) &(df['Annee ']==2019) ])
5
— On voit que pour les petits portefeuilles (jusqu’à 1000), le risque d’un ”choc”
de mortalité est encore limité mais explose pour devenir un multiple du Capital
(ex : 85 fois le capital si on a 1000 000 d’individus). Alors que la probabilité
prise est certes élevée (0.76% soit x 8 par rapport à la probabilité actuelle) mais
bien inférieure à celle de la table de Duvillars (1.4%).
— Alors que le risque lié au risque lié à la survenance indépendante de plusieurs
morts a tendance à diminuer avec la taille du portefeuille, surtout avec une
marge de sécurité.
— Pour les risques de pandémie et catastrophe, il existe des couvertures non pro-
portionnelles qui couvrent uniquement ces risques mais qui peuvent poser des
difficultés en assurance vie de définition.
Synthèse 7
On peut retenir :
— Une société qui propose de l’assurance décès est exposée à deux types de
risque :
— celui d’un événement individuel important, risque qui augmente moins
rapidement que le nombre de clients (loi des grands nombres)
— un risque de sous-estimation de la mortalité, qui peut venir soit d’un
”choc de mortalité” comme le Covid, ou bien une erreur de pricing
(souvent liée à une sous-population souscrite ayant des caractéristiques
différentes de la population). Ce risque augmente proportionnellement
à taille du portefeuille et tend à être le risque principal pour les por-
tefeuille
Pour réduire ce risque, un assureur peut :
— augmenter la marge de sécurité qu’il prend au niveau de la prime. Cette
technique est particulièrement efficace en cas de portefeuille important
— se réassurer
— augmenter le capital
5.2 Synthèse
5.3 Problèmes
Exercice 22
Montrer que la probabilité de ruine, notée rn (K )), d’une société ayant un capital K,
une prime couvrant la prime pure, et assurant n contrats décès de probabilité q et de
capital par tête C peut être exprimée comme :
( )
−k
rn (K ) ≈ Φ √
nq (1 − q)
On rappelle la formule de Moivre pour une fonction X qui suit une loi binomiale de
paramètre n, p. ( )
X − np
lim P √ ≤ t = Φ (t)
n→∞ np (1 − p)
[Solution]
Chapitre 6
paradigme ”actuariel” Ce cadre marche bien pour les actifs financiers. En re-
vanche, pour les risques d’assurance (”assurer ma voiture”), il n’existe pas de marché
secondaire permettant de céder ce risque15 et il nous faut appliquer une méthode al- 15 le marché de la réassurance
49
CHAPITRE 6. INTRODUCTION AUX MODÈLES DE PROJECTION 50
avec :
— Actualisation : utiliser la courbe de taux (non prescrite en IFR17) mais qui doit
être cohérent avec le marché.
— Probabilités : tenir compte des lois de rachats (conjoncturels/structurels) et
ajustement des lois de survie (table vie et table décès)
Marge de risque :
Où :
— BSCR est le SCR de base
— Op est l’exigence de capital pour couvrir le risque opérationnel
— Adj est et l’ajustement visant à tenir compte de la capacité d’absorption
des pertes par les mécanismes de participation aux bénéfices et par les
impôts différés
CHAPITRE 6. INTRODUCTION AUX MODÈLES DE PROJECTION 51
On obtient :
Modèle Général : BBA ou Building Blocks Approach Appelé aussi GMM 18 , 18 ‘General Measurement Model
c’est le modèle par défaut de la norme IFRS 17. Dans ce modèle, le passif d’assurance
se décompose avec un BE, un RA et une CSM. Sa caractéristique est que les variations
de provisions liées aux effets d’actualisation impactent directement le résultat (et non
la CSM). Ces variations, appelées « charge financière d’assurance » seront analysées
au regard des actifs investis en face de ces provisions. Le principe est de considérer la
stratégie d’actifs de l’assureur comme indépendante du risque d’assurance : c’est le cas
des garanties emprunteurs.
Variable Fee Approach (VFA) Adaptation du modèle BBA visant les contrats
d’investissement avec participation directe, c’est-à-dire un contrat sur lequel l’assuré
bénéficie d’une participation aux bénéfices engendrés par des actifs identifiés, ce qui
est le cas des contrats d’assurance vie épargne et retraite. Le modèle VFA prend en
considération le lien qui existe entre l’actif et le passif sur ce type de contrat : les varia-
tions de provisions liées aux effets d’actualisation ainsi que les revenus et variations en
juste valeur des actifs sous-jacents ajustent tous deux la CSM plutôt que de s’impacter
sur le résultat. La CSM joue alors un rôle « d’amortisseur » permettant d’empêcher
que ces variations, très volatiles par nature avec les conditions de marché, n’impactent
directement les fonds propres.
(courbe des taux et méthode pour le Risk Adjustment imposés) mais la théorie sous-
jacente est la même. Ce seront donc certainement les mêmes modèles d’évaluation qui
seront utilisés pour les deux normes
Cependant, IFRS 17 est une norme comptable dont l’objectif est de traduire la perfor-
mance financière de l’entreprise, d’où le mécanisme de CSM.
Propriété 21
Avec IFRS,
— Ces provisions sont retraitées dans les catégories IFRS. Le fait de les comp-
tabiliser en French GAAP avec ces provisions n’a pas d’impact en IFRS.
— Une de ces provisions a néanmoins un impact comptable en IFRS, la par-
ticipation aux bénéfices, du fait de ses caractéristiques réglementaires.
Principales hypothèses IFRS IFRS étant un système comptable basé sur des
principes, il n’y a pas forcément unicité d’application de ces principes. Il convient donc
d’expliciter ces choix, comme par exemple le tableau ?? :
convient cependant d’analyser le risque de marché au regard de la capacité d’absorption et longévité, près de 10% chacun).
résultat de la simulation de SII
des pertes due à l’effet de la participation aux bénéfices, particulièrement élevée. Le
risque de marché est principalement lié :
— à la détention d’actions (40%),
— au risque de spread sur obligations privées (20%) et au risque de taux d’intérêt
(17%).
L’analyse détaillée du risque de souscription vie net d’effet de la participation aux
bénéfices indique que les principaux risques résiduels sont : Pour aller plus loin : Risque de
— le risque de duration : Taux, 2021
Définition 27 : Duration.
la duration D est la durée moyenne des flux de passif D p ou de l’actif Da .
On parle d’adossement quand D p = Da .
Exemple 3
le risque de duration est généralement un risque bancaire, comme le montre la
faillite de SVB, qui avait à l’actif un flux de durée moyenne potentiellement de
0 (compte à vue) et des passifs investis sur longue période. Il faut noter que
le fait qu’en moyenne, les clients de SVB laissaient leur argent longtemps sur
leur compte à vue ne voulaient pas dire que cette durée n’allait pas fortement
réduire en cas de crainte sur la banque.
— Pour les assureurs, ce risque de duration se manifeste à travers le risque de
risque de rachat (40%), c’est à dire l’option donnée au client de racheter à
une valeur donnée qui est souvent élevée (en France) par rapport aux PM.
Propriété 22 : risque de rachat.
Au premier ordre, le risque de rachat diminue la duration du passif de
l’assureur. Si l’assureur était adossé, un choc des taux entraîne une situa-
tion d’inadéquation actif-passif, du fait de cette option de rachat fournie
à l’assuré (on parle de convexité).
Propriété 23
Le risque actif-passif est le principal risque d’un assureur vie avec des engagements
financiers au passif (du fait des taux d’intérêt à verser en assurance vie). Même
en cas d’adossement (duration actif = passif), ce risque est important comme on
le verra p. 64 avec le modèle de Heath-Jarrow-Morton.
Synthèse 8
Le risque d’actif est donc essentiel en assurance vie. Mais pour appréhender ces
risques, on ne peut rester sur un base d’un scénario moyen : il faut étudier l’éven-
tail des probabilités. Pour cela, on utilise un modèle de projection.
Chapitre 7
Dans certains cas, il pourrait être trop risqué, trop cher ou trop lent d’essayer un
changement proposé dans le monde réel.
Pour construire un modèle d’un système ou d’un processus, il est nécessaire de déve-
lopper un ensemble d’hypothèses mathématiques ou logiques sur son fonctionnement.
Complexité d’un modèle La complexité d’un modèle est déterminée par la com-
plexité des relations entre les différents paramètres du modèle. Par exemple, lors de
la modélisation d’une société d’assurance-vie, il faut tenir compte de questions telles
que les réglementations, la fiscalité et les conditions d’annulation. Les événements fu-
turs affectant les rendements de l’investissement, l’inflation, les nouveaux contrats, les
résiliations, la mortalité et les dépenses affectent également ces relations.
Pour produire le modèle et déterminer les paramètres appropriés, il est nécessaire de
prendre en compte les données et de juger de la pertinence des données observées pour
l’environnement futur. Ces données peuvent résulter d’observations passées, d’obser-
vations actuelles (comme le taux d’inflation) ou d’attentes de changements futurs.
Lorsque des données observées sont considérées comme appropriées pour produire les
paramètres pour un modèle choisi, des méthodes statistiques peuvent être utilisées
pour ajuster les données.
Avant de finaliser le choix du modèle et des paramètres, il est important de considérer
les objectifs de création et d’utilisation du modèle. Par exemple, dans de nombreux
cas, il peut ne pas être souhaitable de créer le modèle le plus précis, mais plutôt de
créer un modèle qui ne sous-estime pas les coûts ou les autres risques qui peuvent être
impliqués.
57
CHAPITRE 7. INTRODUCTION AUX GÉNÉRATEURS DE SCÉNARIOS ECONOMIQUES58
Propriétés à court terme et à long terme d’un modèle La stabilité des re-
lations incorporées dans le modèle peut ne pas être réaliste à plus long terme. Par
exemple, la croissance exponentielle peut sembler linéaire si elle est étudiée sur une
courte période de temps. Si les changements peuvent être prédits, ils peuvent être in-
corporés dans le modèle, mais il faut souvent accepter que les modèles à plus long terme
sont suspects. Les modèles sont, par définition, des versions simplifiées du monde réel.
Ils peuvent. par conséquent, ignorez les relations ”d’ordre supérieur” qui sont de peu
d’importance à court terme, mais qui peuvent s’accumuler à plus long terme.
Exemple 4 : modèle de valorisation du risque IARD.
Au début des années 2000, les assureurs ont utilisés les modèles de valorisation long
terme de l’assurance vie pour calculer la valeur de leur portefeuille IARD. En auto,
la sinistralité auto a tendance à s’améliorer avec l’âge du client. Mais en projetant
que les portefeuilles actuels auto auront dans 20 ans la profitabilité des portefeuilles
qui ont aujourd’hui 20 ans, c’est supposer que le niveau de compétition, les véhicules
électriques, conduite autonome,... restera stable, hypothèse très forte pour un marché
comme l’assurance automobile.
Partant de la modélisation des flux de trésorerie, on appelera aussi ces modèles, modèles
de projection actif-passif (en étant plus sensible à la traduction comptable de ces flux)
ou modèle de cash-flow.
contrats, comme le montant des PM, le niveau des chargements, le niveau des
taux garantis, les lois de mortalité et de rachat…
— La base actif : il s’agit de la photo de l’actif à la date de clôture. Cette base
contient les informations essentielles sur les placements financiers comme leur
valeur en comptabilité sociale, leur valeur de marché, le taux de coupon pour
les obligations…
— Les aléas : ce fichier contient les générateurs aléatoires permettant au modèle
de simuler les différents scénarios stochastiques.
— Contrôle du modèle La modélisation concerne à la fois la volatilité des
différents paramètres (ex : taux de rachat dépendant des conditions de marché
et des taux servis, lois de mortalité,...) et de la stratégie de la société : le modèle
est en effet contrôlé, c’est à dire que l’on peut définir des règles a priori que l’on
appliquera dans telle ou telle situation :
— Par exemple, on peut réduire le risque actif/passif, on peut définir des ap-
proches statiques où on essaye de réduire au mieux l’ordre 1,2... mais sans
intervention au cours du temps (on parle de constant mix) ou bien en intro-
duisant un contrôle, une intervention au cours du temps conditionnée à une
situation spécifique : je vends telle option si.... On parle alors d’approche
dynamique.
— Dans le cadre de contrat d’assurance vie en Euro, la stratégie de taux servi,
en fonction du compte de participation aux bénéfices. Elle pourra dépendre
du taux de marché, de l’historique de taux servi,....
Ces règles sont appelées en anglais management rules.
Variables d’intérêt La construction d’un GSE passe tout d’abord par la modé-
lisation d’autres variables macroéconomiques et financières, dites variables d’intérêt,
qui influent directement le bilan d’une société d’assurance, telles que les taux d’inté-
rêt, les rendements des actions, l’inflation, le taux de chômage,...etc. Cette partie est
essentielle pour s’assurer de la dépendance entre risques.
Définition 30 : modèle en absence d’arbitrage.
Le critère principal est celui de cohérence avec le marché (market consistent - ou
en absence d’arbitrage). Ces modèles correspondent à travailler avec la probabilité
Q risque neutre calculé par rapport aux prix de marché.
utiliser les prix des actifs (et par exemple Black & Scholes ou HJM (voir p. 64)) pour
extrapoler la probabilité implicite au prix de ces actifs. On utilise aussi les expressions
mark-to-market (Q) et mark-to- model (P ) à peu près synonymes.
Avant d’être des modèles utilisés dans le cadre de la solvabilité, les modèles GSE ont été
utilisés en Gestion Actif-Passif (ALM) pour réduire le risque entre passif d’assurance
et actif et optimiser les rendements : d’où l’utilisation de probabilité historique. Les
modèles market consistent se révèlent indispensable pour la valorisation des options et
un cadre ”objectif” de Solvabilité.
Time Value of Options En pratique, la valeur de ces options implicites que contiennent
les contrats d’assurance vie est explicitée dans la Time Value of Options and Guaran-
tees :
Définition 31 : TVOG - Time Value of Options and Guarantees.
valeur des options et garanties contenus dans les contrats d’assurance vie en euros
(garantie en capital, possibilité de rachat à tout moment…).
TVOG = BE − BEdt
Scénario déterministe Le scénario déterministe est celui anticipé par les marchés :
il est aussi appelé ”risque neutre”, car c’est celui qui intègre la moyenne des anticipa-
tions du marché :
Définition 32 : scenario risque-neutre.
Scénario où toutes les variables économiques sont moyennées selon les anticipa-
tions du marché.
lim i( p) = δ
p→∞
Exercice 24
En considérant la règle d’Euler :
x n
lim (1 = ) = ex
n→+∞ n
montrer que
v(n) = e−δ n
Volatilité des taux Cette courbe est différente chaque jour et expose l’assureur à
un risque financier important, même si les actifs sont de mêmes durées que les passifs.
Sans rentrer dans la théorie économique, elle est considérée comme normale quand le
taux d’intérêt augmente avec la durée de la maturité. Les principales raisons expliquant
la volatilité des taux d’intérêt proviennent :
— Anticipation des marchés (en cas d’anticipation d’une chute des taux d’inté-
rêt, les taux d’intérêt long terme actuels qui proposent des taux encore élevés,
apparaitront comme attratifs, entrainant des achat qui les feront baisser).
— Préférence pour la liquidité. Une obligation à maturité longue présente un risque
de liquidité plus important, ce qui explique qu’on a généralement un taux d’in-
térêt plus élevé pour pour les taux long.
— Segmentation du marché. Ce ne sont pas les mêmes investisseurs qui investissent
à court terme (les trésoriers) ou à long terme (les assureurs) et fonds de pension.
Pour modéliser l’évolution possible de cette courbe des taux, on utilise des modèles
financiers. Nous allons ici en introduire trois : «Vasicek», «Cox Ingersoll Ross» et
«Heath Jarrow Morton»20 . 20 source
1 import math
2 import numpy as np
3 # Modele de Vasicek
4
5 def Vasicek(r0 , kappa , theta , sigma , T=1.,N=10, seed =777):
6 np.random.seed(seed)
7 dt = T/float(N)
8 rates = [r0]
9 for i in range(N):
10 dr = kappa *(theta -rates [-1])*dt + \
11 sigma* \
12 math.sqrt(dt)*np.random.normal ()
13 rates.append(rates [-1] +dr)
14 return range(N+1), rates
15
16 fig = plt.figure(figsize =(12 ,8))
17 for kappa in [0.002 , 0.02, 0.2]:
18 x, y = Vasicek (0.005 , kappa , 0.15 ,0.05 , T=10, N=200)
19 plot(x,y, label = 'Kappa =%s'%kappa)
20 pylab.legend(loc = 'upper left ')
21 pylab.xlabel('Modèle de Vasicek ')
1 import math
2 import numpy as np
3 # Modele de Cox Ingersoll Ross
CHAPITRE 7. INTRODUCTION AUX GÉNÉRATEURS DE SCÉNARIOS ECONOMIQUES64
4
5 def CIR(r0 , kappa , theta , sigma , T=1.,N=10, seed =777):
6 np.random.seed(seed)
7 dt = T/float(N)
8 rates = [r0]
9 for i in range(N):
10 dr = kappa *(theta -rates [-1])*dt + \
11 sigma*math.sqrt(rates [-1])* \
12 math.sqrt(dt)*np.random.normal ()
13 rates.append(rates [-1] +dr)
14 return range(N+1), rates
15
16 fig = plt.figure(figsize =(12 ,8))
17 for kappa in [0.002 , 0.02, 0.2]:
18 x, y = CIR (0.005 , kappa , 0.15 ,0.05 , T=10, N=200)
19 plot(x,y, label = 'Kappa =%s'%kappa)
20 pylab.legend(loc = 'upper left ')
21 pylab.xlabel('CIR model ')
a tous les jours une courbe de taux différentes (soit autant de lignes que de maturité, et cipales : permet de réduire de
nombreuses dimensions en quelques
autant de colonnes que de jours). l’ACP nous permet de réduire les jours en regardant unes, sans perdre trop d’informa-
les différents effets possible. Le modèle peut s’exprimer ainsi 23 : tion.
23 Pour aller plus loin, Explica-
n
dr (t, T ) = α(t, T )dt + ∑ yi ( T ) x (t)dWi (t) tion du modèle, Les modèles HJM
i =1
et LMM revisités et leurs versions
étendues. On trouvera aussi code
ou On peut mettre sur un graphique les différents facteurs expliquant la volatilité du python de HJM
résultat :
Un assureur va essayer que la duration de son passif soit égale à celle de son passif,
afin de neutraliser (on dit immuniser en anglais) le risque d’une évolution des taux
d’intérêt à l’ordre 1 (hausse ou baisse).
Exercice 25
Exprimez la duration de Macauley en fonction de la force d’intérêt δ et de A la valeur
présente des paiements au taux i, ainsi :
n
∑ Ftk νi k
t
A=
k =1
Exercice 26
Imaginons un assureur avec un engagement de verser dans an an 1000 Euro. Peut on
prendre à l’actif deux dettes, l’une de 500 à 6 mois et l’autre de 500 à 1,5 ans (en
négligeant les effets des réinvestissements) ? [Solution]
« Simulations dans les Simulations » (SdS) La méthode 25 est la plus conforme 25 Nested MonteCarlo en Anglais
Moindre Carré de Monte Carlo (LSMC) 26 A l’inverse, on peut décider de 26 least squares Monte Carlo ap-
limiter le nombre de scénarios secondaires, voire même une seule simulation secon- proach (LSMC)
daire pour l’évaluation du bilan économique. L’inexactitude de l’évaluation du bilan
économique étant corrigée par la régression linéaire de l’erreur faite entre les valeurs
obtenues par cette approche simple et une approche stochastique, avec les scenarios
primaires (d’où le terme de Moindre Carré de Monte Carlo). Cette approche relati-
vement simple, qui ne nécessite pas de ressources informatiques massives, produit des
résultats remarquablement précis.
portefeuille d’actifs simples (des obligations 0-coupons, options simples...) qui réplique
exactement le comportement du passif d’assurance dans le futur. On peut répliquer le
portefeuille de façon analytique (ce qui est le cas de l’exercice 27) ou par simulation,
CHAPITRE 7. INTRODUCTION AUX GÉNÉRATEURS DE SCÉNARIOS ECONOMIQUES67
en trouvant la combinaison d’actifs simples qui permet d’obtenir les mêmes résultats
de simulation.
Exercice 27
Soit un contrat d’assurance avec un taux garanti et une participation aux bénéfices.
Dans ce contrat, l’assuré confie une prime à l’assureur et reçoit à maturité du contrat
cette prime capitalisée au taux garanti ainsi qu’une participation aux bénéfices fixée à
l’avance dans le contrat. Les caractéristiques du contrat sont les suivantes :
— Maturité : 6 ans
— Prime : 10 000 euros
— Taux minimum garanti : 2%
— Taux de participation aux bénéfices : 75%
— Allocation d’actif :
— 20% d’actions
— 80% d’obligations à un taux de 3%
Montrez que ce contrat peut être parfaitement répliqué par un portefeuille d’actifs
comprenant des zéro coupons et des options de type Call.
7.5 Je retiens
Synthèse 10
Ce que je retiens de cette introduction aux modèles financiers :
— le risque financier est le risque le plus important en assurance vie. Il ne peut
être capturé proprement sans une modélisation assez fine, en particulier
du fait des options explicites des contrats ou implicites via le risque de
rachat.
— Pour cela on utilise un Générateur de Scénarios Economiques. Ces géné-
rateurs essayent de coller à la réalité observée des marchés financiers, à
travers des modèles qui captureront les différents effets possibles comme
le modèle multifactoriel de Heath Jarrow Morton
— En pratique, une stratégie ALM (Asset Liability Management) va consister
non seulement à définir la meilleure stratégie d’actifs vus les conditions
actuelles d’actifs mais va définir a priori la stratégie à adopter en cas
d’évolution, cette stratégie, appelée contrôle, permettant seule d’ajuster à
la complexité des options implicites et explicites en assurance vie.
— les différentes méthodes pour simplifier les projections : flexing, curve fit-
ting, LSMC, model points, portefeuille répliquant
7.6 Problèmes
Exercice 28
Un assureur utilise un modèle Hull & White.
Avec ce modèle, il simule certains taux peuvent atteindre des niveaux jamais observés
(ex : -4%).
L’assureur se pose les questions suivantes :
1. dans ces scenarios, un assureur avec des fonds en Euro serait il en perte ?
2. ces niveaux pourraient-il vraiment être atteints un jour ?
3. quel serait alors le comportement des assureurs et des assurés face à cet évène-
ment ? Comment les modèlise t’on dans un modèle GSE ?
[Solution]
Solutions
Solution 3 On remarque sur la variable mois de morts la sursinistralité des mois d’hiver
(mais qui ne nous intéresse pas dans le cas d’une assurance annuelle).
Solution 7
P(t < Tx < t + dt | Tx > t)
µ x,t = lim
dt→0 dt
p x − p
t x
= lim t+dt
dt→0 dt × t p x
Soit t p0x la dérivée de t p x par rapport à t 28 . Alors : 28 on suppose qu’elle existe ce qui
est normalement une hypothèse ac-
0 t+dt p x − t px ceptable sauf peut être à 18 ans...
t px = lim
dt→0 dt
et on peut donc poser :
0
t px
µ x,t = − (7.1)
t px
l x +t
Par définition, t p x = lx . En dérivant t p x par rapport à t, on obtient :
lx0 +t
t px ==
lx
68
SOLUTIONS 69
l 0 (x)
µx = − (7.2)
lx
d ln(lx )
µx = − (7.3)
dx
Inversement, en intégrant la formule 7.3, on obtient :
∫ y+t
t py = exp(− µ x dx ) (7.4)
y
Solution 9 µ(y) = λ alors la fonction de survie Sx (t) est une fonction de distribution
exponentielle :
∫ x +t
Sx (t) = e− x λdy
= e−λt
1
E ( T (119)) = ∑ k (1 − 2k ) ≈ 2
k =1
9. La probabilité pour une personne de 119 ans de vivre jusqu’à 122 ans est donc
π de :
π = P(survivre à 120 ans) xP(survivre à 121 ans | ayant survécu à 120 ans) xP(survivre à 122 ans | ayant survécu à 121 ans)
Solution 17 Pour assurer de bonnes performances, une méthode appropriée pour es-
timer les paramètres du modèle a été à décider soigneusement au tout début. Dans
leur article original, Lee et Carter (1992) ont appliqué une procédure d’estimation en
deux étapes. Dans la première étape, la décomposition en valeurs singulières (SVD)
est appliquée à la matrice de log(m x,t − a x pour obtenir l’estimation de bx et k t .
Ensuite, dans un second temps, la série temporelle de k t est ré-estimée par la méthode
dite ”d’estimation en deux étapes”. Lee et Carter ont remarqué qu’une fois et ont été
estimés, le nombre total de décès observés n’est pas forrcément égal au nombre ajusté
de décès. Par conséquent, ils font une deuxième estimation de bx et k t qui garantissent
que le nombre total de morts observés Dt corresponde au nombre estimé. Pour cela,
ils cherchent k i tel que :
Dt = ∑{exp ax +bx × k t Nx,t }
x
où
— Dt est le nombre total de décès au cours de l’année t ;
— Nx,t est la population (exposition au risque) d’âge x à l’année t.
Pour le programmer :
— Python : En partant d’un fichier df, qui contient Annee, Age et MUx :
1 # mise en forme : 1 ligne par année , 1 colonne par âge
2 rate = pd.pivot_table(df , values='MUx', index =['Annee '],
3 columns =['Age'], aggfunc=np.mean).to_numpy ()
4
5 #Nombre d'année t
6 T=np.shape(rate)[0]
7 display(T)
8 # Age x
9 N=np.shape(rate)[1]
10 display(N)
11 #T = df['Age ']. to_numpy ().reshape ((4321 ,1))
12 a_x , b_x , k_t =lee_carter(rate , T, N)
la fonction lee_carter est plus haut, on peut alors grapher a, b et k.
1
2 f, ax = plt.subplots(figsize =(7, 5))
3 sns.scatterplot(x=np.arange(N), y=a_x ,linewidth =0,ax=ax)
SOLUTIONS 71
4 ax.set_title("Alpha x")
5 plt.show ()
6 f, ax = plt.subplots(figsize =(7, 5))
7 sns.scatterplot(x=np.arange(N), y=b_x ,linewidth =0,ax=ax)
8 ax.set_title("beta x")
9 plt.show ()
10 f, ax = plt.subplots(figsize =(7, 5))
11 sns.scatterplot(x=np.arange(T), y=k_t ,linewidth =0,ax=ax)
12 ax.set_title("k t")
13 plt.show ()
— En Excel, il faut d’abord faire une décomposition en valeurs singulières (SVD
en Excel)
Avec 5000 clients, on a σ = 2.1, soit r (5.58) < 0.05%. Si on prend un chargement
λ = 0, alors K = kC, soit 1,2M$
S
rn (K ) = P ( − nq + k < 0)
C
√
On divise par nq (1 − q) pour réduire la distribution et on obtient :
S
− nq −k
rn (K ) = P ( √ C < √ )
nq (1 − q) nq (1 − q)
Solution 23 1. Cette PM est très simple à calculer puisque elle représente, contrat
par contrat, la valeur de rachat ou autrement dit la prime investie (nette de
chargements d’entrée) rehaussée des intérêts cumulés au fil du temps. Les inté-
rêts mis en réserve sont, eux, comptabilisés dans la PPB.
SOLUTIONS 72
Solution 26 Avec une telle structure, on a bien un adossement actif - passif. En re-
vanche, on est exposé à une évolution suivant la composante verte, forte hausse à 6
mois et forte baisse à 18 mois.
Solution 28
Bibliographie
[2] Chan, Beda : “Actuarial Issues in the Novels of Jane Austen,” Daniel D. Sk-
wire, January 1997. In : North American Actuarial Journal 1 (1997), Oktober,
Nr. 4, S. 144–146. – URL http://www.tandfonline.com/doi/abs/10.1080/
10920277.1997.10595665. – Zugriffsdatum : 2023-03-31. – ISSN 1092-0277, 2325-
0453
[3] Currie, Iain D. : Fitting models of mortality with generalized linear and non-
linear models., 2013
73
Liste des Definitions
28 Définition (modèle) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
29 Définition (Flux de Trésorerie) . . . . . . . . . . . . . . . . . . . . . . . 59
30 Définition (modèle en absence d’arbitrage) . . . . . . . . . . . . . . . . . 60
31 Définition (TVOG - Time Value of Options and Guarantees) . . . . . . 61
32 Définition (scenario risque-neutre) . . . . . . . . . . . . . . . . . . . . . 61
33 Définition (Force de l’intérêt) . . . . . . . . . . . . . . . . . . . . . . . . 62
34 Définition (courbe des taux sans risque) . . . . . . . . . . . . . . . . . . 62
35 Définition (Le modèle de Vasicek) . . . . . . . . . . . . . . . . . . . . . . 62
36 Définition (Le modèle de Cox Ingersoll Ross) . . . . . . . . . . . . . . . 63
37 Définition (Duration (Macauley)) . . . . . . . . . . . . . . . . . . . . . . 65
38 Définition (Convexité) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65