0% ont trouvé ce document utile (0 vote)
24 vues27 pages

Cours de Mesure de Risque 03102025

Le document explore les fondements du risque en finance et en assurance, en distinguant les risques financiers et actuariels. Il met en lumière l'importance de la modélisation des risques, notamment à travers les modèles de régression généralisée (GLM) et les défis posés par les événements extrêmes. La gestion des risques nécessite une approche holistique pour prévenir les défaillances systémiques et garantir la solvabilité des institutions.

Transféré par

Ludovic Ntep
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
24 vues27 pages

Cours de Mesure de Risque 03102025

Le document explore les fondements du risque en finance et en assurance, en distinguant les risques financiers et actuariels. Il met en lumière l'importance de la modélisation des risques, notamment à travers les modèles de régression généralisée (GLM) et les défis posés par les événements extrêmes. La gestion des risques nécessite une approche holistique pour prévenir les défaillances systémiques et garantir la solvabilité des institutions.

Transféré par

Ludovic Ntep
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Introduction : Les Fondements du Risque

Une exploration visuelle des concepts clés en finance et en assurance pour une gestion proactive et éclairée.

Classification et Typologie des Risques


Le monde de la finance et de l'assurance fait face à deux grandes familles de risques, profondément interconnectées mais distinctes dans leur nature et leur origine.

Plongée au Cœur des Risques Financiers


Les risques financiers peuvent impacter la stabilité d'une institution. Comprendre leurs spécificités est la première étape pour les maîtriser. Le graphique ci-dessous illustre une
répartition hypothétique de l'exposition d'une entreprise à ces différents risques.
Introduction : Les Fondements du Risque
Une exploration visuelle des concepts clés en finance et en assurance pour une gestion proactive et éclairée.

Classification et Typologie des Risques


Le monde de la finance et de l'assurance fait face à deux grandes familles de risques, profondément interconnectées mais distinctes dans leur nature et leur origine.

L'Univers des Risques Actuariels


Les risques actuariels sont au cœur du métier d'assureur. Leur modélisation est essentielle pour garantir la solvabilité et la pérennité des engagements. Le diagramme illustre
la composition typique des sinistres.
Application aux Risques Financiers
Dans la finance, les modèles de marché et de crédit sont particulièrement vulnérables.
Introduction: Les Fondements du Risque Un modèle mal calibré peut mener à des estimations erronées de la valeur des actifs ou
des probabilités de défaut, comme l'illustre la crise de 2008.

Le Risque de Modèle : Le Danger Invisible


La dépendance excessive à des modèles imparfaits est une source majeure de défaillance. Ce risque naît de
plusieurs défaillances potentielles dans le cycle de vie d'un modèle.

Application aux Risques Actuariels


Les assureurs utilisent des modèles pour tarifer les polices et estimer les réserves.
Une erreur de modèle peut sous-estimer la fréquence ou la sévérité des sinistres, ou
mal évaluer l'évolution démographique, conduisant à des pertes importantes.
Introduction: Les Fondements du Risque
Le Risque de Modèle : Le Danger Invisible
La dépendance excessive à des modèles imparfaits est une source majeure de défaillance. Ce risque naît de plusieurs défaillances potentielles dans le cycle de vie d'un modèle.

L'Interconnexion : La Toile du Risque Systémique


Aucun risque n'est une île. Une défaillance dans un domaine peut déclencher une cascade d'événements à travers le système. La gestion moderne des risques exige une vision
holistique pour identifier et surveiller ces liens critiques.
Outils mathématiques et statistiques de modélisation des risques financiers et actuarielles
1- Modélisation des risques actuariels
1.1- Modélisation en Actuariat Non-Vie
1.1.1. Modélisation des Risques Attritionnels
Les risques attritionnels sont des sinistres fréquents et de faible ampleur. Leur modélisation repose sur l'analyse de deux composantes clés:
• Distributions de fréquence : On utilise des lois de probabilité pour modéliser le nombre de sinistres sur une période donnée. Les lois les plus courantes sont la loi de Poisson (pour
des événements rares) et la loi binomiale négative (pour les cas où la variance est supérieure à la moyenne).
• Distributions de sévérité : Ces lois modélisent le coût de chaque sinistre. Des lois comme la loi log-normale et la loi de Gamma sont souvent utilisées pour leur capacité à s'adapter
aux queues de distribution épaisses, c'est-à-dire aux sinistres de grande ampleur.
L'agrégation de ces deux composantes permet de modéliser la charge sinistre totale d'un portefeuille, une étape cruciale pour le provisionnement et la tarification
La modélisation des risques attritionnels, comme ceux de l'assurance automobile, repose sur l'analyse de deux composantes fondamentales : la fréquence des sinistres (combien de fois
cela arrive) et leur sévérité (combien cela coûte).
Outils mathématiques et statistiques de modélisation des risques financiers et actuarielles
1- Modélisation des risques actuariels
1.1- Modélisation en Actuariat Non-Vie
1.1.1. Modélisation des Risques Attritionnels
Rappels importants sur les GLM
Les GLM sont une extension flexible des modèles de régression linéaire classique. Alors que ces derniers sont limités à la modélisation de variables de réponse continues (comme le poids
ou la taille) qui suivent une distribution normale, les GLM nous permettent de modéliser une plus grande variété de données, notamment les dénombrements (nombre de sinistres), les
proportions (probabilité de réclamation) ou les valeurs positives asymétriques (montant des sinistres).

Les trois composants clés d'un GLM


1. La composante aléatoire :
Il s'agit de la distribution de probabilité de la variable de réponse qui doit appartenir à la famille exponentielle. Les GLM permettent d'utiliser d'autres distributions que la loi normale,
comme la loi de Poisson (pour les nombres de sinistres), la loi Gamma (pour les montants de sinistres) ou la loi binomiale (pour les probabilités).
La famille des lois exponentielles est un ensemble de distributions de probabilités qui partagent une forme mathématique commune. C'est l'un des piliers des GLM car elle permet
d'unifier la théorie pour de nombreuses distributions courantes comme la loi normale, la loi de Poisson, la loi Gamma et la loi binomiale.

La forme générale d'une fonction de densité de probabilité (pour une variable continue) ou d'une fonction de masse (pour une variable discrète) appartenant à cette famille est la suivante :

▪ y est la variable de réponse.


▪ θ est le paramètre naturel ou canonique. C'est le paramètre que la fonction de lien va relier au prédicteur linéaire.
▪ ϕ est le paramètre de dispersion. Il est souvent considéré comme une constante ou est estimé séparément. Il gère la variance.
▪ a(⋅), b(⋅) et c(⋅) sont des fonctions connues qui définissent la distribution spécifique.
Outils mathématiques et statistiques de modélisation des risques financiers et actuarielles
1- Modélisation des risques actuariels
1.1- Modélisation en Actuariat Non-Vie
1.1.1. Modélisation des Risques Attritionnels
Rappels importants sur les GLM
La forme générale d'une fonction de densité de probabilité (pour une variable continue) ou d'une fonction de masse (pour une variable discrète) appartenant à cette famille est la suivante :

Propriétés des moments de la famille exponentielle

La beauté de la famille exponentielle est que l'espérance et la variance de la variable de réponse Y peuvent être exprimées simplement en fonction de la fonction b(θ) et du paramètre de
dispersion ϕ.

Espérance (ou moyenne) L'espérance de la variable de réponse Y est égale à la première dérivée de la fonction b(θ) par rapport à θ.

Variance La variance de la variable de réponse Y est le produit de deux termes : la deuxième dérivée de b(θ) et le paramètre de dispersion a(ϕ).
Exemples de lois qui appartiennent à la famille exponentielle
La Loi de Poisson
Comme nous l'avons vu, la loi de Poisson est le point de départ. Elle est utilisée pour modéliser le nombre d'événements aléatoires qui se produisent dans un intervalle de temps ou un espace donné, comme
le nombre de sinistres dans un portefeuille d'assurance. Sa principale caractéristique est que sa moyenne et sa variance sont égales.

Cependant, dans la pratique, les données réelles présentent souvent un phénomène de surdispersion, c'est-à-dire que la variance observée est supérieure à la moyenne. C'est là que les autres lois de la famille
de Poisson entrent en jeu.

La Loi Binomiale Normale


C'est la loi la plus connue, utilisée pour les données continues.

La Loi de gamma
Cette loi est couramment utilisée pour modéliser des variables continues positives, comme le montant des sinistres en assurance.
Outils mathématiques et statistiques de modélisation des risques financiers et actuarielles
1- Modélisation des risques actuariels
1.1- Modélisation en Actuariat Non-Vie
1.1.1. Modélisation des Risques Attritionnels
Distribution pour la fréquence des sinistres
La Loi de Poisson
La loi de Poisson est le point de départ. Elle est utilisée pour modéliser le nombre d'événements aléatoires qui se produisent dans un intervalle de temps ou un espace donné, comme le
nombre de sinistres dans un portefeuille d'assurance. Sa principale caractéristique est que sa moyenne et sa variance sont égales.
E(N)=Var(N)=λ
Cependant, dans la pratique, les données réelles présentent souvent un phénomène de surdispersion, c'est-à-dire que la variance observée est supérieure à la moyenne. C'est là que les
autres lois de la famille de Poisson entrent en jeu.

La Loi de Poisson Généralisée


Pour pallier le problème de la surdispersion, nous pouvons utiliser la loi de Poisson généralisée. Cette loi introduit un paramètre supplémentaire, appelé facteur de surdispersion (ϕ), qui
permet à la variance d'être un multiple de la moyenne.
E(N)=λ
Var(N)=ϕ⋅λ
Si ϕ>1, on parle de surdispersion. Ce modèle est plus flexible et s'adapte mieux aux données d'assurance où les événements extrêmes sont plus fréquents que ne le prédit la loi de
Poisson simple

La Loi Binomiale Négative


Une autre loi très utile en actuariat est la loi binomiale négative. Elle peut être vue comme une alternative puissante à la loi de Poisson pour modéliser les dénombrements. Sa
particularité est qu'elle est un mélange de lois de Poisson, où le paramètre λ est lui-même une variable aléatoire suivant une loi Gamma.
Sa variance est toujours supérieure à sa moyenne.
E(N)=μ

Le paramètre k (ou parfois α) est le paramètre de dispersion. Plus k est petit, plus la surdispersion est importante. Lorsque k tend vers l'infini, la loi binomiale négative se rapproche de la
loi de Poisson. C'est la distribution de choix pour les données qui présentent une surdispersion, c'est-à-dire une variance significativement supérieure à la moyenne. C'est un phénomène
très courant en assurance.
Outils mathématiques et statistiques de modélisation des risques financiers et actuarielles
1- Modélisation des risques actuariels
1.1- Modélisation en Actuariat Non-Vie
1.1.1. Modélisation des Risques Attritionnels
Distribution pour la sévérité des sinistres
Ces distributions sont à privilégier lorsque la variable à modéliser est un montant (sinistres, montants de primes, dépenses), qui est toujours positif et souvent asymétrique.
Loi Gamma
C'est la distribution la plus courante et la plus robuste pour modéliser les montants de sinistres. Sa forme asymétrique avec une longue queue est très bien adaptée aux données
d'assurance. Elle fait partie de la famille exponentielle, ce qui la rend parfaitement compatible avec les GLM.

Loi Log-Normale
On l'utilise lorsque les données sont très asymétriques et que le logarithme des données suit une loi normale. C'est une excellente alternative à la loi Gamma pour des sinistres de très
grandes valeurs.

Loi de Weibull
Bien que souvent utilisée pour modéliser le temps de survie, sa flexibilité en fait une option pour la modélisation de la sévérité. On peut l'utiliser si les autres distributions ne s'ajustent pas
bien aux données.
Outils mathématiques et statistiques de modélisation des risques financiers et actuarielles
1- Modélisation des risques actuariels
1.1- Modélisation en Actuariat Non-Vie
1.1.1. Modélisation des Risques Attritionnels
Rappels importants sur les GLM
Les GLM sont une extension flexible des modèles de régression linéaire classique. Alors que ces derniers sont limités à la modélisation de variables de réponse continues (comme le poids
ou la taille) qui suivent une distribution normale, les GLM nous permettent de modéliser une plus grande variété de données, notamment les dénombrements (nombre de sinistres), les
proportions (probabilité de réclamation) ou les valeurs positives asymétriques (montant des sinistres).

Les trois composants clés d'un GLM


2. La composante déterministe
C'est une combinaison linéaire des variables explicatives de notre modèle. Elle est exactement la même que dans une régression linéaire standard.

3. La fonction de lien
C'est la pièce maîtresse qui relie la moyenne de notre variable de réponse à notre prédicteur linéaire. La fonction de lien transforme la moyenne de la variable pour que la relation avec le
prédicteur linéaire soit justement... linéaire. Le choix de la fonction de lien dépend de la distribution de la variable de réponse.

où μ est la moyenne de la variable de réponse, et g(⋅) est la fonction de lien.


Outils mathématiques et statistiques de modélisation des risques financiers et actuarielles
1- Modélisation des risques actuariels
1.1- Modélisation en Actuariat Non-Vie
1.1.2. Modélisation des Risques Extrêmes
La plupart des distributions statistiques que nous utilisons (loi normale, loi de Poisson, loi Gamma) sont adaptées pour décrire le "cœur" des données. Cependant, elles sous-estiment
systématiquement la probabilité d'événements extrêmes, situés dans les queues de distribution. C'est ce qu'on appelle le phénomène des queues épaisses (ou "heavy tails").
Pour l'actuaire, ignorer ce phénomène peut avoir des conséquences désastreuses, notamment pour la tarification des contrats de réassurance, la gestion du risque de catastrophe ou le
calcul des provisions pour Solvabilité II. La TVE fournit le cadre théorique pour modéliser ces événements.

Définition et Importance des Risques Extrêmes


Les risques extrêmes, souvent appelés "risques de queue" (tail risks), désignent des événements rares, mais dont les conséquences peuvent être particulièrement graves. Contrairement aux
événements plus fréquents et de faible impact qui se trouvent au centre d'une distribution statistique, les risques extrêmes se situent dans les queues de la distribution de probabilité.
En actuariat, il est crucial de comprendre et de modéliser ces risques pour plusieurs raisons :
❑ Stabilité financière : Pour les compagnies d'assurance et les institutions financières, la mauvaise gestion d'un risque extrême peut entraîner des pertes catastrophiques, voire la faillite.
❑ Réglementation : Les régulateurs exigent que les entreprises détiennent suffisamment de capital pour couvrir les pertes potentielles liées à des événements rares. C'est le cas par
exemple de la directive Solvabilité II pour les assureurs.
❑ Protection des assurés : Une modélisation adéquate garantit que les primes d'assurance sont fixées de manière appropriée pour couvrir les pertes potentielles, protégeant ainsi les
assurés en cas de sinistre majeur. [Image de la queue d'une distribution normale]

Les Limites de la Modélisation Traditionnelle


La modélisation actuarielle traditionnelle repose souvent sur l'hypothèse de distributions de probabilité normales (gaussiennes). Bien que cette approche soit efficace pour modéliser des
événements de routine, elle présente de sérieuses limitations face aux risques extrêmes :
❑ Tails fins : Une distribution normale suppose que les événements extrêmes sont exceptionnellement rares et quasi impossibles. Or, dans le monde réel, les risques financiers, les
catastrophes naturelles ou les pandémies se produisent plus fréquemment que ne le prédit un modèle gaussien.
❑ Faible robustesse : Les modèles traditionnels peuvent être très sensibles aux valeurs aberrantes. Un seul événement extrême peut fausser les paramètres du modèle (comme la
moyenne et l'écart-type), rendant les prédictions futures peu fiables.
❑ Manque de pertinence : Ces modèles sont mal adaptés pour capturer des phénomènes comme les "cygnes noirs" (événements imprévisibles et de grande ampleur) ou la volatilité des
marchés financiers en cas de crise.
Outils mathématiques et statistiques de modélisation des risques financiers et actuarielles
1- Modélisation des risques actuariels
1.1- Modélisation en Actuariat Non-Vie
1.1.2. Modélisation des Risques Extrêmes
Il existe deux méthodes pour modéliser les valeurs extrêmes. Chacune a ses avantages et ses applications spécifiques.

La modélisation des maxima par blocs (Block Maxima Model)


Cette méthode est la plus intuitive et la plus directe pour appliquer la théorie des valeurs extrêmes. Elle consiste à diviser une longue série temporelle de données (par exemple, des
données de sinistres journalières) en blocs de taille égale (souvent un an). Pour chaque bloc, on identifie la valeur maximale. On modélise ensuite la distribution de ces maxima de
blocs.
Selon le théorème de Fisher-Tippett-Gnedenko, la distribution de ces maxima converge vers la Loi des valeurs extrêmes généralisée (LVEG), ou Generalized Extreme Value (GEV)
en anglais. Cette loi unique combine les trois lois limites (Gumbel, Weibull, Fréchet) en un seul modèle paramétrique, dont le paramètre de forme détermine vers quelle loi la
distribution tend.

Applications
Cette approche est très utile pour estimer les valeurs de retour pour des événements rares. Par exemple, un assureur peut modéliser le coût maximal des sinistres annuels pour
déterminer sa couverture de réassurance. Si la distribution LVEG ajustée permet d'estimer un événement de sinistre de 1 sur 100 ans, l'assureur saura quelle perte attendre dans un
tel scénario et pourra s'y préparer.
Outils mathématiques et statistiques de modélisation des risques financiers et actuarielles
1- Modélisation des risques actuariels
1.1- Modélisation en Actuariat Non-Vie
1.1.2. Modélisation des Risques Extrêmes
Il existe deux méthodes pour modéliser les valeurs extrêmes. Chacune a ses avantages et ses applications spécifiques.

La modélisation des maxima par blocs (Block Maxima Model)


Le Théorème de Fisher-Tippett-Gnedenko [1943]
En théorie des probabilités et en statistique, le théorème de Fisher-Tippett-Gnedenko est un résultat central de la théorie des valeurs extrêmes. Il est l'équivalent du théorème central
limite, mais pour les maxima de séries de variables aléatoires. Il stipule que la distribution du maximum d'un grand nombre de variables aléatoires indépendantes et identiquement
distribuées, après une mise à l'échelle appropriée, ne peut converger que vers l'une des trois lois de la Famille des Valeurs Extrêmes Généralisées (GEV): la loi de Gumbel, la loi de
Fréchet ou la loi de Weibull.

Enoncé

En d'autres termes, peu importe la distribution de départ (qu'elle soit normale, log-normale, etc.), si certaines conditions de régularité sont remplies, la distribution de la valeur maximale
se rapprochera toujours de l'une des trois lois suivantes : Gumbel, Weibull ou Fréchet. La loi vers laquelle elle converge dépend du comportement de la queue de la distribution initiale.
Outils mathématiques et statistiques de modélisation des risques financiers et actuarielles
1- Modélisation des risques actuariels
1.1- Modélisation en Actuariat Non-Vie
1.1.2. Modélisation des Risques Extrêmes
La modélisation des maxima par blocs (Block Maxima Model)
Le Théorème de Fisher-Tippett-Gnedenko [1943]
Outils mathématiques et statistiques de modélisation des risques financiers et actuarielles
1- Modélisation des risques actuariels
1.1- Modélisation en Actuariat Non-Vie
1.1.2. Modélisation des Risques Extrêmes
La modélisation des maxima par blocs (Block Maxima Model)
Loi de Gumbel
La loi de Gumbel est la loi limite pour les distributions dont les queues diminuent de manière exponentielle (queues légères). Cela inclut des distributions courantes comme la loi normale
ou la loi log-normale. Elle est souvent utilisée pour modéliser des événements dont la magnitude maximale est relativement contenue.

Applications : Elle est souvent utilisée pour modéliser des événements qui n'ont pas de
queue de distribution particulièrement épaisse. En actuariat, on la retrouve dans l'étude des
maxima de sinistres dans des portefeuilles dont la gravité des sinistres est bien maîtrisée, ou
pour modéliser les tempêtes dont l'intensité ne dépasse pas une certaine limite.
Outils mathématiques et statistiques de modélisation des risques financiers et actuarielles
1- Modélisation des risques actuariels
1.1- Modélisation en Actuariat Non-Vie
1.1.2. Modélisation des Risques Extrêmes
La modélisation des maxima par blocs (Block Maxima Model)

Loi de Weibull
La loi de Weibull (inversée) est la loi limite pour les distributions qui ont une borne supérieure finie. Cela signifie que la variable aléatoire ne peut pas dépasser une certaine valeur
maximale. Ce type de distribution est moins fréquent en finance mais pertinent pour certains risques physiques.

Applications : Elle est moins courante en actuariat financier où les pertes peuvent en théorie être
illimitées, mais elle est pertinente pour les risques physiques. Par exemple, elle pourrait être
utilisée pour modéliser la résistance maximale d'un matériau à la rupture ou la vitesse maximale
du vent qu'une infrastructure peut supporter.
Outils mathématiques et statistiques de modélisation des risques financiers et actuarielles
1- Modélisation des risques actuariels
1.1- Modélisation en Actuariat Non-Vie
1.1.2. Modélisation des Risques Extrêmes
La modélisation des maxima par blocs (Block Maxima Model)
Loi de Fréchet
La loi de Fréchet est la loi limite pour les distributions à queues épaisses ('heavy-tailed'). Ces distributions ont une probabilité non négligeable d'observer des événements de très
grande magnitude. C'est la loi la plus importante pour modéliser les risques extrêmes en finance et pour les catastrophes.

Applications : Elle est essentielle en actuariat pour modéliser les catastrophes naturelles (inondations,
tremblements de terre) et les risques financiers. C'est le modèle de choix lorsque la gravité des pertes
n'a pas de limite théorique et que des événements extrêmes peuvent se produire avec une fréquence
significative. La modélisation de la TVE repose très souvent sur la loi de Fréchet.
Outils mathématiques et statistiques de modélisation des risques financiers et actuarielles
1- Modélisation des risques actuariels
1.1- Modélisation en Actuariat Non-Vie
1.1.2. Modélisation des Risques Extrêmes
Il existe deux méthodes pour modéliser les valeurs extrêmes. Chacune a ses avantages et ses applications spécifiques.

Modèles de dépassement de seuils (Peaks-Over-Threshold - POT)


L'approche des maxima par blocs n'utilise qu'un seul point de donnée par bloc, ce qui peut ignorer d'autres événements extrêmes importants. La méthode POT est plus efficace car
elle utilise toutes les observations qui dépassent un seuil élevé, ce qui permet de capturer plus de données sur les événements extrêmes.

Le théorème de Pickands-Balkema-de Haan nous fournit une base théorique solide pour modéliser le comportement de la distribution des sinistres qui dépassent un seuil très
élevé. Le théorème de Pickands-Balkema-de Haan nous assure que, pour un seuil élevé, la distribution des dépassements de ce seuil, une fois correctement mise à l'échelle,
converge vers la Loi de Pareto Généralisée (GPD), ou Generalized Pareto Distribution en anglais.
Outils mathématiques et statistiques de modélisation des risques financiers et actuarielles
1- Modélisation des risques actuariels
1.1- Modélisation en Actuariat Non-Vie
1.1.2. Modélisation des Risques Extrêmes
Il existe deux méthodes pour modéliser les valeurs extrêmes. Chacune a ses avantages et ses applications spécifiques.

Modèles de dépassement de seuils (Peaks-Over-Threshold - POT)


Le Théorème Pickands, 1975; Balkema, De Haan, 1974
Ce théorème s'intéresse au comportement des valeurs extrêmes d'une distribution. Alors que le théorème de Fisher-Tippett-Gnedenko se concentre sur les maxima par blocs, ce théorème
se concentre sur les dépassements de seuils (Peak Over Threshold ou POT). C'est une approche souvent plus efficace car elle utilise davantage de données.

Enoncé

Ce théorème est d'une importance capitale en


actuariat et en finance car il nous dit que, pour
un seuil suffisamment élevé, la distribution des
sinistres qui dépassent ce seuil peut être
modélisée par une GPD. Le paramètre ξ est
directement lié à la « lourdeur de la queue » de
la distribution :
❑ Si ξ>0, la distribution a une queue lourde.
Des événements extrêmes sont plus
probables.
❑ Si ξ=0, la distribution est à queue légère.
❑ Si ξ<0, la distribution est à queue bornée.
Outils mathématiques et statistiques de modélisation des risques financiers et actuarielles
1- Modélisation des risques actuariels
1.2- Modélisation en Actuariat non vie
En Vie, on ne modélise pas seulement un sinistre ponctuel (comme un accident de voiture) ; on modélise l'ensemble des flux financiers (primes, prestations, dépenses) générés par un
contrat sur des décennies.
Le modèle est essentiellement une immense feuille de calcul dynamique, souvent appelée projection de flux de trésorerie (Cash Flow Projection).
1.2.1. Les Trois Piliers
Tout modèle repose sur des hypothèses solides, similaires à celles que nous utilisons en tarification non-vie, mais étendues sur une période beaucoup plus longue.

Pilier A : Risque démographique: C'est l'hypothèse la plus spécifique à


l'assurance Vie. Elle décrit la probabilité qu'un événement survienne.
•Mortalité (μx) : La probabilité qu'un assuré décède à un âge donné x. C'est le
cœur des produits décès (comme l'assurance temporaire ou l'assurance-vie
entière).
• Analogie Non-Vie : C'est notre fréquence de sinistres.
•Invalidité/Morbidité : Pour les produits d'assurance maladie ou de rente
d'invalidité.

Pilier B : Financier (Économie)


Ces hypothèses sont cruciales pour actualiser les flux futurs.
•Taux d'Intérêt (ou Taux d'Actualisation) : Permet de ramener la valeur future
des flux à une valeur présente. Les taux peuvent être fixes ou stochastiques
(simulés aléatoirement).
•Inflation et Taux de Croissance des Salaires : Impactent les dépenses futures
(commissions, frais de gestion).

Pilier C : Comportement des Assurés


Les décisions des assurés influencent directement les flux de trésorerie.
•Taux de Rachat (Lapse Rate) : La probabilité qu'un assuré mette fin
prématurément à son contrat (par exemple, en rachetant son épargne ou en cessant
de payer ses primes).
• C'est le risque de résiliation anticipée.
•Options de l'Assuré : Exercice des options de flexibilité (changements de
primes, avances sur police, etc.).
Outils mathématiques et statistiques de modélisation des risques financiers et actuarielles
1- Modélisation des risques actuariels
1.2- Modélisation en Actuariat des personnes
En Vie, on ne modélise pas seulement un sinistre ponctuel (comme un accident de voiture) ; on modélise l'ensemble des flux financiers (primes, prestations, dépenses) générés par un
contrat sur des décennies.
Le modèle est essentiellement une immense feuille de calcul dynamique, souvent appelée projection de flux de trésorerie (Cash Flow Projection).

1.2.2. L’algorithme de projection


Le modèle Vie fonctionne comme un grand simulateur qui avance année après année (ou mois par mois).
A. La Granularité (Regroupement)
Pour ne pas simuler chaque police individuelle (ce qui serait trop lent), les actuaires regroupent les polices qui ont des caractéristiques similaires (groupe de polices homogènes).
•Critères de regroupement typiques : Année d'émission, âge à l'émission, produit, genre.

B. La Boucle de Projection

Pour chaque groupe de polices, le modèle exécute un cycle à chaque pas de temps t:
1.Dénombrement des Polices : Combien de polices restent en vigueur au début de l'année t.
2.Calcul des Flux Entrants (Inflows) : Primes reçues.
3.Calcul des Flux Sortants (Outflows) :
1. Prestations/Sinistres (liés à la mortalité ou l'invalidité).
2. Rachats (liés au comportement de l'assuré).
3. Dépenses d'exploitation.
4.Calcul du Solde/Réserves : Le solde est investi, générant un revenu financier. Une réserve actuarielle est calculée pour s'assurer que l'entreprise dispose des fonds suffisants pour
couvrir ses engagements futurs.
Outils mathématiques et statistiques de modélisation des risques financiers et actuarielles
1- Modélisation des risques actuariels
1.2- Modélisation en Actuariat des personnes
En Vie, on ne modélise pas seulement un sinistre ponctuel (comme un accident de voiture) ; on modélise l'ensemble des flux financiers (primes, prestations, dépenses) générés par un
contrat sur des décennies.
Le modèle est essentiellement une immense feuille de calcul dynamique, souvent appelée projection de flux de trésorerie (Cash Flow Projection).

1.2.3. Exemples Pratiques de Modélisation


L'utilisation du moteur de projection permet d'adresser des problématiques très spécifiques liées aux risques démographiques :
L'utilisation du moteur de projection (Section 2) permet d'adresser des problématiques très spécifiques liées aux risques démographiques :

1. Évaluation des Engagements Sociaux (Caisse Retraite)


Problématique : Déterminer le montant des réserves nécessaires pour payer les pensions promises aux employés (actifs et retraités) en conformité avec les normes comptables.
Mécanisme : Le modèle projette, pour chaque employé ou groupe, la date de départ à la retraite et l'espérance de vie subséquente. Il utilise les hypothèses d'inflation salariale
pour estimer la rente finale, puis actualise la valeur de toutes les rentes futures pour obtenir l'engagement actuariel présent (PBO/DBO).
Intrants clés : Taux de rotation du personnel, taux de croissance des salaires, taux d'actualisation et tables de mortalité post-retraite.
2. Gestion du Risque de Longévité (Rentes Viagères)
Contexte : Une compagnie qui vend des rentes garantit un revenu tant que l'assuré est en vie. Le risque est que l'assuré vive plus longtemps que prévu.
Intrant clé : Le taux de mortalité. Le modèle doit utiliser des tables qui intègrent une tendance d'amélioration de la longévité (facteurs de projection ou tables prospectives)
pour refléter l'augmentation continue de l'espérance de vie.
Mesure du risque : On simule l'impact financier sur le portefeuille si les assurés vivent, par exemple, 15% plus longtemps que l'hypothèse centrale, pour déterminer le capital de
risque requis.
3. Gestion du Risque de Mortalité (Assurance Décès)
Contexte : Une compagnie qui vend des assurances décès (paiement d'un capital au décès). Le risque est que l'assuré décède plus tôt que prévu.
Intrant clé : Le taux de mortalité. Contrairement à la rente, la compagnie cherche à évaluer le risque de mortalité agrégée et catastrophique (pandémie, événement climatique
majeur, etc.).
Mécanisme : Le modèle utilise le stress testing pour simuler une augmentation soudaine et persistante de μx​ (par exemple, +25% sur toutes les âges) sur l'ensemble du
portefeuille. Il calcule alors l'impact sur les flux sortants (prestations) pour déterminer le capital de risque requis.
Outils mathématiques et statistiques de modélisation des risques financiers et actuarielles
2- Modélisation des risques financiers
En finance quantitative, le Risque Financier se définit comme l'incertitude quant à l'évolution future de la valeur des actifs

1. Risque de Marché (Market Risk) : Modèles Stochastiques


C'est le risque de perte résultant des mouvements des prix. Pour le modéliser, nous utilisons des équations différentielles stochastiques (EDS) pour simuler la trajectoire des variables
financières.

2. Risque de Crédit (Credit Risk) : Le Risque de Défaut


C'est le risque qu'une contrepartie (émetteur d'obligation, débiteur) ne remplisse pas ses obligations, entraînant une perte sur la valeur nominale.
❑ Modèle Structurel (Merton) : Le défaut se produit lorsque la valeur des actifs de l'entreprise tombe en dessous de ses passifs.
❑ Modèle Intensité (Jarrow-Turnbull) : Le défaut est modélisé par un taux de défaillance (Hazard Rate) λ(t), qui est la probabilité instantanée de défaut.
❑ Corrélation de Défaut : Pour modéliser un portefeuille, nous utilisons des fonctions Copules (souvent la Copule Gaussienne) pour lier les probabilités de défaut
individuelles.

3. Risque de Liquidité (Liquidity Risk) : Impact du Temps


Ce risque est la perte induite par l'incapacité de réaliser une transaction rapidement.
❑ Composante de Financement : Ne pas pouvoir honorer les obligations sans impact significatif sur les activités courantes.
❑ Composante de Marché : Nécessité de vendre des actifs illiquides à un prix inférieur à leur juste valeur (Discount). La modélisation intègre le Spread Bid-Ask et
l'impact d'une transaction sur le prix.
Mesure du risque
Introduction
L’activité d’assurance repose sur le concept de transfert de risque : moyennant une prime, l’assuré se protège d’un risque financier aléatoire. Mesurer le risque assuré s’avère donc
inévitable puisque cette information est nécessaire dans le cadre de la tarification pour déterminer les chargements de sécurité à ajouter à la prime pure et dans une approche de
solvabilité pour déterminer le niveau de fonds propres dont doit disposer l’assureur pour être solvable.
L'activité du secteur financier repose sur le concept de prise de risque optimisée : moyennant une exigence de rendement, l'institution s'expose à des aléas (crédit, marché, liquidité)
pour générer du profit.
Mesurer le risque financier s'avère donc inévitable puisque cette information est nécessaire dans le cadre de la tarification des produits bancaires et financiers pour déterminer les
marges à ajouter au coût de financement, et dans une approche de réglementation prudentielle (Bâle III, etc.) pour déterminer le niveau de Fonds Propres Réglementaires (Capital)
dont doit disposer l'institution pour être solvable face à un choc extrême.
En d'autres termes :
❑ Dans le secteur de l'Assurance : L'assuré paie une prime pour transférer son risque à l'assureur, qui ajoute un chargement de sécurité pour couvrir l'incertitude. Le capital
absorbe les sinistres exceptionnels.
❑ Dans le secteur Financier : Le marché rémunère la prise de risque via le spread de crédit/liquidité sur un actif. L'institution doit allouer du capital (calculé par la VaR ou
l'ES) pour absorber les pertes potentielles liées à la détention de cet actif.

Définition et propriétés

En particulier, cette définition nous permet d’établir que lorsqu’ils existent, l’espérance, la variance ou l’écart-type sont des mesures de risque. Si un grand nombre d’applications
répondent à la définition de mesure de risque, pour être jugée « satisfaisante » il est souvent exigé d’une mesure de risque d’avoir certaines propriétés dont les plus fréquentes sont
rappelées infra.

Chargement de sécurité
La notion de chargement de sécurité est étroitement liée à celle de tarification : un principe de prime contient un chargement de sécurité s’il conduit à exiger une prime supérieure à
celle qui est exigée si la mutualisation des risques est parfaite
Mesure du risque Quelques mesures de risque
Mesure de risque cohérente L’objet de ce paragraphe est de présenter les mesures de risque les plus usuelles. On
s’attardera particulièrement sur la Value-at-Risk et la Tail-Value-at-Risk dont l’utilisation en
assurance va être pérennisée par le futur système de solvabilité européen (Solvabilité 2)
puisqu’elles seront vraisemblablement à la base de la détermination du niveau prudentiel des
provisions techniques et du besoin en fonds propres (« capital cible »).

3.1. L’écart-type et la variance


Ce sont les premières mesures de risque à avoir été utilisées ; on les retrouve notamment dans
le critère de Markowitz (moyenne-variance) qui sert de socle aux premières théories
L’objet de ce paragraphe est de présenter les mesures de
d’évaluation des actifs (MEDAF).
Toutefois ce critère n’est pas bien adapté à l’activité d’assurance, notamment parce qu’il est
risque les plus usuelles. On
symétrique et pénalise autant les « bonnes variations » que les « mauvaises ».
s’attardera
3.2. particulièrement
La Value-at-Risk (VaR) sur la Value-at-Risk et la Tail-
Value-at-Risk
La notion de Value-at-Risk dont
ou valeur ajustée l’utilisation
au risque en développée dans
s’est originellement
les milieux financiers avant d’être largement reprise dans les problématiques assurantielles.
Une mesure de risque qui satisfait ces quatre propriétés est qualifiée de cohérente. Par assurance va être pérennisée par le futur système de
exemple la Tail-VaR est cohérente mais pas la VaR qui ne respecte pas l’axiome de sous- solvabilité européen (Solvabilité 2)
additivité (cf. infra).
puisqu’elles seront vraisemblablement à la base de la
détermination du niveau prudentiel des
Mesure de risque comonotone additive provisions techniques et du besoin en fonds propres («
capital cible »).

Proposition 1 : La VaR n’est pas cohérente car elle n’est pas sous-additive.
Mesure du risque
La Tail-Value-at-Risk (TVaR)

Vous aimerez peut-être aussi