Digital resources in the Social Sciences and Humanities OpenEdition Our platforms OpenEdition Books OpenEdition Journals Hypotheses Calenda Libraries OpenEdition Freemium Follow us

On my way to Tsinghua (清华大学), Beijing

Next week, I will be at Tsinghua University in Beijing. On Tuesday, in the early afternoon, I will give three lectures for undergraduate students on the theme: ‘Three lectures on AI and its implications for actuarial (and/or financial) professions.

These lectures explore the relationship between artificial intelligence and insurance. They begin from the observation that insurance has long relied on prediction, classification, and decision-making under uncertainty, well before the recent rise of AI. AI therefore does not introduce these issues from scratch, but changes their scale, granularity, and practical consequences. The lectures review the insurance foundations of pricing and pooling, then examine the main challenges raised by AI, including personalization, selection, causality, bias, fairness, governance, and trust. They finally turn to the concrete uses of AI across the insurance value chain, emphasizing that a good system should not be judged by accuracy alone, but also by its calibration, its fairness, and its ability to support real decisions in practice.

In the evening, I will give a talk at the seminar, at Renmin University of China, on the theme: ‘Using optimal transport to mitigate unfair predictions and quantify counterfactual fairness.’ The first part will revisit topics that I presented in greater detail in the lectures notes of my course this autumn at Kyoto University, particularly the price to be paid in terms of accuracy in order to achieve fairness. The second part will discuss the paper ‘Sequential Transport for Causal Mediation Analysis,’ which was posted online a few days ago.

On Wednesday, I will have in-depth academic exchange session with students from the Tsinghua Actuarial Science Association, at Tsinghua University.

Fair regression under localized demographic parity constraints

Our paper, Fair regression under localized demographic parity constraints, with Christophe Denis, Romuald Elie, Mohamed Hebiri and François Hu, is now available online, on arXiv,

Demographic parity (DP) is a widely used group fairness criterion requiring predictive distributions to be invariant across sensitive groups. While natural in classification, full distributional DP is often overly restrictive in regression and can lead to substantial accuracy loss. We propose a relaxation of DP tailored to regression, enforcing parity only at a finite set of quantile levels and/or score thresholds. Concretely, we introduce a novel (\boldsymbol{\ell},\mathcal{Z})-fair predictor, which imposes groupwise CDF constraints of the form F_{f\mid S=s}(z_m)=\ell_m for prescribed pairs (\ell_m,z_m). For this setting, we derive closed-form characterizations of the optimal fair discretized predictor via a Lagrangian dual formulation and quantify the discretization cost, showing that the risk gap to the continuous optimum vanishes as the grid is refined. We further develop a model-agnostic post-processing algorithm based on two samples (labeled for learning a base regressor and unlabeled for calibration), and establish finite-sample guarantees on constraint violation and excess penalized risk. In addition, we introduce two alternative frameworks where we match group and marginal CDF values at selected score thresholds. In both settings, we provide closed-form solutions for the optimal fair discretized predictor. Experiments on synthetic and real datasets illustrate an interpretable fairness-accuracy trade-off, enabling targeted corrections at decision-relevant quantiles or thresholds while preserving predictive performance.

A Scalable toolbox for exposing indirect discrimination in insurance rates

Our paper, ‘A Scalable toolbox for exposing indirect discrimination in insurance rates‘ with Olivier Côté and Marie-Pier Côté, is out.

Here is Alyssa Gambone  ()’s post on Linkedin

It’s time for one of my rare insurance related posts, though this one isn’t entirely off theme of my normal content. The CAS recently published a paper entitled ‘A Scalable toolbox for exposing indirect discrimination in insurance rates‘ by Olivier Côté, Marie-Pier Côté, and Arthur Charpentier that makes an incredibly important point as the actuarial profession goes deeper and deeper into machine learning and AI.  “In an unrealistic extreme, oracle insurers — capable of perfectly predicting both amount and timing of insurance claims — might charge each policyholder precisely their discounted future claim amount, questioning the very concept of insurance risk transfer.” I’m a big believer that in service of the “most accurate” rates (what the paper calls “actuarial fairness”, which is incredibly damning of our profession), we have lost our purpose, which is to ensure a wide ranging ability of society to take normal risks like driving a car, owning a home, or starting a business. Society is better when insurance is available and affordable, not when it is precisely accurate for the smallest groups possible. In service of the capitalistic goal of maximizing profits at all costs, we have found out that the costs might be our industry’s societal purpose and reason to exist. “As data granularity increases, so does the potential for actuarial justification in perpetuating [historic and socioeconomic] disparities.” Shame on our profession if it does.

There will be much more work published soon on those topics… Meanwhile, here was our abstract,

If No One Pays for Proof, Everyone Will Pay for the Loss

This post was initially written in French, Si personne ne paie pour la preuve, tout le monde paiera pour le sinistre

Let’s start with a truism. In ordinary life, just as in economic life, we have to make decisions without ever knowing everything. Every decision involves some uncertainty, and therefore some risk. Some risks are small, manageable, and we barely notice them anymore. Others can have financial consequences large enough that we would rather transfer them to a third party, by paying a premium so that an insurer will bear them for us. That is, at bottom, one of the most concrete functions of insurance. But an equally interesting question arises when that transfer becomes impossible, or at least impossible at a reasonable price. That is what we call uninsurability. We already encounter it with certain natural risks, when losses become too correlated, too massive, too difficult to mutualize, as I discussed in Insurers and AI, a systemic risk and in Insuring AI. New risks? New models?. And apologies for using this umbrella term, “AI,” which I do not like very much, but I need to simplify a little or I would never finish this post…

The day before yesterday, Thomas Claburn wrote in AI still doesn’t work very well in business, businesses are faking it, and a reckoning is coming:

Another looming problem is that large insurers have become wary of underwriting policies that cover companies against AI risk.

(Thanks to @flomaraninchi and @ugo for pointing it out to me.) I have the feeling that it is important to understand exactly what this means. If major insurers are becoming reluctant to cover AI-related uses, this is probably not just one more market anecdote, nor simply another legal precaution. It is a signal. An important signal for anyone who builds predictive models, or who is interested in uncertainty and ambiguity, because insurers do not need to be prophets to become cautious. Perhaps that is what risk culture is. It is enough for them to conclude that they do not understand the risk well enough, that they cannot observe it properly, that they cannot reconstruct the chain of responsibility behind it, or that they doubt they can carry it at a sustainable price. In other words, if insurers are stepping back, that should force us to ask whether AI is really under control. What we are dealing with here are very classical questions in the economics of information, imperfect measurement, misaligned incentives, and insufficient proof, much more than a simple dispute about the current level of the technology.

Continue reading If No One Pays for Proof, Everyone Will Pay for the Loss

Si personne ne paie pour la preuve, tout le monde paiera pour le sinistre

Allez, commençons par une banalité, en notant que dans la vie ordinaire, comme dans la vie économique, il faut décider sans jamais tout savoir. Toute décision engage une part d’incertitude, donc une part de risque. Certains risques sont petits, absorbables, et on n’y prête même plus attention. D’autres peuvent avoir des conséquences financières telles qu’on préfère les transférer à un tiers, en payant une prime pour qu’un assureur les prenne à sa charge. C’est, au fond, une des fonctions les plus concrètes de l’assurance. Mais une question au moins aussi intéressante surgit lorsque ce transfert devient impossible, ou du moins impossible à un prix raisonnable. C’est ce qu’on appelle “inassurabilité”, que l’on rencontre déjà face à certains risques naturels, lorsque les pertes deviennent trop corrélées, trop massives, trop difficiles à mutualiser, comme je l’évoquais dans Assureurs et IA, un risque systémique et dans Assurer l’IA. Nouveaux risques ? Nouveaux modèles ?. Et désolé d’utiliser ce terme parapluie, “IA”, que je n’aime pas trop, mais je vais simplifier un peu sinon je ne finirais jamais ce billet…

Avant hier, Thomas Claburn écrivait dans AI still doesn’t work very well in business, businesses are faking it, and a reckoning is coming

Another looming problem is that large insurers have become wary of underwriting policies that cover companies against AI risk.

(merci @flomaraninchi et @ugo de me l’avoir pointé) et j’ai l’impression qu’il est important de bien comprendre ce que ça signifie… Si de grands assureurs deviennent réticents à couvrir les usages de l’IA, ce n’est peut être pas simplement une de ces nombreuses anecdotes venant du marché, ni une précaution juridique de plus, c’est probablement un signal. Un signal important quand on fait des modèles prédictifs, qu’on s’intéresse à l’incertitude et à l’ambiguïté, parce que bien souvent, un assureur n’a pas besoin d’être prophète pour devenir méfiant. C’est peut être ce qui s’appelle la culture du risque… Il lui suffit d’estimer qu’il ne comprend pas suffisamment le risque, qu’il ne peut pas l’observer correctement, qu’il ne sait pas en reconstruire la chaîne de responsabilité, ou qu’il doute de pouvoir le porter à un prix soutenable. Autrement dit, si on voit les assureurs reculer, ça devrait nous obliger à nous demander si l’IA est réellement maîtrisée. On touche ici à des questions très classiques d’économie de l’information, de mesure imparfaite, d’incitations mal alignées et de preuve insuffisante, bien plus qu’à une simple querelle sur le niveau actuel de la technologie.

Continue reading Si personne ne paie pour la preuve, tout le monde paiera pour le sinistre

International Workshop on Risk and Insurance, 서울, June 2026

On June 29th, I will be in Seoul (서울), Korea, at the International Workshop on Risk and Insurance.

This workshop aims to provide a focused forum, where global risk and insurance research and the Korean insurance industry can exchange ideas and discuss the practical implications of emerging risks and technologies. The program will feature leading scholars and industry experts discussing key topics shaping the future of insurance, including:
• AI Revolution and Cyber Risks
• Climate Change and Extreme Weather Events
• Insurance Data Science and Market Innovations

The workshop will be held at FKI Tower (Diamond Hall) in the heart of Seoul’s financial district. It will include academic presentations, industry panel discussions, and networking opportunities designed to foster collaboration between researchers and practitioners. The website of the workshop for registration (note that registration is free but space is limited) is now online.

 

Decomposing Probabilistic Scores

Our paper Decomposing Probabilistic Scores: Reliability, Information Loss and Uncertainty, with Agathe Fernandes-Machado, is now available https://doi.org/10.48550/arXiv.2603.15232

Calibration is a conditional property that depends on the information retained by a predictor. We develop decomposition identities for arbitrary proper losses that make this dependence explicit. At any information level \mathcal{A}, the expected loss of an \mathcal{A}-measurable predictor splits into a proper-regret (reliability) term and a conditional entropy (residual uncertainty) term. For nested levels \mathcal{A}\subset\mathcal{B}, a chain decomposition quantifies the information gain from \mathcal{A} to \mathcal{B}. Applied to classification with features \boldsymbol{X} and score S=s(\boldsymbol{X}), this yields a three-term identity: miscalibration, a {\em grouping} term measuring information loss from \boldsymbol{X}  to {S}, and irreducible uncertainty at the feature level. We leverage the framework to analyze post-hoc recalibration, aggregation of calibrated models, and stagewise/boosting constructions, with explicit forms for Brier and log-loss.

Sequential Transport for Causal Mediation Analysis

Our paper, Sequential Transport for Causal Mediation Analysis, with Agathe Fernandes-Machado, Iryna Voitsitska and Ewen Gallic, is now available on https://arxiv.org/abs/2603.15182

We propose sequential transport (ST), a distributional framework for mediation analysis that combines optimal transport (OT) with a mediator directed acyclic graph (DAG). Instead of relying on cross-world counterfactual assumptions, ST constructs unit-level mediator counterfactuals by minimally transporting each mediator, either marginally or conditionally, toward its distribution under an alternative treatment while preserving the causal dependencies encoded by the DAG. For numerical mediators, ST uses monotone (conditional) OT maps based on conditional CDF/quantile estimators; for categorical mediators, it extends naturally via simplex-based transport. We establish consistency of the estimated transport maps and of the induced unit-level decompositions into mutatis mutandis direct and indirect effects under standard regularity and support conditions. When the treatment is randomized or ignorable (possibly conditional on covariates), these decompositions admit a causal interpretation; otherwise, they provide a principled distributional attribution of differences between groups aligned with the mediator structure. Gaussian examples show that ST recovers classical mediation formulas, while additional simulations confirm good performance in nonlinear and mixed-type settings. An application to the COMPAS dataset illustrates how ST yields deterministic, DAG-consistent counterfactual mediators and a fine-grained mediator-level attribution of disparities.

La géométrie de la ville, les lignes et les pôlygones

J’ai grandi en Europe, en France, dans un monde où l’adresse semblait aller de soi. Une maison était d’abord située sur une rue, puis placée dans la rue par un numéro. En ville, on apprenait très tôt à se repérer avec ce qu’on pourrait appeler la grammaire ordinaire de l’espace urbain : les numéros montent depuis le début de la voie, les pairs sont d’un côté, les impairs de l’autre, et l’ordre croissant suit en général une logique d’éloignement du centre. Pour aller du 56 dans une rue au 72, on sait qu’il faudra longer 16 maisons (ou immeubles) entre les deux. Dans les zones plus rurales, j’ai aussi connu une autre logique, moins intuitive au premier abord mais finalement très parlante : celle où le numéro ne dit plus seulement le rang d’une maison, mais une distance. Le 72 est maintenant 16 mètres plus loin, autrement dit, c’est peut être la maison à côté. Les guides français d’adressage parlent ainsi d’une numérotation métrique où le numéro correspond à la distance, en mètres, entre le début de la voie et l’habitation, avec un « point zéro » qui peut être la mairie ou l’église du village (comme le rappelle le Guide pratique pour un bon adressage des communes de Charente).
Continue reading La géométrie de la ville, les lignes et les pôlygones

Fukushima : 15 ans après, réflexions sur une inévitable catastrophe

en m’inspirant du titre de l’article de Benoît Hopquin publié par Le Monde, il y a 5 ans, jour pour jour.

J’étais à Hiroshima l’automne dernier. C’est un lieu saturé d’images, trop connu, que l’on connait avant même d’y être allé. Le dôme apparaît une dizaine de fois dans Gen d’Hiroshima ou Gen aux pieds nus, tel qu’il vient d’être nommé dans la nouvelle édition paru l’an dernier (reprenant le titre original Hadashi no Gen, はだしのゲン), et le voir en vrai fait remonter plein de souvenirs de lecture.

source: “Gen aux pieds nus“, de Keiji Nakazawa, publié par Le Tripode

Il y a aussi les photographies des lendemains du 6 août 1945 dans mes livres d’histoires. Hiroshima appartient à ce petit nombre de catastrophes que tout le monde croit avoir déjà vues. Et pourtant, l’essentiel de la catastrophe nucléaire n’a justement rien de visible. Ce que l’on voit à Hiroshima, c’est la destruction. Au sens littéral, on peut penser à ce couple, désintégré, dont il reste juste la silhouette sur un mur. Hormis le dôme, l’essentiel échappe au regard. Et au delà de la destruction, c’est aussi la contamination, l’incertitude, le temps long pour ses victimes. Janet Farrell Brodie le rappelle très bien dans Radiation Secrecy and Censorship after Hiroshima and Nagasaki. Dès après le bombardement, les autorités américaines ont travaillé à censurer, contenir, déformer l’information sur les effets radiologiques, autrement dit à rendre moins visible ce qui, de toute façon, ne se voyait pas directement.
Continue reading Fukushima : 15 ans après, réflexions sur une inévitable catastrophe

Le CV narratif, ou comment remplacer un biais par un autre

Que celui qui n’a jamais pesté contre ces CV académiques lus au poids, à coups de nombre de publications, d’étudiants supervisés, de conférences invitées et de montants cumulés de subvention de recherche, me jette la première pierre. Heureusement, nous dit on, une solution arrive pour mettre fin à cette comptabilité et remettre du sens, le CV narratif, aussi appelé CV descriptif. On va maintenant regarder les trajectoires, les contributions invisibles, l’encadrement, l’ouverture des données, l’impact réel. Et pour faire ça, on nous propose un objet simple, très simple, remplacer le CV liste de course par un CV narratif. Et quand je dis très simple, je n’exagère pas. Voilà le modèle de CV des trois organismes sur le site du CRSNG, au Canada,


Continue reading Le CV narratif, ou comment remplacer un biais par un autre

Crue centennale de la Seine à 42 milliards d’euros ?

En fin de semaine dernière, L’Argus de l’Assurance titrait sur une estimation de la “crue centennale de la Seine”

Je voulais revenir dessus avec un (court) billet parce que j’ai toujours du mal à comprendre ce qu’une telle estimation veut (vraiment) dire. Au risque de me répéter (je le disais dans Catastrophes naturelles, catastrophes évitables ou imprévisibles ?) et c’est largement discuté dans Flood Risk Assessment and Management, le risque d’inondation (comme toutes les catastrophes naturelles) doit être compris comme le résultat d’interactions entre l’humain et la nature. Ça semble trivial à force de le répéter, mais son sens profond, c’est que si l’aléa est en partie coproduit (urbanisation, endiguements, réservoirs, règles de gestion), alors l’idée d’une période de retour de 100 ans ne peut pas être vue comme une constante de la nature, puisque c’est forcément un produit de nos choix.
Continue reading Crue centennale de la Seine à 42 milliards d’euros ?

"sendo l'intento mio scrivere cosa utile a chi la intende…"