Chapitre 3 : La théorie de l’utilité espérée et l’analyse du risque
En univers certain, il est admis que le choix des individus résulte de la maximisation de leur
satisfaction via leur fonction d'utilité. Est-il possible de transposer le modèle de décision en
information parfaite à un contexte d'incertitude? La théorie de l'utilité espérée offre une réponse
positive à cette question, en s'appuyant sur les probabilités, cet outil commode pour modéliser
en incertitude. Les probabilités associées aux variables aléatoires peuvent être ou non connues
du décideur. Si elles sont données, la décision est dite risquée et lui correspond le modèle de
l'utilité espérée (UE) de John von Neumann et Oskar Morgenstern (1944). Que faire quand les
probabilités ne sont pas données au décideur, ce qui dans le langage de la théorie de la décision,
correspond à l'incertain ? Alors la décision s'appuie sur des probabilités dites subjectives et le
modèle correspondant est celui de l'espérance d'utilité subjective de Léonard Savage (1954). Ce
dernier modèle peut s’assimiler à une situation d’acquisition des informations et de révision des
connaissances. Ces constructions théoriques sophistiquées permettent de parvenir à la règle de
décision simple: maximiser son espérance d'utilité. Munis de cette règle, les agents peuvent et
doivent décider de façon parfaite. Suivant les principes de l'utilitarisme, la règle de décision
respecte la diversité des préférences.
I- Le modèle de l’utilité espérée
En univers certain, le choix du consommateur rationnel résulte de la maximisation de l'utilité
calculée à partir de paniers de biens. En univers risqué et incertain, la disponibilité des biens
n'étant pas garantie, ceux-ci sont dits contingents; les conséquences des décisions des individus
ne sont plus uniques, elles dépendent d'événements aléatoires ou « états de la nature », l'état de
la nature qui se réalisera étant inconnu au moment de la prise de décision, elles sont donc
hypothétiques. Ceci complique considérablement la règle de décision. Pourtant, le modélisateur
a réussi à conserver la maximisation, chère aux utilitaristes, en raisonnant sur des loteries plutôt
que sur des biens et en recourant à l'utilité espérée. Comprendre ce modèle suppose donc de se
familiariser avec ces notions spécifiques.
1- Présentation de l’utilité espérée
a- L’utilité espérée et le paradoxe de Saint-Petersbourg
Pour comprendre comment s'effectue la décision en incertitude, partons de Daniel Bernoulli
(1700-1782). Celui-ci a proposé de calculer l'espérance de l'utilité des gains et non pas
l'espérance des gains. Il s'est appuyé sur un jeu de hasard présenté ici sous une forme légèrement
remaniée. Un joueur lance une pièce de monnaie aussi longtemps que face apparaît et s'arrête
1
dès qu'il obtient pile. Si pile sort dès le premier coup, le joueur reçoit 2 F. Si pile ne sort qu'au
deuxième coup, il reçoit 22 F et, si pile ne sort qu'au nième coup, il reçoit 2n F.
Le problème consiste à évaluer le montant du droit d'entrée maximal qu'un individu rationnel
est prêt à payer pour participer à ce jeu. Quel est ce montant? Un mathématicien proposera de
prendre pour référence l'espérance de gain :
1 1 1
𝐸(𝐺) = 2 + 2 22 + ⋯ + 𝑛 2𝑛 + ⋯ = 1 + 1 + ⋯ + 1 + ⋯
2 2 2
Le nombre de coups de la partie n'étant pas limité, l'espérance de gains est infinie. Or Bernoulli
a constaté que la plupart des joueurs n'acceptaient de verser qu'un montant très faible pour
participer à ce jeu bien que son espérance de gain soit infinie. Tel est le paradoxe de Saint-
Pétersbourg.
Pour le résoudre, Bernoulli a proposé de prendre en compte l'utilité associée aux différents gains
plutôt que de considérer leur espérance mathématique. Cette solution qui consiste à passer par
la satisfaction procurée par un gain est un des fondements du modèle d'espérance d'utilité.
Utiliser la solution préconisée par Bernoulli transforme le jeu de Saint-Pétersbourg comme suit
:
1 1 1
𝐸(𝑈(𝐺)) = 𝑈(2) + 2 𝑈(22 ) + ⋯ + 𝑛 𝑈(2𝑛 ) + ⋯
2 2 2
b- Les notions spécifiques au modèle de l’utilité espérée
En considérant l’ensemble des conséquences (résultats) distincts d’un problème de décision,
alors cet ensemble est de cardinal fini. On note cet ensemble par
Cet ensemble peur être ordonné. On obtient alors :
𝐶 ∗ = {𝑅1 , 𝑅2 , … , 𝑅𝑘 } = {𝑐1 , 𝑐2 , … , 𝑐𝑘 } ⇒ |𝐶 ∗ | = 𝑘.
Une fois qu’on aurait défini l’ensemble 𝐶 ∗ , il permettra de caractériser chaque action 𝑎𝑗 sous la
forme d’une loterie dont les résultats éventuels sont tous des éléments de 𝑐1 :
𝑎
𝑝𝑙 𝑗 l est la probabilité que l’action 𝑎𝑗 conduise au 𝑙 𝑖è𝑚𝑒 résultat de 𝐶 ∗ . On note l’ensemble de
toutes ces probabilités. Ainsi, une action 𝑎𝑗 peut être caractérisée de la façon suivante :
𝑎 𝑎 𝑎
𝑎𝑗 = 𝐿(𝑐1 , 𝑐2 , … , 𝑐𝑘 ; 𝑝1 𝑗 , 𝑝2 𝑗 , … , 𝑝𝑘 𝑗 )
Exemple : soit la matrice de gains suivante :
2
Donner l’ensemble des résultats de cette décision ainsi que l’ensemble ordonné.
Donner les caractéristiques de chaque action.
2. Axiomatique de Von Neumann et Morgenstern
a. Action de comparabilité
Cette axiome qui permet de toujours comparer deux distributions de probabilité, permet aussi
au décideur de pouvoir toujours classer deux loteries.
∀𝑝, 𝑞 ∈ ℙ, 𝑜𝑛 𝑎 𝑡𝑜𝑢𝑗𝑜𝑢𝑟𝑠 𝑝 ≿ 𝑞 𝑜𝑢 𝑞 ≿ 𝑝, 𝑝 ≈ 𝑞
b. Axiome de transitivité
Cet axiome traduit une rationalité pure qui induit la cohérence entre les classements.
∀𝑝, 𝑞, 𝑟, 𝑠𝑖 𝑝 ≿ 𝑞 𝑜𝑢 𝑞 ≿ 𝑟, 𝑎𝑙𝑜𝑟𝑠 𝑝 ≿ 𝑟
c. Axiome d’indépendance
∀𝑝, 𝑞, 𝑟 ∈ ℙ, ∀𝛼 ∈ [0,1] 𝑠𝑖 𝑝 ≿ 𝑞 𝑎𝑙𝑜𝑟𝑠 𝛼𝑞 + (1 − 𝛼)𝑟𝛼 ≿ 𝛼𝑞 + (1 − 𝛼)𝑟𝑞
En utilisant les loteries, cette axiome permet d’écrire :
𝑠𝑖 𝑝 ≿ 𝑞 𝑎𝑙𝑜𝑟𝑠 𝐿(𝑝, 𝑟; 𝛼, (1 − 𝛼) ≿ 𝐿(𝑞, 𝑟; 𝛼, (1 − 𝛼))
Cette axiome stipule que l’attitude d’un individu face aux deux loteries p et q ne devra dépendre
que de son attitude face à p et à q, et non pas de la façon d’obtenir p et q.
- La règle de décision
L’utilité d’une loterie de type L1 [(prob1, C11) ; (l-prob1 C12)] dépend de l'ensemble des
conséquences, puisque celle qui se réalisera effectivement est ignorée. L'utilité de chaque
loterie s'exprime, donc, comme l'espérance mathématique de l'utilité des conséquences,
autrement dit comme la somme des utilités des conséquences pondérées par leur probabilité de
réalisation.
L'espérance d'utilité d'une loterie Lj (notée EU(Lj) est la suivante:
2
𝐸𝑈(𝐿𝑗 ) = ∑ 𝑝𝑟𝑜𝑏𝑖 𝑈(𝑈𝐶𝑗𝑖 )
1
où probi désigne la probabilité associée à la réalisation de l'événement i et U(Cji) désigne l'utilité
accordée à la conséquence de la loterie Lj lorsque l'événement qui se réalise est i.
c’est la fonction d’utilité espérée de von Neumann et Morgenstern dans laquelle les probabilités
sont de type fréquentistes et sont donc considérées comme objectives.
3
L'agent étant confronté à un choix, il faut étendre ce raisonnement à l'ensemble des loteries. Est
sélectionnée celle qui lui procure l'espérance d'utilité la plus grande. Ceci permet de maintenir
le principe de la maximisation.
Exemple : supposons qu’un automobiliste a le choix entre deux trajets A et B. Pour chacun de
ces trajets, trois états de la circulation sont envisageables : fluide, chargée ou embouteillée. Les
conséquences s'identifient à la durée du trajet. Le tableau suivant donne l'utilité associée à
chaque trajet conditionnellement à chaque état de la circulation. Bien entendu, le caractère
avantageux d'un trajet est d'autant plus grand que la durée est courte.
Fluide Chargée Embouteillée
Utilité des conséquences de A 100 70 15
Utilité des conséquences de B 90 60 5
D’après les statistiques, le probabilité d’encombrement des itinéraires A et B sont :
Fluide Chargée Embouteillée
Utilité des conséquences de A 1/3 1/3 1/3
Utilité des conséquences de B ¾ 0 ¼
Déterminer l’utilité espérée de chaque trajet et préciser le trajet que choisira tout conducteur
rationnel.
II- Le modèle d’utilité espérée de Savage, Anscombe et Aumann
Les travaux théoriques pionniers de Léonard Savage ainsi que ceux de Francis Anscombe et
Robert Aumann ont étendu le modèle de décision de l'UE à l'ensemble des situations
incertaines, en introduisant la notion de probabilité subjective. La règle de décision demeure la
maximisation de l'utilité espérée comme dans le modèle de l'UE, cependant la conception du
modèle change ainsi que l'axiomatique. L'utilisation des probabilités subjectives pose un
nouveau problème au théoricien, celui de leur connaissance et de leur croyance.
1- La révolution des probabilités subjectives
Dans la seconde moitié du xx' siècle, l'essor des probabilités subjectives a ouvert de nouveaux
horizons à la modélisation des comportements en incertitude. Pour Savage et les néoclassiques,
le comportement des individus, dans n'importe quel contexte d'incertitude, est désormais
susceptible d'être modélisé. En faisant de toute probabilité une croyance, Savage rend caduque
4
la distinction entre risque et incertitude et le modèle SEU de Savage englobe celui de l'utilité
espérée de von Neumann et Morgenstern. L'argumentation de Savage peut s'illustrer ainsi:
même dans le cas d'un jeu de dé, où assigner une loi de probabilité apparaît simple, cette
apparence est conditionnelle. Le joueur présume que le dé n'est pas pipé, une condition dont il
ne peut pas être certain. Autrement dit, tout choix de distribution de probabilité est subjectif,
donc toute décision prise sur la base d'une loi de probabilité l'est également.
La généralité du modèle de Savage tient à la double nature des probabilités subjectives qui
désignent à la fois 1) les croyances que forment les êtres humains, chacun de leur côté, lorsqu'ils
ont une connaissance imparfaite des probabilités objectives ou lorsqu'ils veulent intégrer des
informations locales, pour prévoir un phénomène de nature aléatoire; 2) les probabilités qui
sont de purs jugements sur l'occurrence d'un phénomène qui n'est pas récurrent, telle que la
probabilité que l'homme aille sur la planète Mars au XXI' siècle.
Pour étendre le modèle UE, Anscombe et Aumann se focalisent sur les probabilités formulées
individuellement qu'ils analysent comme des chances. Les chances peuvent avoir des valeurs
connues et objectives comme dans un jeu de hasard ou inconnues et subjectives comme dans
une course de chevaux. Ces dernières peuvent être révélées.
III- Révision des croyances par l’acquisition d’information
On appelle révision des croyances, le processus par lequel un agent incertain incorpore
l’information qu’il reçoit et modifie ses croyances.
1. Exemple de modification de croyance
Considérons le jeu suivant : On lance deux d`es et on gagne N fois sa mise d`es lors que la
somme des chiffres des deux d`es est égale ou supérieur à 10.
Quelle est la probabilité de gagner à ce jeu et la condition de participation.
Supposons que nous avons l’information suivante ”le numéro 5 est apparu”, alors que
deviendrait la condition pour qu’on puisse participer à ce jeu en ayant cette information en plus.
2. La valeur espérée de l’information parfaite
Soit a* l’action optimale obtenue à l’aide du critère de Savage (ou du critère de Pascal) en
avenir mesurable. Ainsi, pour déterminer la valeur espérée de l’information parfaite (V EIP),
on utilisera le critère de SAVAGE en avenir mesurable. C’est-à-dire, nous allons évaluer
l’espérance du gain supplémentaire que l’on peut obtenir en comparant les résultats de l’action
choisie à priori et le résultat de l’action que l’on aurait choisie à posteriori c’est-à-dire en
connaissant l´état de la nature qui s’est réalisé. Donc, V EIP est donnée par :
5
𝑒𝑛 𝑒𝑛
𝑉𝐸𝐼𝑃 = ∑ 𝑝𝑒𝑖 (𝑠𝑢𝑝𝑎𝑗 (𝑅𝑎𝑗 ,𝑒𝑖 ) − 𝑅𝑎∗,𝑒𝑖 ) = ∑ 𝑝𝑒𝑖 𝑅𝑒𝑔𝑟𝑒𝑡(𝑎∗ , 𝑒𝑖 )
𝑒𝑖 =𝑒1 𝑒𝑖 =𝑒1
Où 𝑅𝑒𝑔𝑟𝑒𝑡(𝑎∗ , 𝑒𝑖 ) est le regret sous l’état 𝑒𝑖 lorsque l’action optimale est a*.
Exemple : calculer la valeur de l’information parfaite à partir de la matrice d’information du
problème de décision suivant en sachant la probabilité de réalisation de l’état 1 est de 0,8 contre
0,2 pour l’état 2 :
3. Système d’information
Considérons k indicateurs d’informations 𝐼1 , 𝐼2 , . . . , 𝐼𝑘 telles que les probabilités suivantes soient
connues (i.e. la probabilité d’avoir eu l’information 𝐼𝑙 lorsque l’état de la nature s’est révélé être
𝑒𝑖 ) :
𝑃(𝐼𝑙 /𝑒𝑖 ), ∀𝑙 = 1,2, … , 𝑘; ∀𝑖 = 1,2, … , 𝑛
L’intérêt étant de déterminer la probabilité d’avoir l’état de nature 𝑒𝑖 sachant qu’on a
l’information 𝐼𝑙 c’est-à-dire 𝑃(𝑒𝑖 /𝐼𝑙 ). Ainsi :
𝑃(𝑒𝑖 ∩ 𝐼𝑙 ) 𝑃(𝐼𝑙 /𝑒𝑖 )𝑝𝑒𝑖 𝑃(𝐼𝑙 /𝑒𝑖 )𝑝𝑒𝑖
𝑃(𝑒𝑖 /𝐼𝑙 ) = = = 𝑛
𝑃(𝐼𝑙 ) 𝑃(𝐼𝑙 ) ∑𝑖=1 𝑃(𝐼𝑙 /𝑒𝑖 )𝑝𝑒𝑖
Ensuite on calculera l’espérance mathématique de chaque action 𝑎𝑗 sachant qu’on possède
l’information 𝐼𝑙 :
𝑒𝑛
𝐸(𝑎𝑗 ⁄𝐼𝑙 ) = ∑ 𝑃(𝑒𝑖 /𝐼𝑙 )𝑅𝑎𝑗,𝑒𝑖 .
𝑒𝑖 =𝑒1
Pour chaque action 𝐼𝑙 , on retiendra l’action qui a la plus forte espérance mathématique, soit :
𝑎𝐼∗𝑙 = 𝑚𝑎𝑥[𝐸(𝑎𝑗 ⁄𝐼𝑙 )]
4. L’efficience du système d’informations
L’efficience d’un système d’informations {𝐼1 , 𝐼2 , . . . , 𝐼𝑘 } s’obtient par le rapport entre la valeur
espérée de l’information acquise via le système d’informations (VEIASI) et la valeur espérée
de l’information parfaite (VEIP). Cette efficience indique le pourcentage de gain du gain de la
VEIP capturé par le système d’informations {𝐼1 , 𝐼2 , . . . , 𝐼𝑘 }.
On détermine donc au préalable la VEIASI qui se calcule comme suit :
6
𝐼𝑘 𝑒𝑛
𝑉𝐸𝐼𝐴𝑆𝐼 = ∑ 𝑃(𝐼𝑙 /𝑒𝑖 )𝐸(𝑎𝐼∗𝑙 ) − ∑ 𝑝𝑒𝑖 𝑠𝑢𝑝𝑒𝑖 (𝑅𝑎𝑗,𝑒𝑖 )
𝐼𝑙 =𝐼1 𝑒𝑖 =𝑒1
𝑉𝐸𝐼𝐴𝑆𝐼
𝐸𝑓𝑓𝑖𝑐𝑖𝑒𝑛𝑐𝑒 =
𝑉𝐸𝐼𝑃
Si ce pourcentage (cette efficience) est fort(e), alors il est intéressant d’acquérir cet ensemble
d’informations et dans ce cas, les d´décideurs sont prêts à payer pour connaitre l’information.
A l’opposé, si cette efficience est faible, alors il sera inutile d’y recourir.
Déterminer l’action optimale avec l’obtention de cette information. Vous distinguerez le l’on a
l’information I du cas où on n’a pas l’information 𝐼 .̅
En reprenant l’exemple du chapitre précédent sur la SODECOTON, répondez aux questions
suivantes :
IV. Aversion au risque
1- Attitudes vis-à-vis du risque : l’équivalent certain
Pour un agent qui adhère aux axiomes de la théorie de l’utilité espérée, il sera possible d’évaluer
son attitude vis-à-vis du risque en comparant les niveaux de richesse possibles et les valeurs
d’utilité qu’il attribue à ces niveaux.
Un investissement risqué consiste à dépenser un certain capital (richesse) pour obtenir un
rendement aléatoire. Dans une situation de risque on suppose connue la distribution de
probabilité des rendements possibles.
On appelle équivalent certain d’une loterie une conséquence dont l’utilité est égale à l’utilité
espérée de la loterie. L’équivalent certain d’une action "a" c’est le montant certain qui laisse
l’agent indifférent entre obtenir ce montant ou recevoir le montant aléatoire correspondant à
7
l’action "a". Il s’agit du montant 𝑊 ∗ qui procure la même utilité que la richesse finale risquée
(𝑊0 + 𝑥̃).
̃𝑓 )) = 𝐸(𝑢(𝑊0 + 𝑥̃)))
𝑢(𝑊 ∗ ) = 𝐸 (𝑢(𝑊
Ce sera, par exemple, le prix maximal qu’un joueur sera prêt à payer pour un billet de loterie :
le joueur est indifférent entre le billet de loterie et la somme de monnaie correspondant à son
prix. Autrement dit, obtenir l’équivalent certain (qu’un agent donné attribue à une loterie) est
donc indifférent, pour cet agent, aux lots incertains de la loterie. La valeur investie dans un actif
risqué est l’équivalent certain des rendements possibles de cet investissement (si l’investisseur
évalue ces rendements possibles par leur utilité espérée).
Exemple : si l’utilité d’un investisseur est la fonction logarithme, quelle est l’utilité espérée et
l’équivalent certain d’un titre financier qui peut rapporter 100 euros avec une probabilité 1/4,
ou 10 euros avec une probabilité ¾ ?
D’une manière générale, si nous notons EC(l) l’équivalent certain d’une loterie l, et UE(l)
l’utilité espérée de la loterie, nous avons : U [EC(l)] = UE(l).
La notion d’équivalent certain permet de comparer des loteries et, d’une manière plus générale,
des situations de risque. Elle permet aussi de déterminer l’attitude face au risque d’un agent
dont la fonction d’utilité est connue. Réciproquement, en observant l’attitude face au risque
d’un agent et ses équivalents certains, il devient possible de caractériser sa fonction d’utilité.
a- Indifférence (neutralité vis-à-vis du risque)
Nous dirons qu’un agent est indifférent au risque lorsqu’il est indifférent entre une loterie et le
gain moyen que lui procure cette loterie, autrement dit s’il est prêt à payer le gain moyen pour
un billet de cette loterie. L’équivalent certain d’une loterie pour un tel agent est donc son gain
moyen.
Prenons une loterie de la forme :
- revenu a avec une probabilité p ;
- revenu b avec une probabilité 1 – p.
Nous avons donc : EC = p a + (1 – p) b, soit
p U(a) + (1 – p) U(b) = U(EC) = U(p a + (1 – p) b).
L’utilité espérée de la loterie est l’utilité du revenu moyen ; de ce fait, son équivalent certain
est égal à son revenu moyen. La formule précédente caractérise une fonction U dont le graphe
est une droite [la fonction U est nécessairement de la forme : U(x) = ax + b].
L’indifférence au risque est donc caractérisée par une fonction d’utilité linéaire (affine, en fait)
: son graphe est une droite. Pour une telle fonction, l’utilité marginale est constante.
8
pU(a) + (1-p)U(b) représente l’utilité espérée de la richesse ou EM de l’utilité de richesse.
U(pa + (1-p)b) est l’utilité de l’espérance math de sa richesse.
Figure : Indifférence au risque
b- le goût pour le risque
Lorsqu’un agent préfère une loterie à la possession sans risque de son gain moyen, on dit qu’il
montre de la propension au risque, ou encore qu’il est « risquophile ». Ce serait le cas de
certains propriétaires trouvant que les primes d’assurance sont trop élevées et qui préfèrent
encourir le risque de perdre la valeur de leur maison plutôt que de prendre un contrat
d’assurance. Le cas est rare lorsque des sommes importantes sont concernées, et, lorsqu’il se
produit, il provient plus d’une mauvaise appréciation des probabilités que de véritable
propension pour le risque. En revanche, pour de faibles risques de pertes (10 euros) et de larges
possibilités de gains (1 000 000 d’euros), il est très courant de voir des individus acheter des
billets de loterie alors que le gain espéré est (quasi) nul. Pour un tel agent, l’équivalent certain
de la loterie est supérieur à son gain moyen :
p a + (1 – p) b ≤ EC, soit, U (p a + (1 – p) b) ≤ U(EC) = p U(a) + (1 – p) U(b)
Une telle relation, qui définit la propension au risque, caractérise une fonction d’utilité convexe.
Pour une telle fonction, l’utilité marginale est croissante.
9
Figure : Propension au risque ou goût pour le risque
c- l’aversion pour le risque
L’attitude la plus commune dans les problèmes de décision à caractère économique est celle
d’aversion pour le risque. Ainsi, la demande d’assurance se maintient. Ce qui explique que la
plupart des propriétaires acceptent un contrat dont la prime est de 2 000 euros alors que leur
perte espérée n’est que de 1 000 euros. La différence est justifiée par l’aversion pour le risque
du propriétaire, ce qui permet à la compagnie d’assurances de faire face aux coûts de faire des
profits. D’une manière générale, pour un agent qui a de l’aversion pour le risque, l’équivalent
certain de la loterie est inférieur à son gain moyen, l’agent préférant une valeur inférieure mais
certaine à une situation où il risque de perdre. On a :
p a + (1 – p) b ≥ EC, soit, U (p a + (1 – p) b) ≥ U (EC) = p U(a) + (1 – p) U(b).
Cette relation, qui définit l’aversion pour le risque, caractérise une fonction d’utilité concave.
La fonction logarithmique en est un exemple. Pour une telle fonction, l’utilité marginale est
décroissante.
Figure : Aversion pour le risque
10
2. La prime de risque
On peut définir la prime de risque associée à une loterie (𝑥̃), comme la richesse qu’un agent
qui a de l’aversion pour le risque est prêt à payer pour ne pas avoir à encourir le risque. (Elle
indique la quantité de risque qu’un individu perçoit dans la loterie 𝒙
̃). La prime Π(𝑊0 , 𝑥̃)
s’obtient donc par la différence entre l’espérance de la loterie et le prix de vente de la loterie.
̃ s’obtient par la différence entre l’équivalent certain 𝑊 ∗ et la
Le prix de vente d’une loterie 𝒙
richesse initiale 𝑊0 :
𝑃𝑣 (𝑊0 , 𝑥̃) = 𝑊 ∗ − 𝑊0
La prime de risque est alors donnée par :
Π(𝑊0 , 𝑥̃) = 𝐸(𝑥̃) − 𝑃𝑣 (𝑊0 , 𝑥̃)
3. Indices d’aversion pour le risque
L’indicateur d’aversion au risque permet de comparer l’aversion au risque d’un agent par
rapport à celle d’un autre.
a. L’indicateur d’aversion absolue au risque
Arrow-Pratt ont proposé une approximation de la prime de risque :
𝑢′′ (𝑊0 + 𝐸(𝑥̃)) 𝜎𝑥2̃
Π(𝑊0 , 𝑥̃) = (− )( )
𝑢′ (𝑊0 + 𝐸(𝑥̃)) 2
La composante subjective de la prime de risque par l’approximation de ARROW PATT est
appelée Coefficient d’aversion absolue pour le risque, on le note par :
𝑢′′ (𝑊0 + 𝐸(𝑥̃))
𝑟𝐴𝑢 = −
𝑢′ (𝑊0 + 𝐸(𝑥̃))
b. La tolérance pour le risque
La tolérance pour le risque est donnée par la formule suivante :
1
𝑇 𝑢 (𝑤) =
𝑟𝐴𝑢 (𝑊)
Théorème d’ARROW-PRATT : Soit 𝑢𝑖 la fonction d’utilité de l’agent i(i = 1,2). Les trois
définitions suivantes sont équivalentes :
11
12