3.1.
1 La VaR non paramétrique
3.1.1.1 La simulation historique simple
La simulation historique repose sur l’utilisation des données historiques pour estimer
les réalisations futures des variables de marché. La première étape consiste à identifier les
variables de marché qui influencent le portefeuille (taux d’intérêt, taux de change, prix
de l’action..). On collecte les données de ces variables sur une période (les 501 journées
écoulées par exemple).
Soit Vi la valeur d’une variable de marché au jour i. Le (i)ième scénario pour cette variable
est :
Vi
Vn × (3.27)
Vi−1
On aura donc 500 scénarios possibles de variations entre aujourd’hui et demain, pour
chacune des variables. Pour chaque scénario, on calcule la variation de la valeur du por-
tefeuille et on obtient ainsi une distribution de probabilité des variations de la valeur du
portefeuille analysé. La VaR à 99% par exemple correspond à la perte au premier centile.
La simulation historique n’exige aucune hypothèse sur la distribution de probabilité des
rendements journaliers. En plus, elle ne nécessite pas le calcul des corrélations ou des
volatilités, et il suffit simplement d’avoir l’historique des rendements du portefeuille. La
prise en compte de l’épaisseur de la queue de distribution est la qualité principale de cette
méthode (Jorion (2000)[205]).
Cependant, la simulation historique présente les inconvénients suivants :
1) La valeur des quantiles n’est pas très précise car l’estimation de la distribution des
variations du portefeuille se fait sur la base d’un nombre fini d’observations. Toutefois,
le calcul d’un intervalle de confiance pour le quantile d’une distribution de probabilité
à partir d’un échantillon est possible. Soit x l’estimation du q quantile, son écart type
d’échantillonnage est :
r
1 q(1 − q)
× (3.28)
f (x) n
Avec n le nombre d’observations et f (x) la fonction de densité des pertes en x (on peut
choisir une distribution standard).
2) Un autre inconvénient de la méthode historique concerne l’hypothèse que les rendements
sont iid. Or, ceux-ci ne sont pas ne suivent pas forcément la loi normale et la volatilité
peut être très faible ou très élevée. Une extension possible de la méthodologie de départ
consiste à donner plus d’importance aux observations récentes.
200
3.1.1.2 La pondération des observations selon leur ancienneté
La procédure de départ donne la même pondération de chacune des observations. Ri-
chardson et al. (1997)[288] suggèrent de pondérer davantage les observations récentes. En
conséquence, au lieu de pondérer les N observations par un coefficient 1/N , l’observation
la plus récente prend α fois le poids de l’observation d’après :
wi = λt−1 w1 (3.29)
λn−1 (1 − λ)
(3.30)
1 − λn
α est compris entre 0 et 1. On converge vers la simulation historique à pondérations
égales c’est-à-dire 1/N , quand ce coefficient tend vers 1.
3.1.1.3 Simulation historique en pondérant la volatilité
Supposons que la volatilité journalière du marché est de 5% aujourd’hui, et que la
même volatilité constatée il y a deux mois est de 3% : mesurer le risque à partir des
données historiques va donc sous-estimer le risque. C’est la raison pour laquelle il est
impératif de tenir compte des variations de volatilité. Hull et White (1998)[194] proposent
d’appliquer à la VaR par simulation historique le coefficient :
Vi−1 + (Vi − Vi−1 ) σn+1
σi
Vn (3.31)
Vi−1
σi étant la volatilité journalière estimée en i-1.
3.1.1.4 La méthode du bootstrap
Il s’agit d’une variante de la simulation historique. En ayant un certain nombre de
variations de la valeur du portefeuille, on procède à un tirage par remise pour ensuite
constituer des échantillons sur lesquels on calcule les VaR. À titre d’exemple, sur un
échantillon de 100 observations, on effectue 100 000 tirages pour obtenir 1 000 nouveaux
échantillons. Les bornes de l’intervalle de confiance à 95% de la VaR correspondent à la
cinquième et la 95ieme plus grandes VaR.
3.1.1.5 La simulation Monte Carlo
La simulation Monte Carlo est une autre méthode non paramétrique qui utilise des
tirages aléatoires pour réaliser le calcul d’une quantité déterministe. Dans le cas du calcul
de la VaR, cette méthode numérique s’inscrit dans le même cadre que la VaR historique,
201
mais au lieu d’utiliser les données historiques, on les simule aléatoirement. On obtient
donc des échantillons de variations du portefeuille pour estimer enfin la distribution de
probabilité des rendements, et on calcule enfin la VaR pour un seuil de confiance donné.
La force de la simulation Monte Carlo c’est qu’elle ne nécessite aucune hypothèse sur la
normalité des rendements. La méthode est également capable de couvrir instruments non
linéaires, tels que les options (Damodaran (2007)[111]). En plus de ces avantages, Jorion
(2007)[206] rappelle que la simulation Monte Carlo génère l’ensemble de la distribution
et par conséquent, elle peut être utilisé par exemple pour calculer les pertes supérieures
à la VaR.
Un problème lié à l’approche Monte Carlo est son temps de calcul : la méthode nécessite
beaucoup de ressources, surtout pour les gros portefeuilles. Sa mise en œuvre peut se
révéler coûteuse selon Jorion (2000)[206]. Une autre faiblesse de la méthode est liée au
risque de modèle, qui se pose en cas de fausses hypothèses sur les modèles d’évaluation
et les processus stochastiques. Si ceux-ci ne sont pas correctement définis, les estimations
de VaR seront faussées (Jorion (2000)[205]).
3.1.1.6 La VaR stressée (SVaR)
Le ratio de fonds propres défini par les accords de Bâle impose un montant minimum
de fonds propres que doivent détenir les établissements financiers. Ces fonds permettraient
d’assurer la solidité financière des institutions financières et d’absorber les fortes pertes
dues à des éléments exogènes. Cependant, ce ratio réglementaire exerce l’effet pro-cyclique
suivant : en période de contraction, les risques sont plus grands, l’exigence en capital régle-
mentaire augmente, les banques par exemple tendent à restreindre l’offre de crédit ce qui
nourrit la récession. De la même manière, en période d’expansion économique, le risques
financiers sont relativement faibles, la VaR est relativement plus faible, et le capital ré-
glementaire requis diminue, ce qui nourrit l’expansion.
Cet effet pro-cyclique (renforçant la vigueur des cycles économiques) des fonds propres
avait été souligné par nombre d’analystes lors de la mise en place des accords de Bâle. Il
s’est vérifié au cours de la crise de 2007-2008. La pro cyclicité basée sur les anticipations
auto réalisatrices des agents est inhérente aux mesures de risque, et elle ne permet pas
d’identifier les signes d’une augmentation du risque. La VaR stressée( SVaR) s’inscrit dans
ce cadre et vise à réduire la pro cyclicité des fonds propres.
La SVaR est calculée de la même manière que la VaR historique, la période sélectionnée
est celle dans laquelle le portefeuille a subi des pertes significatives. Le comité de Bâle
préconise une période d’un an relatif aux pertes importantes de 2007-2008.
La VaR stressée doit être calculée hebdomadairement à un niveau de confiance de 99%
202
et un horizon minimal de détention de 10 jours. Le montant minimal de fonds propres est
une combinaison linéaire des VaR classique et stressée :
c = max {V aRt−1 ; mc ∗ V aRAV G } + max {SV aRt−1 ; ms ∗ SV aRAV G } (3.32)
La SVaR est non pro cyclique et permet de constituer des réserves suffisantes en période
de crise. Cependant, c’est une mesure pessimiste qui conduit à des exigences conservatrices
en période de stabilité (ce qui coûteux).
3.1.2 La VaR paramétrique
3.1.2.1 La VaR normale
Il s’agit de l’approche variance-covariance qui fait partie des méthodes paramétriques.
Elle est basée sur l’hypothèse que les rendements du portefeuille sont normalement dis-
tribués. L’hypothèse de normalité est l’approche la plus basique et est donc idéale pour
les portefeuilles simples ne comportant que des instruments linéaires. La linéarité signi-
fie que les rendements du portefeuille sont des fonctions linéaires des facteurs de risque.
Les rendements d’instruments linéaires sont donc supposés être distribués normalement.
Les instruments non linéaires, tels que les options, n’ont pas cette propriété de normalité
(Dowd (1998)[128]).
Cette approche est fondée sur les travaux de Markowitz (1952)[254]. Pour calculer la VaR
normale, il suffit de calculer la variance des rendements du portefeuille et appliquer la
formule :
V aR(α) = −µ + σqz (α) (3.33)
qz Représente le quantile de la loi normale centrée réduite.
L’avantage de l’approche variance-covariance est sa simplicité. En outre, l’hypothèse de
la normalité permet une conversion facile entre les différents niveaux de confiance et les
périodes de détention (Dowd (1998)[128]). Cependant, nous avons déjà mentionné les
limites du recours à la distribution normale en finance, son utilisation dans les calculs
conduit à une sous-estimation de la VaR.
A l’image de la simulation historique, on peut utiliser une pondération non égale des
rentabilités pour calculer les variances covariances : c’est le principe de la méthode EWMA
(Exponentially Weighted Moving Average Model ) que nous allons décrire plus bas.
203
3.1.2.2 La VaR de Student
Une VaR précise est conditionnée par une bonne description de la série des rende-
ments. Comme l’hypothèse de normalité des rendements conduit à une sous-estimation
de la VaR, les recherches récentes ont porté souvent sur des développement plus avancées
et des approches plus compliquées de la VaR.
La distribution t de Student est une distribution relativement simple et bien adaptée pour
traiter une distribution leptokurtique. L’avantage de cette approche est que la distribu-
tion converge vers la distribution normale pour un nombre infini de degrés de liberté. Par
conséquent, la VaR de Student peut être considérée comme une généralisation de la VaR
sous l’hypothèse de normalité.
Un point important concernant la distribution de Student est la détermination de degré
de liberté. Glasserman et al. (2000)[151] suggèrent de le définir de manière empirique.
Selon cette approche, les périodes de temps plus courtes donnent des degrés de liberté
appartenant à l’intervalle [4 ; 6].
De façon générale et selon Dowd (1998)[128], on obtient les degrés de liberté par l’expres-
4
sion : v = 4 + k−3 où k est le Kurtosis de la distribution des rentabilités. Les degrés de
liberté sont choisis de telle sorte qu’ils correspondent au Kurtosis empiriquement observé.
Le nombre de degrés de liberté est l’entier le plus proche qui satisfait l’équation précé-
dente. En utilisant le quantile de la distribution t de Student avec v degrés de liberté, on
peut calculer la t-VaR comme suit :
r
v−2
t − V aR(α) = µt + tαv .σt (3.34)
k
Cependant, la distribution t de Student est critiquée pour son incapacité à prendre en
compte l’asymétrie de la distribution des rendements des actifs (Lin et Shen (2006)[237]).
En outre, la VaR selon la distribution de Student peut produire des estimations trop
prudentes, en d’autres termes, les VaR seront trop élevées. De surplus, la distribution de
Student n’est pas stable : si deux variables sont distribués suivant la loi de Student, la
somme de ces variables n’est pas nécessairement une distribution de Student.
3.1.2.3 La CaviaR
Une branche de modèles de la VaR récemment développée se concentre sur l’estimation
du quantile. Au lieu de modéliser l’ensemble de la distribution, cette approche ne se
concentre que sur la queue gauche. La volatilité des marchés financiers n’est pas constante
dans le temps et présente des signes d’auto corrélation et de ’clustering’. La VaR est en
grande partie déterminée par la volatilité. Par conséquent, elle doit logiquement suivre le
même comportement. Engle et Manganelli (2004)[133] tentent de prendre en compte cette
204
caractéristique en proposant une spécification autorégressive et conditionnelle du quantile.
Ils développent ainsi le modèle CaviaR (Conditional Autoregressive Value at Risk ).
Soit : rt les rendements observés du portefeuille, p la probabilité associée à la VaR, β
le vecteur de m paramètres inconnus et ωt l’information disponible à la date t sur les
variables retenues (les rendements. . . ). La CaviaR est définie par :
m
X
CaviaRt = f (xt , β0 ) = β0 + βi V aRt−i + l(βm+1 , ..., βm+q ; Ωt−1 ) (3.35)
i=1
La formule peut être réduite à :
CaviaRt = β0 + β1 V ARt−1 + l(β2 , rt−1 ; V aRt−1 ) (3.36)
Le terme auto-régressif β va assurer la variation progressive de la VaR sur le temps.
La fonction l() permet de lier la VaR aux variables qui représentent l’information l’en-
semble ωt−1 (pour simplifier, on considère que ces variables concernent uniquement les
rendements). Grosso modo, le niveau de la VaR dépend de rt−1 (par β2 ) et de la V aRt−1
(par β1 ).
3.1.2.4 La VaR Cornish-Fisher
La VaR Cornish-Fisher est la VaR calculée en ajustant la VaR gaussienne afin de tenir
compte de l’aplatissement et l’asymétrie de la distribution. Pour la calculer, on utilise le
développement du Cornish et Fisher (1938)[104] qui donne une relation entre les moments
d’une distribution et ses quantiles. À l’aide des trois premiers moments, on peut calculer
le quantile qui tient compte de l’asymétrie et de l’aplatissement :
1 1 1
zcf ≈ z + (z 2 − 1)S + (z 3 − 3z)K − (2z 3 − 5z)S 2 (3.37)
6 24 36
Où z est le quantile de la loi normale standard ; S et K représentent respectivement le
coefficient d’asymétrie et d’aplatissement de la série.
3.1.2.5 La VaR avec modélisation de la volatilité
Le gestionnaire de risque doit prendre en compte la non constance de la volatilité et
doit en faire un suivi quotidien. Soit µi la rentabilité logarithmique : µi = ln( SSi−1
i
) . On
peut calculer σn à partir des volatilités historiques :
1 X 2
σn2 = µn−1 (3.38)
m
205
La moyenne µ̄ des µi est supposée nulle, cela signifie que la variation espérée sur une
journée est très petite. Cependant, cette équation accorde un poids égale à tous les µi .
On peut réécrire l’équation précédente pour une pondération quelconque :
X
σn2 = αi µ2n−1 (3.39)
P
Avec αi = 1. À partir de là, on peut développer plusieurs extensions :
1) Si on suppose que les pondérations αi diminuent de façon exponentielle avec le
temps, avec αi+1 = λαi , la formule précédente devient :
σn2 = λσn−1
2
(1 − λ)µ2n−1 (3.40)
Il s’agit du modèle de moyenne mobile à pondération exponentielle EMWA. Les bases
de données Riskmetrics crées par "JP morgan" utilisent ce modèle avec λ = 0.94. Ce
modèle est attractif car il permet un suivi quotidien des évolutions de la volatilité.
2) Le modèle Arch(m) développé par Engle[132] consiste à supposer qu’il existe un terme
supplémentaire qui représente la variance de long terme, le modèle s’écrit :
X
σn2 = γVi + αi .µ2n−1 (3.41)
Où Vl est le taux de variance de long terme.
3) Le modèle Garch(1,1) tient compte du taux de variance moyen de long terme et sur-
pondère les données les plus récentes, il s’écrit :
σn2 = γVl + βσn−1
2
+ αµ2n−1 (3.42)
Le Garch(1,1) utilise la dernière observation de µ2 et σn2 . Si on veut tenir compte des
autres dernières observations, on utilise un ordre plus grand pour le modèle Garch soit
Garch(p,q). Les paramètres du Garch sont estimés à l’aide de la méthode de maximum
de vraisemblance.
3.1.2.6 Utilisation de la théorie des valeurs extrêmes TVE
La théorie des valeurs extrêmes s’applique pour estimer les queues de distribution et
améliore donc l’estimation de la VaR. Soit F (x) la fonction de répartition d’une variable
X, et u une valeur de cette variable située dans la queue droite de la distribution.
β la probabilité que u < X < u + y sachant que x > u. La distribution de probabilité
206
cumulée s’écrit :
F (y + u) − F (u)
Fu (y) = (3.43)
1 − F (u)
Cette distribution converge vers une distribution de Pareto généralisée quand u aug-
mente. Cette distribution est définie par :
( −1
y
1 − (1 + ζ σ(u) ) ζ si : ζ 6= 0
Gζ,σ(u) (y) = y
(3.44)
1 − exp(− σ(u) ) si : ζ = 0
β et ζ représentent respectivement la forme et l’échelle de la distribution. Le paramètre
de forme définie l’épaisseur de la queue, il est égale à zéro pour une distribution normale
et compris entre 0.1 et 0.4 pour les séries financières.
Pour calculer la VaR au seuil q, on doit résoudre : F (V aR) = q. On obtient :
β n
V aR = µ + ( (1 − q)−ζ − 1) (3.45)
ζ nu
3.1.3 Les critiques des modèles de la VaR
Engle et Manganelli (2004)[133] estiment qu’une mauvaise estimation de la VAR pro-
voque une allocation inefficace des ressources financières car la sur-estimation ou la sous-
estimation des risques de marché a pour conséquence de maintenir des exigences élevés ou
faibles en capital réglementaire. Comme mesure du risque de marché, la VaR n’échappe
pas aux critiques justifiées par des limites théoriques et pratiques.
Premièrement, selon Artzner et al. (1999)[25], une mesure de risque cohérente doit
respecter les propriétés suivantes :
1. La monotonicité : ρ(Y ) ≥ ρ(X) si Y ≥ X. La valeur de cette mesure doit être plus
importante pour un portefeuille ayant des rendements plus faibles ;
2. L’invariance par translation : ρ(X + k) = ρ(X) − k. Si l’on ajoute un montant de
liquidité k à un portefeuille, la valeur de la mesure de risque doit diminuer de k ;
3. L’homogénéité :α > 0, ρ(αX) = αρ(X) la multiplication de la valeur du portefeuille
par un facteur α doit multiplier la valeur de cette mesure par α ;
4. La sous-additivité :ρ(X + Y ) ≤ ρ(X) + ρ(Y ), la valeur associée à cette mesure pour
deux portefeuilles ne doit pas excéder la somme des valeurs associées à chacun des
portefeuilles.
207
La VaR satisfait les trois premières propriétés, mais pas toujours la quatrième. La non-
additivité de la VaR est considérée comme l’inconvénient le plus important de la VaR 4 .
Deuxièmement, Danielsson et Zigrand (2006)[112] soutiennent que la VaR utilisée à des
fins réglementaires peut fausser les bonnes pratiques de gestion des risques. En plus, l’idée
de la modélisation du futur par le passé ignore les évolutions non anticipées que peuvent
connaître les marchés.
Troisièmement, la VaR ne décrit pas les pertes au-delà du niveau de confiance spécifique.
Elle ne s’intéresse donc pas aux valeurs extrêmes, au-delà du seuil de confiance. L’hypo-
thèse de normalité n’est pas vérifiée et les données de marché s’éloignent sensiblement
de la distribution normale. Plus particulièrement, la courbe des rendements sur tous les
marchés est leptocurtique. Une des alternatives qui existent consiste à utiliser des distri-
butions elliptiques.
Quatrièmement, les portefeuilles constitués n’évoluent pas forcément de manière propor-
tionnelle aux variations des marchés (les portefeuilles qui contiennent des options par
exemple). La VaR n’a donc aucune utilité si elle ne tient pas compte de ce problème de
non linéarité. Le modèle de valorisation des options de Black et Scholes (1973) [56] sup-
pose que la volatilité est constante, ce n’est pas le cas en réalité. et il serait donc fallacieux
de calculer la VaR d’un portefeuille contenant des options dont la volatilité est supposée
constante.
Cinquièmement, pour le calcul de la volatilité du portefeuille, on s’appuie sur la matrice
des variances /covariances des actifs. Or, la stabilité des corrélations entre les actifs n’est
pas toujours vérifiée, c’est une des raisons pour lesquelles il est nécessaire d’évaluer des
scénarios de crise par les "stress tests".
Sixièmement, le BIS 5 note qu’au début de son application, la VaR a semblé être efficace
car il y avait peu de risques à mesurer et que le recours à de fausses hypothèses fait de la
VaR l’une des idées les plus dangereuses largement répandues dans monde de la finance. À
l’extrême, Taleb (1997) 6 suggère l’abandon de la VaR en la qualifiant comme une mesure
"potentiellement dangereuse" car elle est "souvent non valide dans le monde réel".
septièmement, il existe un grand nombre de modèles de calcul de la VaR qui diffèrent
dans leurs hypothèses et dans leurs les résultats. De même, et pour une même méthode,
il existe plusieurs paramétrages possibles et qui peuvent avoir un impact significatif sur
les résultats.
Enfin, la VaR ne tient pas compte du risque de liquidité. Au mieux, le risque pour les
grandes positions illiquides est ajusté à la hausse en utilisant un horizon de temps plus
4. En rapport avec la liquidité, Sun (2012)[313] va encore plus loin en affirmant que la mesure de
risque cohérente introduite par Artzner et al. (1999)[25] n’inclut pas les effets de liquidité, et il introduit
des mesures relatives au risque de liquidité.
5. https://www.bis.org/publ/bcbs128.pdf
6. https://www.fooledbyrandomness.com/jorion.html
208
long dans le calcul de la VaR. Cette méthode est imprécise car le choix de l’horizon se fait
de manière subjective, la VaR journalière est multipliée par la racine carrèe de l’horizon,
alors qu’on devrait plutôt calculer les variances covariances pour toute la période.
3.2 Les modèles VaR avec incorporation de la liquidité
La littérature ne manque pas des modèles qui tentent d’intégrer la composante de
la liquidité dans le modèle standard de la VaR. Les modèles de la LVaR représentent la
première tentative d’intégration complète du risque de liquidité dans un cadre de la VaR
classique.
Au fil du temps, la littérature a présenté un certain nombre de modèles LVaR, chacun
présentant une intégration et une compréhension différentes du risque de liquidité avec
différentes hypothèses sous-jacentes. Alors que la gamme de modèles semble diversifiée,
les modèles importants peuvent être divisés en trois catégories :
1. Modèles d’ajustement par la fourchette : ces modèles tentent de corriger la VaR
standard en intégrant les coûts liés à la liquidité tels que représentés par la fourchette
bid-ask et sa variabilité. La plupart de ces modèles utilisent un cadre de la VaR
paramétrique pour l’ajuster ensuite par la fourchette.
2. Modèles d’ajustement paramétrique : les modèles de cette classe ajustent les para-
P
mètres de la VaR classique (comme la matrice variance-covariance , ou le vecteur
des moyennes µ), en tenant compte les coûts de transaction liés à la liquidité.
3. Modèles de stratégie de liquidation optimale : ces modèles sont les plus cohérents
et les plus robustes, ils modélisent la stratégie de liquidation.
Nous présentons dans cette partie une revue de littérature des modèles LVaR les plus
connus. Nous résumons les principaux modèles et nous en présentons les avantages et les
inconvénients. Pour une revue de littérature plus détaillée sur les modèles LVaR, on peut
se référer à Stange et Kaserer(2009)[309] et Bhyat (2010) [50].
3.2.1 la modèles LVaR basés sur la fourchette
3.2.1.1 Le modèle de Bangia et al. (1999)[31]
Le modèle de Bangia et al. (1999)[31] est consideré comme le premier modèle LVaR
qui tient compte des risques liés aux coûts des transactions. Le modèle est facile à mettre
en œuvre et repose sur l’idée que le risque de liquidité peut être séparé du risque relatif
209
aux rendements. Bangia et al. (1999)[31] montrent que le risque de liquidité est une partie
importante du risque global et constitue donc un élément important à modèliser.
Bangia et al. (1999)[31] distinguent le risque lié aux rendements des actifs (risque de mar-
ché), et le risque lié à la liquidité des actifs. En principe, le risque de marché et le risque de
liquidité sont positivement corrèlés dans la plupart des marchés. Bangia et al. (1999)[31]
distinguent le risque de liquidité exogène et le risque de liquidité endogène.
Le risque de liquidité exogène est le résultat des caractéristiques du marché et il est subi
par tous les acteurs du marché et est non affecté par les actions d’un seul participant.
Le marché des titres liquides est généralement caractérisé par des volumes de négociation
importants, une fourchette bid-ask très petite et des coûts de liquidité négligeables.
Le risque de liquidité endogène, en revanche, est un risque spécifique et varie selon les
acteurs du marché, et l’exposition d’un seul participant est affecté par le volume de ses
transactions.
Afin de tenir compte du risque de liquidité, Bangia et al. (1999)[31] utilisent la four-
chette bid-ask comme proxy de la liquidité. Si on suppose que cette fourchette est aléatoire,
on peut écrire le coût de liquidité comme :
1
COL = Pt (S̄ + ασ̃) (3.46)
2
Pt est le prix moyen, S̄ représente la fourchette relative moyenne, la fourchette relative
étant égale à Ask−Bid
Pt
. α est un multiple qui permet de couvrir 99% des cas pour un seuil
de risque de 1%. Puisque la distribution de la fourchette est loin de suivre une distribu-
tion normale, ce facteur α est detérminé de façon empirique. Les auteurs affirment que sa
valeur se situe entre 2 et 4.5 selon les marchés.
Afin de traiter simultanément le risque de marché et le risque de liquidité, les auteurs
font hypothèse que les événements défavorables extrêmes dans les rendements et les évé-
nements extrêmes des fourchettes bid-ask se produisent en même temps. Ainsi, le calcul de
la VaR incorpore 99% des mouvements de marché et 99% des mouvements de la liquidité.
La 99%ieme valeur la plus défavorable du prix s’écrit :
0 1
= Pt (e−2.33σt ) −
P99% Pt (S̄ + ασ̃) (3.47)
2
La VaR ajustée du risque de liquidité est égale á :
1
LV aR = Pt (1 − e−2.33σt ) +
Pt (S̄ + ασ̃) (3.48)
2
La principale critique du modèle reste la non prise en compte du risque de liquidité
210