est plus grande sur la période spécifiée que sur toute la période étudiée.
Pour le β3 , la
sensibilité des rendements des actifs à la liquidité du marché est également plus grande
en moyenne durant la période de tension sur le marché.
Liquidité
β1 β2 β3 β4
moyenne
Aéronautique 1.1358% 86.4905% 3.6951% 1.1324% 0.0199%
Automobile 1.3629% 127.7690% 1.4635% 1.6970% -1.7156%
Banque assurance, 1.4043% 121.1311% 6.3367% 2.3955% 3.5188%
Biens d’équipement, industrie 1.1310% 92.0527% 3.0188% 1.6692% -0.3026%
Construction 1.0748% 91.5382% 5.0706% 0.9483% 0.1389%
Distribution, agro-alimentaire 0.8856% 84.0236% 2.2292% 0.1112% 0.0229%
Energie 1.0260% 88.4009% 4.0078% 0.5781% -0.5476%
Hôtellerie, Tourisme, restauration 1.0533% 85.3028% 2.5042% 0.8374% 1.0125%
Informatiqu, communication 1.0578% 80.2497% 0.5169% 0.4903% -0.7264%
Luxe 1.0155% 92.2339% 1.8525% 0.5706% -1.0334%
Table 3.7 – Les coefficients βk par secteur d’activité sur la période 04/2015-09/2016.
Sur la période 2015-2016, les coefficients et la liquidité moyenne par secteur sont
présentés dans le tableau 3.7. On constate que la liquidité moyenne est supérieure en
comparaison à la période 2012-2018 tout secteur d’activité confondu, et cela va de soi
compte tenu les résultats obtenus en chapitre 2. Les sensibilité β1 , β3 et β4 sont également
supérieures en 2015-2016 par rapport à la période 2012-2018.
1.3.3 Estimation du modèle LCAPM
[Link] Estimation LCAPM pour les actions
Nous allons à présent estimer les deux variantes du modèle LCAPM décrites dans les
équations 3.6 et 3.11. Les rendements sont la variable à expliquer, et les coefficients sont
les variables explicatives. En premier lieu, nous estimons le coefficient βk pour la période
06/2012 à 12/2013, puis nous allons constituer un historique des coefficients βk en faisant
une estimation par fenêtre glissante (Rolling window). L’échantillon constitué comprend
donc la période 01/2014 à 12/2018.
Un problème de multicollinéarité peut se poser dans nos régressions notamment la ver-
sion complète du LCAPM. Nous vérifions donc la corrélation entre les βk dans la table 3.8.
Nous avons vu précédemment que la liquidité présente la caractéristique de persis-
tance. Acharya et Pedersen (2005)[3] soulignent que la persistance de la liquidité implique
que la liquidité prévoie les rendements futurs. Intuitivement, une forte illiquidité aujour-
d’hui prédit une forte illiquidité espérée la période suivante, ce qui implique un rendement
170
β1 β2 β3 β4
β1 1
β2 0.213 1
β3 -0.0063 0.2016 1
β4 0.0191 -0.0026 0.1586 1
Table 3.8 – Matrice de corrélations entre les coefficients βk .
requis élevé. Jones (2002)[203] constate également que le rendement annuel espéré aug-
mente avec la fourchette bid-ask de l’année précédente et diminue avec le "turnover "
de l’année précédente. La persistance de la liquidité implique naturellement la présence
d’autocorrélation, et cela peut entraîner un biais dans l’estimation LCAPM. Certains au-
teurs suggèrent d’utiliser les innovations d’illiquidité plutôt que le niveau d’illiquidité. Par
exemple, Pastor et Stambaugh (2003)[279] et Acharya et Pedersen (2005)[3] utilisent des
résidus obtenus à partir d’un modèle AR(2). Comme ces résidus ne sont pas corrélés, ils
permettraient de résoudre le problème de la persistance de la liquidité. Nous allons suivre
ces travaux et nous tiendrons compte des innovations liées à la liquidité.
L’estimateur du modèle LCAPM se fera à l’aide d’une régression panel. Nous préférons
cette approche plutôt que par exemple l’approche Fama et Macbeth (1973)[137] en raison
des biais statistiques que comporte cette dernière et qui ont été soulignés notamment par
Petersen (2009)[285] qui suggère d’ailleurs le recours à la régression panel. Sans définir les
restrictions de modèle suivantes : λ1 = λ2 = −λ3 = −λ4 , les résultats des estimations du
modèle LCAPM décrits dans les équations 3.6 et 3.11 sont donnés dans les tables 3.9 et
3.10.
Rit Coefficient Écart-type t P > |t| Intervalle confiance 95%
β1 0.0004781 0.0005664 0.84 0.399 [-0.0006321 , 0.0015883]
β2 -0.0005104 0.0017962 -0.28 0.776 [-0.004031 , 0.0030101]
β3 0.0209731 0.0038325 5.47 0.000 [0.0134613 , 0.0284848]
β4 0.0080921 0.0041244 1.96 0.05 [0.00000814 , 0.0161761]
constante -0.0000527 0.0004915 -0.11 0.915 [-0.0010162 , 0.0009107]
F(4, 45932) = 10.28
Prob > F = 0.000
Table 3.9 – Estimation du modèle LCAPM décrit dans l’équation 3.6 pour les actions.
En général, le modèle LCAPM ne donne pas de résultats satisfaisants pour les 36
actions choisies. Les coefficients relatifs au β1 , β2 et la constante qui représente E(c) ne
sont pas significatifs dans le premier modèle. Seuls les coefficients relatifs au β3 et β4
sont significatifs. Le coefficient relatif au β3 est positif et significatif, ce qui signifie que
171
Rit Coefficient Écart-type t P > |t| Intervalle confiance 95%
β1 0.0008007 0.0005637 1.42 0.156 [-0.0003043 , 0.0019056]
β5 -0.0041329 0.0015613 -2.65 0.008 [-0.007193 , -0.0010728]
constante -0.0002656 0.00049 -0.54 0.588 [-0.0012261 , 0.0006949]
F(2, 45932) = 4.46
Prob > F = 0.0116
Table 3.10 – Estimation du modèle LCAPM décrit dans l’équation 3.11 pour les actions.
la covariance entre les rendements boursiers et l’illiquidité du marché est positivement
associée aux rendements boursiers du marché français. Le coefficient relatif au β4 est positif
et significatif au niveau 5%. Par conséquent, la covariance entre l’illiquidité des actions
et les rendements du marché est positivement liée aux rendements des actions du marché
français. Les résultats pour le β4 sont en contradiction avec les conclusions d’Acharya et
Pederden (2005)[3] pour le marché américain et de Vu et al. (2015)[324] pour le marché
boursier australien. Pour le deuxième modèle (table 3.10), seul le coefficient relatif à l’effet
agrégé de la liquidité est significatif.
[Link] Estimation LCAPM pour les portefeuilles
Pour conduire l’analyse par portefeuille, on construit 5 portefeuilles avec différents
niveaux de liquidité, allant du moins liquide au plus liquide. Le portefeuille 1 ( respecti-
vement 5) est le portefeuille le moins (respectivement le plus) liquide. Nous utilisons des
données journalières sur l’illiquidité et les rendements pour construire ces portefeuilles.
Nous allons ensuite estimer les deux variantes du modèle LCAPM décrites dans les équa-
tions 3.6 et 3.11. Les rendements sont la variable à expliquer, et les coefficients βk sont
les variables explicatives. En premier lieu, nous estimons le coefficient βk des portefeuilles
constitués pour la période 06/2012 à 12/2013, puis nous allons constituer un historique
des coefficients βk en faisant une estimation par fenêtre glissante (Rolling window ).
La figure 3.2 présente le rendement et illiquidité moyens ainsi que les βk des cinq porte-
feuilles pour l’ensemble de la période étudiée.
On constate d’abord que les actions les plus liquides (portefeuille 5) semblent pré-
senter le moindre rendement. Le β1 diminue avec le degré de liquidité du portefeuille, ce
qui rejoint les conclusions d’Acharya et Pedersen (2005)[3] et de Lee (2011)[227]. Cela
traduit le fait que plus le portefeuille est liquide, moins son rendement boursier est lié au
rendement global du marché. Une explication possible de cela pourrait être le fait que les
actions dont le niveau de liquidité est plus élevé peuvent être liquidées plus librement et
sans problème et donc la covariance entre le rendement de l’action et le rendement du
marché est plus faible.
172
Figure 3.2 – Rendement et illiquidité moyens ainsi que les βk des portefeuilles 1 à 5.
En ce qui concerne le β2 , on observe qu’il diminue avec le degré de liquidité. Ce résultat
est en accord avec Acharya et Pedersen (2005)[3], Lee (2011)[227] et Vu et al. (2015)[324].
Ce résultat signifie que plus le portefeuille est liquide, moins son degré d’illiquidité est
susceptible d’évoluer en même temps que celui du marché. Une des explications possibles
de cela est le fait que quand le marché devient moins liquide, les acteurs du marché ont
tendance à se débarrasser des titres illiquides au profit des actions plus liquides, ce qui
rend les titres liquides encore plus liquides.
β3 présente des résultats mitigés. D’abord une tendance à la baisse pour les porte-
feuilles 1, 2 et 3 et puis une tendance à la hausse allant du portefeuille 3 au portefeuille
5. La baisse du β3 avec le niveau de la liquidité est soulignée dans les travaux d’Acharya
et Pedersen (2005)[3]. Cependant, puisque β3 décrit le fait que les investisseurs sont prêts
à détenir des actifs liquides avec un rendement plus faible si le marché devient moins
liquide, il est normal d’observer un β3 plus élevé dans les portefeuilles plus liquides (bien
que la différence ne soit que marginale). C’est le cas allant du portefeuille 3 au portefeuille
5. Ceci est en accord avec les travaux de Lee (2011)[227] et Vu et al. (2015)[324].
Enfin, le quatrième bêta augmente (sauf pour le portefeuille 2) avec le niveau de liqui-
dité. Cette tendance rejoint les conclusions d’Acharya et Pedersen (2005)[3] concernant
173
l’hypothèse d’une fuite vers la liquidité dans un marché illiquide. Les valeurs des β4 sont
négatives et assez proches de 0. Rappelons que β4 reflète la volonté des investisseurs de
détenir des actions liquides avec un rendement plus faible dans un marché à la baisse. Il
est donc raisonnable que plus le portefeuille est illiquide, plus il est sensible aux mouve-
ments de rendement du marché lorsque celui-ci est à la baisse.
L’estimation des deux modèles d’Acharya et Pedersen (2005)[3] décrits dans 3.6 et
3.11 est donnée dans les deux tableaux 3.11 et 3.12. À part pour β3 , tous les coefficients
du modèles sont non significatifs pour le modèle complet. L’effet agrégé de la liquidité est
par contre négatif et significatif. Ce dernier résultat est en accord avec celui d’Acharya
etPedersen (2005)[3] et Lee (2011)[227], mais en contradiction avec celui de Vu et al.
(2015)[324].
En général et conformément à Acharya et Pederson (2005)[3] et Kim et Lee (2014)[214],
il n’y a pas de résultats probants du modèle LCAPM sous sa version complète au niveau
des portefeuilles.
Rit Coefficient Écart-type t P > |t| Intervalle confiance 95%
β1 0.0028465 0.0027851 1.02 0.307 [-.0026134 , .0083063]
β2 -0.0046265 0.004781 -0.97 0.333 [ -.0139989 , .0047458]
β3 0.0331658 0.0110034 3.01 0.003 [.0115954 , .0547362]
β4 0.0153518 0.0174997 0.88 0.38 [-.0189536 , .0496572]
constante -0.0019264 0.0023571 -0.82 0.414 [-.0065472 , .0026944]
F(4,6376) =4.94
Prob > F = 0.001
Table 3.11 – Estimation du modèle LCAPM décrit dans l’équation 3.6 pour les portefeuilles.
Rit Coefficient Écart-type t P > |t| Intervalle confiance 95%
β1 0.0008049 0.0007684 1.05 0.295 [-0.0007012 , 0.002311]
β5 -0.0090101 0.0041076 -2.19 0.028 [-0.0170608 , -0.0009594]
constante -0.0001245 0.0006435 -0.19 0.847 [-0.0013858 , 0.0011368]
F(2,6378) = 4.73
Prob > F = 0.0089
Table 3.12 – Estimation du modèle LCAPM décrit dans l’équation 3.11 pour les portefeuilles.
L’application LCAPM que nous venons de faire peut être améliorée de plusieurs ma-
nières :
Tout d’abord, pour la robustesse du modèle, on peut introduire des variables de contrôle
telles que la taille des firmes ou les rendements retardés. Kim et Lee (2014)[214], par
exemple, utilisent la capitalisation boursière comme variable de contrôle.
D’autres méthodes d’estimation pourraient être utilisées comme l’approche en deux étapes
174
de Fama-Macbeth (1973) ou l’estimation par la méthode des moments généralisée (GMM).
L’application de cette dernière dans l’évaluation des actifs est détaillée dans Cochrane
(2001)[99].
Dans cette application, nous n’avons pas pris en compte l’impact des différentes pé-
riodes de détention sur la liquidité. En utilisant le rendement et la liquidité journaliers,
nous supposons implicitement que la période de détention des investisseurs est d’un jour,
ce qui est une hypothèse forte. En effet, plusieurs études démontrent l’influence du choix
de l’intervalle temporel sur les estimations des coefficients Bêtas pour le cas du modèle
CAPM. Levhari et Levy (1977)[234] ont montré que plus l’horizon temporal choisi est
court, plus les estimations des coefficients Bêtas sont biaisées. Les mêmes conclusions ont
été tirées par Handa et al. (1989)[166] qui affirment qu’un actif donné peut avoir différents
Bêtas selon la fréquence des rendements retenue.
Enfin, notre échantillon ne comprend pas d’actifs illiquides tels que les obligations et les
actions des PME. Ces actifs constituent une fraction non négligeable des échanges sur les
marchés.
Néanmoins, les résultats démontrent l’importance de tenir compte du niveau de la liqui-
dité mais également de la dynamique de celle-ci. Les différentes sensibilités βk sont elles
aussi variables selon la conjecture économique.
175
2 Incorporation de la liquidité dans la gestion du por-
tefeuille
Pour les investisseurs institutionnels, l’une des préoccupations essentielles en termes
de gestion des risques concerne la liquidité. Un grand nombre d’études ont démontré que
la liquidité du marché est une variable importante dans les choix d’investissement.
Le but de ce travail est de concevoir des contraintes de liquidité pour le modèle de sélection
de portefeuille des entreprises de CAC 40. Nous définissions d’abord plusieurs mesures de
la liquidité pour les titres et pour le portefeuille. En utilisant les données du marché des
actions du CAC 40, nous comparons la répartition optimale de trois portefeuilles avec et
sans contraintes de liquidité.
L’implémentation des contraintes de liquidité est faite également en distinguant la période
de croissance des marché et la période de récession.
2.1 Revue de littérature de la gestion du portefeuille
La théorie du portefeuille a connu une évolution majeure grâce aux travaux de Harry
Markowitz qui est considéré comme le fondateur de la théorie moderne du portefeuille.
En 1952, Markowitz[254] parvient à concrétiser le concept de diversification et à modéli-
ser le rapport risque/rendement par l’approche espérance-variance. Un nombre important
de publications qui traitent la question de l’allocation optimale du portefeuille, a vu le
jours depuis. Les modèles les plus récents discutent notamment les contraintes spécifiques
utilisées dans le processus de l’optimisation du portefeuille. Ces contraintes sont imposées
de différentes manières avec les multiples variables du modèle.
Un exemple de contraintes imposées au modèle classique de minimisation de la va-
riance est celui de DeMiguel et al. (2009)[119]. Les contraintes sont imposées sur la norme
du vecteur (qui est l’extension de la notion de la valeur absolue aux vecteurs) de poids du
portefeuille formé. La norme du vecteur de poids est limitée par une valeur déterminée.
DeMiguel et al. (2009)[119] démontrent que cela produit ce qu’ils appellent une "optimi-
sation robuste du portefeuille". Leurs résultats obtenus sont comparés avec d’autres stra-
tégies, qui ont été relevées dans la littérature, comme dans et Ledoit et Wolf (2003)[225]
ou Jagannathan et Ma (2003)[200] qui proposent une stratégie restrictive dans la vente à
découvert du portefeuille. Dans ces stratégies, la moyenne de deux estimateurs construit
la matrice de variance-covariance.
Lobo et al. (2007)[244] ont examiné le problème de l’optimisation des portefeuilles en
176
fonction des coûts de transaction et des contraintes d’exposition au risque. La maximisa-
tion du rendement espéré est effectuée avec deux types de contraintes :
— Les coûts de transaction sont introduits de deux manières : coûts de transaction
fixes et variables. Le coût fixe serait le taux de transaction, quel que soit le montant
de la transaction. Le coût variable dépend de la valeur de la transaction ;
— Les contraintes de diversification sont également considérées en limitant le montant
maximum investi dans chaque actif.
Parmi les autres exemples d’études sur les coûts de transaction, on peut citer Ma-
gill et Constantinides (1976)[251], Patel et Subrahmanyam (1982)[280], Davis et Norman
(1990)[115], Kellerer et al. (2000)[211], Konno et Wijayanayake (2001)[217], Baixauli-
Soler et al. (2011)[28] et Babazadeh et Esfahanipour (2019)[27]. Chang et al. (2000)[85]
ont étudié comment imposer des contraintes qui limitent non seulement le nombre d’actifs
présents dans le portefeuille, mais aussi le pourcentage maximum alloué à chaque actif.
Ils montrent que la recherche de solutions devient plus complexe et que les frontières ef-
ficientes sont discontinues en présence de ces contraintes.
Une autre catégorie d’études traitent ce qu’on appelle les contraintes de cardinalité, qui
limitent un portefeuille à avoir un nombre déterminé d’actifs. Parmi ces études, on peut
citer : Maringer et Kellerer (2003)[253], Shaw et al. (2008)[300], Bertsimas et Shioda
(2009)[47] et Anagnostopoulos et Mamanis (2011)[19].
Pour Bonami et Lejeune (2009)[61], le modèle de sélection du portefeuille permet la
minimisation de la variance, où le rendement attendu des actifs est considéré comme
stochastique. Une contrainte probabiliste introduite impose que le rendement attendu
du portefeuille soit supérieur au niveau souhaité avec un niveau de confiance spécifié.
On peut citer également d’autres exemples d’études de contraintes stochastiques : Dent-
cheva et Ruszczynski (2006)[122], Huang (2007)[190] et Hasuike et al. (2009)[175]. Plus
récemment, Huang (2020)[191] prosose un processus stochastique avec sauts. Selon lui,
de nombreux événements majeurs tels que les nouvelles inventions, les guerres et les po-
litiques économiques, la pandémie généralisée... peuvent provoquer des sauts brutaux des
prix. Par conséquent, par rapport aux processus de diffusion continues, les équations dif-
férentielles stochastiques avec sauts peuvent mieux décrire le comportement du marché.
Dans Behr et al. (2013)[39], plusieurs stratégies d’investissement, utilisant l’optimisa-
tion de portefeuille, sont comparées. Des contraintes sont imposées sur les poids maximum
et minimum autorisés pour chaque actif du portefeuille. Les résultats obtenus sont com-
parés au portefeuille de référence, qui est le portefeuille également réparti (1/N) et le
portefeuille de marché. Outre la comparaison avec les portefeuilles de référence, les résul-
177
tats sont comparés avec différentes stratégies telles que les contraintes relatives à la vente
à découvert, les contraintes relatives à la norme du vecteur de poids et différentes formes
de construction de la matrice de covariance.
À l’aide d’un algorithme évolutif (evolutionary algorithm), Mendonça et al. (2020)[260]
utilisent les méthodes de prise de décision pour déterminer approximativement le compor-
tement des investisseurs selon trois fonctions choisies pour représenter différents profils
d’investisseurs (conservateur, modéré et agressif).
Les modèles traditionnels de choix de portefeuille moyenne-variance de Markowitz
(1952)[254] ou les modèles de variance minimale (Best et Grauer (1992)[49] ; DeMiguel
et Nogales (2009)[120]), ne considèrent généralement que les aspects liés au risque et au
rendement dans l’analyse des investissements. En général, ces modèles ne tiennent pas
compte de la liquidité des actifs, qui peut avoir des effets négatifs pour l’investisseur.
L’hypothèse idéale d’une liquidité illimitée ou d’abscence de l’impact sur le marché sur-
estime la performance des modèles traditionnels de choix de portefeuille.
Les modèles développés pour pallier les insuffisances des modèles traditionnels n’ont
pas apporté une réponse suffisante vis à vis de la liquidité. Black et Litterman (1990)[55]
par exemple ont proposé de considérer dans un premier lieu (approche dite d’équilibre)
que les rendements espérés sont ceux qui rendent le marché optimal(Benchmark ) . L’in-
vestisseur peut ensuite apporter sa contribution en appliquant des vues. Le portefeuille
optimal deviendrait alors une combinaison linéaire du Benchmark et la somme pondérée
des portefeuilles représentant le point de vue de l’investisseur. Les limites de ce modèle
viennent des corrélations ’cachées’ : quand beaucoup d’intervenants sur le marché ap-
pliquent le même modèle et doivent déboucler les mêmes positions en même temps, la
liquidité disparaît et les corrélations explosent.
Au cours du processus de décision sur le choix d’un portefeuille, non seulement le
risque et le rendement qui sont considérés comme des éléments pertinents, mais égale-
ment la période pendant laquelle l’investisseur est disposé à maintenir sa position et la
possibilité de vendre rapidement l’actif.
Supposer que les actifs peuvent être échangés en continu, quelle que soit la quantité, peut
induire en erreur. La valeur d’un placement dans un actif particulier est liée au nombre
d’actifs détenus et à leur prix. Toutefois, en fonction de la quantité d’actifs détenus, il de-
vient extrêmement difficile de clôturer une position à un prix donné. Un petit investisseur
peut probablement vendre tous ses actifs au prix souhaité, mais un grand investisseur
n’aura guère la même possibilité. Une réduction du prix serait nécessaire pour rendre cela
possible. Par conséquent, une offre importante d’actifs entraîne une baisse du prix de l’ac-
178
tif, ce qui réduit le rendement de sa vente (Amihud et al. 2012)[18]. Par conséquent, une
valeur singulière et unique d’un portefeuille, comme l’ont souligné Weber et al. (2013)[327]
et Cetin et al. (2010)[78], n’est qu’une mesure artificielle.
Comme nous venons de voir, la valeur d’un actif peut ne pas être unique dans la pra-
tique en raison d’un volume de transactions limité disponible sur le marché. Au fur et
à mesure que la taille des transactions augmente, le prix exécuté pour chaque position
est progressivement inférieur au meilleur prix acheteur pour les transactions de vente,
et de plus en plus supérieur au meilleur prix vendeur pour les transactions d’achat. Cet
écart (ou "slippage") est la différence entre le prix moyen d’exécution et le point moyen
initialement affiché pour une quantité donnée à exécuter. L’écart peut être minimisé en
fractionnant les grandes transactions en petites transactions séparées et en répartissant ces
transactions dans le temps. Cela suppose la résilience du marché qui est un des aspects de
la liquidité et qui désigne la vitesse à laquelle les prix reviennent à leur valeur d’équilibre
après une transaction. de nombreuses études ont examiné la portée pratique des coûts de
transaction et de ces écarts ou Slippage dans la gestion des actifs, par exemple Arnott et
Wagner (1990)[24], Bertsimas et Bodurtha et Quinn (1990), Chan et Lakonishok (1993,
1995)[84], Hasbrouck et Schwartz (1988)[172], Loeb (1983)[245], Stoll (1993)[310], Wagner
et Banks (1992)[325].
Un investisseur est amené à modifier constamment la composition de son portefeuille.
Le rééquilibrage (ou le rebalancement) d’un portefeuille à chaque période afin de maximi-
ser sa valeur finale, n’est faisable qu’en cas de conditions idéales sur le marché (liquidité
illimitée et absence du ’price impact’). Dans la pratique, les investisseurs sont confrontés
à des contraintes liées aux méthodes de transactions et ne peuvent pas les rééquilibrer en
continu. Les transactions sur les actifs illiquides ne sont pas possibles en continu en raison
de certains coûts fixes.
Toutefois, le problème le plus pratique de l’intégration directe de la liquidité dans le
processus de construction du portefeuille a reçu relativement peu d’attention. Longstaff
(2001)[247], par exemple, examine un problème de choix de portefeuille où l’investisseur
peut disposer d’un actif risqué non liquide qui ne peut être négocié immédiatement. Ghy-
sels et Pereira (2008)[149] étudient l’effet de la liquidité, en tant que caractéristique propre
aux actions, sur l’allocation optimale des portefeuilles de petites et grandes valeurs bour-
sières. Beachkofski et al. (2011)[36] ont simulé la performance d’un portefeuille avec des
restrictions sur les transactions. Ils ont mesuré le coût de l’illiquidité comme étant la ré-
duction de l’utilité espérée.
179
Bazgour et al. (2016)[35] ont constaté que la liquidité agrégée influence la répartition
optimale des portefeuilles. Ils considèrent la liquidité comme une variable agrégée plutôt
que comme une caractéristique propre aux actions, et la liquidité du marché boursier
comme une variable contenant des informations essentielles sur les conditions actuelles et
futures de l’économie réelle. Iachini et Nobili (2016)[197] utilisent la théorie standard du
portefeuille en vue de prendre en compte la dimension systémique de la liquidité. Leurs
résultats montrent que l’indicateur de risque de liquidité systémique identifie avec préci-
sion les événements associés à un risque systémique élevé.
Toutes études citées ci-dessus ne se penchent pas spécifiquement sur le dilemme rendement-
risque-liquidité. Néanmoins, Michaud (2001, chapitre 12)[265] propose des contraintes de
liquidité via des fonctions de type quadratiques dans un cadre moyenne-variance. Michaud
(1989)[264] a fait la différence entre la frontière efficiente moyenne-variance sans contrainte
et la frontière efficiente moyenne-variance avec liquidité et enfin la frontière efficiente
moyenne-variance avec liquidité pour les portefeuilles de taille importante. De la même
manière, Lo et al. (2006)[242] construisent des frontières tridimensionnelles moyennes -
variance- liquidité selon trois méthodes. Ils constatent que cela permet de réduire considé-
rablement l’exposition d’un portefeuille au risque de liquidité sans renoncer à une grande
partie du rendement espéré par unité de risque.
2.2 Mesures de la liquidité du portefeuille
2.2.1 Mesures de la liquidité des titres
Dans cette étude, nous estimons deux mesures capturant la fourchette Bid-Ask à sa-
voir : La mesure de Roll (1984)[291] et la mesure de CS de Corwin et Schultz(2012)[105].
Nous utilisons également une mesure liée au volume de transaction. Enfin, Nous prenons
aussi le simple ratio High-low. On rappelle que ces mesures, définies en chapitre 2, s’ex-
priment comme :
p
Roll = 2. −Cov(4pt , 4pt−1 ) (3.14)
Ht − Lt
HLt = (3.15)
Ht
√ p √
CSt = ( 2 + 1).( βt − γt ) (3.16)
180