0% ont trouvé ce document utile (0 vote)
60 vues117 pages

Salmi Razika

Transféré par

Younes Ait ihya
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
60 vues117 pages

Salmi Razika

Transféré par

Younes Ait ihya
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

 

Δ ϴΒόθϟ΍Δϴρ΍ήϘϤϳΪϟ΍Δϳή΋΍ΰΠϟ΍ΔϳέϮϬϤΠϟ΍
République Algérienne Démocratique et Populaire

ϲ
 ϤϠόϟ΍ΚΤΒϟ΍ϭϲϟΎόϟ΍ϢϴϠόΘϟ΍Γέ΍ίϭ
Ministère de L'Enseignement Supérieur et de la Recherche Scientifique

ΓΪϴϠΒϟ΍ΐϠΣΩΪόγΔόϣΎΟ
Université Saad Dahlab Blida 1

Mémoire de fin D’études

En vue de l’obtention du diplôme Master

Faculté des Sciences


Département : Mathématiques

Spécialité : Modélisation stochastique et statistique

THEME

3UpYLVLRQGHOD9DUSRXUOHVPRGqOHV*DUFKHW
gestion de portfeuille


Présenté par : Soutenu le : 08/07/2021


SALMI Razika
Devant le Jury :

Président : [Link] MCB Université de Blida 1

Promoteur: [Link] MAA Université de Blida 1

Examinateur : A. RASSOUL Prof. ENSH de Blida

JUIN 2021




Avant tout, nous remercions Dieu le Tout Puissant de nous avoir guidés
vers les portes du savoir.

Nous tenons à remercier toutes les personnes qui ont contribué de près ou
de loin à l’élaboration de ce travail.

Tout d’abord, notre première pensée va à notre encadreur, M r TAMI


Omar, pour avoir bien voulu nous assister et nous conseiller au cours de
notre travail.

Nous désirons ensuite remercier l’ensemble des enseignants de


département de Mathématiques.

Enfin, nous remercions les membres du jury pour avoir accepté d’évaluer
notre travail.


 ιΧϠϣ
Ϫϟ ϥϛϣϳ ϲΗϟ΍ ΓέΎγΧϟ΍ Δϣϳϗ ϭ έρΧϟ΍ Δϣϳϗ έϳΩϘΗΑ ϡΎϳϘϟ΍ ϪϳϠϋ ϱέϭέοϟ΍ ϥϣ έϣΛΗγϣ ϱ΍ ϰϟ΍ ΔΑγϧϟΎΑ
ΕΎϳΑΎΟϳ΍ΎϬϧϣϝϛϟϭϪϟΔΣΎΗϣΔϳϠϣόϟ΍ϕέρϟ΍ϥϣέϳΛϛέΎϣΛΗγϼϟΔϔϠΗΧϣ ΕΎϳόοϭϝϼΧϥϣΎϬϟνέόΗϟ΍
 ΔϳϋϭοϭϣϭΔϋΎΟϧέΛϛ΍ΎϬϧϣϱ΍ΔϓέόϣϪϳϠϋΏΟϭ΍ΫϟΉϭΎγϣϭ
Δ ϳρέηϟ΍ ΓέρΎΧϣϟ΍ Δϣϳϗϭ ΓέρΎΧϣϟ΍ Δϣϳϗ ΎϣϫϥϳγΎϳϘϣϝϭΣ έϭΣϣΗΗ ΎϧΗγ΍έΩ ϝϣόϟ΍ ΍Ϋϫ ϝϼΧ ϥϣ
ΓέρΎΧϣϟ΍ΔϣϳϘϟΔΑγϧϟΎΑ   εέϗΎοϳ΍ϭ  GPD ϭΔϳΑϳέΟΗϟ΍ϥϳΗϘϳέρϝϼΧϥϣΎϣϬΗϣϳϗέϧϘΗϲΗϟ΍
ϲΗϟ΍ ΓέρΎΧϣϟ΍ΔϣϳϘϟΔϳϠΑϘΗγϣϟ΍ϡϳϘϟΎΑ ΅ ΑϧΗϟ΍ ϑΩϬΑ έ ϫ΍ϭυ ΔΟΫϣϧϟϊ΋ΎϗϭΔϏΎϳλ ϰϟ΍ ϑ
 ΩϬϳ ΝΫϭϣϧϟ΍΍Ϋϫ
ϝγϼγϟΔϳϘϳϘΣΕΎϳρόϣΔΟϟΎόϣϝϼΧϥϣϙϟΫ ϭ ϲϟΎϣϟ΍ϝΎΟϣϟ΍ϲϓΓέρΎΧϣϟ΍έϳϳγΗϟΕΑΎΛαΎϳϘϣΩόΗ
  ϭϳγΗϓϙΎϛϲ΋ϣγαϛΩ ΔλέΑϟ΍ϲϓΕ΍έη΅ϣΔ όΑέϷΩ΍έϳϻ΍
 ΕΎόϗϭΗ,ΔϳϧϣίΔϠγϠγ,εέϗ,ϱΩΑΟΔϳΑϳέΟΗΔϘϳέρ,ΓέρΎΧϣϟ΍Δϣϳϗ:Δ ϳΣΎΗϔϣΕΎϣϠϛ
Résumé :
Pour n’importe quel investisseur, il est primordial d’évaluer le risque et la perte potentielle
qu’il pourrait encourir suite à une position d’investissement bien déterminée. Plusieurs
mesures s’offrent à lui. Chacune a ses avantages comme elle a ses inconvénients. Il doit savoir
alors laquelle est la plus fiable, afin de réduire le risque de son placement. Dans ce travail, nos
étude s’articule autour le mesures de risque : la Value at Risk (VaR) qui est estimé par deux
méthodes : empirique, GPD et GARCH(1,1) pour la VAR seulement. L’objectif de ce travail
est d’étudier les techniques d’analyse et de modélisation des séries chronologiques. On
s’intéresse essentiellement aux modèles GARCH(1.1). Ce modèle permettent de représenter
une chronique avec comme finalité de prévoir des valeurs futures de la VAR qu’est devenue
un standard de la gestion de risque dans le monde financier à partir de traitement d’une
application sur des données réelles pour les séries des rendements pour les quatre indices
boursiers (DAX, SMI,CAC40 et FTSE ).
Mots clés : Var ; ES; Méthode empirique; GPD; GARCH(1,1); Série chronologique; Prévision .
Abstract:
For any investor, it is essential to assess the risk and the potential loss that they could incur as
a result of a well-defined investment position. Several measures are available to him. Each
has its advantages as it has its disadvantages. He must then know which one is the most
reliable, in order to reduce the risk of his investment. In this work, our study revolves around
the risk measures: the Value at Risk (VaR) which is estimated by two methods: empirical,
GPD and GARCH (1,1) for the VAR only. The objective of this work is to study the
techniques of analysis and modeling of time series. We are mainly interested in GARCH
models (1.1). This model makes it possible to represent a chronicle with the aim of
forecasting future values of the VAR that has become a standard of risk management in the
financial world from the processing of an application on real data for the series of returns for
the four stock market indices (DAX, SMI, CAC40 and FTSE).
Keywords: Var; ES; Empirical method; GPD; GARCH (1.1); Time series; Forecast
Table des matières

Introduction Générale 1

1 Généralités sur les mesures de risque 4


1.1 Aperçu général sur les mesures de risque . . . . . . . . . . . . . . . . . . 4
1.2 Type du risque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.1 Le risque du marché . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.2 Le risque financier . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2.3 Le risque d’inflation . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2.4 Le risque du taux d’intérêt . . . . . . . . . . . . . . . . . . . . . 5
1.2.5 Le risque de liquidité . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Aperçu sur les mesures de risque d’un portefeuille du marché . . . . . . 6
1.4 Définition de la Value-at-Risk . . . . . . . . . . . . . . . . . . . . . . . . 7
1.5 Les principaux méthodes de mesure de la Value at Risk . . . . . . . . . 12
1.6 Méthodes non paramétriques . . . . . . . . . . . . . . . . . . . . . . . . 12
1.6.1 Méthode du quantile empirique . . . . . . . . . . . . . . . . . . . 12
1.6.2 Méthode du Bootstrap . . . . . . . . . . . . . . . . . . . . . . . . 12
1.7 Méthode semi paramétriques . . . . . . . . . . . . . . . . . . . . . . . . 13
1.7.1 Méthode basée sur la théorie des valeurs extrêmes . . . . . . . . 13
1.7.2 Simulation historique filtrée . . . . . . . . . . . . . . . . . . . . 14
1.8 Méthodes paramétriques . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.8.1 Méthode de Variance Covariance . . . . . . . . . . . . . . . . . . 14
1.8.2 Simulation Monte Carlo . . . . . . . . . . . . . . . . . . . . . . . 15
1.8.3 Méthodes basées sur les modèles GARCH . . . . . . . . . . . . . 16
1.9 Propriétés de la VaR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.10 Validation d’une prévision de la VaR . . . . . . . . . . . . . . . . . . . . 18
1.11 Méthodes de mesure de risque cohérentes . . . . . . . . . . . . . . . . . 21
1.11.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.11.2 Propriétés des mesures de risque cohérentes . . . . . . . . . . . . 21
1.12 Expected Shortfall (ES) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.12.1 Définition et méthodes de calcul . . . . . . . . . . . . . . . . . . 22

ii
TABLE DES MATIÈRES

1.13 Rendements financiers . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23


1.13.1 Rendements des titres financiers . . . . . . . . . . . . . . . . . . 23
1.13.2 Caractéristiques des rendements financiers . . . . . . . . . . . . 25

2 Rappel sur les séries chronologiques 27


2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2 Définition et concept de base . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.3 Domaine d’application . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.4 Type de séries chronologiques . . . . . . . . . . . . . . . . . . . . . . . . 28
2.4.1 Série continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.4.2 Séries discrète . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.5 Objectifs de l’analyse d’une chronique . . . . . . . . . . . . . . . . . . . 28
2.5.1 Modélisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.5.2 Prévision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.6 Les composantes d’une série chronologique . . . . . . . . . . . . . . . . 29
2.7 Les différents schémas d’une série chronologique . . . . . . . . . . . . . 29
2.8 Choix du modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.9 Opérateur définis sur une série chronologique . . . . . . . . . . . . . . . 30
2.9.1 Opérateur de retard . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.9.2 Opérateur de différence d’ordre d . . . . . . . . . . . . . . . . . . 31
2.9.3 Processus aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.10 Filtre linéaires et moyennes mobiles . . . . . . . . . . . . . . . . . . . . 31
2.10.1 Filtre linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.10.2 Moyen mobiles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.10.3 Moyenne mobile et composante saisonniére . . . . . . . . . . . . 32
2.11 Stationnarité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.11.1 Relation entre stationnarité faible et stricte . . . . . . . . . . . . 33
2.11.2 Test de Dickey Fuller Augmenté . . . . . . . . . . . . . . . . . . . 34
2.12 Procédure de choix d’un schéma de composition : . . . . . . . . . . . . . 35

2.13 Analyse des composantes d’une série chronologique . . . . . . . . . . . 36


2.13.1 Analyse de la tendance : . . . . . . . . . . . . . . . . . . . . . . . 36
2.13.2 Analyse de la saisonnalité . . . . . . . . . . . . . . . . . . . . . . 37
2.14 Le concept de bruit blanc . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.15 Auto-corrélations simple et partielle . . . . . . . . . . . . . . . . . . . . 38
2.15.1 Fonction d’auto-covariance et auto-corrélation . . . . . . . . . . 38
2.15.2 La fonction d’autocorrélation partielle . . . . . . . . . . . . . . . 40
2.16 Série linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.17 Analyse de la tendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.17.1 Rappels sur la regression linéaire . . . . . . . . . . . . . . . . . . 41

iii
TABLE DES MATIÈRES

2.17.2 La méthode des moindres carrés . . . . . . . . . . . . . . . . . . 42


2.17.3 Ajustement tendanciel linéaire les moindres carrés . . . . . . . . 43
2.17.4 Ajustement tendanciel linéaire par points médians . . . . . . . . 44
2.17.5 Ajustements tendanciels non linéaires . . . . . . . . . . . . . . . 44
2.17.6 Estimation non paramétrique . . . . . . . . . . . . . . . . . . . . 44
2.17.7 Théorème de Wold . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.18 Processus de référence . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.18.1 Processus auto régressive (AR) . . . . . . . . . . . . . . . . . . . . 46
2.18.2 Processus moyenne mobile (MA) . . . . . . . . . . . . . . . . . . 47
2.18.3 Processus auto régressif moyenne mobile (ARMA) . . . . . . . . 47
2.18.4 Processus ARIMA (auto regressive moyen mobileintégré) . . . . 48
2.18.5 Processus auto régressive moyen mobile intégré saisonnier SA-
RIMA(p,d,q) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.18.6 Les Modèles des séries temporelles à variance conditionnelle . . 48
2.18.7 ARCH(q) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.18.8 Modèle GARCH . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
[Link] Présentation du Modèle GARCH . . . . . . . . . . . . . 50
[Link] Estimation des Paramètres . . . . . . . . . . . . . . . . 51
[Link] Problèmes de convergence et choix des conditions ini-
tiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.18.9 Modèle EGARCH (Exponential GARCH) . . . . . . . . . . . . . 53
[Link] Présentation du Modèle EGARCH . . . . . . . . . . . . 53
[Link] Estimation des Paramètres . . . . . . . . . . . . . . . . 54
[Link] Problèmes de convergence et choix des conditions ini-
tiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.18.10Modèle QGARCH (Quadratic GARCH) . . . . . . . . . . . . . . . 56
2.18.10.1Présentation du Modèle QGARCH . . . . . . . . . . . . 57
2.18.10.2Estimation des Paramètres . . . . . . . . . . . . . . . . 58
2.18.10.3Problèmes de convergence et choix des conditions ini-
tiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
2.18.11Modèle IGARCH (Integrated GARCH) . . . . . . . . . . . . . . . 60
2.18.11.1Présentation du Modèle IGARCH . . . . . . . . . . . . 60
2.18.11.2Estimation des Paramètres . . . . . . . . . . . . . . . . 61
2.18.11.3Problèmes de convergence et choix des conditions ini-
tiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
2.18.12Modèle GJR-GARCH . . . . . . . . . . . . . . . . . . . . . . . . . 63
2.18.12.1Présentation du Modèle GJR-GARCH . . . . . . . . . . 63
2.18.12.2Estimation des Paramètres . . . . . . . . . . . . . . . . 64

iv
TABLE DES MATIÈRES

2.18.12.3Problèmes de convergence et choix des conditions ini-


tiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
2.18.13Modèle GARCH-M (GARCH in Mean) . . . . . . . . . . . . . . . 66
2.18.13.1Présentation du Modèle GARCH-M(GARCH in Mean) 66
2.18.13.2Estimation des Paramètres . . . . . . . . . . . . . . . . 67
2.18.13.3Problèmes de convergence et choix des conditions ini-
tiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
2.19 Distributions Conditionnelles - Modèles GARCH . . . . . . . . . . . . . 69
2.19.1 Loi Normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
2.19.2 Loi de Student . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
2.19.3 Loi GED (General Error Distribution) . . . . . . . . . . . . . . . 71
2.19.4 Loi Skewed Student . . . . . . . . . . . . . . . . . . . . . . . . . . 72
2.19.5 Loi Skewed GED . . . . . . . . . . . . . . . . . . . . . . . . . . . 73

3 La Modélisation du problème d’optimisation du portefeuille 75


3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
3.2 Résolution du problème d’optimisation du portefeuille . . . . . . . . . . 76
3.3 Le cadre empirique de l’étude . . . . . . . . . . . . . . . . . . . . . . . . 79
3.3.1 Test de la stationnarité des quatres indices boursier . . . . . . . 82
3.3.2 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82

v
Table des figures

1.1 VaR sous distribution normale. . . . . . . . . . . . . . . . . . . . . . . . 9

3.1 Représentation graphique de la série de rendement de l’indice DAX. . . 91


3.2 Représentation graphique de l’autocorrélation simple et la corrélogramme
partiel de la série de rendement de l’indice DAX. . . . . . . . . . . . . . 91
3.3 Histogramme et Normal Q-Q-Plot des rendements journaliers de l’in-
dice DAX. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
3.4 Réprésentation graphique de la série de rendement de l’indice SMI. . . 92
3.5 Représentation graphique de l’autocorrélation simple et la corrélogramme
partiel de la série de rendement de l’indice SMI. . . . . . . . . . . . . . . 93
3.6 Histogramme et Q-QPlot des rendements journaliers de l’indice SMI. . 93
3.7 Réprésentation graphique de la série de rendement de la série de rende-
ment de l’indice CAC40. . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
3.8 Représentation graphique de l’autocorrélation simple et la corrélogramme
de la série de rendement de l’indice CAC40. . . . . . . . . . . . . . . . . 94
3.9 Histogramme et normale Q-QPlot des rendements journaliers de l’in-
dice CAC40. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
3.10 Réprésentation graphique de la série de rendement de l’indice FTSE. . . 95
3.11 Représentation graphique de l’autocorrélation simple et la corrélogramme
partiel de la série de rendement de l’indice FTSE. . . . . . . . . . . . . . 96
3.12 Histogramme et Q-QPlot des rendements journaliers de l’indice FTSE. . 96
3.13 Réprésentation graphique de la série du rendement et du résidus de l’in-
dices DAX PAR GARCH(1.1). . . . . . . . . . . . . . . . . . . . . . . . . 96
3.14 Histogramme de rendement et du résidus de l’indice DAX par GARCH(1.1). 97
3.15 Représentation graphique du Q-QPlot de la série de rendement de l’in-
dice DAX etQ-QPlot du résidue par garch(1,1). . . . . . . . . . . . . . . 98
3.16 Représentation grahique de l’autocorélation simple de la série de rende-
ment de DAX et du résidue par garch(1,1). . . . . . . . . . . . . . . . . . 98
3.17 Représentation graphique de la série de rendement de l’indice SMI PAR
GARCH (1,1). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99

vi
Lorem ipsum
TABLE DES FIGURES

3.18 Représentation de la corelogramme de la série du rendement et du rési-


due par garch (1,1). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
3.19 Représentation graphique de Q-QPlot de la série du rendement et du
résidue de l’indice SMI par GARCH(1,1). . . . . . . . . . . . . . . . . . . 100
3.20 Représentation graphique de l’autocorrélation simple et du squared ré-
sidue de l’indice de SMI PAR GARCH(1,1). . . . . . . . . . . . . . . . . . 100
3.21 Représentation graphique de la série de rendement de l’indice CAC 40
PAR garch (1,1). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
3.22 Histogramme de la série de rendement et du résidue de l’indice CAC 40
par garch (1.1). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
3.23 Représentation graphique de Q-QPlot et du résidue de l’indice CAC40. 102
3.24 Représentation graphique de squared de la série de rendement et du
résidue par GARCH (1.1). . . . . . . . . . . . . . . . . . . . . . . . . . . 102
3.25 Représentation graphique de la série de rendement de l’indice FTSE
PAR GARCH (1.1). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
3.26 Histogramme de la série de rendement et du résidue de l’indice FTSE
par garch(1.1). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
3.27 Représentation graphique de la série de rendement et du résidue pour
l’indice FTSE par GARCH(1.1). . . . . . . . . . . . . . . . . . . . . . . . 104
3.28 Représentation graphique de squared de la série du rendement et de
résidue de l’indice FTSE par GARCH(1.1). . . . . . . . . . . . . . . . . . 104
3.29 Représentation graphique des valeurs de sigmma pendant la péride de
prévision pour l’indice DAX. . . . . . . . . . . . . . . . . . . . . . . . . . 105
3.30 Représentation graphique des valeurs de sigmma pandant la période de
prévision de l’indice SMI. . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
3.31 Représentation graphique des valeurs de sigmma pendant la péride de
prévision pour l’indice CAC40. . . . . . . . . . . . . . . . . . . . . . . . 106
3.32 Représentation graphique des valeurs de sigmma pendant la péride de
prévision pour l’indice FTSE. . . . . . . . . . . . . . . . . . . . . . . . . 106

vii
Liste des tableaux

2.1 Table d’un processus centré . . . . . . . . . . . . . . . . . . . . . . . . . 35


2.2 Table d’un processus avec un drift égale à 1 . . . . . . . . . . . . . . . . 35
2.3 Tableau des résultats de l’analyse de la variance . . . . . . . . . . . . . . 37

3.1 Paramètres de description des quatres indices boursiers . . . . . . . . . 83


3.2 Résultats du tests de la stationnarité des quatres indices . . . . . . . . . 83
3.3 Le montant de la VAR par la méthode mpirique pour un niveau de
confiance de 0.95 et 0.99 . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
3.4 Le montant de la CVAR par la méthode mpirique pour un niveau de
confiance de 0.95 et 0.99 . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
3.5 Le montant de la VAR par la méthode GPD pour un niveau de confiance
de0.95 et 0.99 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
3.6 Table de la VaR à 95% et 99% pour les quatres indices boursier . . . . . 84
3.7 Estimation des paramétre du modéle Garch(1.1) au niveau de confiance
95% pour l’indice DAX . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
3.8 Estimation des paramétre du modéle Garch(1.1) au niveau de confiance
95% pour l’indice SMI . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
3.9 Estimation des paramétre du modéle Garch(1.1) au niveau de confiance
95% pour l’indice CAC . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
3.10 Estimation des paramétre du modéle Garch(1.1) au niveau de confiance
95% pour l’indice FTSE . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
3.11 Test de Jarque Bera pour les quatres indices . . . . . . . . . . . . . . . . 85
3.12 les valeur de la VAR estimé au niveau de confiance 95% par garch(1.1) . 85
3.13 Montant de la VAR par modéle GARCH(1.1) pendant la période de pré-
vision pour les quatres indices boursiers . . . . . . . . . . . . . . . . . . 85

viii
Introduction Générale

La libéralisation des marchés financiers, l’extension considérable des mouvements


de capitaux et l’apparition continue de nouveaux produits financiers ont contribué
à rendre le paysage financier de plus en plus incertain et instable. Cette situation a
provoqué une volatilité importante au niveau des prix et a conduit parfois à des mou-
vements de prix extrêmes.
Ces dernières décennies ont été marquées par plusieurs crises financières qui ont
entravé de graves problèmes économiques non seulement à l’échelle nationale mais
aussi à l’échelle mondiale. La crise récente des suprimes (subprime mortgage melt-
down), qui a été déclenchée par une crise de marché des prêts hypothécaires à risque
aux États Unis, est un exemple. Elle a conduit à une récession économique nationale
puis proliféré pour devenir une crise financière mondiale à partir de l’été 2007. Autre
exemple est la quasi-faillite du Hudge Fund «Long term Capital Management» qui
a entraîné de graves problèmes dans le système bancaire international conduisant à
d’importantes perturbations financières mondiales en 1998.
Suite à ce genre d’événements, les autorités sont intervenues à plusieurs reprises
afin d’instaurer une réglementation plus rigoureuse aux institutions financières. Elles
leur exigeaient de développer des mesures de risque internes plus efficaces dans le but
de détecter les défaillances et les ajuster pour éviter les grandes pertes, les faillites et
même les crises mondiales.
La notion de mesure de risque n’est pas nouvelle dans la théorie financière. En
effet, elle est liée au concept de probabilité apparu au dix-septième siècle par les jeux
du hasard. Mais cette approche est mise en évidence par l’apparition de la théorie de
Markowitz dans les années cinquante, puis d’autres mesures ont été développées tel
que la notion de Beta, le modèle CAPM et le modèle APT.
Néanmoins, toutes ces mesures classiques ont montré leurs limites dans ce nouvel
environnement financier très turbulent.
La prolifération des crises financières et la limite des approches de mesure de
risque antérieures ont amené les chercheurs et praticiens à développer de nouvelles
mesures de risque de marché compatibles avec ce nouveau contexte. D’où l’initiation
de la banque JP Morgan par la fameuse méthode Valeur à risque (Value At Risk) par le
système Riskmetrics. Il est devenu accessible librement sur internet à partir d’Octobre

1
INTRODUCTION GENERALE

1994. Ce système était développé suite à la décision du directeur de la banque JP Mor-


gan. Ce dernier exigeait un rapport journalier sur le risque et les pertes potentielles
encourus par la banque dans les prochaines vingt-quatre heures.
Suite au succès de cette méthode, conçue comme une simple mesure de risque in-
terne, la VaR est devenue une approche utilisée par toutes les banques. Elle leur per-
mettait d’évaluer le risque global conformément aux accords de Bâle sur le capital
des banques. Elle reflète la perte maximale d’une position d’investissement sur une
période bien déterminée et qui ne sera dépassée qu’avec une probabilité fixée aupara-
vant.
Outre le Riskmetrics, d’autres méthodes ont été développées pour estimer la VaR.
Trois principales catégories de méthodes sont apparues : méthodes paramétriques (la
famille du modèle économétrique GARCH), méthodes semi-paramétriques (CAViaR,
théorie des extrêmes) et les méthodes non paramétriques (tel que la simulation histo-
rique et la simulation Monte Carlo).
Malgré le grand succès de la VaR, la philosophie de la méthode est souvent mal
comprise et donc mal interprétée. Elle est devenue sujet de plusieurs critiques notam-
ment au sujet de ses propriétés. Il s’est avéré qu’elle contredit la notion de la diversi-
fication dans la théorie financière puisqu’elle ne vérifie pas la propriété de la « sous
additivité » à l’échelle d’un portefeuille agrégé.
L’origine de cette critique est les travaux d’Artzner et al (1997,1999) qui ont mon-
tré que la VaR n’est pas une mesure de risque cohérente. D’où l’apparition d’autres
mesures dont les propriétés sont plus avantageuses que la VaR.
Notre travail s’accentue sur les deux mesures de risque : la VaR et la VaR condi-
tionnelle (ou appelée Expected Shortfall). Elles sont les plus connues sur le marché fi-
nancier ; largement utilisées par les gestionnaires grâce à leur simplicité, leur moindre
coût ainsi qu’à la diversité de leurs méthodes de calcul. . Le but est de déterminer la
méthode qui procure une meilleure prévision de risque du marché par la VaR et la ES.
Afin de répondre à cette question, la démarche suivie par cette étude s’articulera
sur trois chapitres :
— Le premier chapitre sera consacré à une analyse théorique qui comportera
trois sections. La première section présentera un aperçu général sur les mesures
de risques sur le marché financier. La deuxième section portera sur la notion de
la VaR et ses propriété[Link] troisiéme section portera sur la notion des mesures de
risques cohérentes et ses propriétésles en particulier celle de notre étude qui est
l’ES sera développée. Par la suite une autre section sur le rendement financier.
— Dans le second chapitre, on commence par un rappel sur la définition d’une
série temporelle, nous présentons ensuit les différentes composantes et les prin-
cipales caractéristiques des série temporelle ,la présentation des différents tests
,aussi on présente quelques modéles de la série temporelle à variance condition-

2
la
Chapitre 1

Généralités sur les mesures de risque

La présente étude traite un concept important de la finance qui est le risque. Dans
ce chapitre, une revue de littérature sur la notion de risque sera présentée. Ensuite, les
deux méthodes adaptées dans notre recherche, la V aR et CV AR.

1.1 Aperçu général sur les mesures de risque


Il n’existe pas une définition bien précise du risque, bien que Mc Neil, Frey et Em-
brechts (2005) le définit comme « chaque événement ou action qui pourrait affecter
la capacité d’une organisation à atteindre ses objectifs et exécuter ses stratégies ». Le
risque reste un concept difficile à comprendre.

1.2 Type du risque


Il existe plusieurs types de risque. Le type de risque qui nous intéresse présente-
ment est le risque financier. Ce dernier est lié à quatre ingrédients essentiels : événe-
ments, décisions, conséquences et incertitude.
Plusieurs catégories de risque sont présentées tel que :

1.2.1 Le risque du marché


C’est la possibilité de fluctuations du prix du placement en raison des facteurs ex-
ternes, indépendamment de ses caractéristiques.
Parmi ces facteurs on trouve la conjoncture économique générale (exemple : réces-
sion économique, hausse des prix de matières premières), événements politiques ou
sociaux (Guerre civile, coup d’état..), ou tout simplement l’évolution des préférences
des consommateurs et leur utilité.
Tel est le cas de la récession économique récente des États-Unis. En effet, la dépré-
ciation du dollar américain a incité les investisseurs à retirer leur argent des marchée

4
CHAPITRE 1. GÉNÉRALITÉS SUR LES MESURES DE RISQUE

boursiers puisque la valeur boursière a diminué et investir ainsi dans des actifs moins
risqués tel que l’or. Les indices boursiers ont subi une chute contrairement au marché
de l’or, qui a connu une hausse de prix.
Le risque du marché reflète alors la volatilité du prix de l’actif financier ; plus le
prix est volatile plus l’actif est risqué.

1.2.2 Le risque financier


Il est lié à la structure financière de l’entreprise, c’est à dire sa capacité à honorer ses
endettements et ainsi assurer sa survie. Il fait référence au poids des dettes de l’entre-
prise par rapport à ses capitaux propres. Pour évaluer ce risque, plusieurs indicateurs
sont calculés pour déterminer son état financier.
Ainsi, plus les dettes utilisées sont importantes, moins elle est capable de faire face
au service des emprunts, plus la probabilité de faillite est élevée. Ce qui engendre des
pertes pour ses créanciers, soit ses actionnaires ou détenteurs d’obligations.

1.2.3 Le risque d’inflation


L’évolution de l’indice des prix dans une économie affecte considérablement les
investissements. Cette évolution peut être dans les deux sens : une hausse des prix
(inflation) au contrairement une baisse (déflation).
En général, les placements qui évoluent dans le même sens que le niveau des prix
sont plus rémunérés dans les périodes d’inflation tel que les actions des fabricants de
biens durables. Quant aux investissements qui procurent des rendements fixes sont
plus vulnérables surtout en période d’inflation, tel que les obligations à taux fixes.

1.2.4 Le risque du taux d’intérêt


La valeur de certains placements est affectée par la variation du taux d’intérêt. Gé-
néralement, la variation de la valeur de l’investissement varie en sens inverse à la va-
riation du taux d’intérêt.
Il existe des placements qui sont affectés plus que d’autres, tel que les obligations à
taux fixe ou les SICAV, bien qu’ils soient des placements à long terme.

1.2.5 Le risque de liquidité


Un actif financier est dit liquide s’il est échangé sur le marché financier régulière-
ment, à des intervalles de temps courts sans avoir un impact important sur son prix
(hausse importante lors d’un ordre d’achat ou baisse importante lors d’une vente). Plus
un actif est liquide, plus il est susceptible de se vendre facilement à un prix raison-
nable.

5
CHAPITRE 1. GÉNÉRALITÉS SUR LES MESURES DE RISQUE

Généralement, les actions de grandes sociétés et des sociétés opérant dans des sec-
teurs prometteurs sont plus liquides que celles des petites entreprises ou des sociétés
opérant dans des secteurs en déclin.
Chaque instrument de placement sur le marché financier est assujetti à un certain
risque. Cependant, l’investisseur doit en prendre compte et évaluer son impact sur son
investissement. Pour cela, il doit bien déterminer quelle est la source du risque qui
pourrait induire sa position et le traiter rigoureusement.
Notre étude concerne un seul type de risque : le risque du marché. Un aperçu his-
torique sur ses différentes mesures sera détaillé dans la section suivante.

1.3 Aperçu sur les mesures de risque d’un portefeuille


du marché
La volatilité importante du marché financier a mis l’accent sur l’importance de la
gestion du risque.
Les mesures de risque du marché ont bien évolué depuis le développement de la
théorie de diversification de Markowitz. Ce dernier a avancé en 1959 « une méthode
de solution générale du problème de la structure des portefeuilles qui incorpore le
traitement quantifié du risque»
Elle repose sur deux critères essentiels : la moyenne pour la rentabilité espérée du
portefeuille et la variance comme une mesure du risque, d’où son appellation théorie
de la ‘moyenne-variance’. Selon ce critère, on a abouti à un ensemble de portefeuilles
qui offrent le rendement le plus élevé (moyenne) pour chaque niveau de risque (va-
riance) donné et le risque le plus faible pour chaque niveau de rendement donné. Cet
ensemble de portefeuilles constitue la frontière efficiente.
Dans cet ensemble, on ne peut pas espérer d’augmenter le rendement du porte-
feuille sans augmenter le risque en contre partie. D’où ce critère de moyenne-variance
est insuffisant. Cependant, Markowitz intègre la fonction d’utilité ; chaque investisseur
choisit le portefeuille qui maximise sa fonction d’utilité. Ainsi son portefeuille efficient
sera la tangence entre sa fonction d’utilité et la frontière efficiente.
De nombreuses critiques on été adressées à ce modèle d’optimisation tel que sa sen-
sibilité aux critères adoptés moyenne-variance. Ce qui a incité à développer d’autres
modèles : les modèles à facteurs qui s’intéressent aux facteurs influençant sur les fluc-
tuations des cours des actifs. Il y a deux types de facteurs : des facteurs communs qui
affectent l’ensemble de marché (risque systématique) et d’autres qui sont spécifiques
à chaque actif (risque spécifique). Le modèle le plus connu est le modèle de marché,
développé par Sharpe (1964) et qui s’est basé sur les travaux de Markowitz. Bien que
ce modèle ait contribué à enrichir la théorie de gestion de risque des portefeuilles, il a

6
CHAPITRE 1. GÉNÉRALITÉS SUR LES MESURES DE RISQUE

présenté certains inconvénients en pratique. Ce qui a poussé Sharpe à développer un


autre modèle : le modèle d’équilibre des actifs financiers MEDAF (ou CAPM) qui lui a
valu le prix Nobel. Comme tout autre modèle économique (tel que le modèle Keyné-
sien de la consommation), Le MEDAF repose sous certaines hypothèses. Il propose de
déterminer les prix des actifs financiers qui permettent d’ajuster l’offre et la demande
sur le marché et ainsi instaurer l’équilibre général du marché.
Au milieu des années soixante-dix, Ross a présenté un autre modèle APT (Arbitrage
Pricing Theory). C’est un modèle à facteurs où Ross stipule qu’avec un nombre peu
élevé d’actifs et un nombre moins élevé de facteurs, on peut construire un portefeuille
où le risque diversifiable de chaque composante de ce portefeuille est négligeable. Et
dans un marché efficient en absence d’arbitrage, son rendement espéré est alors la
combinaison linéaire des primes de risques des facteurs.
Toutefois, l’évolution du marché financier et l’apparition continue de nouveaux as-
pects des actifs financiers ont manifesté les limites de ces approches de mesure de
risque ; elles ne permettent pas d’évaluer le risque de type asymétrique (tel que associé
aux options) puisque les critères béta et l’écart type sont insuffisants. D’autres mesures
se sont développées. D’où l’apparition de la mesure de risque « Valeur à Risque » ou
en anglais « Value at Risk ».
Selon Dowd, à la fin des années soixante-dix, la majorité des institutions finan-
cières ont commencé à développer des modèles internes de mesure de risque agrégé
afin de les appliquer dans leur gestion mais aussi à le commercialiser pour d’autres
institutions financières incapables de les développer par elles même.
Le système le plus connu était alors le « Riskmetrics » développé par la banque JP
Morgan. Il était en exclusivité pour la banque JP Morgan mais à partir de 1994, il est
devenu accessible par internet.
Cette nécessité d’évaluer le risque interne des institutions financières a encouragé
à développer d’autres mesures de la V aR plus précises que le système Riskmetrics.
Dans la section suivante, nous présenterons l’approche V aR et les différentes mé-
thodes de son estimation ainsi que ces principales avantages et limites.

1.4 Définition de la Value-at-Risk


La notion de Value-at-Risk (V aR) est apparue pour la première fois dans le sec-
teur de l’assurance. A la fin des années 1980, la banque Bankers Trust fut l’une des
premières institutions à utiliser cette notion sur les marchés financiers aux Etats-Unis,
mais c’est principalement la banque JP Morgan qui dans les années 90 a popularisée
ce concept notamment grâce à son système RiskMetrics (pour un historique complet
de la notion de Value-at-Risk et de sa diffusion se reporter au livre de Dowd, 2005).
La Value-at-Risk est ensuite devenue, en moins d’une dizaine d’années, une mesure de

7
CHAPITRE 1. GÉNÉRALITÉS SUR LES MESURES DE RISQUE

référence du risque sur les marchés financiers, consacrée notamment par la réglemen-
tation prudentielle définie dans le cadre des accords de Bâle II.
De façon générale, la Value-at-Risk est définie comme la perte maximale potentielle
qui ne devrait être atteinte qu’avec une probabilité donnée sur un horizon temporel
donné (Engle et Manganelli, 2001). La Value at Risk est donc la pire perte attendue
sur un horizon de temps donné pour un niveau de confiance donné. Cette définition
très simple constitue l’un des principaux attraits de la Value-at-Risk : il est en effet
très facile de communiquer sur la V aR et de ainsi proposer une mesure homogène
et générale (quelque soit la nature de l’actif, la composition du portefeuille etc.) de
l’exposition au risque.
Ainsi, la Value-at-Risk n’est rien d’autre qu’un fractile de la distribution de perte
et profit associée à la détention d’un actif ou d’un portefeuille d’actifs sur une période
donnée. La mesure de Value-at-Risk ne fait que refléter l’information contenue dans la
queue gauche (associée aux pertes) de la distribution des rendements d’un actif. Si l’on
considère un taux de couverture de α% ou de façon équivalente un niveau de confiance
de (1 − α%) la Value-at-Risk correspond tout simplement au fractile de niveau α% de
la distribution de perte et profit valable sur la période de détention de l’actif :

V aR(α) = F −1 (α) (1.1)

où F(.) désigne la fonction de répartition associée à la distribution de perte et pro-


fit. De cette définition générale découlent plusieurs définitions techniques tout aussi
simples.
Ainsi, la Value-at-Risk dépend de trois éléments : (i) la distribution des pertes et
profits du portefeuille valable pour la période de détention (ii) le niveau de confiance
(ou de façon équivalente le taux de couverture égal à un moins le niveau de confiance)
et (iii) la période de détention de l’actif.
— Taux de couverture et Niveau de Confiance :
Le niveau de confiance choisi est un paramètre compris entre 0 et 1 (95% ou 99%
en général) qui permet de contrôler la probabilité que l’on obtienne un rendement
supérieur ou égale à la Value-at-Risk. Supposons que la distribution des pertes et pro-
fits associée à la détention d’un actif sur une période corresponde à une distribution
normale standard. Sur la Figure 1 est reproduite cette distribution de perte et profit
supposée normale : sur la partie gauche de l’axe des abscisses figurent les rendements
négatifs (pertes) tandis qu’à droite figure les rendements positifs (profits). Dans ce cas,
la Value-at-Risk définie pour un niveau de confiance de 95% (α = 5%)est égale tout
simplement à −1.645. Dit autrement, dans cet exemple il y a 95% de chances que le
rendement de l’actif, noté r, soit au moins égal à −1.645 sur la période de détention.

8
CHAPITRE 1. GÉNÉRALITÉS SUR LES MESURES DE RISQUE

Pr [r < V ar (0.05)] = Pr[r < −1.645] = 0.05

De la même façon, la Value-at-Risk définie pour un niveau de confiance de 99%


(α = 1%) est égale à −2.326.

Figure 1.1 – VaR sous distribution normale.

Ainsi, la Value-at-Risk correspond généralement à une perte (valeur négative). Tou-


tefois, on trouve souvent une Value-at-Risk définie non pas à partir de la distribution
de perte (-) et profit (+), mais à partir au contraire d’une distribution de profit(−) et
perte(+). Dit autrement, une telle définition revient à omettre le signe moins devant
la perte et donc à afficher une Value-at-Risk positive. Dans ce cas, la définition de la
Value-at-Risk correspond à l’opposé du fractile de la distribution de perte et profit :

V aR(α) = −F −1 (α) (1.2)

Si l’on reprend notre exemple de distribution normale, on affiche alors une Value-
at-Risk pour un niveau de confiance de 95% (α = 5%) égale à 1.645. Cela signifie qu’il
y a 95% de chances que la perte associée à la détention de l’actif n’excède pas 1.645.
— Horizon de détention

9
CHAPITRE 1. GÉNÉRALITÉS SUR LES MESURES DE RISQUE

Le deuxième élément fondamental dans le calcul de la Value-at-Risk est la période


de détention de l’actif ou du portefeuille d’actifs. La formule de calcul de la Value-at-
Risk doit alors être ajustée de façon à tenir compte de la composition des rendements.
Il n’existe aucune règle quant au choix de la période de détention dans le calcul de la
Value-at-Risk puisque ce choix dépend fondamentalement de l’horizon de reporting
ou d’investissement des opérateurs.
Toutefois, les autorités de régulation peuvent spécifier des horizons de détention
spécifiques notamment dans le cadre es procédures de validation de la Value-at-Risk.
Dans le cadre de ce site, tous les calculs proposés portent sur une Value-at-Risk
définie à partir de la distribution de pertes (−) et profits(+)(ce qui implique une va-
leur négative de la Value-at-Risk) et pour un horizon de détention d’une période (une
journée, un mois etc. suivant les données utilisées pour les calculs).
— La distribution des pertes et profits du portefeuille
C’est le paramètre le plus important mais aussi le plus difficile à déterminer. Une
question fondamentale se pose : comment peut-on choisir une distribution pour la va-
riable de marché ? Idéalement, il faudrait un modèle qui soit simple et qui convienne le
plus aux observations empiriques. La méthode de calcul est déterminée par la distribu-
tion choisie pour modéliser les pertes et profits du portefeuille. Empiriquement, trois
principaux problèmes dans les séries temporelles financières sont détectés. Le pre-
mier est la non stationnarité des séries manifesté par la non stabilité des paramètres
de la loi régissant les variables du processus temporel. Le deuxième problème est le
caractère leptokurtique de la distribution des données qui consiste à des queues em-
piriques plus épaisses que celles considérés par la loi mise en hypothèse, ceci a pour
conséquence la sous estimation de la Value at Risk et donc du risque assumé par l’in-
vestisseur. Le troisième problème est le phénomène de la dépendance de la volatilité
appelé la persistance de la volatilité (clustering) issu du constat en pratique du fait que
les volatilités élevées sont souvent suivies par des volatilités élevées et les volatilités
faibles sont souvent suivis par des volatilités faibles. Ce phénomène peut être pris en
compte par la famille des modèles ARCH − GARCH sur de courtes périodes d’estima-
tion. La détection de l’effet ARCH dans la série des observations reste à vérifier pour
justifier ce type de modélisation.
En théorie financière, une hypothèse de normalité des rendements est souvent adop-
tée comme réponse à la problématique de la distribution des rendements des actifs
financiers. En effet, cette hypothèse accélère considérablement les calculs. Elle est bien
adaptée dans l’application de la méthode RiskMetricsT M . Un test dit test de Jarque
et Bera (JB) permet de valider ou non la normalité de la distribution. Il tient compte
implicitement de deux paramètres essentiels : le coefficient d’asymétrie (Skewness) et
le coefficient d’aplatissement (Kurtosis).
Le premier paramètre (Skewness) est le moment d’ordre 3 et mesure l’asymétrie du

10
CHAPITRE 1. GÉNÉRALITÉS SUR LES MESURES DE RISQUE

comportement des rendements autour de leur moyenne empirique. Son expression est
la suivante :

 T 
1  t=1 (Xt − X))3 
S=   (1.3)
T  (δ 2 )(3/2) 

Si S = 0 la distribution est dite symétrique à l’instar de la loi normale. Si S > 0


alors la densité de la distribution s’étale vers la droite et on a une asymétrie positive.
Si S < 0 alors la densité de la distribution s’étale vers la gauche et on est en présence
d’une asymétrie négative.

Le deuxième paramètre, le kurtosis, est le moment d’ordre 4 et représente une me-


sure associée à l’épaisseur des queues de la distribution. Son expression est la suivante :

 T 
1  t=1 (Xt − X))4 
K=  
 (1.4)
T (δ2 )(2)

Si K = 3 on dit que la distribution est mésokurtique comme c’est le cas pour la dis-
tribution normale qui sert de point de référence. Si K > 3 la distribution présente des
queues épaisses (fat tails). Elle est dite leptokurtique. Si K < 3 la distribution présente
des queues minces (thins tails). Elle est dite platikurtique.

En ce qui concerne le test de Jarque et Bera, il est basé sur la statistique suivante :

 
JB = (T S 2 |6) + T (K − 3)2 |24  χ 2 (2) (1.5)

Cette statistique suit asymptotiquement la loi χ2 avec deux degré de liberté lorsque
T (nombre des observations) est assez grande.

Le test d’hypothèse est le suivant :

H0 : la distribution est normale

H1 : la distribution n’est pas normale

La règle consiste à rejeter H0 si la statistique JB est plus grande que χ 2 avec deux
degrés de liberté au seuil de signification choisie (95% par exemple).

Notons que la stationnarité des rendements du portefeuille d’actions est une condi-
tion nécessaire pour appliquer la méthode de simulation historique . Le test de racine
unitaire ADF (augmented Dickey-Fuller) consiste à tester l’hypothèse nulle :

H0 existence d’une racine unitaire série non stationnaire

Ce test consiste à rejeter H0 si la statistique obtenue est inférieure à une valeur


critique dite valeur de MacKinnon.

11
CHAPITRE 1. GÉNÉRALITÉS SUR LES MESURES DE RISQUE

1.5 Les principaux méthodes de mesure de la Value at


Risk

Mathématiquement, la notion de la Value-at-Risk se traduit ainsi :

Pr(V < V ar) = 1 − c (1.6)

Avec : V = la variation de la valeur V du portefeuille sur la période de détention.


c = le niveau de confiance
Plusieurs modèles ont été présentés pour l’estimation de la Value-at-Risk (Manga-
nelli et Engle (2001)). L’élément clé qui distingue ces modèles est l’existence ou non
d’une hypothèse de para métrisation de la distribution des pertes et des profits. Ainsi
on classera ces méthodes en trois classes : les méthodes non paramétriques, les mé-
thodes semi paramétriques et les méthodes paramétriques.

1.6 Méthodes non paramétriques

1.6.1 Méthode du quantile empirique

La méthode du quantile empirique (ou Historical Simulation) est une méthode très
simple d’estimation des mesures de risque fondée sur la distribution empirique des
données historiques de rendements. Formellement, la V aR est estimée simplement par
la lecture directe des fractiles empiriques des rendements passés. Si l’on considère par
exemple un niveau de confiance de 95% et que l’on dispose d’un échantillon de 1000
observations historiques de rendements, la V aR est donnée par la valeur du rendement
qui correspond à la 50ème forte perte.

1.6.2 Méthode du Bootstrap

Une amélioration simple de la méthode de la simulation historique consiste à es-


timer la V aR à partir de données simulées par Bootstrap. Le Bootstrap consiste à ré
échantillonner les données historiques de rendements avec remise. Plus précisément,
dans notre contexte, la procédure consiste à créer un grand nombre d’échantillons de
rendements simulés, où chaque observation est obtenue par tirage au hasard à partir
de l’échantillon original. Chaque nouvel échantillon constitué de la sorte permet d’ob-
tenir une estimation de la V aR par la méthode HS standard, et l’on définit au final une
estimation en faisant la moyenne de ces estimations basées sur les ré échantillonnages.

12
CHAPITRE 1. GÉNÉRALITÉS SUR LES MESURES DE RISQUE

1.7 Méthode semi paramétriques

1.7.1 Méthode basée sur la théorie des valeurs extrêmes


Parmi les méthodes semi paramétriques figurent tout d’abord l’ensemble des mé-
thodes et approches qui relèvent de la théorie des extrêmes (T V E) qui diffère de la
théorie statistique habituelle fondée pour l’essentiel sur des raisonnements de type
tendance centrale. Les extrêmes sont en effet gouvernés par des théorèmes spécifiques
qui permettent d’établir sous différentes hypothèses la distribution suivie par ces ex-
trêmes. Il existe deux principales branches de la théorie des valeurs extrêmes : la théo-
rie des valeurs extrêmes généralisée et l’approche Peaks Over Threshold (POT ) basée
sur la loi de Pareto généralisée. L’approche POT permet l’étude de la distribution des
pertes excessives au dessus d’un seuil (élevé), tandis que la théorie des valeurs ex-
trêmes généralisée permet de modéliser la loi du maximum ou du minimum d’un très
grand échantillon. Dans ce qui suit, on procèdera à l’application de cette approche.
Pour cela, on définie la moyenne en excédent pour une distribution F par :

e(u) = E(X − u | X > u) (1.7)

C’est simplement une fonction de u qui s’exprime à l’aide de la fonction de survie


de F. Plus les queues de distribution sont épaisses, plus cette fonction a tendance à
tendre vite vers l’infini.
En pratique, si n est le nombre total de l’échantillon et si est le nombre d’observa-
tions au dessus du seuil u, on a :

n
1 
e(u) =
 (xj − u)1(xu) (xj ), u0 (1.8)
Nu
j=1

Le problème du choix de u reste entier. Usuellement, on trace cette fonction Mean


Excess pour différents niveaux du seuil u. Le bon seuil est celui à partir duquel e(u)est
approximativement linéaire. Graphiquement, cela se traduit par un changement de
la pente de la courbe qui ensuite reste stable. Ce résultat provient de la remarque
que pour la distribution de Pareto généralisée, e(u) est linéaire en u. Une fois le seuil
optimal choisi, on construit une nouvelle série d’observations au dessus de ce seuil, et
la distribution de ces données suit une distribution généralisée de Pareto, qui se définit
comme suit :
  1

 ξx ξ

 1 − 1 + β si ξ 0
Gξ,β (x) = 
   (1.9)

1 − exp − x si ξ = 0, avec β > 0.
β

ξ est appelée l’indice de queue. Le paramètre β est un indicateur de la taille de la

13
CHAPITRE 1. GÉNÉRALITÉS SUR LES MESURES DE RISQUE

queue à une distance finie. L’estimation des paramètres ξ et β se fait par le maximum
de vraisemblance.
La densité de la distribution GPD s’écrit :


 1 − 1 −1
β ξ (β + ξx) ξ
 si ξ 0
gξ,B (x) = 
   (1.10)

β −1 exp − βx si ξ =0

Et la log vraisemblance que nous maximisons est de la forme :

n
  
ln (ξ, β) = ln gξ,B (xt )1{ξ0} (xt ) (1.11)
i=1

Une fois l’estimation terminée, on peut vérifier graphiquement la pertinence des


estimations en comparant la distribution GPD estimée avec la distribution empirique
des observations au dessus du seuil. La Value-at-Risk pour un niveau de confiance c est
obtenue par la formule :
 −ξ 
 
β  n 
V aRc = u +  (1 − c) − 1 (1.12)
ξ  Nn 

1.7.2 Simulation historique filtrée


La méthode de la simulation historique filtrée est une forme de Bootstrap semi-
paramétrique qui vise à combiner les avantages de la simulation historique avec la
puissance et la flexibilité des modèles à volatilité conditionnelle tel que le modèle
GARCH. Elle consiste à faire un Bootstrap sur les rendements dans un cadre de vo-
latilité conditionnelle, le Bootstrap préservant la nature non paramétrique de la si-
mulation historique, et le modèle à volatilité conditionnelle donnant un traitement
sophistiqué de la volatilité.

1.8 Méthodes paramétriques

1.8.1 Méthode de Variance Covariance


Cette méthode connu aussi sous le nom de méthode Riskmetrics. Les principales
hypothèses simplificatrices consistent à supposer, d’une part, que les lois de probabi-
lité qui régissent les distributions des variations des prix de marché sont normales et,
d’autre part, que les instruments présentent un profil de risque linéaire. Sous ces hy-
pothèses, la matrice de Variances Covariances peut être appliquée assez directement
aux positions détenues pour calculer la V aR.

14
CHAPITRE 1. GÉNÉRALITÉS SUR LES MESURES DE RISQUE

des raisons techniques, en supposant que les variations relatives des paramètres de
marché suivent des lois normales. Cette méthode convient également à tous les types
d’instruments, y compris optionnels, et permet de tester de nombreux scénarios et d’y
inclure explicitement des queues de distribution épaisses (événements extrêmes pris
en compte dans une certaine mesure) (voir Glasserman et al. (2001))

1.8.3 Méthodes basées sur les modèles GARCH

La méthodologie d’estimation de la V aR en se basant sur la modélisation GARCH


est largement étudiée en littérature (voir par exemple Christoffersen et al. (2001),
Engle (2001)). En ce qui concerne la détection de l’effet ARCH dans la série des ob-
servations, deux principaux tests complémentaires peuvent être effectué.
 Le premier s’intéresse au phénomène d’auto corrélation entre les termes d’er-
reur au carré du modèle : Test Q(p) de Ljung-Box (1978). Si le processus est
ARCH, les résidus au carré doivent être corrélés. L’hypothèse nulle est l’absence
d’auto corrélation d’ordre p. La statistique du test est supposée suivre une loiχ2
avec p degrés de liberté.
 Le deuxième test d’intéresse plutôt au phénomène d’homoscédasticité (constance
de la volatilité des termes d’erreur) : Test ARCH(p) d’Engle (1982). Ce test vé-
rifie l’absence d’hétéroscédasticité autorégressive conditionnelle d’ordre p. Si le
processus est ARCH, les résidus au carré doivent être hétéroscédastiques. L’hy-
pothèse nulle est celle de l’homoscédasticité. La statistique du test est supposée
aussi suivre une loi χ 2 avec p degré de liberté. La règle de décision est la même
pour les deux tests : accepterH0si la statistique du test est inférieure à la valeur
critique de la loi χ 2 avec p degrés de liberté à un niveau de confiance donné.
Notons que pour tester l’effet GARCH(p, q), il suffit de procéder à un test d’effet
ARCH(p + q).
La prévision de la Value-at-Risk à partir d’un modèle GARCH est effectué selon une
démarche indirecte : dans un premier temps, on fait une hypothèse sur la distribution
conditionnelle des rendements de l’actif, puis l’on estime les paramètres du modèle
GARCH sur les observations de la période 1 à T , généralement par une procédure
de type maximum de vraisemblance. Dans une seconde étape, on déduit du modèle
GARCH estimé une prévision de la variance conditionnelle, qui couplée à l’hypothèse
retenue sur la distribution des rendements, permet de construire une prévision sur le
fractile de la distribution de pertes et profits valable pour T + 1.
Considérons l’exemple d’un modèle GARCH sous hypothèse d’une distribution
quelconque (normale, student...) de paramètrev.
On suppose ainsi que les rendements d’un actif, notés , satisfont le modèle suivant :

16
CHAPITRE 1. GÉNÉRALITÉS SUR LES MESURES DE RISQUE

moyenne. Il n’indique même pas le sens de la déviation vers la hausse ou la


baisse. Quant au facteu béta (β) , il reflète le degré d’interaction de l’actif avec
le marché. Par contre la V aR procure une estimation en valeur de la perte maxi-
male d’une position.
Malgré ses nombreux avantages, la V aR reflète certains inconvénients :
— La non sous-additivité : la V aR a été largement critiquée au niveau de ses pro-
priétés agrégées. Selon les études d’Artzner et al (1997,1999), elle est constatée
comme une mesure de risque non cohérente puisqu’elle n’obéit pas à un critère
très important : la sous-additivité.
La non sous-additivité signifie que si on a deux portefeuilles FL1 et FL2 , et la distri-
bution du portefeuille agrégé L = L1 + L2 est FL , alors on n’obtient pas nécessairement

V aR(α)L ≤ V aR(α)L1 + V aR(α)L2 .

Ce qui contredit la théorie de la diversification qui stipule que l’agrégation de diffé-


rents actifs dans un portefeuille permet de réduire le risque. Ce qui signifieaus si que
la décentralisation du Risk Management est difficile puisque l’addition des V aR de
différents portefeuilles ne reflète pas le risque global encouru par l’entreprise.
— Liquidité du marché :
La liquidité du marché est une source de risque pour l’investisseur qu’il doit en
tenir compte. Selon Lawrence et Robinson (1995), la mesure de V aR doit inclure le
coût de liquidité en cas de perte prévue. En réalité, cette mesure néglige cet aspect.
— Choix des paramètres de la V aR :
Dans la section précédente au niveau de la définition de la V aR, on a spécifié les
critères qu’elle requiert. Parmi elles, on a noté l’horizon de temps du calcul. Il peut être
influencé par plusieurs facteurs : liquidité du marché, contraintes légales ou contrac-
tuelles. Cependant, il est difficile de choisir l’horizon approprié pour l’estimation de la
V aR. Quant au niveau de confiance, il est aussi difficile de choisir le plus approprié. La
VaR peut être calculée à différents niveaux de confiance simultanément afin de compa-
rer les résultats fournis. De plus, le choix de la distribution de perte et profit de l’actif.
Si elle est mal déterminée, la V aR sera biaisée.
Suite aux limites de la V aR, d’autres mesures sont apparues. D’où les mesures de
risque cohérentes développées par Artzner et al. La section suivante traitera ces me-
sures.

1.10 Validation d’une prévision de la VaR


Il est nécessaire de tester la validité d’une prévision de la V aR en mettant en place
une procédure de backtesting des modéles estimés.

18
CHAPITRE 1. GÉNÉRALITÉS SUR LES MESURES DE RISQUE

Selon Jorion (2007) : Le backtesting est un ensemble de procédures statistiques


dont le but est de vérifier que les pertes réelles observées ex-post sont en adéquation
avec les pertes prévues. Cela implique de comparer systématiquement l’historique des
prévisions de la Value- at-Risk aux rendements observés du portefeuille (Jorion, 2007,
page 139).
Notons qu’un test de validation des modéles de VaR doit être de type model free,
c’est- à-dire s’applique à n’importe quelle prévision de V aR provenant de n’importe
quel modé[Link] tester la validité de la prévision de la V aR, on compare sa réalisa-
tion ex-post à la valeur prédite ex-ante. La comparaison entre plusieurs modéles de
prévision de la V aR peut se faire via le critère Mean Squared Error (MSE) qu est fondé
sur l’écart entre la vrai valeur réalisée et la valeur prédite ou via les critères d’informa-
tion standards (AIC, BIC, ...etc.). La réalisation ex-post de la V aR n’est pas observable.
Pour celà la validation de la VaR se fait par des tests sur le processus de violation de la
V aR.
On note rt la rentabilité d’un actif ou d’un portefeuille d’actifs à la date t. La valeur
ex-ante de la VaR pour un taux de couverture β notée V aRt |t−1 (β), anticipée condition-
nellement à un ensemble d’informations, noté Ω t−1 disponible à la date t − 1 es définie
par la relation suivante :

ρ(rt < V aRt |t−1 (β)) = β

Par définition, cette quantité correspond au quantile d’ordre β de la distribution


conditionnelle des rendements rt de l’actif ou du portefeuille d’actif considéré. On
appelle violation (ou hit, ou exception) une situation dans laquelle à la date tla perte
observée excéde la V aR anticipée, c’est à dire lorsque la valeur rt du rendement est
inférieur à la valeur prévue ex-ante de la V aR. On note It (β) la variable associée à une
éventuelle violation de la V aR à la date t pour un taux de couverture β.


 1, si rt < V aRt |(t − 1)(β)

It (β) = 
 . (1.16)
 0, sinon

Selon Christoffersen (1998) une prévision de V aR est valide sur une période T si et
seulement si la séquence des violations {It (β)}Tt=1 satisfait les deux hypothèses de cou-
verture non conditionnelle (UC) et d’indépendance (IN D). Ces deux tests peuvent être
regroupés dans un seul test qui est celui de la couverture conditionnelle (CC). Selon
l’hypothése (UC) la probabilité que se réalise ex-post une perte (rt ) en excès de la VaR
anticipée ex-ante (V aRt|(t−1) ) doit précisément être égale au taux de couverture β, en
d’autre terme E(It (β)) = β. Selon l’hypoth‘ese (IN D), les violations de la V aR pour un
même taux de couverture à deux dates différentes doivent être indépendamment dis-
tribuées. La couverture conditionnelle (CC) caractérise la situation ou‘ la V aR satisfait

19
CHAPITRE 1. GÉNÉRALITÉS SUR LES MESURES DE RISQUE

les deux hypothéses précédentes. Hurlin & Tokpavi (2008) donnent une description
bien détaillée de ces tests.

Pour choisir le modèle le plus adéquat pour la prévision de la V aR parmi plusieurs


modèles concurrents, on procède à l’évaluation de la fonction de perte proposée par
Sarma et al. (2003) et ceci pour les modèles validés par les tests précédents.

On trouve l’application de cette fonction de perte et de plusieurs autres fonctions


utilisées pour tester la performance des modéles de prévisions de la V aR dans Angeli-
dis & Degiannakis (2007), Abad & Benito (2013), Abad et al. (2015) et plusieurs autres.
Pour un modèle de prédiction donné, à l’instantt, la fonction de perte de Sarma et al.
(2003) est définie par :


 2
 (V aRt (α) − rt ) , si rt < V aRt (α)

LFt (α) = 
 . (1.17)
 0 sinon

On combine cette fonction de perte avec le test de Diebold-Mariano (DM) (1995)


pour déterminer si un modèle prédit mieux qu’un autre modéle. Soit deux modéles de
prédictions A et B d’erreurs de prédiction respectives LFtA (α) et LFtB (α). On veut tester
l’hypothèse nulle suivante

H0 : E(LFtA (α)) = E(LFtB (α))

contre l’hypothèse alternative

H1 : E(LFtA (α))  E(LFtB (α)).

Soit la fonction de perte différentielle donnée par

dt = LFtA (α) − LFtB (α).

Le test DM teste l’hypothèse nulle d’égalité du pouvoir prédictif suivante

H0 : E(dt ) = 0.

Soit d = (d1 , ..., dT ). La statistique du test est donnée par

d−
DMS =  . (1.18)
T × var(d)
Sous H0 , DMS suit une normale centrée réduite. On rejette H0 au seuil de 5% si DMS <
−1.645.

20
CHAPITRE 1. GÉNÉRALITÉS SUR LES MESURES DE RISQUE

1.11 Méthodes de mesure de risque cohérentes


Cette section développera les mesures de risques cohérentes et leurs propriétés.
Elle s’intéressera spécialement à la mesure de risque appelée Expected Shortfall
(ES).

1.11.1 Définition
Après avoir échoué par son critère de non sous-additivé, il s’est avéré que la mesure
de risque V aR comprend certaines lacunes et qu’elle n’est pas une mesure exacte qui
reflète le risque d’un portefeuille,d’où le développement par Artzner, Delbaen, Eber et
Heath de développer d’autres mesures de risque dites « mesure de risque cohérente » à
la fin des années quatre-vingt dix. C’est une mesure de risque d’un portefeuille à une
période déterminée. Elle est similaire à la V aR de point de vue conceptuel mais elle
diffère au niveau du calcul.

1.11.2 Propriétés des mesures de risque cohérentes


Selon Szegö (2002), mesurer le risque d’un actif correspond à établir une fonction-
nelle ρ : → R où X et la variable aléatoire (exemple : le rendement de l’actif) et R est un
réel non négatif. Cette valeur de risque permet alors de comparer les différents actifs.
Certaines conditions sont considérées pour cette fonctionnelle.
— Homogénéité positive : cette propriété stipule que ρ(λx) = λρ(x) pour toute va-
riable aléatoire x et tout réel positif λ. C’est-à-dire que la hausse de la taille un
portefeuille x par une quantité positive λ ne fait que multiplier le risque de ce
portefeuille par ce facteur λ .
— Sous additivité : c’est la propriété que la V aR ne respecte pas. Elle montre que
pour toute variable aléatoire x et γ,

ρ(x + y) ≤ ρ(x) + ρ(y),

c’est à dire que le risque agrégé d’un portefeuille doit être moins élevé que la
somme du risque individuel des actifs composant ce portefeuille. Ce qui prouve
qu’une fonction homogène positive ρ est convexe si et seulement si elle est sous
additive.
— Monotonie : cette propriété montre que

si x ≤ y alors ρ(x) ≤ ρ(y)

pour toute variable aléatoire x et y. Ce critère montre que plus la perte d’un
portefeuille est faible, son risque sera nécessairement moins élevé.

21
CHAPITRE 1. GÉNÉRALITÉS SUR LES MESURES DE RISQUE

C’est-à-dire que si le portefeuille x a une perte moins grande que le portefeuille y ,


alors ce dernier est plus risqué.
— Invariance transitionnelle :
— Si x ≤ y implique que
ρ(x + αr0 ) = ρ(x) − α,

pour chaque variable aléatoire x, pour chaque réel α et pour chaque actif sans
risquer0 .Cette propriété explique que si on ajoute à un portefeuille risqué une
quantité α d’actif sans risque, alors le risque du portefeuille se réduit par α .
Une mesure de risque qui respecte ces quatre propriétés est appelée une mesure
de risque cohérente au sens d’Artzner et al. Il existe plusieurs mesures de risque cohé-
rentes qui seront énumérées dans la section suivante.

1.12 Expected Shortfall (ES)

1.12.1 Définition et méthodes de calcul


Parmi les mesures de risque cohérentes développés : Expected regret (ER), Expec-
ted shortfall (ES)appelée aussi tail conditional expectation (T CE), worst conditional
expectation (W CE) et spectral risk measures. Cette section s’intéressera à une seule
méthode qui est l’expected shortfall (ES), sujet de notre recherche.
La valeur de la V aR reflète le montant de la perte que l’investisseur ne pourrait pas
dépasser à une certaine probabilité et sur un horizon de temps bien déterminé.Cette
approximation ne tient pas compte des évènements extrêmes qui pourraient se pro-
duire et qui pourraient engendrer des pertes plus graves. Ce qui amène l’investisseur
à prendre des décisions biaisées sur la base de la V aR en sous-estimant les pertes.
Néanmoins, l’ES évite cette lacune de laV aR. En effet, elle prend en compte des
événements extrêmes qui pourraient se produire. Elle est définie comme la moyenne
des pertes du portefeuille qui sont au delà du niveau de la VaR.
Comme dans le cas de la V aR, l’ES dispose de différentes méthodes de calcul.
Pour les méthodes paramétriques, certains auteurs tel que Giot et Laurent (2003),
Bali et Theodossiou (2007) proposent l’estimation d’ES comme étant la moyenne des
rendements observés du portefeuille étudié qui sont au delà du niveau de la V aR. Cette
dernière est calculée à partir de l’une des méthodes paramétriques décrites au dessus.
Analytiquement, elle est calculée comme suit :
 α
1
ES(α) = F −1 (ρ)dp (1.19)
α 0

ES(α) = E(r|r ≤ V aR(α)) (1.20)

22
CHAPITRE 1. GÉNÉRALITÉS SUR LES MESURES DE RISQUE

F est la fonction de répartition des pertes, où α est le taux de couverture de la V aR.


Acerbi et Tasche (2002) proposent une méthode non paramétrique qui est la simulation
historique. Elle demeure la plus répandue et la plus facile.
L’ES est calculé à partir d’une série de rendements historiques du portefeuille en
considération. En effet, si la distribution de ce portefeuille est connue, alors l’ES est la
moyenne des 100α% rendements les plus petits
N
i=1 ri
ES(α) = (1.21)
N

avec N est le rang de la 100α% rendement de la distribution


Cette méthode est généralement utilisée lorsque la distribution de l’innovation suit
une loi Normale ou Student (détaillée dans la partie empirique).
Il existe une autre méthode non paramétrique pour le calcul d’ES qui est la simu-
lation Monte Carlo. Le rocessus adapté est le même qu’avec le calcul de la V aR sauf
que l’évaluation de l’ES est la moyenne des rendements au delà du niveau de la V aR.
Par exemple, pour l’évaluation de la V aR à 1% et en présence d’un échantillon de
1000 rendements de la distribution des pertes et profits, la V aR est estimée comme
étant le 10ème plus petit rendement de la distribution. L’ES est alors la moyenne des
rendements qui sont au dessous du niveau de la V aR, c’est-à-dire, la moyenne des dix
derniers rendements classés par ordre décroissant.

1.13 Rendements financiers


La premiére attention des investisseurs porte sur l’analyse des données relatives
aux titres financiers. Certainement, les données auxquelles les investisseurs ont ac-
cès sont les historiques des prix. Mais, le résultat futur des décisions d’investissement
prises aujourd’hui dépend des niveaux futurs des prix qui sont incertain. Il est donc
nécessaire d’analyser cette incertitude à travers l’étude des caractéristiques des séries
passées qui sont observées. Ceci nous aidera à une meilleure compréhension du com-
portement des prix, une bonne quantification des risques et à proposer un modèle
efficace pour l’évolution des prix pour assurer une prévision rigoureuse des résultats
futurs.
On commence par donner les définitions de rentabilités arithmétiques et logarith-
miques par la suite on présente quelques caractéristiques des séries financières.

1.13.1 Rendements des titres financiers


Il y a deux approches pour calculer les rendements des titres financiers. Les pra-
ticiens utilisent généralement les rendements discrets dit arithmétiques qui reflètent

23
CHAPITRE 1. GÉNÉRALITÉS SUR LES MESURES DE RISQUE

le vrai change- ment relatif des prix et qui sont utilisés pour mesurer la performance
des titres. Alors que les chercheurs utilisent plutôt les rendements continus qui repré-
sentent une approximation convenable pour des investigations empiriques ou analy-
tiques. Soit Pt et Pt−1 les prix des actifs à la fin de la période t et t − 1, respectivement.
Sans prise en compte des dividendes, le rendement arithmétique durant la période
[t − 1, t], note par Rt est donné par

pt − pt−1
RT (=) (1.22)
pt−1
et le rendement géométrique, dit aussi la log-rentabilité ou rendement continu, est
donné par
 
pt
rt = ln (pt ) − ln (pt−1 ) = ln = ln (Rt + 1) (1.23)
pt−1

Lorsque le pas de temps est petit ou lorsque la rentabilité est proche de zéro, les
rendements discrets peuvent être approximes par des rendements continus i.e.

rt = ln (Rt + 1) ≈ Rt

Soit Rt (k), rt (k) la rentabilité arithmétique, respectivement logarithmique, entre la


date t et la date t-k. Si on ne tient pas compte des dividendes, elles sont données par

rt (k) = (1 + rt )×, ......, (1 + rt−k+1 ) − 1,

et
RT (k) = RT + ........ + RT −K+1 .

Dans Solvabilté II, on considéré des horizons de longueur une année, pour cela on
utilise les rendements arithmétiques pour notre analyse empirique, en effet, une ap-
proximation continue peut ne pas donner des bons résultats.
On a la relation suivante : 1 + Rt = exp(rt ) qui lie le rendement arithmétique au
rendement logarithmique.
L’utilisation des observations du passé pour modéliser les réalisations du futur est
fondée sur la principale idée que certaines propriétés de ce processus aléatoire de-
meurent constantes dans le temps, on parle ici de la notion statistique de stationna-
rité. Ceci signifie que le processus générant les prix reste invariable d’une période a‘
l’autre. Une autre notion fonda- mentale dans l’analyse des séries financières est l’au-
tocorrélation des données qui décrit la manière avec laquelle une observation dépend
des réalisations passées. L’analyse directe des séries de prix se révèle difficile car elles
ne sont pas stationnaires et exhibent une forte corrélation. Les séries des rentabilités
ont en général de meilleures propriétés statistiques. C’est pour ces raisons que l’ana-

24
CHAPITRE 1. GÉNÉRALITÉS SUR LES MESURES DE RISQUE

lyse empirique porte généralement sur le processus des rendements et non pas sur le
prix des titres.

1.13.2 Caractéristiques des rendements financiers


De nombreuses études empiriques e.g. [Link] (2001) et Chakraborti et al. (2011),
indiquent que les séries financières sont caractérisées par des faits stylises tels que
les queues épaisses, les phénomènes de clustering de volatilité et d’asymétrie. Plu-
sieurs études se sont concentrées sur la modélisation des distributions non condition-
nelles des rendements. Cette modélisation permet de prendre compte certains faits
stylises sans pour autant pouvoir reproduire la fonction d’autocorrélation des rende-
ments. D’autres modèles sont à variance conditionnelles, permettent non seulement
de prendre en compte les faits stylises mais aussi de reproduire la structure de corré-
lation. Ces modèles seront présentes plus tard dans ce mémoire.
Dans ce qui suit on présente quelque phénoménes caractérisant les séries des ren-
dements financiers
— A court terme, les rendements oscillent autour de zéro ceci, n’est pas le cas
terme.
— a moyenne est nettement plus petite que la volatilité. Par conséquent une simple
connaissance de la moyenne ne permet pas de prédire avec précision le rende-
ment futur.
— Mandelbrot (1963) a montré que la distribution des rendements n’est pas nor-
male puisque les queues de distribution sont caractérisées par des queues épaisses.
Depuis, un nombre important de modélisation a été proposé. L’identification
des queues épaisses peut se faire à travers le moment d’ordre 4 normalisé ou
encore le Kurtosis. Pour une distribution normale, le Kurtosis est égal à 3, si le
Kurtosis est supérieur à 3, la distribution est dite leptokurtique.
— Une autre caractéristiques des séries de rendements est la présence d’asymétrie
négative qui se traduit par une proportion de rendements extrêmes négatifs
qui est plus élevée que celle de rendements extrêmes positifs : il y a plus de
mouvement fort à la baisse que à la hausse.
— Le clustering de volatilité selon lequel des périodes de forte volatilité alternent
avec des périodes de faible volatilité. Les grands rendements (positifs ou néga-
tifs) ont tendance à se suivre, et les petits rendements également. La volatilité
se produit ainsi en grappe et les extrêmes sont regroupés en cluster ou paquets
de volatilité
— Le processus du prix des actifs financiers est généralement non stationnaire au
sens faible (ou au second ordre) alors que le processus des séries de rendements
est station- naire.

25
CHAPITRE 1. GÉNÉRALITÉS SUR LES MESURES DE RISQUE

— Auto-corrélation des carrés des rendements : cela se traduit par une fonction
d’autocorrélation (ACF) des carrés des rendements qui décroit lentement à par-
tir d’une valeur faible mais positive. Cette forme typique de lACF est plus pro-
noncée pour une fréquence élevée que faible. Cette propriété implique que la
volatilité est prévisible dans une certaine mesure (ce qui n’est pas le cas pour les
rendements). Mandelbrot (1963) indique que les grands changements sont sui-
vis par des grands changements d’autres signes et les petits changements sont
suivis par des petits changements. Ce fait stylisé est connu par le phénomène
de mémoire longue dans les séries de rende- ments. Ce fait stylisé est impor-
tant puisqu’il montre que les incréments des prix ne sont pas indépendamment
distribués. On note que pour la série des rendements les autocorrélations sont
généralement très faibles.
— La baisse des cours a tendance à engendrer une augmentation de la volatilité
supérieure à celle engendrée par une hausse des cours, c’est ce qu’on appelle
l’effet de levier.
— Les rendements présentent de nombreux phénomènes de saisonnalité on cite
l’effet week-end étudié par French (1980) et Gibbon et Hess (1981) et l’effet de
premier janvier par exemple

26
Chapitre 2

Rappel sur les séries chronologiques

2.1 Introduction
La théorie des séries chronologiques(ou temporelles) est appliquée de nos jours
dans des domaines aussi variés que l’économétrie, la médecine ou la démographie.
Dans ce chapitre, plusieurs concepts importants liés à l’analyse des séries chronolo-
gique seront abordés. Parmi ceux-ci, on trouve les notions de bruit blanc, d’autocorila-
tion, de la stationnarité et les opérateurs définis sur une série chronologique.

2.2 Définition et concept de base


Une série chronologique est une série des valeur que prend une variable étudiée en
fonction du temps, on c’est une suite d’observation d’un phénomène en fonction du
temps.
l’analyse d’une série chronologique consiste à identifier et classer les facteurs qui
expliquent les variations parmi les valeurs prises par la variable observée sur des in-
tervalles réguliéres.
Les intervalles sont généralement mesurés en années , mois, semaine,....

2.3 Domaine d’application


On trouve des exemples de séries chronologiques univariées dans de très nombreux
domaines.
La liste suivante n’est qu’un échantillon :
— finance et économétrie : évolution des indices boursiers, des prix, des données
économiques des entreprises, des ventes et achats de biens, des productions
agricoles ou industrielles,
— assurance : analyse des sinistres,

27
CHAPITRE 2. RAPPEL SUR LES SÉRIES CHRONOLOGIQUES

— médecine / biologie : suivi des évolutions des pathologies, analyse d’électro-


encéphalogrammes et d’électrocardiogrammes,
— sciences de la Terre et de l’Espace : indices de marées, variations des phéno-
mènes physiques (météorologie), évolution des taches solaires, phénomènes d’ava-
lanches,
— traitement du signal : signaux de communications, de radars, de sonars, analyse
de la parole,
— traitement des données : mesures successives de position ou de direction d’un
objet mobile (trajectographie),
— métrologie : variation de phase ou de fréquence des oscillateurs (où l’on voit que
dans un laser, un bruit stationnaire de position sur un miroir conduit à un bruit
de phase stationnaire sur l’onde produite, alors qu’un bruit stationnaire sur la
longueur de la cavité laser se traduit par un bruit stationnaire sur la fréquence
de c’est-‘a-dire une marche au hasard sur sa phase), dérive et bruit des capteurs
inertiels.

2.4 Type de séries chronologiques


On distingue deux types de séries chronologique :

2.4.1 Série continues


C’est une série ou l’observation est faite d’une maniére continue dans le temps.
Exemple : résultat d’un électrocardiogramme.

2.4.2 Séries discrète


C’est une série où l’observation est faite sur des intervalles de temps fixés à périori.
Dans ce cas, T ∈ Z et les dates d’observations sont le plus souvent équidistantes par
exemple relevés mensuels, trimestriels,.......

Exemple 2.1 Evolution du nombre de voyageurs utilisant le train.

2.5 Objectifs de l’analyse d’une chronique


les objectifs de l’analyse d’une chronique sont :

2.5.1 Modélisation
Elle consiste à :

28
CHAPITRE 2. RAPPEL SUR LES SÉRIES CHRONOLOGIQUES

— Développer des modèles permettant de décrire le comportement d’une ou plu-


sieurs séries chronologiques.
— Mettre au point une méthodologie pour spécifier , estimer, valider (juger) un
modèle approprié pour des données particulières.

2.5.2 Prévision
Étant données des observations X1 , ..........,Xt , la prévision consiste à évaluer une
valeur non observée, Xt+h .la prévision peut être ponctuelle, ou prendre la forme d’un
intervalle de prévision.

2.6 Les composantes d’une série chronologique


On distingue les composantes suivantes :
— La composante tendancielle (Trend) T (t) : La tendance représente l’évolution à
longue terme du phénomène lié à la croissance générale de l’économie. Il traduit
l’allure d’ensemble des phénoménes, il décrit le mouvement de fond de la série
qui est la marque de la tendance à la hausse ou à la baisse.
— La composante saisonnière S(t) : Les variation saisonnière sont les fluctuations
périodiques plus ou moins régulières qui se superposent au movement extra sai-
sonnier. Leurs périodes peuvent etre journalières, hebdomadaires ou annuelles.
Parmi les facteurs responsables de saisonnalité : les facteurs climatiques, l’in-
égalité des différents mois, les congés,......etc.
— La composante cyclique C(t) : Elle représente des fluctuations qui apparaissent
d’une période à une autre, la durée de ces période est généralement irrégulière,
elle peut etre la cause à des changements économiques.
— La composante aléatoire ε(t) :
On retrouve souvent dans les séries chronologiques des mouvements qui ap-
paraissent irréguliers et généralement durant de courtes périodes. Les mouve-
ments ne suivent pas de modèle particulier.
Remarque : la tendance Ft prend défferentes forme :

— linéaire :Ft = a + bt.


— Quadratique :Ft = a + bt + Ct 2 .
— Exponetielle : Ft = ae bt .

2.7 Les différents schémas d’une série chronologique


Si T est l’observation obtenue à l’instant t, on peut admettre la relation combinant,
les quatre composantes peuvent s’exprimer par deux types de schémas de composi-

29
CHAPITRE 2. RAPPEL SUR LES SÉRIES CHRONOLOGIQUES

tion :
— Un schéma additif :
T = T1 + St + Ct + εt

Dans ce schéma , la saisonnalité est rigide en amplitude et en période.


— Un schéma multiplicatif :

T = T1 × St × Ct × εt

La composante saisonnière est liée à l’extra saisonnier.

T = T1 × St × Ct + εt ,

il est actuellement le plus utilisé en économie.


Il est commabdé puisque le logarithme de la chronique conduit au schéma ad-
ditif.

2.8 Choix du modèle


Graphiquement : Constatation graphique du parallélisme ou non des droites de
minima et des maxima :
-Droites parallèles ; modèle additif.
-Droite non parallèle : modèle multiplicatif.
Algébriquement : On recherche le coefficient directeur de ces deux droites par une
méthode analytique (deux points)
-Coefficients directeurs trés proches : le modèle choisi sera additif.
-Coefficient directeurs trés différents : le modèle choisi sera multiplicatif.

2.9 Opérateur définis sur une série chronologique


Si la série Xt n’est pas stationnaire l’opérateur suivant rendra cette série station-
naire.

2.9.1 Opérateur de retard


Définition 2.1 On note indifférement β, l’opérateur qui fait passer de Xt à Xt−1 :

βXt = Xt−1 (2.1)

Remarque : L’opérateur β est linéaire et inversible .son inverse β −1 = F est définit


par

30
CHAPITRE 2. RAPPEL SUR LES SÉRIES CHRONOLOGIQUES

∀t ∈ Z; FXt = Xt+1

L’opérateur F est appelé opérateur d’avance .


Si on compose β avec lui meme on obtient β 2 = β ◦ β tel que :

∀t ∈ Z; β 2 Xt = β(βXt ) = βXt−1 = X t−2

On peut itérer cette application et définir par récurrence :

β k Xt = Xt−k ; k ∈ N

Par convention, β0 est l’opérateur identité I

2.9.2 Opérateur de différence d’ordre d


Définition 2.2 On définit l’opérateur d

de différence d’ordre d comme l’opérateur linéaire tel que :

d Xt = (1 − β)d Xt . (2.2)

On peut aussi prendre l’opérateur d’ordre 1 est :

Xt = (1 − β)Xt = Xt − βXt = Xt − Xt−1,

C’est la série des accroissements, alors que la différence seconde donne la série 2
des accroissements, on a :

2 Xt = (Xt ) = (1 − β)2 Xt = (1 − 2β + β 2 )Xt = Xt − 2Xt−1 + Xt−2

2.9.3 Processus aléatoire


Pour chaque instant du temps la valeur de la quantité étudiée xt est appelée variable
aléatoire, l’ensemble des valeurs xt quand “t” varie est appelé processus aléatoire.

2.10 Filtre linéaires et moyennes mobiles


Nous donnons ici deux définitions importantes , pour l’étude des série chronolo-
giques

31
CHAPITRE 2. RAPPEL SUR LES SÉRIES CHRONOLOGIQUES

2.10.1 Filtre linéaire


Un filtre linéaire d’ordre m = p1 + p2 + 1est défini par

p2

FL = ωj β −j (2.3)
j=p1

= ω−p1 β p1 + ω−p1+1 β p1+1 + .... + ω−1 β + ω0 I + ω1 F + ...... + ωp2−1 F p2−1 + ωp2 F p2 .

où p1 , p2 ∈ N et ωj ∈ R.

2.10.2 Moyen mobiles


Une moyenne mobile d’ordre m = p1 + p2 + 1 est un filtre linéaire tel que :

p2

ωj = 1, pour tout j = −p1 , ..., p2 (2.4)
j=p1

-Beaucoup de moyennes mobiles ont des poids ωj positifs, mais pas toutes.
-Une moyenne mobile est symétrique si p1 = p2 = p et ωj = ω−j , pour tout j = 1, ...p.
-Une moyenne mobile symétrique est dite non pondérée si ωj = cst pour tout j =
−p1 , ..., p2

2.10.3 Moyenne mobile et composante saisonniére


Une moyenne mobile est un outil intéressant pour lisser une série temporelle et
donc pour enlever une composante saisonié[Link] utilise de préférence des moyennes
mobiles non -pondérées d’ordre égal à la période , par example d’ordre 7 pour des
données journaliéres, d’ordre 12 pour des données mensuelles .Par exemple , pour
enlever le composante saisoniére due au jour de la semaine , on peut appliquer une
moyenne mobile non pondérée d’ordre 7.

1
MM7 = (β 3 + β 2 + β + 1 + F + F 2 + F 3 )
7
Cette moyenne mobile accorde le meme poids à chaque jour de la semaine. En effet :

1
MM7 (Xt ) = (Xt−3 + Xt−2 + Xt−1 + Xt + Xt+1 + Xt+2 + Xt+3 ).
7
Remarque :
-Pour les composantes saisoniéres d’une période paire, il n’existe pas de moyennes
mobiles centrées non-pondérées.
-Si la période est paire et égale à m , on utilise une moyenne mobile accordant un
demi-poids aux deus extrémités.

32
CHAPITRE 2. RAPPEL SUR LES SÉRIES CHRONOLOGIQUES

-Par exemple , pour des données trimestrielles (m=4), la moyenne mobile est défi-
nie par :

1 1 1
MM4 = ( β 2 + β + 1 + F + F 2 )
4 2 2
En effet

1 1 1
MM4 (Xt ) = ( Xt−2 + Xt−1 + Xt + Xt+1 + Xt+2 ).
4 2 2

2.11 Stationnarité
La stationnarité est une caractéristique d’une série chronologique qui implique que
le comportement de la série ne dépend pas du [Link] particulier, on dit qu’une série
Xt est stable si elle ne comporte pas de tendance à la hausse ou à la baisse.
Plus formellement , on distingue deux types de stationnarité, à savoir stricte et
faible.

Définition 2.3 : (Stationnarité faible) Un processus (Xt )t∈Z est dit stationnaire ou faible-
ment stationnaire ou stationnaire au second ordre si :
— E(Xt2 )∞
— E(Xt ) = µ; ∀t ∈ Z (constante indépendante de t)
— Cov(Xt , Xt−h ) = E(Xt Xt−h ) − E(Xt )E(Xt−h ) = γ(h), ∀t ∈ Z, ∀h ∈ R (ne dépend pas du
temps).

En résumé, un processus Xt est dit stationnaire du second ordre si sa moyenne, sa


variance et sa covariance sont indépendantes du temps et si variance est finie.

Définition 2.4 (Stationnarité stricte) Un processus (Xt )t∈Z est dit strictement stationnaire

ou stationnaire au sens strict si les lois jointes de (Xt , ....Xtk ) et de (Xt1+h , ....Xtk+h )
sont identiques pour tout entier positif K et pour toust1 , ....tk ∀h ∈ R
Intuitivement, une série chronologique strictement stationnaire doit avoir le même
comportement statique sur des intervalles de temps égaux.

2.11.1 Relation entre stationnarité faible et stricte


Un processus strictement stationnaire du second ordre est faiblement [Link]
réciproque n’est pas vraie en général.
Contre - exemple :
Soit (Xt ) une suite de variables aléatoires indépendantes telle que :
-Xt → exp(1) lorsque t est pair,

33
CHAPITRE 2. RAPPEL SUR LES SÉRIES CHRONOLOGIQUES

-Xt → N (1, 1) lorsque t est impair,


Alors (Xt ) est stationnaire avec γx(0) = 1 et γx(h) = 0 lorsque h 0 . Cependant X1
et X2 n’ont pas la même loi donc(Xt )n’est pas strictement stationnaire.

2.11.2 Test de Dickey Fuller Augmenté


Les tests de stationnarité permettent de vérifier si une série est stationnaire ou non.
le test de Dickey Fuller ,le test augmenté de Dickey Fuller ,ou encore le test de Phillips
- Perron (pp), sont des tests de racine unitaire, pour lesquels l’hypothése nulle est que
la série a été générée par un processus présentant une racine unitaire, et donc, qu’elle
n’est pas stationnaire. On donne ici le test de ADF.
Les hypothése du test ADF se définissent de la facon suivante ; Un processus non
stationnaire, il correspond à une de ces formes de non stationnarité :

p

 Xt = φXt−1 + αi  Xt−1 + εt avec φ = p − 1 Modèle(1)
i=1

p

 Xt = α + φXt−1 + αi  Xt−1 + εt Modéle(2)
i=1

p

 Xt = α + βt + αi  Xt−i + εt Modéle (3)
i=1

[Link] de Dickey et Fuller augmenté : Robuste à l’autocorrélation par rapport au


test de Dickey - Fuller.
H0 : Xt → I (1)
H1 : Xt n’est pas I(1) tel que : I (1) est un racine unitaire.
Et

Tφ
ADF : (2.5)
(1 − 
a1 − ...
ap .)
[Link] de phillips-Perron : Robuste à l’hétéroscédasticité


 − 1 T 2 SE(φ) (λ
pp = T φ 2 − 
δ2 ) (2.6)
2 δ2

T
 1  2
δ2 = ( εt ) :
εt − 
T −K
t=1

résidus de la régression,
 = écart - type de φ,
SE(φ)

34
CHAPITRE 2. RAPPEL SUR LES SÉRIES CHRONOLOGIQUES

q
2 2 j
λ = δ +2 (1 − ) γ (j )
q+ 1
j =1

T
1
γ (j ) = ε t ε t−j
T
t=j +1

Valeurs critiques de ADF et PP : P(ADF c) = α


-dt = 0(processus centré)

Table 2.1 – Table d’un processus centré


αT 25 50 100 250 500 ∞
0.05 −7.3 −7.7 −7.9 −8 −8 −8.1

-dt = 1 processus avec drift)

Table 2.2 – Table d’un processus avec un drift égale à 1


αT 25 50 100 250 500 ∞
0.05 −12.5 −13.3 −13.7 −14 -14 -14 .1

2.12 Procédure de choix d’un schéma de composition :

Il existe plusieurs méthodes qui permettant de déterminer le chémat que peut


prendre une série chronologique (graphique ou statistique ), parmi les méthodes sta-
tistiques, on a le test de régression.
— Test de régression : test de Bays Ballot.

Il se base sur l’estimation de l’équation suivante :

δi = b0 + b1 X i

Avec
m
i = 1, ..., n
X i = 1|n X ij
j =1
j = 1, ..., m

1/2
m
2
δi = 1|n X ij − X i
j =1

m : nombre de mois.

35
CHAPITRE 2. RAPPEL SUR LES SÉRIES CHRONOLOGIQUES

n : nombre d’années.
Nous utilisons la méthode de moindre carrée ordinaire pour estimer le paramétre
b.

n
 n
 2
 2
b= δi Xi − n.δX| Xi − nX
i=1 i=1
n

X= Xi |n
i=1

Si 0.05 ≤ b ≤ 0 alors la série suit un schéma mixte.


Si 
b < 0 la série suit un schéma additif.
SI 
b > 0.10 la série suit un schéma multiplicatif.

2.13 Analyse des composantes d’une série chronologique


En général, dans la prévision à court et moyen terme, on se base sur l’identification
de la tendance et de la saisonnalité.

2.13.1 Analyse de la tendance :


D’aprés l’analyse des graphes, on peut distinguer l’existence ou l’absence de cette
composante .
Pour plus certitude, on peut aussi utiliser les tests statistiques, à savoir le test de
différentces. Test de différences : C’est un test non paramétrique qu’on peut présenter
comme suit :
H0 : tendance significative
H1 : tendance nulle.
Soit T l’observation d’une série chronologique homogène à l’instant t . On calcule
“S” qui représente le nombre des différences positives.

 Xt = Xt − Xt−1

Si N > 12; alors “S” suit la loi normale d espérance E(S) et de variance V (S)
Avec N : le nombre d’observation :

1
E(s) = (N − 1)
2

1
V (s) = (N + 1)
2

36
CHAPITRE 2. RAPPEL SUR LES SÉRIES CHRONOLOGIQUES

Aprés avoir calculé S , on calcule pour un risque d’erreur α = 5% la statistique Z.


|Z| < Uα : On accepte H0 (tendance significative)
|Z| > Uα : On rejette H0 (tendance significative)
Uα : le fractile de la loi normale.

2.13.2 Analyse de la saisonnalité


Pour s’assurer de l’existence de la composante saisonniére , on utilise les tests sta-
tistiques suivants :
— Le test graphique : Cette méthode consiste en une présentation graphique de
la variable étudiée, si l’allure générale du graphe est pratiquement similaire
pour chaque année, alors il existe une saisonnalité, et on peut l’analyser par
observation visuelle.
— Test par l’analyse de la variance et test de Ficher : C’est un test statistique qui
suppose la chronique sans tendance ou sans saisonnalité.
Dans le cas contraire , cette composante sera éliminée pour une régression sur le temps
(extra saisonnalité déterministe), ou par une procédure de filtrage (extra saisonnalité
aléatoire).
On pose : Xt = Xij
n le nombre d’années, i = 1, ....n
m le nombre de mois, j = 1, .....m
Donc le déroulement de test sera :
Z ; moyenne arithmétique des n.m observation
1 n m
Z = n.m i=1 j=1 Xij

Zi : moyenne arithmétique des années : Zi = n1 ni=1 X

Zj : moyenne arithmétique des mois : Zj = m1 m j=1 Xij
Ensuite , on calcule les sommes des carrées : posons : Sa : somme des carrées des

années , sa = m ni=1 (Zi − Z)2
  2
Sm : somme des carrées des mois , Sm = n m j=1 Z j
− Z
n m  2
Sr : somme des carrées des résidus : Sr = j=1 i=1 Xij − Zi − Zj + Z
Enfin, on a le tableau de l’analyse de variance suivant : Où

Table 2.3 – Tableau des résultats de l’analyse de la variance


Sommes des Degré de
V ariance Fc Ft
carrées liberté
Sm
Sm m−1 Vm = m−1 Fc mois = VV na F0.5% (m − 1), (m − 1)(n − 1)
Sa Va
Sa n−1 V a = n−1 Fc année = V n F0.5% (m − 1), (m − 1)(n − 1)
Sr
Sr (m − 1)(n − 1) V r = (m−1)(n−1)pou

Vm : variance due au acteur mois.

37
CHAPITRE 2. RAPPEL SUR LES SÉRIES CHRONOLOGIQUES

Où les coefficients a et b sont inconnus.


Le problème est que les points du nuage sont rarement (parfaitement) alignés :ils
sont proches d’une droite.
Nous cherchons maintenant la droite qui passe au plus prés des points du [Link]
cela ,il faut donc mesurer l’éloignement des points du nuage par rapport à une droite
D d’équation γ = ax + b puis minimiser un critère d’erreur donné.On peut envisager de
minimiser.
-La somme des erreurs en valeur absolue :

n 

min γ − aX − b  .
i i
a,b
i=1

-La somme des erreurs au carré :

n

min (γi − aXi − b)2 .
a,b
i=1

La méthode des moindres carrés minimisant le second critère est la plus usité.

2.17.2 La méthode des moindres carrés


On démontre en minimisant la fonction de deux variables

n

g(a; b) = (γi − aXi − b)2 .
i=1

a;
Que le couple solution ( b)est donné par :

1 n 1 n 1 n
n i=1 γi Xi − ( n i=1 γi )( n i=1 Xi ) cov(X; y)
a=
 1 n 2 1 n
= .
2 var(X)
n i=1 Xi − ( n i=1 Xi )
Et

n n
 1 1
b= γi − 
a Xi = y − 
aX.
n n
i=1 i=1

ax+
La droite d’équation y= b est appelée droite de régression de γen X et est notée :
y/x .
[Link] droite passe par le point moyen M(y;x).
[Link] coefficient directeur a de y/x ; cov(X; Y ) et r(X; Y ) sont de m
e me signe :
-Lorsqu’ils sont positifs, on parle de corrélation positive (y augmente quand x aug-
mente).
-Lorsqu’ils sont négatifs, on parle de corrélation négative(γ diminue quand x augmente).
Afin de confirmer qu’il est raisonnable d’approximer le nuage de points par une

42
CHAPITRE 2. RAPPEL SUR LES SÉRIES CHRONOLOGIQUES

Cov(X; Y )
r(x; y) = .
δx δy

[Link] coefficient de corrélation linéaire est symétrique :

r(x; y) = r(y; x).

b. L’inégalité de Cauchy - Schwarz donne :

−1 ≤ r(x; y) ≤ 1.

En pratique, il faut commencer par tracer le nuage de points puis calculer r(x; y)
et ce est que si la corrélation linéaire est assez forte que l’on cherchera la droite de
régression de γen x.

2.17.3 Ajustement tendanciel linéaire les moindres carrés

Supposons que l’on observe T valeurs d’une série dont la tendance semble être
linéaire .La méthode des moindres carrés décrite au paragraphe précédent consiste à
estimer la tendance par une fonction linéaire

Z at + 
= b

a;
Le couple solution ( b) est donné par :

Cov(t; Zt ) 
a=
 et b = Z − 
at.
var(t)
1 T T
En posant t = T i=1 t, z = i=1 Zt et


Cov(t; Zt ) = T1 Ti=1 (t − t)(Zt − Z).

var(t) = T1 Ti=1 (t − t)2 .

Remarque1.5 Le coefficient de corrélation linéaire est définit par :

Cov(t; Zt )
r=
var(t)var(Zt )

La corrélation linéaire entre la date t et la variable Zt est d’autant plus importante


que |r| est proche de 1.

43
CHAPITRE 2. RAPPEL SUR LES SÉRIES CHRONOLOGIQUES

2.17.4 Ajustement tendanciel linéaire par points médians


On suppose ici aussi que la tendance est linéaire .Cette méthode est empirique et
ne repose sur aucun critére d’erreur à minimise r. Elle peut cependant s’avérer efficace
en présence de valeurs aberrantes .On choisit deux points de coordonnées(tα ; Zα ) et
(tβ ; Zβ )
a; 
Les coefficient ( b) vérifiant :

Z −Z
atα + 
Zα =  b. a = tαα −tββ

soit Z −Z
atβ + 
Zβ =  b. 
b = Zα − tαα −tββ tα .

Pour choisir les deux points , on constitue deux sous -séries d’observations en gé-
néral d’effectifs égaux. Puis on prend les points médians de chaque sous série.

2.17.5 Ajustements tendanciels non linéaires


Lorsque la tendance n’est pas linéaire, une technique simple consiste à se ramener
à un ajustement linéaire aprés un changement de variable approprié.

Exemple 2.2 Si Zt = at 2 + b,en posant γt = t 2 ,on se raméne à Zt = aγt + b et on peut faire


un ajustement linéaire aprés entre γt et Zt .

Si Zt = b exp(at), en posant γt =ln(Zt ),on se raméne à γt = at + ln(b) et on peut faire


un ajustement linéaire entre γt et t.

2.17.6 Estimation non paramétrique


Dans certaines situations, il n’est pas facile de trouver le dégré du polynôme d’ajus-
tement pourZt ou de changement de variable adéquat. On pourrait utiliser un poly-
nôme avec un degré élevé mais le nombre de paramétres à estimer serait important et
rendrait les calculs [Link] ailleurs, on ne sait pas non plus déterminer l’allure
de cette fonction.
Dans cette situation,on a recours à la théorie non paramétrique de l’estimation de
la tendance qui ne suppose rien sur celle-ci a priori et on approxime la tendance par
la moyenne mobile arithmétique d’ordre k.

Zt∗ = Mk (Zt )

Alors la tendance à la date t peut être estimée par la^ moyenne mobile (centrée) d’ordre
K à la date t.

44
CHAPITRE 2. RAPPEL SUR LES SÉRIES CHRONOLOGIQUES

2.17.7 Théorème de Wold


Le théorème de Wold est fondamental pour l’analyse de séries temporelles station-
naires.

Théorème 2.1 Tout processus (Xt )t∈z faiblement stationnaire peut s’écrire sous la forme :



Xt = ψj εt−j + Kt (2.14)
j=0

∞ 2
Où les paramétres ψ1 , ψ2 .......sont des réels tels que ψ0 = 1 et j=0 ψj < +∞, (εt )t∈z est un
bruit blanc et Kt est une composante linéaire telle que :

Cov(Kt , εt ) = 0 pour tout j ∈ Z.

Selon le Théoréme de Wold, tout processus stationnaire d’ordre 2 peut être repré-
senté comme une somme pondérée infinie de chocs passés, caractérisés par un bruit
blanc.
Dans ce qui suit , deux exemples de séries chronologiques stationnaires sont pré-
sentés.
On obtiendra, dans chaque cas, leur représentation selon la formule du théoréme
de Wold.

Exemple 2.3 Soit le processus :


 1
Xt = ( )j νt−j+1
2
j=0

Où (νt )t∈Z est un bruit blanc gaussien de variance unitaire .Afin que la condition ψ0 = 1 du
théorème de wold soit satisfaite, il suffit de poser :

1
Xt = νt
2
On a alors :

+∞
 +∞

1 j−1 1
Xt = ( ) εt−j+1 = εt + ( )j εt−j
2 2
j=0 j=0

Où (εt )t∈Z est un bruit blanc de variance

νt 1
V ar(εt ) = V ar( )=
2 4
+∞
Ainsi, ψ0 = 1 et ψj = ( 12 )j .On note que la condition 2
j=0 ψj < +∞.

45
CHAPITRE 2. RAPPEL SUR LES SÉRIES CHRONOLOGIQUES

Est également satisfaite car :


 +∞
 +∞
1 2j  1 j 4
ψj2 = ( ) = ( ) =
2 4 3
j=0 j=0 j=0

Où le résultat :
+∞
 1
αj = , |r| < 1.
1−α
j=0

a été utilisé.

2.18 Processus de référence

2.18.1 Processus auto régressive (AR)


Dans le processus auto régressive AR d’ordre (p) l’observation Xt est générées par
une moyenne pondérée des observation passées jusqu’à la pieme période suivant la
forme :

AR(1) : Xt = φ 1 Xt−1 + εt

AR(1) : Xt = φ 1 Xt−1 + φ 2 Xt−2 + εt

AR(p) : Xt = φ 1 Xt−1 + φ 2 Xt−2 + ...... + φ p Xt−p + εt

où les φ i, i = 1......., p sont les paramètre à estimer positifs.


εt est un aléa gaussien : εt −→ N (0, δ2 ).
On peut ajouter à ce processus une constante qui ne modifie en rien les propriétés
stochastiques. L’équation précédente peut s’écrire à l’aide de l’opérateur retard(B) :

(1 − φ 1 B1 − .......φ P BP )Xt = εt ⇐⇒ φ(B)Xt = εt (2.15)

ou B défini par :

BpXt = Xt−p , p ≥ 0

φ(B) = 1 − φ 1 B1 .......φ P BP

φ(B) est appelé polynôme caractéristique de processus Xt .


Le processus Xtsera stationnaire si toutes les racines du polynôme caractéristique
φ(B) sont strictement à l’éxterieur du disque unité.

46
CHAPITRE 2. RAPPEL SUR LES SÉRIES CHRONOLOGIQUES

2.18.2 Processus moyenne mobile (MA)


Dans le processus moyenne mobile d’ordre (q) chaque observation Xt est générée
par une moyenne pondérée d’aléas jusqu’à la qi éme périodes suivant la forme :

MA(1) : Xt = εt − ϑ1 εt−1

MA(1) : Xt = εt − ϑ1 εt−1 − ϑ2 εt−2

MA(q) : Xt = εt − ϑ1 εt−1 − ϑ2 εt−2 − ...... − ϑq εt−q

ou :
δi , i = 1, ....., q sont les paramétres à estimer peuvent être0 ou 0 et εt est un aléa
gaussien εt −→ N (0, δ2 ).
L’équation précédente peut s’inscrire :

Xt = (1 − ϑ1 B1 − ....... − ϑq Bq )εt ⇐⇒ Xt = ϑ(B)εt (2.16)

Xt = 1 − φ 1 B1 − .......φ P BP

Remarque : Tous les processus MA (q), sont stationnaires par définition :

q

Xt = ϑi εt−i (2.17)
i=1

avec |ϑi | ∞ et εt , t ∈ Z

2.18.3 Processus auto régressif moyenne mobile (ARMA)


Les modèle sont représentatifd d’un processus généré par un combinaison valeurs
passées et des erreurs passées.
Le processusXt ,t ∈ Z est dit auto régressive à moyenne mobile d’ordre p,q noté
ARMA(p,q) s’il satisfait l’équation suivante :

Xt − φ 1 Xt−1 + φ 2 Xt−2 + ...... + φ p Xt−p = εt − ϑ1 εt−1 − ...... − ϑp εt−p

L’équation précédente peut encore s’écrire :

(1 − φ 1 B1 − .......φ P BP )Xt = (1 − ϑ1 B1 − ....... − ϑq Bq )εt =⇒ φ(B)Xt = ϑ(B)εt (2.18)

47
CHAPITRE 2. RAPPEL SUR LES SÉRIES CHRONOLOGIQUES

où :

φ(B) = 1 − φ 1 B1 − .......φ P BP

ϑ(B) = 1 − φ 1 B1 − .......φ P BP

Un processus ARMA(p, q) est stationnaire si et seulement si sa partie auto régressive


est stationnaire.

2.18.4 Processus ARIMA (auto regressive moyen mobileintégré)


l’existance d’une racine unitaire parmi les racines de φ P (B) dans le modéle ARMA
permet de définir un processus ARIMA noté ARIMA(p,d,q)

φ P (B)(1 − B)Xt = ϑq (B)εt (2.19)

En expliquant l’opération de différentiation de fois en aura :

φ P (B)∇d Xt = ϑq (B)εt (2.20)

le processus ainsi défini est non stationnaire en Xt mais il est stationnaire pour la
série différeciée ∇d Xt

2.18.5 Processus auto régressive moyen mobile intégré saisonnier


SARIMA(p,d,q)
Un processus (Xt , t ∈ Z)est un ARIMA saisonnier pur s’il satisfait une formule de
type :

φ P (B5 )(1 − B5 )d Xt = ϑq (B)εt (2.21)

avec :
d : l’ordre d’intégration
s : la période de la saisonnalité.

2.18.6 Les Modèles des séries temporelles à variance conditionnelle


Dans ce qui suit on présente quelques modéles de type GARCH qui sont trés utili-
sés pour modéliser la volatilité conditionnelle des séries des rendements .Ces modèles
permettent d’expliquer les changements dans la variance conditionnelle et sont connus

48
CHAPITRE 2. RAPPEL SUR LES SÉRIES CHRONOLOGIQUES

2
ht(θ) = α0 + α1 εt−1 + β1 ht−1

Les estimateurs du maximum de vraisemblance sont alors obtenus par résolution


analytique d’un système de K = p + q + 2 (nombre de paramètres à estimer) équations
non linéaires :

∂ log L(θ)
|θ=θˆ = 0
∂θ

∂2 log L(θ)
| θ = θˆ < 0
∂θ 2
Dans le cas général du PMV, l’estimateur du PMV est asymptotiquement convergent
et normal (Gouriéroux, 1997).


 = θ) →d −1 −1
T (θ T →∞ N (0, J IJ )

 
∂2 log L(θ)
J = E0 −
∂θ∂θ 
 
∂ log L(θ) ∂ log L(θ)
I = E0
∂θ ∂θ 
où E0 désigne l’espérance prise par rapport à la vraie loi. Si la vraie distribution des
erreurs est une loi normale (cas du MV) alors I = J .

[Link] Problèmes de convergence et choix des conditions initiales

Il n’existe pas de solution analytique à la maximisation de la vraisemblance dans le


cas général des modèles GARCH. On doit donc recourir à une optimisation numérique
de la vraisemblance ou de la pseudo vraisemblance suivant les cas. Dans la pratique,
se pose alors le problème de la convergence de l’algorithme d’optimisation retenu et
plus spécifiquement du problème du choix de conditions initiales.
En ce qui concerne l’algorithme d’optimisation, deux choix sont disponibles dans
le cadre de la procédure MODEL sous SAS utilisée pour estimer les modèles GARCH :
la méthode de Gauss Newton Raphson et la méthode de Marquardt –Levenberg. C’est
cette dernière qui est utilisée dans nos programmes. Pour cet algorithme, nous avons
retenu pour conditions initiales sur les paramètresαi et βi les valeurs estimées dans le
cas d’un modèle GARCH sous hypothèse de normalité.
Propriété : Soit Xt un processus GARCH(p,q ), et soit m = max(p, q). Le processus
Xt2 admet une représentation
ARMA(m, q).

52
CHAPITRE 2. RAPPEL SUR LES SÉRIES CHRONOLOGIQUES

Ainsi, pour identifier un GARCHp,q, on identifiera tout d’abord le processus ARMA(m,


q) qui modélise Xt2 . Pour identifier ρ dans le cas où m = q(p ≤ q), il faut effectuer des
tests de significativité des coefficients αq , . . . , α1 duprocessus ARMA(m, q) (sont-ils
significativement non nuls ?).

2.18.9 Modèle EGARCH (Exponential GARCH)


Le modèle EGARCH (Exponential General Autoregressive Conditional Heterosce-
dasticity) a été introduit par Nelson (1991). C’est un modèle ARCH non linéaire qui
permet de rendre compte de l’asymétrie dans la réponse de la variance conditionnelle
à une innovation. Plus précisément, le modèle EGARCH autorise une forme d’asymé-
trie qui dépend non seulement du signe positif ou négatif de l’innovation, mais aussi
de l’amplitude de ce choc. Par ailleurs le modèle EGARCH présente en outre l’avan-
tage, par rapport au modèle GARCH standard, de ne nécessiter aucune restriction de
non négativité sur les paramètres afin de garantir la positivité de la variance condi-
tionnelle.

[Link] Présentation du Modèle EGARCH

L’écriture du modèle EGARCH porte sur le logarithme de la variance conditionnelle


du processus considéré. Soit un processus yt , d’espérance E(yt ) = c , satisfaisant une
représentation de type EGARCH(p,q) . Ce processus s’écrit sous la forme suivante :

yt = c + εt (2.27)


εt = zt ht (2.28)

q
 p

log (ht ) = α0 + αi g(zt−i ) + βi log (ht−i ) (2.29)
i=1 i=1

g(zt−i ) = θzt−i + γ (|zt−i | − E |zt−i |) (2.30)

où zt désigne un bruit blanc faible homoscédastique tel que et E(zt )=0 et Var (zt )
=δz2et où les paramètres αi ,βi ,γ et θ sont des réels. De façon usuelle, la quantité ht
désigne la variance conditionnelle du processus yt telle que

V (yt |yt−1 ) = V (εt |εt−1 ) = ht

où désigne l’ensemble des valeurs passées {y t−1 .......y 0 }.

53
CHAPITRE 2. RAPPEL SUR LES SÉRIES CHRONOLOGIQUES

La valeur de ti E |zt−i | dépend naturellement de la loi supposée de zt . Pour les lois


usuelles retenues dans nos applications, cette quantité est définie de la façon suivante :
Loi Normale :

E |zt | = 2/π (2.31)

Loi de Student(v) : √
Γ (ν/2) ν − 2
E |zt | = 2 √ (2.32)
π (ν − 1) Γ (ν/2)
Loi GED
Γ (2/ν)
(v) : E |zt | =  (2.33)
Γ (1/ν) Γ (3/ν)
où Γ(.) désigne la fonction gamma.
Dans le cas du modèle EGARCH, il est inutile d’imposer des contraintes sur les
paramètres pour satisfaire la condition de positivité de la variance conditionnelle ht
en raison de son écriture logarithmique. Le paramètre θ permet de modéliser un effet
asymétrique lié au signe de l’innovation zt . Si θ > 0 (respectivement si θ < 0 ), un
choc positif sur la variance conditionnelle à la datet se traduira à la date t + 1 par une
augmentation (respectivement une diminution) de la variance conditionnelle, c’est-à-
dire de la volatilité, du processus yt . Le paramètre γ permet de prendre en compte
une asymétrie liée à l’amplitude de l’innovation zt mesurée par l’écart |zt | − E |zt | . Si
γ = 0 , alors une innovation positive aura le même effet (en valeur absolue) sur la
variance conditionnelle qu’une innovation négative. En revanche, si γ > 0 un choc de
forte d’amplitude aura relativement plus d’effet (en valeur absolue) sur la variance
conditionnelle qu’un choc de faible ampleur.

[Link] Estimation des Paramètres

Les paramètres du modèle EGARCH peuvent être estimés selon différentes mé-
thodes :
maximum de vraisemblance, pseudo maximum de vraisemblance, méthode des
moments etc. (pour plus de détails, voir Gouriéroux, 1997). Les méthodes générale-
ment retenues sont celles du maximum de vraisemblance (MV) ou du pseudo maxi-
mum de vraisemblance (PMV). L’avantage du PMV réside dans le fait que l’estima-
teur obtenu converge malgré une mauvaise spécification (supposée normale) de la
distribution conditionnelle des résidus, à condition que la loi spécifiée appartienne
à la famille des lois exponentielles (Gouriéroux et Montfort, 1989). Ainsi, l’estima-
teur du MV obtenu sous l’hypothèse de normalité des résidus et l’estimateur du PMV
sont identiques, seules leurs lois asymptotiques respectives diffèrent. Toutefois dans
les deux cas (MV ou PMV), sous les hypothèses standards, l’estimateur est asympto-
tiquement convergent et asymptotiquement normal. Considérons le cas d’un modèle

54
CHAPITRE 2. RAPPEL SUR LES SÉRIES CHRONOLOGIQUES


p − p) →dt→∞ N (0, J −1 IJ −1 )
T (

 
∂2 log L(p)
J = E0
∂p∂p ‚
 
∂ log L(p) ∂ log L(p)
I = E0
∂p p‚
où E0 désigne l’espérance prise par rapport à la vraie loi. Si la vraie distribution des
erreurs est une loi normale (cas du MV) alors I = J.

[Link] Problèmes de convergence et choix des conditions initiales

Il n’existe pas de solution analytique à la maximisation de la vraisemblance dans le


cas général des modèles GARCH. On doit donc recourir à une optimisation numérique
de la vraisemblance ou de la pseudo vraisemblance suivant les cas. Dans la pratique,
se pose alors le problème de la convergence de l’algorithme d’optimisation retenu et
plus spécifiquement du problème du choix des conditions initiales.
En ce qui concerne l’algorithme d’optimisation, deux choix sont disponibles dans
le cadre de la procédure MODEL sous SAS utilisée pour estimer les modèles GARCH :
la méthode de Gauss Newton Raphson et la méthode de Marquardt –Levenberg. C’est
cette dernière qui est utilisée dans nos programmes. Pour cet algorithme, nous avons
retenu pour conditions initiales sur les paramètres αi , βi les valeurs estimées dans le
cas d’un modèle GARCH sous hypothèse de normalité.
Concernant le paramètre θ , non définis dans un modèle GARCH, nous considérons
une condition initiale fixée à 0, initialisant ainsi l’algorithme d’optimisation sur un
modèle symétrique.

2.18.10 Modèle QGARCH (Quadratic GARCH)


Le processus QGARCH introduit par Engle et Ng (1993) et Sentana (1995) permet
de prendre en compte des asymétries dans la réponse de la volatilité conditionnelle
aux innovations. Sentana (1995) a montré que les propriétés des modèles GARCH(1, 1)
et QGARCH (1, 1)sont très similaires :
les conditions de stationnarité sont identiques à celles dérivées dans le cas du mo-
dèle GARCH et comme le résidu est un processus centré, l’expression de son espé-
rance non conditionnelle est également identique à celle obtenue avec un GARCH. En
revanche, la Kurtosis dans les modèles QGARCH est toujours plus grande que dans
les modèles GARCH symétriques correspondants, ce qui explique que le QGARCH
domine souvent empiriquement le GARCH.

56
CHAPITRE 2. RAPPEL SUR LES SÉRIES CHRONOLOGIQUES

[Link] Présentation du Modèle QGARCH

L’écriture du modèle QGARCH porte sur la variance conditionnelle du processus


considéré. Soit un processus γt , d’espéranceE(yt ) = c, satisfaisant une représentation
de type QGARCH(1, 1). Ce processus s’écrit sous la forme suivante :

yt = c + εt (2.34)


εt = zt ht (2.35)

2
ht = α0 + α1 εt−1 + +α2 εt−1 + β1 ht−1 (2.36)

où zt désigne un bruit blanc faible homoscédastique tel que E(zt ) = 0 et V ar(zt ) =


δz2et où les paramètres αi ,βi sont des réels. De façon suelle, la quantité ht désigne
la variance conditionnelle du processus yt telle que V (yt | yt−1 ) = V (εt | εt−1 ) =ht où
yt−1 désigne l’ensemble des valeurs passées {yt−1 .....yt } . Le paramètre α2 permet de
modéliser l’effet asymétrique.

Dans le cas du modèle QGARCH, il est utile d’imposer des contraintes sur les pa-
ramètres pour satisfaire la condition de positivité de la variance conditionnelle ht .
Ces contraintes se ramènent à α0 , α2 , β1 et α12 ≤ 4α2 α0 . La stationnarité est assurée si
2
α2 + β1 < 1 . Notons que la forme quadratique f (εt−1 ) = α1 εt−1 + α2 εt−1 est minimale
en −α1 |(2α2 ). Par conséquent, la symétrie de la réponse n’est pas obtenue en zéro mais
en ce point : à amplitude donnée de l’innovation passée, on a bien un impact sur ht
différent selon le signe de εt−1 Sentana (1995) propose une généralisation à un modèle
QGARCH(p, q) telle que :

q
 q
 q 
 q
2
ht = θ + Ψi εt−i + aii εt−i +2 aij εt−i εt−j (2.37)
i=1 i=1 i=1 j=i+1

Ce modèle permet de tester simplement les asymétries dynamiques dans la fonc-


tion de variance conditionnelle de certaines séries financières. De plus, la formulation
du QGARCH peut aussi être interprétée comme une approximation de Taylor au se-
cond ordre de la fonction de variance ou comme la projection quadratique de l’inno-
vation au carré sur l’ensemble d’information. En fait, cette projection coïncide avec la
projection de la vraie variance conditionnelle sur un « ensemble d’information quadra-
tique », donc nous pouvons ainsi comprendre le modèle QGARCH comme produisant
des estimateurs filtrés et lissés de la variance conditionnelle.

57
CHAPITRE 2. RAPPEL SUR LES SÉRIES CHRONOLOGIQUES

2
ht (θ) = α0 + α1 εt−1 + y1 εt−1 + β1 ht−1

Les estimateurs du maximum de vraisemblance sont alors obtenus par résolution


analytique d’un système de K = p + q + 2 (nombre de paramètres à estimer) équations
non linéaires :

∂ log L(θ)
|θ=θ= 0
∂θ

∂2 log L(θ)
|θ=θ  0
∂θ 2
Dans le cas général du PMV, l’estimateur du PMV est asymptotiquement convergent
et normal (Gouriéroux, 1997).

√  
−1 −1
 →d
T θ −θ T →∞ N (0, J IJ )

 
∂2 log L(θ)
J = E0
∂θ∂θ ‚
 
∂ log L(θ) ∂ log L(θ)
I = E0
∂θ ∂θ ‚
où E0 désigne l’espérance prise par rapport à la vraie loi. Si la vraie distribution des
erreurs est une
loi normale (cas du MV) alors I = J.

[Link] Problèmes de convergence et choix des conditions initiales

Il n’existe pas de solution analytique à la maximisation de la vraisemblance dans le


cas général des modèles GARCH. On doit donc recourir à une optimisation numérique
de la vraisemblance ou de la pseudo vraisemblance suivant les cas. Dans la pratique,
se pose alors le problème de la convergence de l’algorithme d’optimisation retenu et
plus spécifiquement du problème du choix de conditions initiales.
En ce qui concerne l’algorithme d’optimisation, deux choix sont disponibles dans
le cadre de la procédure MODEL sous SAS utilisée pour estimer les modèles GARCH :
la méthode de Gauss Newton Raphson et la méthode de Marquardt –Levenberg. C’est
cette dernière qui est utilisée dans nos programmes. Pour cet algorithme, nous avons
retenu pour conditions initiales sur les paramètres αi et βi
les valeurs estimées dans le cas d’un modèle GARCH sous hypothèse de normalité.
Concernant le paramètreγ, non défini dans un modèle GARCH, nous retenons une
condition initiale fixée à 0, initialisant ainsi l’algorithme d’optimisation sur un modèle

59
CHAPITRE 2. RAPPEL SUR LES SÉRIES CHRONOLOGIQUES

où θ désigne l’ensemble des paramètres du modèle,mt (θ)désigne l’espérance condi-


tionnelle et ht (θ) désigne la variance conditionnelle. Dans le cas du modèle IGARCH(1, 1)
présenté ci-dessus :

mt (θ) = c

2
bt = α0 + 1α1 εt−1 + (1 − α1 )bt−1

Les estimateurs du maximum de vraisemblance sont alors obtenus par résolution ana-
lytique d’un système de K = p + q + 2 (nombre de paramètres à estimer) équations non
linéaires :

∂ log L(θ)
|θ=θ= 0
∂θ

∂2 log L(θ)
|θ=θ  0
∂θ 2
Dans le cas général du PMV, l’estimateur du PMV est asymptotiquement convergent et
normal (Gouriéroux, 1997).

√  
−1 −1
 − θ →d
T θ T →∞ N (0, J IJ )

 
∂2 log L(θ)
J = E0
∂θ∂θ ‚
 
∂ log L(θ) ∂ log L(θ)
I = E0
∂θ ∂θ ‚
où E0 désigne l’espérance prise par rapport à la vraie loi. Si la vraie distribution des
erreurs est une loi normale (cas du MV) alors I = J.

[Link] Problèmes de convergence et choix des conditions initiales

Il n’existe pas de solution analytique à la maximisation de la vraisemblance dans le


cas général des modèles GARCH. On doit donc recourir à une optimisation numérique
de la vraisemblance ou de la pseudo vraisemblance suivant les cas. Dans la pratique,
se pose alors le problème de la convergence de l’algorithme d’optimisation retenu et
plus spécifiquement du problème du choix de conditions initiales.
En ce qui concerne l’algorithme d’optimisation, deux choix sont disponibles dans le
cadre de la procédure AUTOREG sous SAS utilisée pour estimer les modèles GARCH :
la méthode de Gauss Newton Raphson et la méthode de Marquardt –Levenberg. Pour
cet algorithme, nous avons retenu pour conditions initiales sur les paramètres αi ,Bi

62
CHAPITRE 2. RAPPEL SUR LES SÉRIES CHRONOLOGIQUES

où ρ désigne l’ensemble des paramètres du modèle, mt (ρ ) désigne l’espérance condi-


tionnelle et ht (ρ) désigne la variance conditionnelle. Dans le cas du modèle GJR-GARCH(1, 1)
présenté cidessus

mt (p) = c

2 2
ht (p) = α0 + α1 εt−1 + ΦIεt−i 0 εt−1 + β1 ht−1

Les estimateurs du maximum de vraisemblance sont alors obtenus par résolution ana-
lytique d’un système de K = p + q + 2 (nombre de paramètres à estimer) équations non
linéaires :

∂ log L(θ)
|θ=θ= 0
∂θ

∂2 log L(θ)
|θ=θ  0
∂θ 2
Dans le cas général du PMV, l’estimateur du PMV est asymptotiquement convergent et
normal (Gouriéroux, 1997).

√  
−1 −1
 − θ →d
T θ T →∞ N (0, J IJ )

 
∂2 log L(θ)
J = E0
∂θ∂θ ‚
 
∂ log L(θ) ∂ log L(θ)
I = E0
∂θ ∂θ ‚
où E0 désigne l’espérance prise par rapport à la vraie loi. Si la vraie distribution des
erreurs est une loi normale (cas du MV) alors I = J.

[Link] Problèmes de convergence et choix des conditions initiales

Il n’existe pas de solution analytique à la maximisation de la vraisemblance dans le


cas général des modèles GARCH. On doit donc recourir à une optimisation numérique
de la vraisemblance ou de la pseudo vraisemblance suivant les cas. Dans la pratique,
se pose alors le problème de la convergence de l’algorithme d’optimisation retenu et
plus spécifiquement du problème du choix de conditions initiales.
En ce qui concerne l’algorithme d’optimisation, deux choix sont disponibles dans
le cadre de la procédure MODEL sous SAS utilisée pour estimer les modèles GARCH :
la méthode de Gauss Newton Raphson et la méthode de Marquardt –Levenberg. C’est
cette dernière qui est utilisée dans nos programmes. Pour cet algorithme, nous avons

65
CHAPITRE 2. RAPPEL SUR LES SÉRIES CHRONOLOGIQUES

retenu pour conditions initiales sur les paramètres αi , Bi les valeurs estimées dans le
cas d’un modèle GARCH sous hypothèse de normalité.
Concernant les paramètresφ i , non définis dans un modèle GARCH, nous considé-
rons des conditions initiales fixées à 0.0001 permettant ainsi d’évaluer la pertinence
de notre modèle asymétrique.

2.18.13 Modèle GARCH-M (GARCH in Mean)


Le modèle GARCH-M (General Autoregrssive Conditional Heteroskedasticity in
Mean) a été introduit par Engle-Lilien-Robbins (1987). C’est un modèle ARCH qui
permet de mesurer l’influence du rendement des titres sur la volatilité conditionnelle.
Comme les modèles ARCH linéaires, le modèle GARCH-M repose sur une spécifica-
tion quadratique de la variance conditionnelle des perturbations.

[Link] Présentation du Modèle GARCH-M(GARCH in Mean)

L’écriture du modèle GARCH-M porte sur la non stationnarité de son processus de


variance conditionnelle et par une variance non conditionnelle infinie. Soit un proces-
sus yt d’espéance E(yt ) = 0, satisfaisant une représentation de type GARCH-M (p,q).
Ce processus s’écrit sous la forme suivante :

yt = xt b + δht + εt (2.47)


εt = zt ht (2.48)

q
 p

2
ht = α0 + αi εt−i + βi ht−i (2.49)
i=1 i=1

où zt désigne un bruit blanc faible homoscédastique tel que E(zt ) et V ar(zt ) = δz2 et où
les paramètres αi ,βi sont des réels. De façon usuelle, la quantité ht désigne la variance
conditionnelle du processus yt telle que V (yt |yt−1 ) = V (εt |εt−1 ) = ht où yt−1 désigne
l’ensemble des valeurs passées{yt−1 .....y0 } . Afin de garantir la positivité de la variance
conditionnelle, les conditions de positivité des paramètres suffisent, on suppose : α0 >
0, αi ≥ 0, i = 1, ..., q, βi ≥ 0, i = 1, ..., p.
Le paramètre δ mesure l’impact de la variance conditionnelle sur le rendement ; il
correspond également au coefficient de l’aversion relative au risque. Les variables zt
sont indépendamment et identiquement distribuées (i.i.d.).
En plus de la forme linéaire de l’écriture de yt ci-dessus des variantes sont pos-
sibles ; c’est-à-dire les formes log-linéaire et racine carré.

66
CHAPITRE 2. RAPPEL SUR LES SÉRIES CHRONOLOGIQUES

yt = xt b + δlog(ht ) + εt

FormeLog-Linéaire


yt = xt b + δ ht + εt

Forme Racine Carré

[Link] Estimation des Paramètres

Les paramètres du modèle GARCH peuvent être estimés selon différentes méthodes :
maximum de vraisemblance, pseudo maximum de vraisemblance, méthode des mo-
ments etc. (pour plus de détails, voir Gouriéroux, 1997). Les méthodes généralement
retenues sont celles du maximum de vraisemblance (MV) ou du pseudo maximum
de vraisemblance (PMV). L’avantage du PMV réside dans le fait que l’estimateur ob-
tenu converge malgré une mauvaise spécification (supposée normale) de la distribu-
tion conditionnelle des résidus, à condition que la loi spécifiée appartienne à la fa-
mille des lois exponentielles (Gouriéroux et Montfort, 1989). Ainsi, l’estimateur du MV
obtenu sous l’hypothèse de normalité des résidus et l’estimateur du PMV sont iden-
tiques, seules leurs lois asymptotiques respectives diffèrent. Toutefois dans les deux
cas (MV ou PMV), sous les hypothèses standards, l’estimateur est asymptotiquement
convergent et asymptotiquement normal.
Considérons le cas d’un modèle GARCH-M (1,1) sous l’hypothèse de normalité des
innovations.

yt = c + εt


εt = zt ht

2
bt = α0 + α1 εt−1 + β1 bt−1

zt i.i.d.N (0, 1)

où les variables zt sont identiquement et indépendamment distribuées (i.i.d.) selon


une loi normale centrée et réduite. La fonction de log-vraisemblance associée à un
échantillon de T observations {y1 , .., yT } obtenue sous l’hypothèse de normalité de la loi
conditionnelle de yt sachant son propre passé s’écrit :

67
CHAPITRE 2. RAPPEL SUR LES SÉRIES CHRONOLOGIQUES

T T
T 1 1  [yt − mt (θ)]2
log L(θ) = − log(2π) − log(ht (θ)) −
2 2 2 ht (θ)
t=1 t=1

où θ désigne l’ensemble des paramètres du modèle,mt (θ)désigne l’espérance condi-


tionnelle et ht (θ) désigne la variance conditionnelle. Dans le cas du modèle GARCH-M
(1,1) :

mt (θ) = c

2
ht (θ) = α0 + α1 εt−1 + β1 ht−1

Les estimateurs du maximum de vraisemblance sont alors obtenus par résolution ana-
lytique d’un système de K = p + q + 2 (nombre de paramètres à estimer) équations non
linéaires :

∂ log L(θ)
|θ=θ= 0
∂θ

∂2 log L(θ)
|θ=θ  0
∂θ 2
Dans le cas général du PMV, l’estimateur du PMV est asymptotiquement convergent et
normal (Gouriéroux, 1997).

√  
 − θ →d −1 −1
T θ T →∞ N (0, J IJ )

 
∂2 log L(θ)
J = E0 −
∂θ∂θ ‚
 
∂ log L(θ) ∂ log L(θ)
I = E0
∂θ ∂θ ‚
où E0 désigne l’espérance prise par rapport à la vraie loi. Si la vraie distribution des
erreurs est une loi normale (cas du MV) alors I = J .

[Link] Problèmes de convergence et choix des conditions initiales

Il n’existe pas de solution analytique à la maximisation de la vraisemblance dans le


cas général des modèles GARCH. On doit donc recourir à une optimisation numérique
de la vraisemblance ou de la pseudo vraisemblance suivant les cas. Dans la pratique,
se pose alors le problème de la convergence de l’algorithme d’optimisation retenu et
plus spécifiquement du problème du choix de conditions initiales.
En ce qui concerne l’algorithme d’optimisation, deux choix sont disponibles dans le

68
CHAPITRE 2. RAPPEL SUR LES SÉRIES CHRONOLOGIQUES

F −1 (α) = φ −1 (α) (2.51)



E |z| = 2/π (2.52)
 
γ3 = E (z − E(z))3  = 0 (2.53)

 
γ4 = E (z − E(z))4  = 3 (2.54)

Où γ 3 et γ 4 désignent respectivement la Skewness et la Kurtosis.


La log-vraisemblance associée à une observation zt sous l’hypothèse de normalité
s’écrit :

T T
T 1 1  [zt − mt (θ)]2
log L(θ) = − log(2π) − log [ht (θ)] − (2.55)
2 2 2 ht (θ)
i=1 i=1

où ht (θ) désigne la variance conditionnelle d’un processus GARCH et mt (θ) fait réfé-
rence à l’espérance conditionnelle.

2.19.2 Loi de Student


La distribution de Student permet de modéliser des queues de distribution plus
épaisses que celles de la loi normale (distribution leptokurtique). Plus précisément, la
Kurtosis de la distribution de Student est déterminée par le degré liberté v . Dès lors,
dans le cadre des modèles GARCH, ce paramètre estimé permet de capturer l’excès de
Kurtosis qui ne peut pas être expliqué par le modèle GARCH lui même. La distribution
de Student standardisée est symétrique et la Skewness est nulle à condition queν > 3 .
La distribution est leptokurtique dès lors que ν > 4.
Les formules utiles dans une perspective de calcul de la VaR associées à une loi de
Student à ν degrés de liberté sont les suivantes (Bao, Lee et Saltogu, 2004).
  
− ν+1
ν+1
Γ 1 2 z2 2
f (z; υ) =   √ 1+ ,ν > 2 (2.56)
Γ ν πν ν
2
    − ν+1
ν+1
Γ 1 2
x
t2 2
F(z; υ) = G(z; υ) =   √ 1+ dt, ν > 2 (2.57)
Γ ν πν −∞ ν
2

(ν − 2) −1
F −1 (α) = G (α; υ) (2.58)
ν
 √
4Γ 1+ν
2 ν −2
E |z| = √   (2.59)
1 + πΓ ν2 (ν − 1)

70
CHAPITRE 2. RAPPEL SUR LES SÉRIES CHRONOLOGIQUES

γ3 = 0, ν > 3 (2.60)

3ν 2
γ4 = ,ν > 4 (2.61)
(ν − 2) (ν − 4)
où γ 3 et γ 4 désignent respectivement la Skewness et la Kurtosis.
La log-vraisemblance associée à une observation zt sous l’hypothèse de Student
s’écrit :

     
ν +1 ν
log L (θ, εt ) = log Γ − log Γ (2.62)
2 2
  
zt2
−0.5 log [π (ν − 2)] + log(ht ) + (1 + ν) log 1 + (2.63)
ν −2

où Γ(.) désigne la fonction gamma.

2.19.3 Loi GED (General Error Distribution)

La distribution à erreurs généralisées (GED) est également symétrique mais est as-
sez flexible dans les queues grâce au paramètre ν . En effet, quand ν = 2, nous tombons
sur une distribution normale standard. Lorsque ν < 2 , cette distribution a des queues
plus épaisses que celle de la normale (distribution leptokurtique). Pour ν = 1 , la dis-
tribution GED dégénère vers une distribution double exponentielle. Lorsque ce para-
mètre ν est supérieur à 2, la distribution GED a des queues plus fines que celles de la
normale (distribution platykurtique). Enfin, quand ν tend vers l’infini, on obtient une
distribution uniforme. L’excès de Kurtosis est donné par Γ(1|ν)Γ(5|ν)/[Γ(3|ν)]2 , (Bao,
Lee et Saltogu, 2004).
Les formules utiles dans une perspective de calcul de la VaR associées à une loi
GED à ν degrés de liberté sont les suivantes.

ν exp(−0.5 |z|λ|ν )
f (z; υ) = ,ν > 0 (2.64)
λ2(1+1|ν) Γ(1|ν)
   ν 

 1|ν, 1 z
, si z ≤ 0

 Γ 2 −λ
F(z; υ) =  ( 1 z ν (2.65)
 γ 1|ν, 2(λ) )
 2Γ (1|ν) 12 + 2Γ(1|ν)
 , si z > 0

 −1
−1  −2λΓ  (1|ν, 2αΓ


(1|ν)) si α ≤ 0.5
 
F (α) = 
 (2.66)
 2λγ −1 1|ν, 2 α − 12 Γ (1|ν) si α > 0.5

71
CHAPITRE 2. RAPPEL SUR LES SÉRIES CHRONOLOGIQUES

Γ (2|ν)
E |z| = λ21/ν (2.67)
Γ (1|ν)

γ3 = 0 (2.68)

Γ (1|ν) Γ (5|ν)
γ4 = (2.69)
[Γ(3|ν]2
γ3 , γ4 désignent respectivement la SKewness et la Kurtosis et λune constante telle
que :

λ= 2(−2|ν) Γ (1|ν) /Γ (3|ν)

la log-vraisemblance associée à une observation zt sous l’hypothése GED s’ecrit :

 z ν    
 t −1 1
log L (θ, zt ) = log (ν|λ) − 0.5   − 1 + ν log(2) − log Γ( ) − 0.5 log(ht ) (2.70)
λ ν

2.19.4 Loi Skewed Student


Bien que la GED permette une flexibilité dans la modélisation de la Kurtosis, elle ne
peut pas modéliser la Skewness observée dans un grand nombre de séries financières.
Or, négliger la Skewness peut conduire à une inférence biaisée du risque.
Fernandez et Steel (1998) ont été les premiers à proposer la Skewed Student comme
une distribution à quatre paramètres où les paramètres régissant la location, la disper-
sion, la Skewness et la Kurtosis ont une interprétation intuitive.
Les formules utiles dans une perspective de calcul de la VaR associées à une loi de
Skewed Student à ν degrés de liberté sont les suivantes.
  


ν+1
2s Γ( 2 ) √ 1 ε2 (sz+m)2 ν+1 m

 ε+ε−1 Γ( ν2 )
1 + ν−2 2 si z ≤ − s
 π(ν−2)  
f (z, ε, ν) = 
 (2.71)

ν+1
2s Γ( 2 ) √ 1 ε−2 (sz+m)2 ν+1 m

 ε+ε−1 Γ( ν2 )
1 + ν−2 2 si z > − s
π(ν−2)
  ν
 2 m
 ε2 +1 G(ε(sz + m) ν−2 ; ν) si z ≤ − s

F(z; ε, ν) = 
  (2.72)
 1 − 22 G(−ε−1 (sz + m) ν ; ν) si z > − m
ε− +1 ν−2 s
 1 −1 α
ε G ( 2 (1+ε );ν )−m
 2

 1
si α ≤ 1+ε

F −1 (α) = 
 −εG −1
( 1−α
s
( 1+ε −2
);ν )−m
2
(2.73)

 2
si α 1
s 1+ε2
 √
1+ν
4ε 2 Γ 2 ν −2
E |z| = 1√
  (2.74)
ε+ ε πΓ ν2 (ν − 1)

72
CHAPITRE 2. RAPPEL SUR LES SÉRIES CHRONOLOGIQUES

    
(ν − 2)3/2 ε2 − 1 ε4 + 1 Γ [(ν − 3) |2] m m2 + 3s
γ3 = √ 3 3 − (2.75)
πε s Γ (ν|2) s3

    
3 ε5 − ε−5 (ν − 2) 3m2 (m2 + 2s) 4m(ν − 2)3/2 ε2 − 1 ε4 + 1 Γ [(ν − 3) |2]
γ4 = + − √ 3 4
(ε + ε−1 ) (ν − 4) s4 s4 πε s Γ (ν|2)
(2.76)

 
ε > 0, ν > 2, m = Γ ((ν − 1) /2) (ν − 2) /π (ε − 1/ε) /Γ (ν/2) , s = (ε 2 + 1/ε2 − 1) − m2
(2.77)
γ 3 et γ 4 désignent respectivement la Skewness et la Kurtosis si v est respectivement
supérieur à 3et 4. G(.; ν)dénote la fonction de répartition d’une distribution de Student
standard. ε est un indicateur d’asymétrie tel que lorsque ε =1, la distribution Skewed
Student est égale à la distribution de Student.
La log-vraisemblance associée à une observation zt sous l’hypothèse Skewed Student
s’écrit :
       
 ν + 1 ν 1  2  
 + log(s)(2.78)
log (θ, zt ) = T log Γ − log − log (π (ν − 2)) + log  1  
2 2 2 ε+ ε
T   
1 2 (szt + m)2 −2t,
− log(∂t ) + (1 + ν) log 1 + ε
2 (ν − 2)
i=1

2.19.5 Loi Skewed GED

Theodossiou (2000) donne la version Skewed de la GED avec deux paramètres


contrôlant respectivement la Skewness et la Kurtosis. La Skewed GED était utilisé pour
examiner la distribution empirique des rentabilités de plusieurs actifs financiers à des
fréquences différentes et les résultats ont montré qu’elle est appropriée (Bao, Lee et
Saltogu, 2004).
Les formules utiles dans une perspective de calcul de la VaR associées à une loi de
Skewed GED à ν degrés de liberté sont les suivantes.

c exp(−w1 |z − δ|k )si z ≤ δ


f (z; k, λ) = (2.79)
c exp(−w2 |z − δ|k )si z > δ


 (1−λ)Γ(1|k,w1 (δ−z)k )

 2Γ(1|k)
si z ≤ δ
F(z; k, λ) = 
 (1+λ)γ(1|k,w2 (z−δ)k
(2.80)

 1−λ
+ si z > δ
2 2Γ(1|k)

73
CHAPITRE 2. RAPPEL SUR LES SÉRIES CHRONOLOGIQUES

  1|k
1−λ −1 1 2αΓ(1|k)
−1
δ − φ  Γ k , 1−λ si α ≤ 1−λ2
F (α) =  1−λ
 (2.81)
2(α− )Γ(1|k)
δ + 1+λ
φ γ
−1 1 ,
k
2
1+λ si α > 1−λ
2

c(−A1 − B1 + C 1) si δ ≤ 0
E |z| = (2.82)
c(−A2 − B2 + C 2) si δ0
 
4λ 1 + λ2 Γ (4|k)
γ3 = + 3δ + δ3 (2.83)
φ 3 Γ (1|k)
   
1 + 10λ2 + 5λ4 Γ (5|k) 16λδ 1 + λ2 Γ (4|k)
γ4 = + + 6δ 2 + 3δ4 − 3 (2.84)
φΓ (1|k) φ 3 Γ (1|k)
où k>0, 1> λ >-1, et où γ3 et γ4 désignent respectivement la Skewness et la Kurto-
sis.

kφ Γ (3|k)
c= ,φ = s , δ = −2λAs −1 (2.85)
2Γ (1|k) Γ (1|k)

√ Γ (2|k)
s = 1 + 3λ2 − 4A2 λ2 , A =  (2.86)
T (1|k) Γ (3|k)
Le paramètre k contrôle l’épaisseur des queues tandis que λ modélise l’asymétrie
quand il est différent de 0.
Par ailleurs, il est possible de retrouver plusieurs densités connues comme des cas
particuliers. Ainsi, lorsquek = 2et λ = 0 , nous obtenons la densité de la loi Normal
standard. Pour k = 2 et λ  0 , nous obtenons la Skewed normal d’ Azzalini (1985).
Enfin pour lorsque le paramètreλ = 0 , nous retombons sur une distribution GED (Ca-
puccio, Lubian et Raggi, 2004)

74
Chapitre 3

La Modélisation du problème
d’optimisation du portefeuille

3.1 Introduction
Dans un cadre statique d’étude, notre objectif sera principalement de déterminer
deux éléments de la gestion de portefeuille. Dans un premier temps, on cherchera les
proportions optimales de chaque actif risqué dans le portefeuille. Dans un deuxième
temps, on déterminera le montant B de liquidité à prêter ou à emprunter de façon à
constituer un portefeuille avec une VaR qui correspond à la V aR préfixé par l’inves-
tisseur. Ce niveau de V aR∗ reflètera le degré de l’aversion au risque de l’investisseur.
Bien évidemment, le portefeuille constitué maximise l’espérance de rendement que
peut obtenir l’investisseur sous la contrainte d’une V aR recherché. Dans ce qui suit,
l’objectif est de présenter un modèle traduisant la problématique.
On suppose que l’on dispose d’un montant W (0) à investir sur un horizon de temps
T . On rappelle qu’on cherche à investir de manière à avoir un niveau de V aR bien dé-
finie de notre portefeuille. Ce niveau peut être fixé par le gestionnaire de risque dans
les institutions financières de sorte qu’il correspond aux exigences des autorités règle-
mentaires, ou fixé par un investisseur particulier relativement à son degré d’aversion
au risque. Ce montant peut être investie avec un autre montant B qui représente un
prêt si B < 0 et un emprunt si B > 0. rf est le taux d’intérêt sans risque pour lequel l’in-
vestisseur peut prêter ou emprunter pendant la période T . On a n actifs disponibles sur
le marché. γ(i) indique la fraction investie dans l’actif risqué i ainsi la somme des γ(i)
doit être égale à 1. Soit aussi P(i, t) le prix de l’actif i au temps t (le présent correspond
à t = 0).
La valeur initiale du portefeuille représente la contrainte budgétaire :

n

w(0) + β + γ(i)P(i, t) (3.1)
I =1

75
CHAPITRE 3. LA MODÉLISATION DU PROBLÈME D’OPTIMISATION DU
PORTEFEUILLE
Le problème fondamental sera ainsi de déterminer les fractions γ(i) ainsi que le
montant initial β à emprunter ou à prêter.
En choisissant le niveau désiré de la VaR comme VaR * (exprimé en valeur absolue),
on peut formuler la contrainte de perte potentielle de valeur comme suit :

pr(w(0) − w(T ) ≥ V aR∗ ) ≤ 1 − c (3.2)

Avec W(T) est la richesse final de l’investisseur compte tenu de son rembourse-
ment de l’emprunt ou le cas éventuel de son recouvrement du prêt avec les intérêts y
associés, c est le niveau de confiance. Ceci donne :

pr(w(T ) ≤ w(0) − V aR∗ ) ≤ 1 − c (3.3)

Du fait que la VaR est la perte maximale, sur l’horizon de temps T , qui peut avoir
lieu avec un niveau de confiance c, on constate que le degré d’aversion au risque de l’in-
vestisseur est reflété à la fois par le niveau de V aR désiré et par le niveau de confiance
associé. L’investisseur est intéressé par la maximisation de la richesse à la fin de la pé-
riode T . Soit r(p) le rendement total espéré sur le portefeuille p sur cette période.
La richesse finale espérée de l’investissement dans le portefeuille p peut s’écrire :

E0 (w(T )) = (w(0) + β)(1 + rp ) − β(1 + rf ) (3.4)

3.2 Résolution du problème d’optimisation du portefeuille


A partir de l’équation (3.1), on détermine l’expression de B :

n

β= γ(i)P(i, 0) − w(0) (3.5)
I =1

Si on remplace cette expression dans l’équation (3.4), on obtient :

n

E0 (w(T )) = (w(0) + (1 + rf ) + γ(i)P(i, 0)(rp − rf ) (3.6)
I =1

On suppose pour simplifier que E0 (w(T )) = w(T ) , la valeur de rp est ainsi donné
par :

(w(T ) − w(0)) − w(0)rf


rp = n + rf (3.7)
I =1 γ(i)P(i, 0)

A partir de la contrainte de la perte de la valeur de l’équation (3.2), on essayera


d’introduire rp dans l’inéquation. On a ainsi :

76
CHAPITRE 3. LA MODÉLISATION DU PROBLÈME D’OPTIMISATION DU
PORTEFEUILLE

Pr(w(0) − w(T ) ≥ V aR∗ ) ≤ 1 − c (3.8)

Donc :

Pr(w(0) − w(T ) ≤ −V aR∗ ) ≤ 1 − c

Donc :

V aR∗ + w(0)rf
Pr(rp ≤ rf − n ≤ 1−c (3.9)
I =1 γ(i)P(i, 0)

Introduisons maintenant le terme q(c, p) qui représente le quantile correspondant à


un niveau de confiance c dans la distribution des rendements du portefeuille. En effet,
à partir de la dernière équation on peut obtenir les deux résultats souhaitées : d’une
part l’expression de la valeur espéré de la richesse finale en fonction du quantile q(c, p)
et d’autre part l’expression de β.
Ceci passe par les étapes suivantes :

V aR∗ + w(0)rf
q(c, p) = rf − n (3.10)
I =1 γ(i)P(i, 0)
ce qui donne :

n
 V aR∗ + w(0)rf
γ(i)P(i, 0) = (3.11)
rf − q(c, p)
I=1

Une fois remplacé dans la dernière équation exprimant E0 (W (T , p)), on obtient :

rp − rf
E0 (W (T )) = W (0)(1 + rf ) + (V aR∗ + W (0)rf )
rf − q(c, p)
En divisant par W (0) on obtient :

W (T ) rp − rf
E0 ( ) = (1 + rf ) + (V aR∗ + w(0)rf ) (6) (3.12)
W (0) W (0)rf − W (0)q(c, p)
Cette dernière équation implique que la maximisation de l’espérance de rendement de
l’investisseur passe à travers la maximisation de l’expression M(p) suivante :

rp − rf
M(p) = (3.13)
W (0)rf − W (0)q(c, p)
On constate que la richesse initiale W (0) n’affecte pas le choix du portefeuille optimal
puisque elle est considérée comme une constante dans l’expression M(p) à maximi-
ser. Le processus d’allocation d’actif est ainsi indépendant de la richesse. Cependant,
l’avantage d’avoir la richesse initiale dans le dénominateur est son interprétation. En

77
CHAPITRE 3. LA MODÉLISATION DU PROBLÈME D’OPTIMISATION DU
PORTEFEUILLE

effet, M(p) est égale au ratio de prime de risque espéré du portefeuille par rapport au
risque assumé. Ce dernier est reflété à travers une perte potentielle maximale relative-
ment à une référence (le rendement au taux sans risque). Vu que le produit du quantile
négatif par la richesse initiale constitue la V aR du portefeuille pour un niveau donné
de confiance, on pourra trouver une nouvelle expression ϕ(c, p) pour le risque.

En notons V aR(c, p) la V aR du portefeuille (avec un signe négatif vu que q(c, p) est


un quantile négatif), le dénominateur devient :

ϕ(c, p) = W (0)rf − V ar(c, p) (3.14)

Cette mesure du risque correspond au profil des investisseurs considérant le taux


de rendement sans risque comme un benchmark pour le rendement de leur porte-
feuille et souhaitant en même temps que l’expression du risque soit en terme de perte
potentielle. M(p) est ainsi une mesure de performance comme l’indice de Sharpe et
peut être utilisé pour évaluer l’efficience de portefeuille (voir Sharpe (1994)). En plus
sous l’hypothèse que l’espérance de rendement du portefeuille est normalement dis-
tribuée et que le taux sans risque est nul, M(p) converge vers un multiple de l’indice de
Sharpe. Dans ce cas, les portefeuilles pour lesquelles ces deux indices sont maximisés
sont les mêmes.

On constate aussi que le portefeuille optimal qui maximise M(p) est choisi indépen-
damment du niveau de la richesse initial ainsi que du niveau de V aR désiré (V aR∗).En
effet, la mesure de risque ϕ(c, p) pour les différents portefeuilles dépend de la V aR
estimé du portefeuille et non de celui désiré. Les investisseurs débutent par la dé-
termination de l’allocation optimale entre les actifs risqués, l’intervention ensuite du
montant β vient pour montrer la différence entre la VaR estimé du portefeuille et la
VaR désiré. Deux étapes séparées caractérisent le processus de décision comme dans le
cas de l’approche de Moyenne Variance.

Afin de déterminer la valeur de β on combine l’équation?? et l’équation?? Ceci


donne enfin :

W (0) ∗ (V ar ∗ + V ar(c, p‘)


β= (3.15)
ϕ(c, p‘)

On note que dans cette dernière expression, la V ar ∗ est exprimé en valeur absolue
et que la VaR est de signe négative. On remarque aussi le fait que ce modèle est indé-
pendant des hypothèses de distribution de sorte que le modèle est dérivé dans le cadre
de la maximisation de l’espérance de rendement sous la contrainte de perte de valeur
désiré.

78
CHAPITRE 3. LA MODÉLISATION DU PROBLÈME D’OPTIMISATION DU
PORTEFEUILLE

3.3 Le cadre empirique de l’étude

Afin de déterminer l’effet de la déviation de l’hypothèse de normalité et de la varia-


tion de l’horizon d’estimation sur les portefeuilles optimaux à construire, nous avons
choisit de se référer à quatre indices du marché des capitaux : le CAC 40 , le SMI,le
DAX et le Le FTSE 100. Ces quatre actifs représentent dans notre travail les actifs ris-
qués. Rappelons que l’indice CAC 40 est le principal indice boursier de la place de
Paris et voit le jour le 15 juin 1988.
— L’indice CAC 40 est déterminé à partir des cours des 40 plus importantes ca-
pitalisations boursières françaises, correspondant aux 40 entreprises multina-
tionales françaises les plus importantes cotées en continu et en temps réel à la
bourse de Paris. Le CAC 40 fait partie du groupe de cotation Euronext et son
code mnémonique est PX1. Depuis le 1er décembre 2003, le CAC 40 a adopté le
système de capitalisation boursière flottante pour s’aligner sur le mode de fonc-
tionnement des grands indices mondiaux. Cela veut dire que, depuis cette date,
le nombre de titres disponibles à l’achat sur le marché pour une société est pris
en compte dans le calcul de l’indice.
— Le SMI signifie Swiss Market Index, indice du marché de la Bourse de Zurich.
Il s’agit du plus important marché suisse, puisqu’il regroupe 85 % du montant
total des transactions. Il a été créé en 1988 sur une base de 1 500 points, et
traite les fluctuations des 20 principales capitalisations boursières. Il est géré
et publié par le Six Group. À eux seuls, trois groupes comptent pour la moitié
de la capitalisation : Nestlé, Novartis, et Hoffmann-La Roche. Du fait de sa re-
présentativité, l’indice SMI est utilisé comme sous-jacent à plusieurs produits
financiers. Sa composition est révisée en septembre.
— Le DAX ou Deutscher AktienindeX est le principal indice boursier allemand. Sa
valeur est fondée sur le cours des actions des 30 plus importantes entreprises
cotées à la Bourse de Francfort (Francfort-sur-le-Main). Le cours des actions est
tiré du système de trading électronique Xetra. Selon Deutsche Börse, opérateur
de Xetra, le DAX mesure la performance des trente plus importantes sociétés
allemandes du Prime Standard en matière de volume de transactions et de ca-
pitalisation boursière. L’indice est équivalent au FT 30, au Dow Jones Industrial
Average ou au CAC 40 et, en raison du nombre limité de titres qu’il contient,
ne représente pas nécessairement la vitalité de l’économie allemande dans son
ensemble.
— Et Le FTSE 100 (Financial Times Stock Exchange), surnommé "le Footsie", est
un indice-phare de la Bourse de Londres. Il est apparu en 1984, sur une base de
1 000 points, comme ses équivalents européens. Il est constitué des 100 valeurs
les plus représentatives et les plus actives du marché. Ces dernières sont aussi

79
CHAPITRE 3. LA MODÉLISATION DU PROBLÈME D’OPTIMISATION DU
PORTEFEUILLE

sélectionnées en fonction de l’importance de leur capitalisation. Très suivi par


les analystes financiers, le FTSE 100 sert de baromètre pour mesurer la santé de
l’économie britannique. Cet indice boursier appartient au FTSE Group.
Le logiciel utilisé pour l’analyse des données relatives à ces quatre indices et l’im-
plémentation du modèle sera le R(4.0.3) . On suppose que les coûts de transactions
sont négligeables et que les actifs financiers sont divisibles.
La période d’étude sera à partir du 1991 jusqu’au 1998 et donc s’étale sur sept ans.
Le nombre des observations des rendements journaliers est de 1860 .
Le rendement journalier de l’indice est obtenu par la formule suivante :

Cj − Cj−1
Rj =
Cj−1
Avec :
— Cj = valeur de l’indice pour le jour j
— Cj−1 = valeur de l’indice pour le jour j − 1

— La richesse initiale de l’investisseur est supposée égale à (1628.75§, 1678.1§ , 1772.8§, 2443.6§),
respectivement aux indicdes boursiers (DAX, SMI, CAC et FTSE). Le horizon de
détention considéré est journaliére. On se réfère à la moyenne géométrique pour
calculer les moyennes de rendement des indices sur les différents horizons. L’ex-
pression générale pour l’obtenir est la suivante :
 (1|n)
(h)
Rm = Π ni=1 (1 + Ri −1

Avec :
— h = durée de la sous période de détention (soit le jour, la semaine ou dix jours)
— n = nombre de sous période de durée h dans la période totale m
(h)
— Ri = rendement de la i ème sous période de durée h
— Rm = rendement sur la période tota
Par exemple, le rendement journalier moyen de l’indice SMI sur la période d’étude
est de 0.077% est le plus élevé parapport à l’indice de DAX, CAC, et FTSE.
L’écart type journalier du rendement de l’indice DAX et CAC40 sont supérieur aux
autres indices boursiers par contre le FTSE est le moins élevé.
La volatilité est presque doublée 10 fois puisque celle du deuziéme indice(SMI)
atteint 0.92%„ et le quatriémme (FTSE) atteint 0.79% alors que celle du premiére et du
troiziéme sont de 10% et 11% successivement, la nouvelle mesure de risque présenté

dans la section précédante est calculée pour les différentes de rendement selon une
approche empirique d’estimation de la var et à niveau de confiance de 99% . Rappelons
qu’elle est obtenue par la formule suivant :

80
CHAPITRE 3. LA MODÉLISATION DU PROBLÈME D’OPTIMISATION DU
PORTEFEUILLE

ϕ = W0 rf − V aRestimé

De même, la V aR à un niveau de confiance de 95% dans la table 2relative de l’in-


dice de CAC40 reste toujours supérieure aux autres indices boursiers pour la même
période de détention. Ceci est en conformité avec le fait que le premier indice offre
un rendement espéré plus élevé et donc c’est évident qu’il fait supporter l’investisseur
plus de risque. et aussi pour la CV AR l’indice de CAC40 reste toujours supérieure aux
autres indices boursiers
On constate aussi que pour la fréquences de données, les valeurs du coefficient
d’asymétrie (skewness) et du coefficient d’aplatissement (kurtosis) sont différentes de
celles données par une distribution normale. Pour le skewness, la seul valeur positive
est celle du cas de rendement journalier du FTSE ce qui indique une distribution asy-
métrique à [Link] tous les autres cas, la distrubution est asymétrique à gauche .
Pour le kurtosis les valeurs relatives aux indices DAX et SMIs’éloignent de 3. Il es plus
élevé que cette valeur ce qui signifie de l’existence des queues épaisses, aussi les valeur
des indices CAC40,DAX et sont moins de 3 . Ceci témoigne à priori de la non normalité
des distributions.
La visualisation des corrélogramme simple et partiel (figure 9-15) pour chaque
indice boursier montre une stationnarité propre, L’ACF est coupe.
On utilise aussi le test de racine unitaire (testADF)pour confirmer la stationnarité
des séries de rendements (table-2). tout les p-value chaque indice boursie < 0.05 donc
les séries est stationnaire .
Notons enfin que l’estimations de la Value-at-Risk et le CV AR à partir de la mé-
thode historique et GPD requièrent théoriquement la stationnarité des séries des ren-
dements,Un élément fondamental du modèle présenté dans cette étude est l’estimation
de la Value-at-Risk etCV AR. Pour cela, nous avons choisies d’appliquer et de compa-
rer les résultats de deux méthodes (historique et GPD).Les résultats obtenus pour les
différentes méthodes et pour les différents niveaux de confiance sont données dans la
table 3, 4, 5et 6 .On constate que la méthode historique a tendance à donner les valeurs
de laV aR les plus élevées (en valeurs absolues) pour le niveaux de confiance de 95%
.Dans le même cas au niveau de99%, la méthode GPD donne la valeur la plus élevées
de laV aR qui est égale à [Link] on remarque que la méthode historique
donne les valeurs plus élevés de la CV ARpour les différente niveau de confiance 99%
et 95%, aussi on remarque que dans les memes niveaux de confiance ,les deux mé-
thodes convergent vers les meme valeur éstimés pour la V AR(0.014, 0.017et0.022) et
pour CV AR (0.023et0.029).Ces résultats s’interprètent comme suit : pour un investis-
seur qui cherche à constituer un portefeuille maximisant le rendement espéré sous la
contrainte d’une VaR et CV AR limite journalière à un niveau de confiance donné et en

81
CHAPITRE 3. LA MODÉLISATION DU PROBLÈME D’OPTIMISATION DU
PORTEFEUILLE

se basant sur une estimation empirique et GPD de la V aR et CV AR.


• -Pour laV AR à un niveau de confiance 95%
il aura intérêt à constituer un portefeuille dont la part de l’indice DAX est 16% ,
SMI est 14% ,CAC40 est 17% et FTSE est de12%.
• Pour la V AR à un niveau de confiance99%
il aura intérêt à constituer un portefeuille dont la part de l’indice DAX est 26% ,
SMI est 22% ,CAC40 est27% et FTSE est de19% .
• Pour la CV AR à un niveau de confiance 95%
il aura intérêt à constituer un portefeuille dont la part de l’indice DAX est22% ,
SMI est 20% ,CAC40 est 23% et FTSE est de17% .
• Pour la CV AR à un niveau de confiance 99%
il aura intérêt à constituer un portefeuille dont la part de l’indice DAX est 33% ,
SMI est 29% ,CAC40 est 34% et FTSE est de26% .

Dans ce qui suit, l’objectif est de comparer et de valider les méthodes d’estima-
tion de la V aR dans le modèle d’allocation proposé à savoir : la méthode Empirique,
la méthode GPD. Ceci est effectué en passant à un cadre dynamique d’étude. Chaque
méthode permet d’avoir un modèle de gestion dynamique issu du modèle général pro-
posé.
aussi, leV AR des série de rendement de chaque indice convergent vers la même
valeur estimée(1.625773).
Nous nous intéressons à la gestion optimale quotidienne sur une période appelée
période de prévision (out-of-sample). L’hypothèse de normalité sera donc présenté à
travers le modèle dynamique de prévision de la variance conditionnelle : GARCH avec
des innovations de loi normale.
On se réfère aux mêmes données journalières des sections précédentes sur l’indice
DAX, SMI, CAC40 et sur l’indice FTSE. La période totale de l’étude s’étale donc du
1991 jusqu’au 1998 (1860 observations).et la période de prévision comme celle allant
du 1999 jusqu’au 2019 , les résultat sont présenté sur la table (3.12)

3.3.1 Test de la stationnarité des quatres indices boursier


L’application du test de Duckey-Feller sur la stationnarité des quatres indices bour-
siers est donné dans le tableau 3.2

3.3.2 Conclusion
Les limites de la variance comme mesure de risque ont mené les financiers à cher-
cher d’autres mesures plus précises et plus pratiques. Parmi ces mesures, la Value-at-
Risk s’est imposé comme un standard et une référence règlementaire incontournable

82
CHAPITRE 3. LA MODÉLISATION DU PROBLÈME D’OPTIMISATION DU
PORTEFEUILLE

Table 3.3 – Le montant de la VAR par la méthode mpirique pour un niveau de


confiance de 0.95 et 0.99
L’indice DAX SMI CAC FTSE
95% 0.01649141 0.01474110 0.01747416 0.01272508
99% 0.02607200 0.02245677 0.02650777 0.01912951

Table 3.4 – Le montant de la CVAR par la méthode mpirique pour un niveau de


confiance de 0.95 et 0.99
L’indice DAX SMI CAC FTSE
95% 0.02254103 0.02019416 0.02365147 0.01744039
99% 0.03385807 0.02905632 0.03325433 0.02681036

Table 3.5 – Le montant de la VAR par la méthode GPD pour un niveau de confiance
de0.95 et 0.99
L’indice DAX SMI CAC FTSE
95% 0.0005450111 0.01424072 0.01700661 2.186099e-05
99% 0.0008390274 0.02282645 0.02761396 3.361033e-05

Table 3.6 – Table de la VaR à 95% et 99% pour les quatres indices boursier
L’indice DAX SMI CAC FTSE
95% 0.007999325 0.01970236 0.02309391 0.006300607
99% 0.008219286 0.02981998 0.03495835 0.006313999

Table 3.7 – Estimation des paramétre du modéle Garch(1.1) au niveau de confiance


95% pour l’indice DAX
coéfficients a0 a1 b1
Estimate 5.165e-06 7.038e-02 8.826e-01
Std. Error 8.041e-07 1.169e-02 1.727e-02
t value 6.423 6.021 51.102
Pr(>t) 1.34e-10 1.74e-09 < 2e-16

Table 3.8 – Estimation des paramétre du modéle Garch(1.1) au niveau de confiance


95% pour l’indice SMI
coéfficients a0 a1 b1
Estimate 1.245e-05 1.170e-01 7.419e-01
Std. Error 1.441e-06 1.968e-02 3.248e-02
t value 8.637 5.945 22.841
Pr(>t) < 2e-16 2.77e-09 < 2e-16

Table 3.9 – Estimation des paramétre du modéle Garch(1.1) au niveau de confiance


95% pour l’indice CAC
coéfficients a0 a1 b1
Estimate 9.142e-06 5.087e-02 8.743e-01
Std. Error 2.105e-06 9.804e-03 2.584e-02
t value 4.343 5.188 2.12e-07
Pr(>t) 8.743e-01 2.584e-02 33.836

84
CHAPITRE 3. LA MODÉLISATION DU PROBLÈME D’OPTIMISATION DU
PORTEFEUILLE

Table 3.10 – Estimation des paramétre du modéle Garch(1.1) au niveau de confiance


95% pour l’indice FTSE
coéfficients a0 a1 b1
Estimate 8.419e-07 4.424e-02 9.434e-01
Std. Error 3.009e-07 6.810e-03 1.012e-02
t value 2.798 6.495 93.180
Pr(>t) 0.00515 8.28e-11 < 2e-16

Table 3.11 – Test de Jarque Bera pour les quatres indices


Les indices X-squared df p-value
DAX 17289 2 < 2.2e-16
SMI 9180.2 2 2.2e-16
CAC 789.78 2 2.2e-16
FTSE 199.09 2 2.2e-16

Table 3.12 – les valeur de la VAR estimé au niveau de confiance 95% par garch(1.1)
Les indices DAX SMI CAC40 FTSE
VAR 1.655542 1.623542 1.589656 1.556358

Table 3.13 – Montant de la VAR par modéle GARCH(1.1) pendant la période de pré-
vision pour les quatres indices boursiers
Indice DAX SMI CAC40 FTSE
1999 0,015162056 0.015159091 0.01253 0,011504976
2000 0,014964376 0,014422733 0.01251 0,011475324
2001 0,01477658 0,013766435 0.01249 0,011435788
2002 0,014598668 0,013185256 0.01247 0,011406136
2003 0,014420756 0,012671288 0.01245 0,011376484
2004 0,014252728 0,012218601 0.01243 0,011336948
2005 0,014094584 0,011821264 0.01242 0,011307296
2006 0,01393644 0,011473347 0.01240 0,011277644
2007 0,01378818 0,011169908 0.01238 0,011247992
2008 0,01363992 0,010906006 0.01236 0,011218340
2009 0,013501544 0,010676697 0.01235 0,011188688
2010 0,013363168 0,010479017 0.01233 0,011149152
2011 0,013234676 0,010308024 0.01231 0,011119500
2012 0,013116068 0,010160752 0.01230 0,011089848
2013 0,01299746 0,010034237 0.01228 0,011060196
2014 0,012878852 0,009925513 0.01227 0,011030544
2015 0,012770128 0,009832603 0.01225 0,011000892
2016 0,012661404 0,009753531 0.01224 0,010971240
2017 0,012562564 0,009685332 0.01222 0,010951472
2018 0,01246372 0,009628004 0.01220 0,010921820

85
Annexes

Figure 3.1 – Représentation graphique de la série de rendement de l’indice DAX.

Figure 3.2 – Représentation graphique de l’autocorrélation simple et la corrélogramme


partiel de la série de rendement de l’indice DAX.

91
Figure 3.3 – Histogramme et Normal Q-Q-Plot des rendements journaliers de l’indice
DAX.

Figure 3.4 – Réprésentation graphique de la série de rendement de l’indice SMI.

92
Figure 3.5 – Représentation graphique de l’autocorrélation simple et la corrélogramme
partiel de la série de rendement de l’indice SMI.

Figure 3.6 – Histogramme et Q-QPlot des rendements journaliers de l’indice SMI.

93
Figure 3.7 – Réprésentation graphique de la série de rendement de la série de rende-
ment de l’indice CAC40.

Figure 3.8 – Représentation graphique de l’autocorrélation simple et la corrélogramme


de la série de rendement de l’indice CAC40.

94
Figure 3.9 – Histogramme et normale Q-QPlot des rendements journaliers de l’indice
CAC40.

Figure 3.10 – Réprésentation graphique de la série de rendement de l’indice FTSE.

95
Figure 3.11 – Représentation graphique de l’autocorrélation simple et la corrélo-
gramme partiel de la série de rendement de l’indice FTSE.

Figure 3.12 – Histogramme et Q-QPlot des rendements journaliers de l’indice FTSE.

96
Figure 3.15 – Représentation graphique du Q-QPlot de la série de rendement de l’in-
dice DAX etQ-QPlot du résidue par garch(1,1).

Figure 3.16 – Représentation grahique de l’autocorélation simple de la série de rende-


ment de DAX et du résidue par garch(1,1).

98
Figure 3.17 – Représentation graphique de la série de rendement de l’indice SMI PAR
GARCH (1,1).

Figure 3.18 – Représentation de la corelogramme de la série du rendement et du rési-


due par garch (1,1).

99
Figure 3.19 – Représentation graphique de Q-QPlot de la série du rendement et du
résidue de l’indice SMI par GARCH(1,1).

Figure 3.20 – Représentation graphique de l’autocorrélation simple et du squared


résidue de l’indice de SMI PAR GARCH(1,1).

100
Figure 3.23 – Représentation graphique de Q-QPlot et du résidue de l’indice CAC40.

Figure 3.24 – Représentation graphique de squared de la série de rendement et du


résidue par GARCH (1.1).

102
Figure 3.25 – Représentation graphique de la série de rendement de l’indice FTSE PAR
GARCH (1.1).

Figure 3.26 – Histogramme de la série de rendement et du résidue de l’indice FTSE


par garch(1.1).

103
Figure 3.27 – Représentation graphique de la série de rendement et du résidue pour
l’indice FTSE par GARCH(1.1).

Figure 3.28 – Représentation graphique de squared de la série du rendement et de


résidue de l’indice FTSE par GARCH(1.1).

104
Figure 3.29 – Représentation graphique des valeurs de sigmma pendant la péride de
prévision pour l’indice DAX.

Figure 3.30 – Représentation graphique des valeurs de sigmma pandant la période de


prévision de l’indice SMI.

105
Figure 3.31 – Représentation graphique des valeurs de sigmma pendant la péride de
prévision pour l’indice CAC40.

Figure 3.32 – Représentation graphique des valeurs de sigmma pendant la péride de


prévision pour l’indice FTSE.

106

Vous aimerez peut-être aussi