0% ont trouvé ce document utile (0 vote)
64 vues40 pages

Modélisation - Var

cour de seerie temprelle

Transféré par

FATIHA
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
64 vues40 pages

Modélisation - Var

cour de seerie temprelle

Transféré par

FATIHA
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Table des matières

Chapitre 1 : Modélisation VAR ...................................................................................................................................... 3


1. Séries chronologiques multi-variées stationnaires et leurs propriétés ..................................................................... 3
1.1. Matrice de covariance et de corrélation pour un processus vectoriel stationnaire ........................................... 4
1.2. Bruit blanc vectoriel ........................................................................................................................................ 6
1.3. Représentation moyenne mobile d'un processus vectoriel stationnaire ........................................................... 9
1.3.1. Processus VMA(q) .................................................................................................................................. 9
1.4. La représentation VAR(p) ............................................................................................................................. 11
1.4.1. Ecrire un VAR(p) comme un VAR(1) .................................................................................................. 12
1.4.2. Représentation VMA d’un VAR(p) ...................................................................................................... 13
1.4.3. Les moments dans un modèle VAR(p) stationnaire .............................................................................. 14
1.5. Estimation des paramètres d’un VAR(p) ...................................................................................................... 15
1.5.1. Estimation d’un VAR(p) avec EVIEWS ............................................................................................... 15
1.5.2. Choix de l’ordre p d’un modèle VAR ................................................................................................... 18
15.3. Analyse de la stabilité (stationnarité) du modèle .......................................................................................... 22
15.4. Validation du modèle : Test de bruit blanc des erreurs ................................................................................ 22
1.6. Prévision et intervalle de prévision ................................................................................................................... 25
1.6.1. Prévision à l’aide des modèles VAR ......................................................................................................... 25
1.6.2. Erreur de prévision .................................................................................................................................... 25
1.6.3 Intervalle de prévision...................................................................................................................................... 26
1.7. Impact d’une impulsion (analyse de réponse impulsionnelle) ........................................................................... 29
1.7.2. Cas où la matrice de variance des résidus est diagonale .................................................................................. 29
1.7.2. Cas où la matrice de variance des résidus n’est pas diagonale ........................................................................ 32
1.8. Décomposition de la variance de l(erreur de prévision .................................................................................... 34
Références Bibliographiques................................................................................................ Erreur ! Signet non défini.

1
2
Bensalma Modélisation VAR

Chapitre 1 : Modélisation VAR

Dans le domaine de l'analyse des séries chronologiques, les observations sont souvent prises sur deux ou
plusieurs séries. Par exemple, en météorologie, nous pourrions observer la température, la pression
atmosphérique et les précipitations sur le même site pour la même séquence de points dans le temps. En
économie, de nombreuses mesures différentes de l'activité économique sont généralement enregistrées à
intervalles réguliers. Les exemples incluent l'indice des prix de détail, le produit intérieur brut et le niveau de
chômage. Compte tenu de données multi-variées comme celle-ci, il peut être utile de développer un modèle
multi-varié pour décrire les interrelations entre les séries. Il est impossible de croire qu'une variable s'auto-
prédise parfaitement. En effet, la plupart du temps, la prédiction est souvent meilleure lorsqu'on inclut d'autres
variables dans le modèle étudié. Les objectifs de l'analyse et de la modélisation conjointe des séries
individuelles en utilisant des informations supplémentaires disponibles des autres variables. Pour comprendre
le cadre d'analyse multi-varié, une bonne connaissance des concepts développés dans le cadre uni-varié est
nécessaire. Comme lors du premier semestre, nous supposerons dans un premier temps que les processus
étudiés sont stationnaires. Dans un second temps nous considérons le cas des processus intégrés (non
stationnaires) avec l'introduction du concept de Co-intégration et des modèles à correction d'erreur.

1. Séries chronologiques multi-variées stationnaires et leurs propriétés

On généralise la notion de stationnarité faible ou de second ordre, vue au premier semestre, au cas vectoriel.

Soit 𝑌𝑡 = (𝑦1,𝑡 , 𝑦2,𝑡 , ⋯, 𝑦𝑖,𝑡 , ⋯ , 𝑦𝑛,𝑡 ) , 𝑡 ∈ ℤ, un vecteur de variables aléatoires de dimension k. Le choix
d'inclure une composante 𝑦𝑖,𝑡 dans 𝑌𝑡 ne se fait pas de manière arbitraire, mais depend du domaine d'étude et
de l'utilité de cette composante à la compréhension du système qui régit le fonctionnement du domaine d'étude.
Il est important que les composantes du vecteur soient interdépendantes à la fois simultanément et à travers
des décalages temporels. La représentation et la modélisation de ces interrelations dynamiques sont d'un intérêt
majeur pour les séries chronologiques multi-variées. Un concept important dans la représentation des modèles
est celui de la stationnarité.

Définition 1.1. (Stationnarité d'un processus vectoriel de dimension n)


Un processus 𝑌𝑡 de dimension 𝑛 est dit stationnaire si les distributions de probabilités des vecteurs
(𝑌𝑡1 , ⋯ , 𝑌𝑡𝑚 ) et (𝑌𝑡1 +ℎ , ⋯ , 𝑌𝑡𝑚 +ℎ ) ont les mêmes lois de probabilité quels que soit 𝑚 ∈ ℕ et ℎ ∈ ℤ.
Ainsi, la distribution de probabilité des observations d'un processus vectoriel stationnaire est invariante par
rapport au décalage dans le temps. La définition (1.1) est celle de la stationnarité forte qui est impossible à
vérifier en pratique. En pratique on utilise la stationnarité faible.
3
Bensalma Modélisation VAR

Définition 1.2. (Stationnarité faible d'un processus vectoriel de dimension n)


Un processus 𝑌𝑡 de dimension n est dit stationnaire au sens faible si et seulement si :
𝐸(𝑌𝑡 ) = 𝜇, et 𝐸[(𝑌𝑡 − 𝜇)(𝑌𝑡 − 𝜇)′] = Σ𝑌 = 𝛤(0),
où 𝜇 = (𝜇₁, ⋯ , 𝜇𝑛 ) est la moyenne vectorielle du processus et Σ𝑌 est la matrice de variance constante.
1.1. Matrice de covariance et de corrélation pour un processus vectoriel stationnaire
De plus, pour un processus stationnaire 𝑌𝑡 la covariance entre 𝑦𝑖,𝑡 et 𝑦𝑗,𝑡+ℎ ne doit dépendre que du décalage
(ℎ), pas du temps (𝑡), pour 𝑖, 𝑗 = 1, . . . , 𝑛, et h=0, ±1, ⋯. On pose donc


𝛾𝑖𝑗 (ℎ) = 𝐶𝑜𝑣(𝑦𝑖,𝑡 , 𝑦𝑗,𝑡+ℎ ) = 𝐸 [(𝑦𝑖,𝑡 − 𝜇𝑖 )(𝑦𝑗,𝑡+ℎ − 𝜇𝑗 ) ]

et notons la fonction matrice (𝑛 × 𝑛) de covariance de retard (ℎ) par


𝛾11 (ℎ) 𝛾12 (ℎ) ⋯ 𝛾1𝑛 (ℎ)
𝛾 (ℎ) 𝛾22 (ℎ) ⋯ 𝛾2𝑛 (ℎ)
Γ𝑌 (ℎ) = 𝐸[(𝑌𝑡 − 𝜇)(𝑌𝑡+ℎ − 𝜇)′ ] = ( 21 )
⋮ ⋮ ⋯ ⋮
𝛾𝑛1 (ℎ) 𝛾𝑛2 (ℎ) ⋯ 𝛾𝑛𝑛 (ℎ)
pour ℎ = 0, ±1, ±2, ⋯. L’élément 𝛾𝑖𝑗 (ℎ) représente :

 Les variances des (n) composantes du processus 𝑌𝑡 : 𝛾𝑖𝑖 (0), ∀ 𝑖 = 1, ⋯ , 𝑛 .


 Les liens instantanés entre 𝑦𝑖,𝑡 et 𝑦𝑗,𝑡 : 𝛾𝑖𝑗 (0) = 𝐶𝑜𝑣(𝑦𝑖,𝑡 , 𝑦𝑗,𝑡 ), ∀ 𝑖 ≠ 𝑗 = 1, ⋯ , 𝑛.

 La fonction d’auto-covariance de chacune des (n) composantes du processus 𝑌𝑡 : 𝛾𝑖𝑖 (ℎ), ∀ 𝑖 =


1, ⋯ , 𝑛 , ∀ ℎ ≠ 0.
 La fonction de covariance croisée entre les composantes i et j du processus 𝑌𝑡 : 𝛾𝑖𝑗 (ℎ) =
𝐶𝑜𝑣(𝑦𝑖,𝑡 , 𝑦𝑗,𝑡−ℎ ), ∀ 𝑖 ≠ 𝑗 = 1, ⋯ , 𝑛, ∀ ℎ ≠ 0.

Propriété 1.1 : La fonction d’auto-covariance d’un processus vectoriel 𝑌𝑡 de dimension (n) stationnaire notée
𝛤(∙) a les propriétés suivantes :

 𝛤(ℎ) = 𝛤(−ℎ)′ , ∀ ℎ = 0,1, ⋯ ;


0.5
 |𝛾𝑖𝑗 (ℎ)| ≤ | 𝛾𝑖𝑖 (0) 𝛾𝑗𝑗 (0)| , ∀ℎ = 0,1, ⋯ , ∀𝑖 𝑒𝑡 𝑗 = 1, ⋯ , 𝑛.

De plus, la fonction matrice de corrélation correspondante de retard (ℎ) est notée par
𝜌11 (ℎ) 𝜌12 (ℎ) ⋯ 𝜌1𝑛 (ℎ)
𝜌 (ℎ) 𝜌22 (ℎ) ⋯ 𝜌2𝑛 (ℎ)
𝛒𝑌 (ℎ) = 𝑉 −0.5 Γ𝑌 (ℎ)𝑉 −0.5 = ( 21 )
⋮ ⋮ ⋯ ⋮
𝜌𝑛1 (ℎ) 𝜌𝑛2 (ℎ) ⋯ 𝜌𝑛𝑛 (ℎ)

pour ℎ = 0, ±1, ±2, ⋯., où 𝑉 −0.5 = 𝐷𝑖𝑎𝑔(𝛾11 (ℎ)−0.5 , ⋯ , 𝛾𝑛𝑛 (ℎ)−0.5 ) car

4
Bensalma Modélisation VAR

𝐶𝑜𝑣(𝑦𝑖,𝑡 , 𝑦𝑗,𝑡+ℎ )
𝜌𝑖𝑗 (ℎ) = 0.5
[𝛾𝑖𝑖 (0)𝛾𝑗𝑗 (0)]

avec 𝛾𝑖𝑖 (0) = 𝑉𝑎𝑟(𝑦𝑖𝑡 ). Donc, pour 𝑖 = 𝑗, 𝜌𝑖𝑖 (ℎ) = 𝜌𝑖𝑖 (−ℎ), représente la fonction d'autocorrélation de la
ième série (i.e. 𝑦𝑖𝑡 ),et pour 𝑖 ≠ 𝑗, 𝜌𝑖𝑗 (ℎ) = 𝜌𝑗𝑖 (−ℎ), représente la fonction d'autocorrélation croisée entre les
séries 𝑦𝑖𝑡 et 𝑦𝑗𝑡 .

Noter que,
Γ𝑌 (ℎ) = Γ𝑌 (−ℎ)′ et 𝛒𝑌 (ℎ) = 𝛒𝑌 (−ℎ)′ ,
Puisque 𝛾𝑖𝑗 (ℎ) = 𝛾𝑗𝑖 (−ℎ) . De plus, la matrice de covariance Γ𝑌 (ℎ) et la matrices corrélation 𝛒𝑌 (ℎ) sont
définis positifs, en ce sens que∑𝑘𝑖=1 ∑𝑘𝑗=1 𝑏𝑖′ Γ𝑌 (𝑖 − 𝑗)𝑏𝑗 pour tous les entiers positifs 𝑘 et tous les vecteurs
𝑏1 , ⋯ , 𝑏𝑘 de dimension (𝑛), puisque

𝑘 𝑘 𝑘
𝑉𝑎𝑟 (∑ 𝑏𝑖′ 𝑌𝑡 ) = ∑ ∑ 𝑏𝑖′ 𝐶𝑜𝑣(𝑌𝑡−𝑖 , 𝑌𝑡−𝑗 )𝑏𝑗 ≥ 0.
𝑖=1 𝑖=1 𝑗=1

Exemple 1.1 : Soit un processus bi-varié 𝑌𝑡 tel que :


𝑦1,𝑡 = 𝑢𝑡
𝑌𝑡 = { 3 , ∀𝑡 ∈ ℤ,
𝑦2,𝑡 = 𝑢𝑡 + 𝑢𝑡−10
4
avec (𝑢𝑡 , 𝑡 ∈ ℤ), un bruit blanc gaussien stationnaire de variance égale à 1. Calculer les auto-covariances et
les autocorrélations d’ordre h.

𝑢𝑡
3
Γ𝑌 (ℎ) = 𝐸[(𝑌𝑡 − 𝜇)(𝑌𝑡−ℎ − 𝜇) = 𝐸 [( ′] 3 ) (𝑢𝑡−ℎ 𝑢𝑡−ℎ + 𝑢𝑡−ℎ−10 )]
𝑢𝑡 + 𝑢𝑡−10 4
4

3
𝛾𝑢 (ℎ) 𝛾𝑢 (ℎ) + 𝛾𝑢 (ℎ + 10)
4
Γ𝑌 (ℎ) = [ 3 9 3 3 ]
𝛾𝑢 (ℎ) + 𝛾𝑢 (ℎ − 10) (1 + ) 𝛾𝑢 (ℎ) + 𝛾𝑢 (ℎ + 10) + 𝛾𝑢 (ℎ − 10)
4 16 4 4

Pour ℎ = 0,

𝛾𝑢 (0) 𝛾𝑢 (0)
1 1
Γ𝑌 (0) = [ 9 ]=[ ]
𝛾𝑢 (0) (1 + ) 𝛾𝑢 (0) 1 1.5625
16

5
Bensalma Modélisation VAR

1
1
𝛒𝑌 (0) = [ 1.56250.5 ] = [ 1 0.8]
1 1.5625 0.8 1
1.56250.5 1.5625
Pour ℎ = 10,
0 0
Γ𝑌 (10) = [3 3]
4 4
0 0
3 3 0 0
𝛒𝑌 (10) = [ ]=[ ]
0.6 0.48
4 × 1.56250.5 4 × 1.5625
Pour ℎ = −10,
3
0
Γ𝑌 (−10) = [ 4]
3
0
4
3
0
𝛒𝑌 (−10) = [ 4 × 1.56250.5 ] = [0 0.6
]
3 0 0.48
0
4 × 1.5625
On a Γ𝑌 (10) = Γ𝑌 (−10)′ et 𝛒𝑌 (10) = 𝛒𝑌 (−10)′ . On a aussi 𝛒𝑌 (ℎ) = 0, ∀ℎ ≠ 0 𝑒𝑡 ℎ ≠ 10.

1.2. Bruit blanc vectoriel

L'exemple le plus simple d'un processus vectoriel stationnaire est le processus bruit blanc vectoriel, qui joue
un rôle fondamental en tant que bloc de construction pour les processus vectoriels généraux. Le processus
bruit blanc vectoriel est défini comme une séquence de vecteurs aléatoire, ⋯ , 𝒖1 , ⋯ , 𝒖𝒕 , ⋯, avec


𝒖𝑡 = (𝑢1,𝑡 , 𝑢2,𝑡 , ⋯ , 𝑢𝑛,𝑡 ) , ∀𝑡 ∈ ℤ
tel que
 𝐸(𝒖𝑡 ) = (0,0, ⋯ ,0)′ , ∀𝑡 ∈ ℤ.
 𝐸(𝒖𝑡 𝒖′𝑠 ) = 0, ∀𝑠 ≠ 𝑡 ∈ ℤ.
 𝐸(𝒖𝑡 𝒖′𝑡 ) = 𝚺𝒖 , ∀𝑡 ∈ ℤ
où 𝚺𝒖 est la matrice de variances-covariances constante des n composantes du processus 𝒖𝑡 . Il faut noter que
𝚺𝒖 n’est pas nécessairement diagonale. En effet, deux composantes 𝑢𝑖,𝑡 et 𝑢𝑗,𝑡 du bruit blanc vectoriel peuvent
être linéairement dépendantes au même temps t. Cependant il n’existe pas de lien temporel entre ces
composantes-là, c’est-à-dire, leur covariance est nulle lorsqu’il y a un espace de temps entre ces deux

6
Bensalma Modélisation VAR

composantes (par exemple 𝑢𝑖,𝑡 et 𝑢𝑗,𝑡+ℎ avec ℎ non nul). La matrice de covariance 𝚺𝒖 est supposée définie
positive. Parfois, des propriétés supplémentaires seront supposées pour le 𝒖𝑡 , telles que la normalité.

Exemple simulation d’un bruit blanc bi-varié

Soit 𝑢𝑡 et 𝑧𝑡 deux bruit blancs gaussiens bi-varié tel que :


𝑢𝑡 = (𝑢1,𝑡 , 𝑢2,𝑡 )

et

1 1
1 𝑢 𝑢1,𝑡 + 𝑢2,𝑡
𝑧𝑡 = (3 3
1,𝑡
)( )=( )
1 1 𝑢2,𝑡 1 1
𝑢 + 𝑢
2 4 2 1,𝑡 4 2,𝑡

avec 𝑢1,𝑡 ~𝑁(0,1) et 𝑢2,𝑡 ~𝑁(0, 32 ).

Programme de simulation
create u 1000
genr e1=nrnd
genr e2=3*nrnd
genr z1=(1/3)*e1+e2
genr z2=(1/2)*e1+(1/4)*e2
group g1 e1 e2
group g2 z1 z2
g1.cov(outfmt=sheet)
g1.cross
g2.cov(outfmt=sheet)
g2.cross

Matrice de variances-covariances de 𝑢𝑡 calculée sur la base de l’échantillon simulé.

Z1 Z2

Z1 9.475314 2.468788
Z2 2.468788 0.810655

Matrice de variances-covariances de 𝑧𝑡 calculée sur la base de l’échantillon simulé.

E1 E2

E1 0.970378 -0.083556
E2 -0.083556 9.423198

7
Bensalma Modélisation VAR

Corrélogramme croisé de 𝑢𝑡 calculé sur la base de l’échantillon simulé :

Corrélogramme croisé de 𝑧𝑡 calculé sur la base de l’échantillon simulé :

Graphes de 𝑢1,𝑡 , 𝑢2,𝑡 :


8

-4

-8

-12
25 50 75 100 125 150 175

E1 E2

8
Bensalma Modélisation VAR

Graphes de 𝑧1,𝑡 , 𝑧2,𝑡

-4

-8

-12
25 50 75 100 125 150 175

Z1 Z2

1.3. Représentation moyenne mobile d'un processus vectoriel stationnaire

Une généralisation multi-variée du théorème de Wold stipule que si 𝑌𝑡 est un processus stationnaire purement
non déterministe (c’est-à-dire qui ne contient pas de processus purement déterministe dont les valeurs futures
peuvent être parfaitement prédites, possède une forme moyenne mobile vectorielle,


𝑌𝑡 = 𝜇 + ∑ Ψ𝑗 𝑢𝑡−𝑗 = 𝚿(L)𝒖𝒕 ,
𝑗=0

où 𝚿(L) = ∑∞ 𝑗 𝑗
𝑗=0 Ψ𝑗 𝐿 est une matrice (𝑛 × 𝑛), fonction de l’opérateur retard L tel que 𝐿 𝒖𝑡 = 𝒖𝑡−𝑗 et les

coefficients des matrices (𝑛 × 𝑛), Ψ𝑗 , satisfont la condition ∑∞


𝑗=0‖Ψ𝑗 ‖ < ∞. On peut énoncer cette dernière

condition d’une autre façon : (Ψ𝑗 ) est séquence de matrice (𝑛 × 𝑛) dont les entrées sont absolument
sommables, c’est-à-dire,

∑∞
𝑗=0|Ψ𝑗 (𝑖, 𝑙)| < ∞, 𝑖, 𝑙 = 1,2, ⋯ , 𝑛.

La matrice de covariance de 𝑌𝑡 est donnée par,


𝐶𝑜𝑣(𝑌𝑡 ) = ∑ Ψ𝑗 Σ𝑢 Ψ𝑗′ ,
𝑗=0

𝐶𝑜𝑣(𝑌𝑡 , 𝑌𝑡−ℎ ) = ∑ Ψ𝑗+ℎ Σ𝑢 Ψ𝑗′


𝑗=0

1.3.1. Processus VMA(q)

9
Bensalma Modélisation VAR

Il se peut que l’écriture moyenne mobile de 𝑌𝑡 soit finie, c’est-à-dire que Ψ𝑗 = 0 𝑠𝑖 𝑗 > 𝑞 dans l’écriture
moyenne mobile infinie ci-dessus. On a alors un 𝑉𝑀𝐴 (𝑞) qui s’écrit

𝑌𝑡 = 𝜇 + Ψ0 𝑢𝑡 + Ψ1 𝑢𝑡−1 + Ψ2 𝑢𝑡−2 + ⋯ + Ψ𝑞 𝑢𝑡−𝑞 .

Dans ce cas, on a
Γ𝑌 (0) = Σ𝑢 + Ψ1 Σ𝑢 Ψ1′ + ⋯ + Ψ𝑞 Σ𝑢 Ψ𝑞′

et pour ℎ ≥ 1, on a
Γ𝑌 (ℎ) = 𝐶𝑜𝑣(𝑌𝑡 , 𝑌𝑡−ℎ )

= 𝐸 [(𝜇 + Ψ0 𝑢𝑡 + Ψ1 𝑢𝑡−1 + ⋯ + Ψ𝑞 𝑢𝑡−𝑞 )(𝜇 + Ψ0 𝑢𝑡−ℎ + Ψ1 𝑢𝑡−1−ℎ + ⋯ + Ψ𝑞 𝑢𝑡−𝑞−ℎ ) ]
𝑞−ℎ

= Σ𝑢 Ψℎ′ + Ψ1 Σ𝑢 Ψℎ+1

+ ⋯ + Ψ𝑞−ℎ Σ𝑢 Ψ𝑞′ = ∑ Ψ𝑖+ℎ Σ𝑢 Ψ𝑖′
𝑖=0
𝑞
′ ′
= Ψℎ Σ𝑢 + Ψℎ+1 Σ𝑢 Ψ1′ + ⋯+ Ψ𝑞 Σ𝑢 Ψ𝑞−ℎ = ∑ Ψ𝑖 Σ𝑢 Ψ𝑖−ℎ = Γ′𝑌 (−ℎ).
𝑖=ℎ

Exemple :
0.8 0.7 4 1
 On considère le modèle bi-varié VMA(1) : 𝑌𝑡 = (𝐼2 − Θ𝐿)𝑢𝑡 avec Θ = ( ) et Σ𝑢 = ( ).
−0.4 0.6 1 2
Calculer Γ𝑌 (0), Γ𝑌 (1), 𝜌𝑌 (0) 𝑒𝑡 𝜌𝑌 (1).

4 1 0.8 0.7 4 1 0.8 −0.4 8.66 0.76


Γ𝑌 (0) = Σ𝑢 + ΘΣ𝑢 Θ′ = ( )+( )( )( )=( )
1 2 −0.4 0.6 1 2 0.7 0.6 0.76 2.88

4 1 0.8 −0.4 −3.9 1


Γ𝑌 (1) = −Σ𝑢 Θ′ = − ( )( )=( ).
1 2 0.7 0.6 −2.2 −0.8

Les matrices de corrélations correspondantes sont :


8.66 0.76
8.66 √8.66√2.88 = ( 1 0.152
𝜌𝑌 (0) = 𝑉 −0.5 Γ𝑌 (0)𝑉 −0.5 = )
0.76 2.88 0.152 1
2.88
(√8.66√2.88 )

−3.9 1
8.66 √8.66√2.88 = (−0.450 0.200
𝜌𝑌 (1) = 𝑉 −0.5 Γ𝑌 (1)𝑉 −0.5 = ).
−2.2 −0.8 −0.441 −0.278
2.88
(√8.66√2.88 )

8.66 0
Où 𝑉 = ( )
0 2.88
10
Bensalma Modélisation VAR

1.4. La représentation VAR(p)

La représentation 𝑉𝐴𝑅(𝑝) à (𝑛) variables d’ordre (𝑝) s’écrit sous forme matricielle,

𝑌𝑡 = Π0 + Π1 𝑌𝑡−1 + Π2 𝑌𝑡−2 + ⋯ + Π𝑝 𝑌𝑡−𝑝 + 𝒖𝒕 , (𝟏)

avec

𝑦1,𝑡 𝑖 𝑖 𝑖 𝑢1,𝑡
𝜋11 𝜋12 ⋯ 𝜋1𝑛 𝜋10
𝑦2,𝑡 𝑖
𝜋21 𝑖
𝜋22 𝑖
⋯ 𝜋2𝑛 0 𝑢2,𝑡
𝑌𝑡 = ( ⋮ ) Π𝑖 = Π0 = 𝜋2 𝑒𝑡 𝑢𝑡 = ( ⋮ )
⋮ ⋮ ⋮ ⋮
𝑦𝑛,𝑡 𝑖
𝜋𝑛1 𝑖
𝜋𝑛2 𝑖
⋯ 𝜋𝑛𝑛 ) (𝜋𝑛0 ) 𝑢𝑛,𝑡
(
(𝑢1,𝑡 , 𝑢2,𝑡 , ⋯ , 𝑢𝑛,𝑡 ) est un vecteur de bruits blancs dont la matrice de covariance des erreurs Σ𝑢 = 𝐸(𝑢𝑡′ 𝑢𝑡 )
est ici inconnue. De la même façon que dans le cas uni-varié on pourra noter

Π(𝐿)𝑌𝑡 = Π0 + 𝑢𝑡 ,
où Π(𝐿) est un polynôme matriciel (𝑛 × 𝑛) en 𝐿. On a donc un processus dans lequel (𝑛) variables sont
chacune des fonctions de leurs propres valeurs passées et des valeurs passées des (𝑛 − 1) autres variables.

On pose Π(𝑧) = 𝐼 − Π1 𝑧 − Π2 𝑧 2 − ⋯ − Π𝑝 𝑧 𝑝 , et on appellera polynôme caractéristique le déterminant,

𝑑𝑒𝑡(𝐼 − Π1 𝑧 − Π2 𝑧 2 − ⋯ − Π𝑝 𝑧 𝑝 )

Propriété 1 : Un processus VAR(p) est stationnaire si le polynôme caractéristique (défini à partir du


déterminant ( 𝑑𝑒𝑡(𝐼 − 𝛱1 𝑧 − 𝛱2 𝑧 2 − ⋯ − 𝑧 𝑝 )) a ses racines à l’extérieur du cercle unité.
Exemples :
 Le processus bi-varié défini par
𝑦1,𝑡 2 0.7 0.4 𝑦1,𝑡−1 𝜀1,𝑡
(𝑦 ) = ( ) + ( ) (𝑦 ) + (𝜀 )
2,𝑡 3 0.2 0.3 1,𝑡−1 2,𝑡

a pour polynôme caractéristique

1 0 0.7 0.4 1 − 0.7𝑧 −0.4𝑧


𝑑𝑒𝑡 [( )−( ) 𝑧] = | | = 1 − 𝑧 + 0.13𝑧 2
0 1 0.2 0.3 −0.2𝑧 1 − 0.3𝑧

qui admet pour racine 𝑧1 = 0.84 𝑒𝑡 𝑧2 = −0.15 : le processus n’est pas stationnaire.

11
Bensalma Modélisation VAR

 Le processus bi-varié défini par

𝑦1,𝑡 2 0.2 0.7 𝑦1,𝑡−1 𝜀1,𝑡


(𝑦 ) = ( ) + ( ) (𝑦 ) + (𝜀 )
2,𝑡 3 0.3 0.4 1,𝑡−1 2,𝑡

a pour polynôme caractéristique

1 0 0.2 0.7 1 − 0.2𝑧 −0.7𝑧


𝑑𝑒𝑡 [( )−( ) 𝑧] = | | = 1 − 0.6𝑧 + 0.13𝑧 2
0 1 0.3 0.4 −0.3𝑧 1 − 0.4𝑧

qui admet pour racine 𝑧1 = 1.30 𝑒𝑡 𝑧2 = −5.91 : le processus est stationnaire.


1.4.1. Ecrire un VAR(p) comme un VAR(1)

Les processus 𝑉𝐴𝑅(𝑝) peuvent se mettre sous forme VAR(1) en utilisant l’écriture suivante.
Π1 Π2 ⋯ Π𝑝−1 Π𝑝
𝑌𝑡 − 𝜇 𝑌𝑡−1 − 𝜇 𝑢𝑡
𝐼𝑛 0𝑛 0𝑛 0𝑛
𝑌 −𝜇 𝑌 −𝜇 0𝑛
𝑍𝑡 = ( 𝑡−1⋮ )= 0 𝐼𝑛 0𝑛 0𝑛 ( 𝑡−2⋮ )+( ⋮ ) (2)
𝑌𝑡−𝑝+1 − 𝜇 ⋱ ⋮ 𝑌𝑡−𝑝 − 𝜇 0𝑛
( 0𝑛 0𝑛 𝐼𝑛 0𝑛 )
où = 𝐸(Π(𝐿)−1 [Π0 + 𝑢𝑡 ]) = Π(1)−1 Π0 . Ainsi, un processus VAR(p) peut se réécrire sous la forme d’un
processus transformé 𝑍𝑡 satisfaisant une représentation VAR(1) :
𝑍𝑡 = 𝐴𝑍𝑡−1 + 𝜂𝑡
avec
Π1 Π2 ⋯ Π𝑝−1 Π𝑝
𝑢𝑡
𝐼𝑛 0𝑛 0𝑛 0𝑛
𝐴 𝜂𝑡 = 0𝑛
= 0 𝐼𝑛 0𝑛 0𝑛 et 𝑛𝑝 × 1 ( ⋮ )
𝑛𝑝 × 𝑛𝑝
⋱ ⋮ 0𝑛
( 0𝑛 0𝑛 𝐼𝑛 0𝑛 )

Exemple : Considérons le processus bi-varié défini par

𝑦1,𝑡 3 0.2 0.7 𝑦1,𝑡−1 0.4 0.6 𝑦1,𝑡−2 𝜀1,𝑡


(𝑦 ) = ( ) + ( ) (𝑦 )−( ) (𝑦 ) + (𝜀 )
2,𝑡 1 0.3 0.4 1,𝑡−2 0.1 0.8 2,𝑡−2 2,𝑡

suivant un VAR(2). Le polynôme autorégressif Π(𝐿) est alors donné par

12
Bensalma Modélisation VAR

1 0 0.2 0.7 0.4 0.6 2


Π(𝐿) = ( )−( )𝐿 + ( )𝐿
0 1 0.3 0.4 0.1 0.8

1 − 0.2𝐿 + 0.4𝐿2 −0.7𝐿 + 0.6𝐿2


=( )
−0.3𝐿 + 0.1𝐿2 1 − 0.4𝐿 + 0.8𝐿 2

L’espérance 𝜇 du processus 𝑌𝑡 est alors donnée par

3 1.2 −0.1 −1 3 2.59


𝜇 = Π(1)−1 ( ) = ( ) ( )=( ).
1 −0.2 1.4 1 1.08
On a alors
𝑦1,𝑡 − 2.59 0.2 0.7 −0.4 −0.6 𝑦1,𝑡−1 − 2.59 𝜀1,𝑡
𝑦2,𝑡 − 1.08 𝑦2,𝑡−1 − 1.08 𝜀
= (0.3 0.4 −0.1 −0.8) + ( 2,𝑡 )
𝑦1,𝑡−1 − 2.59 1 0 0 0 𝑦1,𝑡−2 − 2.59 0
(𝑦2,𝑡−1 − 1.08) 0 1 0 0 (𝑦2,𝑡−2 − 1.08) 0

1.4.2. Représentation VMA d’un VAR(p)

On peut mettre un modèle 𝑉𝐴𝑅(𝑝) sous une forme 𝑀𝐴(∞),


𝑌𝑡 = 𝜇 + ∑ Ψ𝑗 𝜀𝑡−𝑗 = 𝜇 + Ψ(𝐿)𝜀𝑡 , (3)


𝑗=0

où Ψ𝑗 est une suite de matrices carrées de taille (𝑛 × 𝑛) avec Ψ0 = 𝐼𝑛 et Ψ(𝐿) = Π(𝐿)−1 . Pour calculer Ψ𝑗
on résout par récurrence l’égalité suivante

Ψ(𝐿)Π(𝐿) = 𝐼.
La récurrence est la suivante :
Ψ0 = 𝐼𝑛
Ψ1 − Ψ0 Π1 = 0
Ψ2 − Ψ1 Π1 − Ψ0 Π2 = 0
Ψ3 − Ψ2 Π1 − Ψ1 Π2 − Ψ0 Π3 = 0

Ψ𝑖 − ∑𝑖𝑗=1 Ψ𝑖−𝑗 Π𝑗 = 0, avec Π𝑗 = 0 pour 𝑗 > 𝑝.

13
Bensalma Modélisation VAR

Exemple : Considérons le processus bi-varié défini par

𝑦1,𝑡 3 0.2 0.7 𝑦1,𝑡−1 0.4 0.6 𝑦1,𝑡−2 𝜀1,𝑡


(𝑦 ) = ( ) + ( ) (𝑦 )−( ) (𝑦 ) + (𝜀 )
2,𝑡 1 0.3 0.4 1,𝑡−2 0.1 0.8 2,𝑡−2 2,𝑡

suivant un VAR(2).
Ψ0 = 𝐼𝑛
0.2 0.7
Ψ1 − Ψ0 Π1 = 0 ⟹ Ψ1 = Π1 = ( )
0.3 0.4

Ψ2 − Ψ1 Π1 − Ψ0 Π2 = 0 ⟹ Ψ2 = Ψ1 Π1 + Ψ0 Π2

0.2 0.7 2 −0.4 −0.6


Ψ2 = ( ) +( )
0.3 0.4 −0.1 −0.8

Ψ3 − Ψ2 Π1 − Ψ1 Π2 − Ψ0 Π3 = 0 ⟹ Ψ3 = Ψ2 Π1 + Ψ1 Π2 + Ψ0 Π3

0.2 0.7 3 −0.4 −0.6 0.2 0.7 0.2 0.7 −0.4 −0.6
Ψ3 = ( ) +( )( )+( )( )
0.3 0.4 −0.1 −0.8 0.3 0.4 0.3 0.4 −0.1 −0.8

1.4.3. Les moments dans un modèle VAR(p) stationnaire

Nous allons voir, maintenant, les auto-covariances et les autocorrélations de retard (ℎ) d’un 𝑉𝐴𝑅(𝑝). La forme
moyenne mobile (3) est particulièrement utile pour définir les moments théoriques du processus, car on voit
tout de suite que :

𝐸(𝑌𝑡 ) = 𝜇 = Π(1)−1 Π0

𝑉𝑎𝑟(𝑌𝑡 ) = ∑ Ψ𝑖 Σ𝑢 Ψ𝑖′
𝑖=0

L’auto-covariance de 𝑌𝑡 se défini comme

Γ𝑌 (ℎ) = 𝐸 [(𝑌𝑡 − 𝜇)(𝑌𝑡+ℎ − 𝜇)′ ] = ∑∞ ′


𝑖=0 Ψ𝑖+ℎ Σ𝑢 Ψ𝑖 .

L’expression de ces moments fait intervenir la suite infinie des coefficients de la représentation MA.

14
Bensalma Modélisation VAR

1.5. Estimation des paramètres d’un VAR(p)

Chacun des paramètres peut être obtenue soit par mco (moindres carrés ordinaires), soit par maximum de
vraisemblance. Pour un modèle VAR stationnaire, la stationnarité de la série va entraîner la convergence et la
normalité asymptotique des estimateurs obtenus par mco, ce qui permet de mener des tests sur les paramètres
du modèle, ou de donner des intervalles de confiance pour les prévisions. Toutefois, comme nous l’avons déjà
dit dans le cas uni-varié, les variables économiques sont souvent intégrées (d’ordre 1 ou plus). Dans ce cas,
l’écriture (1) est toujours valable, mais le déterminant du polynôme caractéristique admet des racines de
module 1. Les coefficients du modèles peuvent toujours être estimés par des mco et les estimateurs obtenus
1
sont toujours convergents (en fait, ils sont même super-convergents puisqu’ils convergent à la vitesse et
𝑇
1
non pas ). Cependant, ces estimateurs ne sont pas asymptotiquement normaux, et l’on peut plus, dans ce
√𝑇

cadre, mener les tests usuels sur les paramètres du modèle, ni déterminer d’intervalle de confiance pour les
prévisions. Cependant, lorsque les variables sont non-stationnaires et cointégrées, les résultats de Engle et
Granger (1987) montrent que la bonne spécification du modèle consiste à utiliser une forme à correction
d’erreur (développé dans la partie (1)), qui permet de se ramener à une écriture ne faisant intervenir que des
variables stationnaires, et dans lesquels il est possible d’effectuer des tests sur les paramètres du modèle.
1.5.1. Estimation d’un VAR(p) avec EVIEWS

Soit 𝑋𝑡 = ( 𝑖𝑛𝑣𝑡 , 𝑖𝑛𝑐𝑡 , 𝑐𝑠𝑡 ) avec, 𝑖𝑛𝑣 = 𝑖𝑛𝑣𝑒𝑠𝑡𝑚𝑒𝑛𝑡, 𝑖𝑛𝑐 = 𝑖𝑛𝑐𝑜𝑚𝑒 et 𝑐𝑠 = 𝑐𝑜𝑛𝑠𝑢𝑚𝑝𝑡𝑖𝑜𝑛

INV INC CS

1960Q1 180 451 415


1960Q2 179 465 421
1960Q3 185 485 434
1960Q4 192 493 448
1961Q1 211 509 459
1961Q2 202 520 458
1961Q3 207 521 479
1961Q4 214 540 487
1962Q1 231 548 497
1962Q2 229 558 510
1962Q3 234 574 516
1962Q4 237 583 525
1963Q1 206 591 529
1963Q2 250 599 538
1963Q3 259 610 546
1963Q4 263 627 555
1964Q1 264 642 574
1964Q2 280 653 574
1964Q3 282 660 586
1964Q4 292 694 602
1965Q1 286 709 617
1965Q2 302 734 639
1965Q3 304 751 653

15
Bensalma Modélisation VAR

1965Q4 307 763 668


1966Q1 317 766 679
1966Q2 314 779 686
1966Q3 306 808 697
1966Q4 304 785 688
1967Q1 292 794 704
1967Q2 275 799 699
1967Q3 273 799 709
1967Q4 301 812 715
1968Q1 280 837 724
1968Q2 289 853 746
1968Q3 303 876 758
1968Q4 322 897 779
1969Q1 315 922 798
1969Q2 339 949 816
1969Q3 364 979 837
1969Q4 371 988 858
1970Q1 375 1025 881
1970Q2 432 1063 905
1970Q3 453 1104 934
1970Q4 460 1131 968
1971Q1 475 1137 983
1971Q2 496 1178 1013
1971Q3 494 1211 1034
1971Q4 498 1256 1064
1972Q1 526 1290 1101
1972Q2 519 1314 1102
1972Q3 516 1346 1145
1972Q4 531 1385 1173
1973Q1 573 1416 1216
1973Q2 551 1436 1229
1973Q3 538 1462 1242
1973Q4 532 1493 1267
1974Q1 558 1516 1295
1974Q2 524 1557 1317
1974Q3 525 1613 1355
1974Q4 519 1642 1371
1975Q1 526 1690 1402
1975Q2 510 1759 1452
1975Q3 519 1756 1485
1975Q4 538 1780 1516
1976Q1 549 1807 1549
1976Q2 570 1831 1567
1976Q3 559 1873 1588
1976Q4 584 1897 1631
1977Q1 611 1910 1650
1977Q2 597 1943 1685
1977Q3 603 1976 1722
1977Q4 619 2018 1752
1978Q1 635 2040 1774
1978Q2 658 2070 1807
1978Q3 675 2121 1831
1978Q4 700 2132 1842
1979Q1 692 2199 1890
1979Q2 759 2253 1958
1979Q3 782 2276 1948
1979Q4 816 2318 1994
1980Q1 844 2369 2061
1980Q2 830 2423 2056
1980Q3 853 2457 2102
1980Q4 852 2470 2121
1981Q1 833 2521 2145
16
Bensalma Modélisation VAR

1981Q2 860 2545 2164


1981Q3 870 2580 2206
1981Q4 830 2620 2225
1982Q1 801 2639 2235
1982Q2 824 2618 2237
1982Q3 831 2628 2250
1982Q4 830 2651 2271

La figure 1, ci-dessous, donne la représentation graphique de ces trois variables

3,000

2,500

2,000

1,500

1,000

500

0
60 62 64 66 68 70 72 74 76 78 80 82

INV INC CS

Soit 𝑦1,𝑡 = 𝑑(log(𝑖𝑛𝑣𝑡 )), 𝑦2,𝑡 = 𝑑(log(𝑖𝑛𝑐𝑡 )), 𝑦3,𝑡 = 𝑑(log(𝑐𝑠𝑡 )). La représentation graphique de ces
dernières variables est donnée dans la figure 2,

.20

.15

.10

.05

.00

-.05

-.10

-.15
60 62 64 66 68 70 72 74 76 78 80 82

Y1 Y2 Y3

17
Bensalma Modélisation VAR

1.5.2. Choix de l’ordre p d’un modèle VAR

Pour choisir la taille d’un modèle VAR, c’est-à-dire le nombre global de retards, on se servira d’un critère
d’information. Les trois critères traditionnels (Akaike, Hannan et Quinn et Schwarz) s’écrivent si 𝑌𝑡 ∈ ℝ𝑛 et
p est le nombre de retards et Σ̂𝜀 l’estimateur de la variance des résidus dans le cadre des moindres carrés :

2 2
𝐴𝐼𝐶 = 𝑙𝑜𝑔|Σ̂| + 𝑛 𝑝
𝑇

2 log 𝑙𝑜𝑔𝑇 2
𝐻𝑄 = 𝑙𝑜𝑔|Σ̂| + 𝑛 𝑝
𝑇
𝑙𝑜𝑔𝑇 2
𝑆𝐶 = 𝑙𝑜𝑔|Σ̂| + 𝑛 𝑝
𝑇
On choisira alors le nombre de retards qui minimise l’un de ces critères d’information. Comme exemple
d’illustration, nous modélisons la série 𝑌𝑡 = (𝑑(log(𝑖𝑛𝑣𝑡 )), 𝑑(log(𝑖𝑛𝑐𝑡 )), 𝑑(log(𝑐𝑠𝑡 ))). Les capture d’écran
vous aiderons à reproduire vous-mêmes la modélisation VAR avec EVIEWS.

18
Bensalma Modélisation VAR

Estimation d’un VAR(1) avec constante

Estimation d’un VAR(2) avec constante

Estimation d’un VAR(3) avec constante

19
Bensalma Modélisation VAR

Comparaison des différents modèles VAR(p) avec constante


𝑇 = 92 𝑙𝑜𝑔|Σ̂| AIC SC
𝑉𝐴𝑅(1) 1.61 E-11 -16.06939 -15.73609
𝑉𝐴𝑅(2) 1.15 E-11 -16 .20704 -15.61983
𝑉𝐴𝑅(3) 1.05 E-11 -16.08081 -15.23626

On sait que le critère de Akaike est asymptotiquement biaisé, alors que les deux autres ne le sont pas. Mais en
petit échantillon, le critère de Akaike a de meilleures propriétés. C’est la raison pour laquelle un modèle
VAR(2) est retenu.
Vector Autoregression Estimates
Date: 12/10/21 Time: 17:07
Sample (adjusted): 1960Q4 1982Q4
Included observations: 89 after adjustments
Standard errors in ( ) & t-statistics in [ ]

Y1 Y2 Y3

Y1(-1) -0.272565 0.043347 0.002739


(0.11391) (0.02886) (0.02556)
[-2.39284] [ 1.50179] [ 0.10716]

Y1(-2) -0.134051 0.061632 0.049740


(0.11349) (0.02876) (0.02546)
[-1.18115] [ 2.14314] [ 1.95350]

Y2(-1) 0.337485 -0.123256 0.289319


(0.50061) (0.12685) (0.11231)
[ 0.67415] [-0.97165] [ 2.57601]

Y2(-2) 0.182728 0.020979 0.366431


(0.48579) (0.12310) (0.10899)
[ 0.37615] [ 0.17043] [ 3.36215]

Y3(-1) 0.652044 0.305059 -0.284515


(0.56789) (0.14390) (0.12741)
[ 1.14819] [ 2.11993] [-2.23311]

Y3(-2) 0.598070 0.049019 -0.115976


(0.56618) (0.14347) (0.12702)
[ 1.05632] [ 0.34168] [-0.91303]

C -0.009919 0.012595 0.012379


(0.01319) (0.00334) (0.00296)
[-0.75177] [ 3.76709] [ 4.18199]

R-squared 0.105133 0.151403 0.239962


Adj. R-squared 0.039655 0.089310 0.184349
Sum sq. resids 0.160887 0.010330 0.008098
S.E. equation 0.044295 0.011224 0.009938
F-statistic 1.605627 2.438341 4.314880
Log likelihood 154.7627 276.9427 287.7769
Akaike AIC -3.320510 -6.066128 -6.309594
Schwarz SC -3.124774 -5.870392 -6.113858
Mean dependent 0.016866 0.019085 0.018595

20
Bensalma Modélisation VAR

S.D. dependent 0.045200 0.011762 0.011003

Determinant resid covariance (dof adj.) 1.46E-11


Determinant resid covariance 1.15E-11
Log likelihood 742.2131
Akaike information criterion -16.20704
Schwarz criterion -15.61983

Estimation Proc:
===============================
LS 1 2 Y1 Y2 Y3

VAR Model:
===============================
Y1 = C(1,1)*Y1(-1) + C(1,2)*Y1(-2) + C(1,3)*Y2(-1) + C(1,4)*Y2(-2) + C(1,5)*Y3(-1) + C(1,6)*Y3(-2) + C(1,7)

Y2 = C(2,1)*Y1(-1) + C(2,2)*Y1(-2) + C(2,3)*Y2(-1) + C(2,4)*Y2(-2) + C(2,5)*Y3(-1) + C(2,6)*Y3(-2) + C(2,7)

Y3 = C(3,1)*Y1(-1) + C(3,2)*Y1(-2) + C(3,3)*Y2(-1) + C(3,4)*Y2(-2) + C(3,5)*Y3(-1) + C(3,6)*Y3(-2) + C(3,7)

VAR Model - Substituted Coefficients:


===============================
Y1 = - 0.272564918599*Y1(-1) - 0.134050643354*Y1(-2) + 0.337485116514*Y2(-1) + 0.182728127713*Y2(-2) +
0.652044401766*Y3(-1) + 0.598069996864*Y3(-2) - 0.00991912041104

Y2 = 0.0433473863632*Y1(-1) + 0.0616324904792*Y1(-2) - 0.123255916466*Y2(-1) + 0.0209787178049*Y2(-2) +


0.305058610333*Y3(-1) + 0.0490191169182*Y3(-2) + 0.0125948599288

Y3 = 0.00273850695187*Y1(-1) + 0.0497398216025*Y1(-2) + 0.289318755716*Y2(-1) + 0.366430610834*Y2(-2) –


0.284514618414*Y3(-1) - 0.115976293224*Y3(-2) + 0.0123794877769

−0.0099 ′ −0.272 −0.337 0.652 −0.134 0.182 0.598


̂ ̂
Π0 = ( 0.01259 ) , Π1 = ( 0.04 −0.123 0.305), ̂
Π2 = ( 0.061 0.0209 0.049 )
0.01237 0.00273 0.289 0.284 0.0497 0.366 −0.1159

21
Bensalma Modélisation VAR

15.3. Analyse de la stabilité (stationnarité) du modèle

̂1 𝑧 − Π
Avec EVIEWS le calcul des inverses des racines de l’équation caractéristique 𝑑𝑒𝑡(𝐼 − Π ̂ 2 𝑧 2 ) = 0,

sont calculés et peuvent être visualisés sur un graphe :

On voit que les modules des racines inverses sont toutes à l’intérieur du cercle unité donc le modèle est stable

15.4. Validation du modèle : Test de bruit blanc des erreurs

De la même façon que pour les modèles AR, il convient de vérifier que les erreurs correspondant à un bruit

blanc. Soit 𝜀̂𝑡 = (𝜀̂1,𝑡 , 𝜀̂2,𝑡 , 𝜀̂3,𝑡 ) le processus d’erreurs et Σ̂𝜀 (ℎ) sa fonction d’autocorrélation. L’hypothèse à
tester est alors

𝐻0 : Σ𝜀 (1) = ⋯ = Σ𝜀 (ℎ).
La statistique Q de Box et Pierce peut alors se généraliser en multi-varié,

𝑄(ℎ) = 𝑛 ∑ 𝑡𝑟𝑎𝑐𝑒(Σ̂𝜀 (𝑖)′ Σ̂𝜀 (0)−1 Σ̂𝜀 (𝑖)Σ̂𝜀 (0)−1 )


𝑖=1

La statistique de Ljung et Box (cas des petits échantillons) s’écrit



1
𝑄 ′ (ℎ) 2
=𝑛 ∑ 𝑡𝑟𝑎𝑐𝑒(Σ̂𝜀 (𝑖)′ Σ̂𝜀 (0)−1 Σ̂𝜀 (𝑖)Σ̂𝜀 (0)−1 ).
𝑛−𝑖
𝑖=1

22
Bensalma Modélisation VAR

Les deux statistiques suivent la même loi de Khi-deux à (𝑛2 (ℎ − 𝑝)) degrés de libertés. On rejette 𝐻0 si
𝑄𝑐𝑎𝑙𝑐𝑢𝑙é (ℎ) > 𝑎𝑢 𝑠𝑒𝑢𝑖𝑙 𝛼 = 0.05 𝑑 ′ 𝑢𝑛𝑒 Khi-deux à (𝑛2 (ℎ − 𝑝)) (test unilatérale à droite).

D’après le tableau ci-dessus, on a pour le test d’hypothèse


𝐻0 : Σ𝜀 (1) = ⋯ = Σ𝜀 (10).

𝑃(𝜒 2 (72) > 𝑄̂ (10) = 71.94787) = 0.4796.

Par conséquent, l’hypothèse 𝐻0 est acceptée. Noter que 72 = 32 (10 − 2). En plus du test portemanteau, on
peut aussi visualiser, les corrélogrammes simples et croisés des erreurs,

Autocorrelations with 2 Std.Err. Bounds


Cor(Y1,Y1(-i)) Cor(Y1,Y2(-i)) Cor(Y1,Y3(-i))
.3 .3 .3

.2 .2 .2

.1 .1 .1

.0 .0 .0

-.1 -.1 -.1

-.2 -.2 -.2

-.3 -.3 -.3


1 2 3 4 5 6 7 8 9 10 11 12 1 2 3 4 5 6 7 8 9 10 11 12 1 2 3 4 5 6 7 8 9 10 11 12

Cor(Y2,Y1(-i)) Cor(Y2,Y2(-i)) Cor(Y2,Y3(-i))


.3 .3 .3

.2 .2 .2

.1 .1 .1

.0 .0 .0

-.1 -.1 -.1

-.2 -.2 -.2

-.3 -.3 -.3


1 2 3 4 5 6 7 8 9 10 11 12 1 2 3 4 5 6 7 8 9 10 11 12 1 2 3 4 5 6 7 8 9 10 11 12

Cor(Y3,Y1(-i)) Cor(Y3,Y2(-i)) Cor(Y3,Y3(-i))


.3 .3 .3

.2 .2 .2

.1 .1 .1

.0 .0 .0

-.1 -.1 -.1

-.2 -.2 -.2

-.3 -.3 -.3


1 2 3 4 5 6 7 8 9 10 11 12 1 2 3 4 5 6 7 8 9 10 11 12 1 2 3 4 5 6 7 8 9 10 11 12

Les matrices estimées Σ̂𝜀 (ℎ) peuvent être obtenues à l’aide d’EVIEWS :

23
Bensalma Modélisation VAR

24
Bensalma Modélisation VAR

1.6. Prévision et intervalle de prévision

1.6.1. Prévision à l’aide des modèles VAR

Expression de la prévision à horizon h Considérons un modèle 𝑉 𝐴𝑅 (𝑝),

𝐸(𝑌𝑇+ℎ |𝐼𝑇 ) = 𝑌̂𝑇 (ℎ)


̂0 + Π
=Π ̂1 𝐸(𝑌𝑇+ℎ−1 |𝐼𝑇 ) + Π
̂ 2 𝐸(𝑌𝑇+ℎ−2 |𝐼𝑇 ) + ⋯ + Π
̂ 𝑖 𝐸(𝑌𝑇+ℎ−𝑖 |𝐼𝑇 ) + ⋯ + Π
̂ 𝑝 𝐸(𝑌𝑇+ℎ−𝑝 |𝐼𝑇 )

avec,
𝑌𝑇+ℎ−𝑖 𝑠𝑖 − (𝑝 − 1) < ℎ − 𝑖 < 0
𝐸(𝑌𝑇+ℎ−𝑖 |𝐼𝑇 ) = {
𝑌̂𝑇 (ℎ − 𝑖) 𝑠𝑖 ℎ − 𝑖 > 0

1.6.2. Erreur de prévision

L’erreur de prévision est défini par,

𝑒𝑇 (ℎ) = 𝑌𝑇+ℎ − 𝐸(𝑌𝑇+ℎ /𝐼𝑇 )


On va calculer la variance de l’erreur de prévision en utilisant la représentation MA du processus,

𝑌𝑇 = 𝜇 + ∑ Ψ𝑖 𝜀𝑇−𝑖 .
𝑖=0

Ecrivons maintenant le modèle théorique en 𝑇 + ℎ,


𝑌𝑇+ℎ = 𝜇 + ∑ Ψ𝑖 𝜀𝑇+ℎ−𝑖 .
𝑖=0

Si maintenant on veut prédire 𝑌𝑇+ℎ à partir de la connaissance que nous avons du processus jusqu’en T, les
erreurs 𝜀𝑇+1 , 𝜀𝑇+2 , ⋯ , 𝜀𝑇+ℎ seront inconnues, ce qui fait que,

𝐸(𝑌𝑇+ℎ /𝐼𝑇 ) = 𝜇 + ∑ Ψ𝑖 𝜀𝑇+ℎ−𝑖 ,


𝑖=ℎ

que l’on peut réécrire,


𝐸(𝑌𝑇+ℎ /𝐼𝑇 ) = 𝜇 + ∑ Ψ𝑖+ℎ 𝜀𝑇−𝑖 .


𝑖=0

Calculons , maintenant, l’erreur de prévision,

𝑒𝑇 (ℎ) = 𝑌𝑇+ℎ − 𝐸(𝑌𝑇+ℎ /𝐼𝑇 )

25
Bensalma Modélisation VAR

∞ ∞

= ∑ Ψ𝑖 𝜀𝑇+ℎ−𝑖 − ∑ Ψ𝑖+ℎ 𝜀𝑇−𝑖


𝑖=0 𝑖=0
ℎ−1

= ∑ Ψ𝑖 𝜀𝑇+ℎ−𝑖
𝑖=0

L’espérance et la variance de l’erreur de prévision sont,

𝐸(𝑒𝑇 (ℎ)) = 0
ℎ−1

𝑉𝑎𝑟(𝑒𝑇 (ℎ)) = Σℎ = ∑ Ψ𝑖 ΣΨ𝑖′ .


𝑖=0

Quand ℎ → ∞ , la matrice de variance –Covariance de l’erreur de prévision se rapproche de la matrice de


variance-covariance de 𝑌𝑡 .

1.6.3 Intervalle de prévision

La variance de l’erreur de prévision de chacune des k variables est obtenue sur la diagonale des Σ̂ℎ : l’intervalle
𝛼
de confiance de la prévision au niveau 1 − 2 est donnée par

𝑌̂𝑇 (ℎ) ∓ 𝑡𝛼 √Σ̂ℎ𝑖,𝑖


2

Exemple de calcul de prévision dans un VAR(1)


̂0 + Π
Expression de la prévision à horizon ℎ Considérons un modèle V AR (1) ; 𝑌𝑡 = Π ̂1 𝑌𝑡−1 + 𝜀𝑡 ; estimé à
partir de 𝑇 observations. La prévision à horizon 1 faite en 𝑇 est
𝐸(𝑌𝑇+1 |𝐼𝑇 ) = 𝑌̂𝑇 (1) = Π
̂0 + Π
̂1 𝑌𝑇 .

La prévision à horizon 2 est donnée par,


𝐸(𝑌𝑇+2 /𝐼𝑇 ) = 𝑌̂𝑇 (2) = Π
̂0 + Π
̂1 𝑌̂𝑇 (1) = Π
̂0 + Π
̂1 [Π
̂0 + Π
̂1 𝑌𝑇 ] = Π
̂0 + Π
̂1 Π
̂0 + Π
̂12 𝑌𝑇 .

De façon plus générale, la prévision à horizon h est donnée par


𝐸(𝑌𝑇+ℎ /𝐼𝑇 ) = 𝑌̂𝑇 (ℎ) = (𝐼 + Π
̂1 + Π
̂12 + ⋯ + Π
̂1ℎ−1 )Π
̂0 + Π
̂1ℎ 𝑌𝑇 .
̂ (𝐿) est inversible, Π
Il est intéressant de calculer la limite de cette espérance pour ℎ ⟶ ∞. Si le polynôme Π ̂1ℎ
converge vers zéro pour pour ℎ ⟶ ∞ et l’on a :
̂ (1)Π
lim 𝐸(𝑌𝑇+ℎ /𝐼𝑇 ) = Π ̂0
ℎ→∞

26
Bensalma Modélisation VAR

L’espérance de l’erreur de prévision est nulle, et sa variance est donnée par Σ̂1 = Σ̂ à horizon 1. A horizon 2,
cette variance est
Σ̂2 = Σ̂1 + Π
̂1 Σ̂Π
̂1′

= Σ̂ + Π
̂1 Σ̂Π
̂1′ .
De façon plus générale, la variance de la prévision à l’horizon ℎ est
Σ̂ℎ = Σ̂ + Π
̂ 1 Σ̂Π
̂1′ + Π
̂12 Σ̂Π
̂12′ + ⋯ + Π
̂1ℎ−1 Σ̂Π
̂1ℎ−1′

Exemple (suite consommation, revenu, investisement) : Calcul des prévisions pour ℎ = 1 et ℎ = 2 pour le
modèle VAR(2) estimé plus haut,

𝑌̂𝑇 (1) = Π
̂0 + Π
̂1 𝑌𝑇 + Π
̂0 + Π
̂ 2 𝑌𝑇−1

−0.0099 −0.272 −0.337 0.652 830


= ( 0.01259 ) + ( 0.04 −0.123 0.305) (2651)
0.01237 0.00273 0.289 0.284 2271
−0.134 0.182 0.598 831
+ ( 0.061 0.0209 0.049 ) (2628)
0.0497 0.366 −0.1159 2250
𝑌̂𝑇 (2) = Π
̂0 + Π
̂1 𝑌̂𝑇 (1) + Π
̂ 2 𝑌𝑇

−0.0099 −0.272 −0.337 0.652 −0.134 0.182 0.598 830


= ( 0.01259 ) + ( 0.04 −0.123 0.305) 𝑌̂𝑇 (1) + ( 0.061 0.0209 0.049 ) (2651)
0.01237 0.00273 0.289 0.284 0.0497 0.366 −0.1159 2271

1.7. La causalité1 au sens de Granger


Une des questions que l’on peut se poser à partir d’un VAR est de savoir s’il existe une relation de
causalité entre les différentes variables du système.
Au niveau théorique, la mise en évidence de relations entre les variables économiques, permet une meilleure
représentation des phénomènes économiques, et amène des informations supplémentaires quant à l’antériorité
des événements entre eux et par la même, permet la mise en place d’une politique économique optimisée.

Il existe plusieurs définitions de la causalité : causalité au sens de Granger, causalité au sens de Pierce
et Haugh et causalité au sens de Sims. On ne se limitera dans notre cas qu’à la causalité au sens de Granger et
Pierce et Haugh.

1
Sandrine lardic et Valérie mignon macroéconomique et financière ed .economica 2002 page98-99.

27
Bensalma Modélisation VAR

A) Causalité au sens de Granger

Considérons le processus suivant :

𝑋𝑡 = (𝑥1𝑡 , 𝑥2𝑡 )′ et notons le passé de 𝑥1𝑡 et 𝑥2𝑡 par respectivement 𝑥1𝑡 = {𝑥1𝑡 , 𝑥1,𝑡−1 , ⋯ } et

𝑥2𝑡 = {𝑥2𝑡 , 𝑥2,𝑡−1 , ⋯ }.

Selon Granger, la variable 𝑥2𝑡 cause la variable 𝑥1𝑡 , si la connaissance du passé de 𝑥2𝑡 améliore la prévision de 𝑥1𝑡 à
tout horizon. C’est-à-dire :

𝐸(𝑥2𝑡 /𝑥2,𝑡−1 , 𝑥1,𝑡−1 ) ≠ 𝐸(𝑥2𝑡 /𝑥2,𝑡−1 ).

Le test proposé par Granger pour vérifier la causalité entre deux variables est le suivant :

Soit le modèle VAR(P) suivant :

𝑥1𝑡 𝑎1 𝑏11 𝑥1,𝑡−1 𝑎𝑝1 𝑎𝑝1 𝑥1,𝑡−𝑝 𝜀1,𝑡


( ) = ( 12 ) ( ) + ⋯ + ( )( )+( )
𝑥2𝑡 𝑎1 𝑏12 𝑥2,𝑡−1 𝑎𝑝2 2
𝑎𝑝 𝑥2,𝑡−𝑝 𝜀2,𝑡

Ce test s’intéresse à tester les hypothèses suivantes :

𝑥2𝑡 ne cause pas 𝑥1𝑡 : hypothèse 𝐻0 est acceptée.

𝐻0 : 𝑏11 = 𝑏21 = ⋯ = 𝑏𝑝1 = 0


{
𝐻1 : ∃ 𝑎𝑢 𝑚𝑜𝑖𝑛𝑠 𝑏12 ≠ 0, ∀𝑖 = 1, ⋯ , 𝑃

𝑥1𝑡 ne cause pas 𝑥2𝑡 : l’hypothèse 𝐻0 est acceptée.

𝐻0 : 𝑎11 = 𝑎21 = ⋯ = 𝑎𝑝1 = 0


{
𝐻1 : ∃ 𝑎𝑢 𝑚𝑜𝑖𝑛𝑠 𝑎12 ≠ 0, ∀𝑖 = 1, ⋯ , 𝑃

Le test de Granger repose sur la statistique de Fisher F :

(𝑆𝐶𝑅𝑅 − 𝑆𝐶𝑅𝑈 )/𝑐


𝐹=
𝑆𝐶𝑅/(𝑇 − 𝐾 − 1)

Avec :

T : nombre d’observations

C : nombre de paramètres à estimer dans le modèle VAR

𝑆𝐶𝑅𝑅 : La somme des carrées des résiduelles dans le modèle contraint.

𝑆𝐶𝑅𝑈 : La somme des carrées des résiduelles dans le modèle non contraint.

Cette statistique F va être comparé avec la valeur de Fisher tabulée F(C, T-K).
28
Bensalma Modélisation VAR

Si 𝐹𝑐𝑎𝑙 > 𝐹𝑡𝑎𝑏 on refuse 𝐻0 , sinon on accepte 𝐻0 .

Exemple :

Pairwise Granger Causality Tests


Date: 12/30/23 Time: 18:43
Sample: 1960Q1 1982Q4
Lags: 2

Null Hypothesis: Obs F-Statistic Prob.

Y_INC does not Granger Cause Y_CS 89 7.86973 0.0007


Y_CS does not Granger Cause Y_INC 3.01643 0.0543

Y_INV does not Granger Cause Y_CS 89 2.17090 0.1204


Y_CS does not Granger Cause Y_INV 3.17108 0.0470

Y_INV does not Granger Cause Y_INC 89 3.56357 0.0327


Y_INC does not Granger Cause Y_INV 2.48188 0.0897

Si on ne tient compte que des résultats les plus significatifs, alors la variable qui est expliquée par la variable LINC est
(LCS). LCS cause LINV. LINV cause LINC.

1.8. Impact d’une impulsion (analyse de réponse impulsionnelle)

1.8.1. Cas où la matrice de variance des résidus est diagonale

Dans les applications empiriques, une des principales utilisations des processus VAR réside dans l’analyse
des réponses impulsionnelles. La fonction de réponse impulsionnelle représente l’effet d’un choc d’une
innovation sur les valeurs courantes et futures des variables endogènes. Un choc sur la ième variable peut
affecter directement cette ième variable, mais il se transmet également à l’ensemble des autres variables au
travers de la structure dynamiques du VAR. Comme illustration, considérons un modèle VAR d’ordre un sans
constante suivant :
𝑦1,𝑡 0.7 0.1 𝜀1,𝑡
𝑌𝑡 = (𝑦 ) = ( ) 𝑌𝑡−1 + (𝜀 ) , 𝑡 ∈ ℤ+
2,𝑡 0.6 0.25 2,𝑡

0 0
Comme Π0 = ( ), alors 𝐸(𝑌𝑡 ) = ( ). On veut analyser l’effet d’un choc à l’instant 𝑡 = 0. On impose un
0 0
𝜀1,𝑡 0
choc unitaire à l’erreur associée à 𝑦1,𝑡 , c’est-à-dire 𝜀1,0 = 1 et 𝜀2,𝑡 = 0 et (𝜀 ) = ( ) , ∀𝑡 ≠ 0.
2,𝑡 0
On a alors,

𝑦1,0 0.7 0.1 0 1 1


𝑌0 = (𝑦 ) = Π1 𝑌−1 + 𝜀0 = ( )( ) + ( ) = ( )
2,0 0.6 0.25 0 0 0

𝑦1,1 0.7 0.1 1 0 0.7


𝑌1 = (𝑦 ) = Π1 𝑌0 + 𝜀1 = ( ) ( ) + ( ) = ( )= première colonne de Π1 .
2,1 0.6 0.25 0 0 0.6
29
Bensalma Modélisation VAR

𝑦1,2 0.7 0.1 0.7 0 0.55


𝑌2 = (𝑦 ) = Π1 𝑌1 + 𝜀2 = Π12 𝑌0 = ( )( )+ ( ) = ( ) =première colonne de Π12 .
2,2 0.6 0.25 0.6 0 0.57

Développons le modèle selon ces hypothèses. On a la suite 𝑌0 = 𝜀0 , 𝑌1 = Π1 𝜀0 , 𝑌2 = Π12 𝜀0 et donc 𝑌𝑡 =


Π1𝑡 𝜀0 . Alors la première colonne de Π1𝑡 représentera l’effet sur le système d’un choc sur la première variable
après 𝑡 périodes. Voici les dix premières matrices Π1𝑡 pour 𝑡 = 1, ⋯ ,10.

0.7 0.1 0.55 0.095 0.442 0.07875


Π11 = ( ), Π12 = ( ), Π13 = ( )
0.6 0.25 0.57 0.1225 0.4725 8.7625 × 10⁻²

Π14 = (0.35665 6.3888 × 10⁻²), Π 5 = (0.28799


1
5.1637 × 10⁻²), Π 6 = (0.23257
1
4.1708 × 10⁻²)
0.38333 6.9156 × 10⁻² 0.30982 5.5622 × 10⁻² 0.25025 4.4888 × 10⁻²

Π17 = (0.18783 3.3684 × 10⁻²), Π 8 = (0.15169


1
2.7204 × 10⁻²), Π 9 = ( 0.1225
1
2.1970 × 10⁻²)
0.20211 3.6247 × 10⁻² 0.16322 2.9272 × 10⁻² 0.13182 0.02364

Π110 = (9.8935 × 10⁻² 1.7743 × 10⁻²).


0.10646 1.9092 × 10⁻²

Les chiffres en rouge représentent l’évolution du choc unitaire sur 𝜀1,0 , au cours du temps, sur la variable 𝑦1,𝑡 .
Les chiffres en bleu représentent l’évolution du choc unitaire sur 𝜀1,0 , au cours du temps, sur la variable 𝑦2,𝑡
La représentation graphique de cette évolution se présente comme suit :

30
Bensalma Modélisation VAR

1.0

0.8

0.6

0.4

0.2

0.0
0 1 2 3 4 5 6 7 8 9 10 11

.7

.6

.5

.4

.3

.2

.1

.0
0 1 2 3 4 5 6 7 8 9 10 11

Si, plutôt, on choisissait d’imposer le choc unitaire à 𝜀2,𝑡 , l’impact de cette impulsion, après t périodes, serait
la deuxième colonne de la matrice Π1𝑡 .

On peut aussi utiliser l’écriture moyenne mobile infinie du modèle 𝑉𝐴𝑅(1) :

𝑀𝐴(∞): 𝑌𝑡 = (1 − Π1 𝐿)−1 𝜀𝑡 = (𝐼 − Π1 𝐿 − Π12 𝐿2 − ⋯ − Π1ℎ − ⋯ )𝜀𝑡

Les coefficients de la forme 𝑀𝐴(∞) vont donner la suite des réponses impulsionnelles du système à un choc
unitaire sur les innovations du processus, car
𝜕 𝑌𝑡+ℎ
= Ψℎ = Π1ℎ
𝜕𝜀𝑡
Cette manière de calculer les réponses impulsionnelles, décrite ci-dessus n’est valable que si la matrice de
variance covariance Σ est diagonale. Si 𝜀1,𝑡 et 𝜀2,𝑡 sont fortement corrélés, un choc sur 𝜀1,𝑡 sera forcément
accompagné par un choc sur 𝜀2,𝑡 .

31
Bensalma Modélisation VAR

1.7.2. Cas où la matrice de variance des résidus n’est pas diagonale

Supposons maintenant matrice de variance covariance Σ n’est pas diagonale. Si 𝜀1,𝑡 et 𝜀2,𝑡 sont fortement
corrélés, un choc sur 𝜀1,𝑡 sera forcément accompagné par un choc sur 𝜀2,𝑡 . Considérons maintenant la
décomposition de Σ en :
Σ = ΡΡ ′
Il s’agit de la décomposition de Choleski d’une matrice où P est une matrice triangulaire supérieure avec ses
éléments diagonaux positifs. On peut alors réécrire la forme 𝑀𝐴(∞) en :
∞ ∞ ∞

𝑌𝑡 = ∑ Ψ𝑖 𝜀𝑡−𝑖 = ∑ Ψ𝑖 ΡΡ −1 𝜀𝑡−𝑖 = ∑ 𝐶𝑖 𝜔𝑡−𝑖 .


𝑖=0 𝑖=0 𝑖=0

Où 𝐶𝑖 = Ψ𝑖 Ρ et 𝜔𝑡 = Ρ −1 𝜀𝑡−𝑖 . Il est facile de vérifier que les 𝜔𝑡 ont une matrice de variance covariance égale
à la matrice identité. Les colonnes de 𝐶𝑖 représenteront la réponse du système par rapport à un choc
indépendant et normalisé sur l’innovation d’une variable après i périodes.
Exemple
Soit 𝑢𝑡 et 𝜀𝑡 deux bruit blancs gaussiens bi-varié tel que :


𝑢𝑡 = (𝑢1,𝑡 , 𝑢2,𝑡 )

et

1 1
1 𝑢 𝑢1,𝑡 + 𝑢2,𝑡
𝜀𝑡 = ( 3 )(
1,𝑡
)=( 3 )
1 1 𝑢2,𝑡 1 1
𝑢 + 𝑢
2 4 2 1,𝑡 4 2,𝑡

avec 𝑢1,𝑡 ~𝑁(0,1) et 𝑢2,𝑡 ~𝑁(0,1). On a :

10 10 √10 √10 √10


0
Σ𝜀 = ( 9 24) = ΡΡ ′ = 3 3 8
10 5 √10 √10 √10
24 16 0
( 8 8 )( 8 )

Exemple : Soit 𝑦1,𝑡 = 𝑑(log(𝑖𝑛𝑣𝑡 )), 𝑦2,𝑡 = 𝑑(log(𝑖𝑛𝑐𝑡 )), 𝑦3,𝑡 = 𝑑(log(𝑐𝑠𝑡 )) de l’exemple précèdent :

La matrice de covariance des résidus est

Y1 Y2 Y3

Y1 0.001962 6.15E-05 0.000141


Y2 6.15E-05 0.000126 6.39E-05
Y3 0.000141 6.39E-05 9.88E-05
C’est une matrice diagonale
32
Bensalma Modélisation VAR

Response to Nonfactorized One Unit Innovations


Response of Y1 to Y1 Response of Y1 to Y2 Response of Y1 to Y3
1.2 1.2 1.2

0.8 0.8 0.8

0.4 0.4 0.4

0.0 0.0 0.0

-0.4 -0.4 -0.4


1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10

Response of Y2 to Y1 Response of Y2 to Y2 Response of Y2 to Y3


1.2 1.2 1.2

0.8 0.8 0.8

0.4 0.4 0.4

0.0 0.0 0.0

-0.4 -0.4 -0.4


1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10

Response of Y3 to Y1 Response of Y3 to Y2 Response of Y3 to Y3


1.2 1.2 1.2

0.8 0.8 0.8

0.4 0.4 0.4

0.0 0.0 0.0

-0.4 -0.4 -0.4


1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10

33
Bensalma Modélisation VAR

1.9. Décomposition de la variance de l’erreur de prévision


Considérons la représentation 𝑉𝑀𝐴(∞) du modèle 𝑉𝐴𝑅(𝑝) estimé

𝑌𝑡 = 𝜇 + ∑ Ψ𝑗 𝜀𝑡−𝑗
𝑗=0

Soit Σ𝜀 = ΡΡ ′ la décomposition de Cholesky de la matrice de variance covariance des résidus. On peut alors
réécrire la forme 𝑉𝑀𝐴(∞) en :
∞ ∞ ∞
−1
𝑌𝑡 = 𝜇 + ∑ Ψ𝑖 𝜀𝑡−𝑖 = 𝜇 + ∑ Ψ𝑖 ΡΡ 𝜀𝑡−𝑖 = 𝜇 + ∑ 𝐶𝑖 𝜔𝑡−𝑖 .
𝑖=0 𝑖=0 𝑖=0

Où 𝐶𝑖 = Ψ𝑖 Ρ et 𝜔𝑡 = Ρ −1 𝜀𝑡−𝑖 .

𝑗 𝑗 𝑗
𝑐11 𝑐12 ⋯ 𝑐1𝑛 𝜔1,𝑡−𝑗

𝑗 𝑗 𝑗 𝜔2,𝑡−𝑗
𝑌𝑡 = 𝜇 + ∑ 𝑐21 𝑐22 ⋯ 𝑐2𝑛 ( ⋮ ).
𝑗=0
⋮ ⋮ ⋮ ⋮
𝑗 𝑗 𝑗 𝜔𝑛,𝑡−𝑗
(𝑐𝑛1 𝑐𝑛2 ⋯ 𝑐𝑛𝑛 )
L’erreur de prévision à l’horizon h est donnée par l’expression suivante :

𝑗 𝑗 𝑗
𝑦1,𝑡+ℎ − 𝑦1,𝑡 (ℎ) 𝑐11 𝑐12 ⋯ 𝑐1𝑛 𝜔1,𝑡+ℎ−𝑗
𝑗 𝑗 𝑗 𝜔2,𝑡+ℎ−𝑗
𝑦2,𝑡+ℎ − 𝑦2,𝑡 (ℎ) ℎ−1 𝑐21 𝑐22 ⋯ 𝑐2𝑛
⋮ ⋮
𝑌𝑡+ℎ − 𝑌𝑡 (ℎ) = = ∑ ⋮𝑗 ⋮ ⋮
𝑦𝑖,𝑡+ℎ − 𝑦𝑖,𝑡 (ℎ) 𝑐𝑖1
𝑗
𝑐𝑖2 ⋯
𝑗
𝑐𝑖𝑛 𝜔𝑖,𝑡+ℎ−𝑗
𝑗=0
⋮ ⋮ ⋮ ⋯ ⋮ ⋮
(𝑦𝑛,𝑡+ℎ − 𝑦𝑛,𝑡 (ℎ)) 𝑗 𝑗 𝑗 (𝜔𝑛,𝑡+ℎ−𝑗 )
(𝑐𝑛1 𝑐𝑛2 𝑐𝑛𝑛 )

𝑗 𝑗 𝑗 𝑗
𝑐11 𝜔1,𝑡+ℎ−𝑗 + 𝑐12 𝜔2,𝑡+ℎ−𝑗 + ⋯ +𝑐1𝑖 𝜔𝑖,𝑡+ℎ−𝑗 + ⋯+ 𝑐1𝑛 𝜔𝑛,𝑡+ℎ−𝑗
𝑗 𝑗 𝑗 𝑗
ℎ−1 𝑐21 𝜔1,𝑡+ℎ−𝑗 + 𝑐22 𝜔2,𝑡+ℎ−𝑗 + ⋯ +𝑐2𝑖 𝜔𝑖,𝑡+ℎ−𝑗 + ⋯ + 𝑐2𝑛 𝜔𝑛,𝑡+ℎ−𝑗
=∑ ⋮ .
𝑗 𝑗 𝑗 𝑗
𝑗=0
𝑐𝑖1 𝜔1,𝑡+ℎ−𝑗 + 𝑐𝑖2 𝜔2,𝑡+ℎ−𝑗 + ⋯ +𝑐𝑖𝑖 𝜔𝑖,𝑡+ℎ−𝑗 + ⋯ + 𝑐𝑖𝑛 𝜔𝑛,𝑡+ℎ−𝑗

𝑗 𝑗 𝑗 𝑗
(𝑐𝑛1 𝜔1,𝑡+ℎ−𝑗 + 𝑐𝑛2 𝜔2,𝑡+ℎ−𝑗 + ⋯ +𝑐𝑛𝑖 𝜔𝑖,𝑡+ℎ−𝑗 + ⋯ + 𝑐𝑛𝑛 𝜔𝑛,𝑡+ℎ−𝑗 )

L’erreur de prévision, à l’horizon h, de la variable 𝑦𝑖,𝑡 est :

34
Bensalma Modélisation VAR

𝑦𝑖,𝑡+ℎ − 𝑦𝑖,𝑡 (ℎ)


ℎ−1
𝑗 𝑗 𝑗 𝑗
= ∑(𝑐𝑖1 𝜔1,𝑡+ℎ−𝑗 + 𝑐𝑖2 𝜔2,𝑡+ℎ−𝑗 + ⋯ +𝑐𝑖𝑖 𝜔𝑖,𝑡+ℎ−𝑗 + ⋯+ 𝑐𝑖𝑛 𝜔𝑛,𝑡+ℎ−𝑗 )
𝑗=0

0 1 𝑗 ℎ−1
= ∑𝑛𝑘=1(𝑐𝑖𝑘 𝜔1,𝑡+ℎ + 𝑐𝑖𝑘 𝜔2,𝑡+ℎ−1 + ⋯ +𝑐𝑖𝑘 𝜔𝑖,𝑡+ℎ−𝑗 + ⋯ + 𝑐𝑖𝑘 𝜔𝑛,𝑡+1 ).

La variance de l’erreur de prévision, à l’horizon h, de la variable 𝑦𝑖,𝑡 est :


𝑛
2 2 2 2
0 1 )2 𝑗
ℎ−1
𝐸 (𝑦𝑖,𝑡+ℎ − 𝑦𝑖,𝑡 (ℎ)) = ∑ [(𝑐𝑖𝑘 ) + (𝑐𝑖𝑘 + ⋯ + (𝑐𝑖𝑘 ) + ⋯ + (𝑐𝑖𝑘 ) ].
𝑘=1
𝟐 𝟐 𝒋 𝟐 𝟐
[(𝒄𝟎𝒊𝒌 )+ (𝒄𝟏𝒊𝒌 )
+ ⋯+ + ⋯ + (𝒄𝒉−𝟏
(𝒄𝒊𝒌 ) 𝒊𝒌 ) ] est la contribution de la variable 𝑦𝑘,𝑡 à la
variance de l’erreur de prévision de la variable 𝑦𝑖,𝑡 . Cette contribution en pourcentage
s’exprime par :
2 𝑗 2 2
0 1 )2 ℎ−1
[(𝑐𝑖𝑘 ) + (𝑐𝑖𝑘 + ⋯ + (𝑐𝑖𝑘 ) + ⋯ + (𝑐𝑖𝑘 ) ]
2
𝐸 (𝑦𝑖,𝑡+ℎ − 𝑦𝑖,𝑡 (ℎ))

Exemple : Soit 𝑦1,𝑡 = 𝑑(log(𝑖𝑛𝑣𝑡 )), 𝑦2,𝑡 = 𝑑(log(𝑖𝑛𝑐𝑡 )), 𝑦3,𝑡 = 𝑑(log(𝑐𝑠𝑡 )) de l’exemple précèdent :

35
Bensalma Modélisation VAR

Variance
Decompositi
on of Y_INV:
Period S.E. Y_INV Y_INC Y_CS

1 0.044295 100.0000 0.000000 0.000000


2 0.046162 96.34001 2.459336 1.200652
3 0.046453 95.14925 3.346912 1.503842
4 0.046735 94.92085 3.386688 1.692466
5 0.046797 94.75162 3.476935 1.771445
6 0.046805 94.73044 3.477579 1.791983
7 0.046815 94.70044 3.501460 1.798103
8 0.046818 94.69585 3.503765 1.800381
9 0.046818 94.69524 3.503775 1.800990
10 0.046818 94.69403 3.504921 1.801046

Variance
Decompositi
on of Y_INC:
Period S.E. Y_INV Y_INC Y_CS

1 0.011224 1.531729 98.46827 0.000000


2 0.011791 6.700762 89.27131 4.027929
3 0.012044 9.321343 86.72586 3.952796
4 0.012151 9.174660 86.74270 4.082636
5 0.012166 9.269368 86.56678 4.163850
6 0.012180 9.357870 86.47783 4.164304
36
Bensalma Modélisation VAR

7 0.012184 9.362057 86.45815 4.179793


8 0.012184 9.364557 86.45380 4.181641
9 0.012185 9.367148 86.45148 4.181369
10 0.012185 9.367663 86.45022 4.182115

VarianceDe
composition
of Y_CS:
Period S.E. Y_INV Y_INC Y_CS

1 0.009938 10.21605 28.84936 60.93459


2 0.010328 9.593418 29.42887 60.97772
3 0.011252 16.23338 32.24546 51.52116
4 0.011316 16.09649 31.92277 51.98074
5 0.011355 16.07638 32.25792 51.66570
6 0.011369 16.09584 32.35519 51.54897
7 0.011373 16.12301 32.33829 51.53870
8 0.011374 16.12301 32.34990 51.52710
9 0.011375 16.12315 32.35344 51.52341
10 0.011375 16.12419 32.35313 51.52268

Cholesky Ordering: Y_INV Y_INC Y_CS

Variance Decomposition of Y_INV


100

80

60

40

20

0
1 2 3 4 5 6 7 8 9 10

Y_INV Y_INC Y_CS

37
Bensalma Modélisation VAR

Variance Decomposition of Y_INC


100

80

60

40

20

0
1 2 3 4 5 6 7 8 9 10

Y_INV Y_INC Y_CS

Variance Decomposition of Y_CS


100

80

60

40

20

0
1 2 3 4 5 6 7 8 9 10

Y_INV Y_INC Y_CS

38
Bensalma Modélisation VAR

39
Référence bibliographiques

40

Vous aimerez peut-être aussi