Modélisation - Var
Modélisation - Var
1
2
Bensalma Modélisation VAR
Dans le domaine de l'analyse des séries chronologiques, les observations sont souvent prises sur deux ou
plusieurs séries. Par exemple, en météorologie, nous pourrions observer la température, la pression
atmosphérique et les précipitations sur le même site pour la même séquence de points dans le temps. En
économie, de nombreuses mesures différentes de l'activité économique sont généralement enregistrées à
intervalles réguliers. Les exemples incluent l'indice des prix de détail, le produit intérieur brut et le niveau de
chômage. Compte tenu de données multi-variées comme celle-ci, il peut être utile de développer un modèle
multi-varié pour décrire les interrelations entre les séries. Il est impossible de croire qu'une variable s'auto-
prédise parfaitement. En effet, la plupart du temps, la prédiction est souvent meilleure lorsqu'on inclut d'autres
variables dans le modèle étudié. Les objectifs de l'analyse et de la modélisation conjointe des séries
individuelles en utilisant des informations supplémentaires disponibles des autres variables. Pour comprendre
le cadre d'analyse multi-varié, une bonne connaissance des concepts développés dans le cadre uni-varié est
nécessaire. Comme lors du premier semestre, nous supposerons dans un premier temps que les processus
étudiés sont stationnaires. Dans un second temps nous considérons le cas des processus intégrés (non
stationnaires) avec l'introduction du concept de Co-intégration et des modèles à correction d'erreur.
On généralise la notion de stationnarité faible ou de second ordre, vue au premier semestre, au cas vectoriel.
′
Soit 𝑌𝑡 = (𝑦1,𝑡 , 𝑦2,𝑡 , ⋯, 𝑦𝑖,𝑡 , ⋯ , 𝑦𝑛,𝑡 ) , 𝑡 ∈ ℤ, un vecteur de variables aléatoires de dimension k. Le choix
d'inclure une composante 𝑦𝑖,𝑡 dans 𝑌𝑡 ne se fait pas de manière arbitraire, mais depend du domaine d'étude et
de l'utilité de cette composante à la compréhension du système qui régit le fonctionnement du domaine d'étude.
Il est important que les composantes du vecteur soient interdépendantes à la fois simultanément et à travers
des décalages temporels. La représentation et la modélisation de ces interrelations dynamiques sont d'un intérêt
majeur pour les séries chronologiques multi-variées. Un concept important dans la représentation des modèles
est celui de la stationnarité.
′
𝛾𝑖𝑗 (ℎ) = 𝐶𝑜𝑣(𝑦𝑖,𝑡 , 𝑦𝑗,𝑡+ℎ ) = 𝐸 [(𝑦𝑖,𝑡 − 𝜇𝑖 )(𝑦𝑗,𝑡+ℎ − 𝜇𝑗 ) ]
Propriété 1.1 : La fonction d’auto-covariance d’un processus vectoriel 𝑌𝑡 de dimension (n) stationnaire notée
𝛤(∙) a les propriétés suivantes :
De plus, la fonction matrice de corrélation correspondante de retard (ℎ) est notée par
𝜌11 (ℎ) 𝜌12 (ℎ) ⋯ 𝜌1𝑛 (ℎ)
𝜌 (ℎ) 𝜌22 (ℎ) ⋯ 𝜌2𝑛 (ℎ)
𝛒𝑌 (ℎ) = 𝑉 −0.5 Γ𝑌 (ℎ)𝑉 −0.5 = ( 21 )
⋮ ⋮ ⋯ ⋮
𝜌𝑛1 (ℎ) 𝜌𝑛2 (ℎ) ⋯ 𝜌𝑛𝑛 (ℎ)
pour ℎ = 0, ±1, ±2, ⋯., où 𝑉 −0.5 = 𝐷𝑖𝑎𝑔(𝛾11 (ℎ)−0.5 , ⋯ , 𝛾𝑛𝑛 (ℎ)−0.5 ) car
4
Bensalma Modélisation VAR
𝐶𝑜𝑣(𝑦𝑖,𝑡 , 𝑦𝑗,𝑡+ℎ )
𝜌𝑖𝑗 (ℎ) = 0.5
[𝛾𝑖𝑖 (0)𝛾𝑗𝑗 (0)]
avec 𝛾𝑖𝑖 (0) = 𝑉𝑎𝑟(𝑦𝑖𝑡 ). Donc, pour 𝑖 = 𝑗, 𝜌𝑖𝑖 (ℎ) = 𝜌𝑖𝑖 (−ℎ), représente la fonction d'autocorrélation de la
ième série (i.e. 𝑦𝑖𝑡 ),et pour 𝑖 ≠ 𝑗, 𝜌𝑖𝑗 (ℎ) = 𝜌𝑗𝑖 (−ℎ), représente la fonction d'autocorrélation croisée entre les
séries 𝑦𝑖𝑡 et 𝑦𝑗𝑡 .
Noter que,
Γ𝑌 (ℎ) = Γ𝑌 (−ℎ)′ et 𝛒𝑌 (ℎ) = 𝛒𝑌 (−ℎ)′ ,
Puisque 𝛾𝑖𝑗 (ℎ) = 𝛾𝑗𝑖 (−ℎ) . De plus, la matrice de covariance Γ𝑌 (ℎ) et la matrices corrélation 𝛒𝑌 (ℎ) sont
définis positifs, en ce sens que∑𝑘𝑖=1 ∑𝑘𝑗=1 𝑏𝑖′ Γ𝑌 (𝑖 − 𝑗)𝑏𝑗 pour tous les entiers positifs 𝑘 et tous les vecteurs
𝑏1 , ⋯ , 𝑏𝑘 de dimension (𝑛), puisque
𝑘 𝑘 𝑘
𝑉𝑎𝑟 (∑ 𝑏𝑖′ 𝑌𝑡 ) = ∑ ∑ 𝑏𝑖′ 𝐶𝑜𝑣(𝑌𝑡−𝑖 , 𝑌𝑡−𝑗 )𝑏𝑗 ≥ 0.
𝑖=1 𝑖=1 𝑗=1
𝑢𝑡
3
Γ𝑌 (ℎ) = 𝐸[(𝑌𝑡 − 𝜇)(𝑌𝑡−ℎ − 𝜇) = 𝐸 [( ′] 3 ) (𝑢𝑡−ℎ 𝑢𝑡−ℎ + 𝑢𝑡−ℎ−10 )]
𝑢𝑡 + 𝑢𝑡−10 4
4
3
𝛾𝑢 (ℎ) 𝛾𝑢 (ℎ) + 𝛾𝑢 (ℎ + 10)
4
Γ𝑌 (ℎ) = [ 3 9 3 3 ]
𝛾𝑢 (ℎ) + 𝛾𝑢 (ℎ − 10) (1 + ) 𝛾𝑢 (ℎ) + 𝛾𝑢 (ℎ + 10) + 𝛾𝑢 (ℎ − 10)
4 16 4 4
Pour ℎ = 0,
𝛾𝑢 (0) 𝛾𝑢 (0)
1 1
Γ𝑌 (0) = [ 9 ]=[ ]
𝛾𝑢 (0) (1 + ) 𝛾𝑢 (0) 1 1.5625
16
5
Bensalma Modélisation VAR
1
1
𝛒𝑌 (0) = [ 1.56250.5 ] = [ 1 0.8]
1 1.5625 0.8 1
1.56250.5 1.5625
Pour ℎ = 10,
0 0
Γ𝑌 (10) = [3 3]
4 4
0 0
3 3 0 0
𝛒𝑌 (10) = [ ]=[ ]
0.6 0.48
4 × 1.56250.5 4 × 1.5625
Pour ℎ = −10,
3
0
Γ𝑌 (−10) = [ 4]
3
0
4
3
0
𝛒𝑌 (−10) = [ 4 × 1.56250.5 ] = [0 0.6
]
3 0 0.48
0
4 × 1.5625
On a Γ𝑌 (10) = Γ𝑌 (−10)′ et 𝛒𝑌 (10) = 𝛒𝑌 (−10)′ . On a aussi 𝛒𝑌 (ℎ) = 0, ∀ℎ ≠ 0 𝑒𝑡 ℎ ≠ 10.
L'exemple le plus simple d'un processus vectoriel stationnaire est le processus bruit blanc vectoriel, qui joue
un rôle fondamental en tant que bloc de construction pour les processus vectoriels généraux. Le processus
bruit blanc vectoriel est défini comme une séquence de vecteurs aléatoire, ⋯ , 𝒖1 , ⋯ , 𝒖𝒕 , ⋯, avec
′
𝒖𝑡 = (𝑢1,𝑡 , 𝑢2,𝑡 , ⋯ , 𝑢𝑛,𝑡 ) , ∀𝑡 ∈ ℤ
tel que
𝐸(𝒖𝑡 ) = (0,0, ⋯ ,0)′ , ∀𝑡 ∈ ℤ.
𝐸(𝒖𝑡 𝒖′𝑠 ) = 0, ∀𝑠 ≠ 𝑡 ∈ ℤ.
𝐸(𝒖𝑡 𝒖′𝑡 ) = 𝚺𝒖 , ∀𝑡 ∈ ℤ
où 𝚺𝒖 est la matrice de variances-covariances constante des n composantes du processus 𝒖𝑡 . Il faut noter que
𝚺𝒖 n’est pas nécessairement diagonale. En effet, deux composantes 𝑢𝑖,𝑡 et 𝑢𝑗,𝑡 du bruit blanc vectoriel peuvent
être linéairement dépendantes au même temps t. Cependant il n’existe pas de lien temporel entre ces
composantes-là, c’est-à-dire, leur covariance est nulle lorsqu’il y a un espace de temps entre ces deux
6
Bensalma Modélisation VAR
composantes (par exemple 𝑢𝑖,𝑡 et 𝑢𝑗,𝑡+ℎ avec ℎ non nul). La matrice de covariance 𝚺𝒖 est supposée définie
positive. Parfois, des propriétés supplémentaires seront supposées pour le 𝒖𝑡 , telles que la normalité.
′
𝑢𝑡 = (𝑢1,𝑡 , 𝑢2,𝑡 )
et
1 1
1 𝑢 𝑢1,𝑡 + 𝑢2,𝑡
𝑧𝑡 = (3 3
1,𝑡
)( )=( )
1 1 𝑢2,𝑡 1 1
𝑢 + 𝑢
2 4 2 1,𝑡 4 2,𝑡
Programme de simulation
create u 1000
genr e1=nrnd
genr e2=3*nrnd
genr z1=(1/3)*e1+e2
genr z2=(1/2)*e1+(1/4)*e2
group g1 e1 e2
group g2 z1 z2
g1.cov(outfmt=sheet)
g1.cross
g2.cov(outfmt=sheet)
g2.cross
Z1 Z2
Z1 9.475314 2.468788
Z2 2.468788 0.810655
E1 E2
E1 0.970378 -0.083556
E2 -0.083556 9.423198
7
Bensalma Modélisation VAR
-4
-8
-12
25 50 75 100 125 150 175
E1 E2
8
Bensalma Modélisation VAR
-4
-8
-12
25 50 75 100 125 150 175
Z1 Z2
Une généralisation multi-variée du théorème de Wold stipule que si 𝑌𝑡 est un processus stationnaire purement
non déterministe (c’est-à-dire qui ne contient pas de processus purement déterministe dont les valeurs futures
peuvent être parfaitement prédites, possède une forme moyenne mobile vectorielle,
∞
𝑌𝑡 = 𝜇 + ∑ Ψ𝑗 𝑢𝑡−𝑗 = 𝚿(L)𝒖𝒕 ,
𝑗=0
où 𝚿(L) = ∑∞ 𝑗 𝑗
𝑗=0 Ψ𝑗 𝐿 est une matrice (𝑛 × 𝑛), fonction de l’opérateur retard L tel que 𝐿 𝒖𝑡 = 𝒖𝑡−𝑗 et les
condition d’une autre façon : (Ψ𝑗 ) est séquence de matrice (𝑛 × 𝑛) dont les entrées sont absolument
sommables, c’est-à-dire,
∑∞
𝑗=0|Ψ𝑗 (𝑖, 𝑙)| < ∞, 𝑖, 𝑙 = 1,2, ⋯ , 𝑛.
𝐶𝑜𝑣(𝑌𝑡 ) = ∑ Ψ𝑗 Σ𝑢 Ψ𝑗′ ,
𝑗=0
∞
9
Bensalma Modélisation VAR
Il se peut que l’écriture moyenne mobile de 𝑌𝑡 soit finie, c’est-à-dire que Ψ𝑗 = 0 𝑠𝑖 𝑗 > 𝑞 dans l’écriture
moyenne mobile infinie ci-dessus. On a alors un 𝑉𝑀𝐴 (𝑞) qui s’écrit
Dans ce cas, on a
Γ𝑌 (0) = Σ𝑢 + Ψ1 Σ𝑢 Ψ1′ + ⋯ + Ψ𝑞 Σ𝑢 Ψ𝑞′
et pour ℎ ≥ 1, on a
Γ𝑌 (ℎ) = 𝐶𝑜𝑣(𝑌𝑡 , 𝑌𝑡−ℎ )
′
= 𝐸 [(𝜇 + Ψ0 𝑢𝑡 + Ψ1 𝑢𝑡−1 + ⋯ + Ψ𝑞 𝑢𝑡−𝑞 )(𝜇 + Ψ0 𝑢𝑡−ℎ + Ψ1 𝑢𝑡−1−ℎ + ⋯ + Ψ𝑞 𝑢𝑡−𝑞−ℎ ) ]
𝑞−ℎ
= Σ𝑢 Ψℎ′ + Ψ1 Σ𝑢 Ψℎ+1
′
+ ⋯ + Ψ𝑞−ℎ Σ𝑢 Ψ𝑞′ = ∑ Ψ𝑖+ℎ Σ𝑢 Ψ𝑖′
𝑖=0
𝑞
′ ′
= Ψℎ Σ𝑢 + Ψℎ+1 Σ𝑢 Ψ1′ + ⋯+ Ψ𝑞 Σ𝑢 Ψ𝑞−ℎ = ∑ Ψ𝑖 Σ𝑢 Ψ𝑖−ℎ = Γ′𝑌 (−ℎ).
𝑖=ℎ
Exemple :
0.8 0.7 4 1
On considère le modèle bi-varié VMA(1) : 𝑌𝑡 = (𝐼2 − Θ𝐿)𝑢𝑡 avec Θ = ( ) et Σ𝑢 = ( ).
−0.4 0.6 1 2
Calculer Γ𝑌 (0), Γ𝑌 (1), 𝜌𝑌 (0) 𝑒𝑡 𝜌𝑌 (1).
−3.9 1
8.66 √8.66√2.88 = (−0.450 0.200
𝜌𝑌 (1) = 𝑉 −0.5 Γ𝑌 (1)𝑉 −0.5 = ).
−2.2 −0.8 −0.441 −0.278
2.88
(√8.66√2.88 )
8.66 0
Où 𝑉 = ( )
0 2.88
10
Bensalma Modélisation VAR
La représentation 𝑉𝐴𝑅(𝑝) à (𝑛) variables d’ordre (𝑝) s’écrit sous forme matricielle,
avec
𝑦1,𝑡 𝑖 𝑖 𝑖 𝑢1,𝑡
𝜋11 𝜋12 ⋯ 𝜋1𝑛 𝜋10
𝑦2,𝑡 𝑖
𝜋21 𝑖
𝜋22 𝑖
⋯ 𝜋2𝑛 0 𝑢2,𝑡
𝑌𝑡 = ( ⋮ ) Π𝑖 = Π0 = 𝜋2 𝑒𝑡 𝑢𝑡 = ( ⋮ )
⋮ ⋮ ⋮ ⋮
𝑦𝑛,𝑡 𝑖
𝜋𝑛1 𝑖
𝜋𝑛2 𝑖
⋯ 𝜋𝑛𝑛 ) (𝜋𝑛0 ) 𝑢𝑛,𝑡
(
(𝑢1,𝑡 , 𝑢2,𝑡 , ⋯ , 𝑢𝑛,𝑡 ) est un vecteur de bruits blancs dont la matrice de covariance des erreurs Σ𝑢 = 𝐸(𝑢𝑡′ 𝑢𝑡 )
est ici inconnue. De la même façon que dans le cas uni-varié on pourra noter
Π(𝐿)𝑌𝑡 = Π0 + 𝑢𝑡 ,
où Π(𝐿) est un polynôme matriciel (𝑛 × 𝑛) en 𝐿. On a donc un processus dans lequel (𝑛) variables sont
chacune des fonctions de leurs propres valeurs passées et des valeurs passées des (𝑛 − 1) autres variables.
𝑑𝑒𝑡(𝐼 − Π1 𝑧 − Π2 𝑧 2 − ⋯ − Π𝑝 𝑧 𝑝 )
qui admet pour racine 𝑧1 = 0.84 𝑒𝑡 𝑧2 = −0.15 : le processus n’est pas stationnaire.
11
Bensalma Modélisation VAR
Les processus 𝑉𝐴𝑅(𝑝) peuvent se mettre sous forme VAR(1) en utilisant l’écriture suivante.
Π1 Π2 ⋯ Π𝑝−1 Π𝑝
𝑌𝑡 − 𝜇 𝑌𝑡−1 − 𝜇 𝑢𝑡
𝐼𝑛 0𝑛 0𝑛 0𝑛
𝑌 −𝜇 𝑌 −𝜇 0𝑛
𝑍𝑡 = ( 𝑡−1⋮ )= 0 𝐼𝑛 0𝑛 0𝑛 ( 𝑡−2⋮ )+( ⋮ ) (2)
𝑌𝑡−𝑝+1 − 𝜇 ⋱ ⋮ 𝑌𝑡−𝑝 − 𝜇 0𝑛
( 0𝑛 0𝑛 𝐼𝑛 0𝑛 )
où = 𝐸(Π(𝐿)−1 [Π0 + 𝑢𝑡 ]) = Π(1)−1 Π0 . Ainsi, un processus VAR(p) peut se réécrire sous la forme d’un
processus transformé 𝑍𝑡 satisfaisant une représentation VAR(1) :
𝑍𝑡 = 𝐴𝑍𝑡−1 + 𝜂𝑡
avec
Π1 Π2 ⋯ Π𝑝−1 Π𝑝
𝑢𝑡
𝐼𝑛 0𝑛 0𝑛 0𝑛
𝐴 𝜂𝑡 = 0𝑛
= 0 𝐼𝑛 0𝑛 0𝑛 et 𝑛𝑝 × 1 ( ⋮ )
𝑛𝑝 × 𝑛𝑝
⋱ ⋮ 0𝑛
( 0𝑛 0𝑛 𝐼𝑛 0𝑛 )
12
Bensalma Modélisation VAR
où Ψ𝑗 est une suite de matrices carrées de taille (𝑛 × 𝑛) avec Ψ0 = 𝐼𝑛 et Ψ(𝐿) = Π(𝐿)−1 . Pour calculer Ψ𝑗
on résout par récurrence l’égalité suivante
Ψ(𝐿)Π(𝐿) = 𝐼.
La récurrence est la suivante :
Ψ0 = 𝐼𝑛
Ψ1 − Ψ0 Π1 = 0
Ψ2 − Ψ1 Π1 − Ψ0 Π2 = 0
Ψ3 − Ψ2 Π1 − Ψ1 Π2 − Ψ0 Π3 = 0
⋯
13
Bensalma Modélisation VAR
suivant un VAR(2).
Ψ0 = 𝐼𝑛
0.2 0.7
Ψ1 − Ψ0 Π1 = 0 ⟹ Ψ1 = Π1 = ( )
0.3 0.4
Ψ2 − Ψ1 Π1 − Ψ0 Π2 = 0 ⟹ Ψ2 = Ψ1 Π1 + Ψ0 Π2
Ψ3 − Ψ2 Π1 − Ψ1 Π2 − Ψ0 Π3 = 0 ⟹ Ψ3 = Ψ2 Π1 + Ψ1 Π2 + Ψ0 Π3
0.2 0.7 3 −0.4 −0.6 0.2 0.7 0.2 0.7 −0.4 −0.6
Ψ3 = ( ) +( )( )+( )( )
0.3 0.4 −0.1 −0.8 0.3 0.4 0.3 0.4 −0.1 −0.8
Nous allons voir, maintenant, les auto-covariances et les autocorrélations de retard (ℎ) d’un 𝑉𝐴𝑅(𝑝). La forme
moyenne mobile (3) est particulièrement utile pour définir les moments théoriques du processus, car on voit
tout de suite que :
𝐸(𝑌𝑡 ) = 𝜇 = Π(1)−1 Π0
∞
𝑉𝑎𝑟(𝑌𝑡 ) = ∑ Ψ𝑖 Σ𝑢 Ψ𝑖′
𝑖=0
L’expression de ces moments fait intervenir la suite infinie des coefficients de la représentation MA.
14
Bensalma Modélisation VAR
Chacun des paramètres peut être obtenue soit par mco (moindres carrés ordinaires), soit par maximum de
vraisemblance. Pour un modèle VAR stationnaire, la stationnarité de la série va entraîner la convergence et la
normalité asymptotique des estimateurs obtenus par mco, ce qui permet de mener des tests sur les paramètres
du modèle, ou de donner des intervalles de confiance pour les prévisions. Toutefois, comme nous l’avons déjà
dit dans le cas uni-varié, les variables économiques sont souvent intégrées (d’ordre 1 ou plus). Dans ce cas,
l’écriture (1) est toujours valable, mais le déterminant du polynôme caractéristique admet des racines de
module 1. Les coefficients du modèles peuvent toujours être estimés par des mco et les estimateurs obtenus
1
sont toujours convergents (en fait, ils sont même super-convergents puisqu’ils convergent à la vitesse et
𝑇
1
non pas ). Cependant, ces estimateurs ne sont pas asymptotiquement normaux, et l’on peut plus, dans ce
√𝑇
cadre, mener les tests usuels sur les paramètres du modèle, ni déterminer d’intervalle de confiance pour les
prévisions. Cependant, lorsque les variables sont non-stationnaires et cointégrées, les résultats de Engle et
Granger (1987) montrent que la bonne spécification du modèle consiste à utiliser une forme à correction
d’erreur (développé dans la partie (1)), qui permet de se ramener à une écriture ne faisant intervenir que des
variables stationnaires, et dans lesquels il est possible d’effectuer des tests sur les paramètres du modèle.
1.5.1. Estimation d’un VAR(p) avec EVIEWS
Soit 𝑋𝑡 = ( 𝑖𝑛𝑣𝑡 , 𝑖𝑛𝑐𝑡 , 𝑐𝑠𝑡 ) avec, 𝑖𝑛𝑣 = 𝑖𝑛𝑣𝑒𝑠𝑡𝑚𝑒𝑛𝑡, 𝑖𝑛𝑐 = 𝑖𝑛𝑐𝑜𝑚𝑒 et 𝑐𝑠 = 𝑐𝑜𝑛𝑠𝑢𝑚𝑝𝑡𝑖𝑜𝑛
INV INC CS
15
Bensalma Modélisation VAR
3,000
2,500
2,000
1,500
1,000
500
0
60 62 64 66 68 70 72 74 76 78 80 82
INV INC CS
Soit 𝑦1,𝑡 = 𝑑(log(𝑖𝑛𝑣𝑡 )), 𝑦2,𝑡 = 𝑑(log(𝑖𝑛𝑐𝑡 )), 𝑦3,𝑡 = 𝑑(log(𝑐𝑠𝑡 )). La représentation graphique de ces
dernières variables est donnée dans la figure 2,
.20
.15
.10
.05
.00
-.05
-.10
-.15
60 62 64 66 68 70 72 74 76 78 80 82
Y1 Y2 Y3
17
Bensalma Modélisation VAR
Pour choisir la taille d’un modèle VAR, c’est-à-dire le nombre global de retards, on se servira d’un critère
d’information. Les trois critères traditionnels (Akaike, Hannan et Quinn et Schwarz) s’écrivent si 𝑌𝑡 ∈ ℝ𝑛 et
p est le nombre de retards et Σ̂𝜀 l’estimateur de la variance des résidus dans le cadre des moindres carrés :
2 2
𝐴𝐼𝐶 = 𝑙𝑜𝑔|Σ̂| + 𝑛 𝑝
𝑇
2 log 𝑙𝑜𝑔𝑇 2
𝐻𝑄 = 𝑙𝑜𝑔|Σ̂| + 𝑛 𝑝
𝑇
𝑙𝑜𝑔𝑇 2
𝑆𝐶 = 𝑙𝑜𝑔|Σ̂| + 𝑛 𝑝
𝑇
On choisira alors le nombre de retards qui minimise l’un de ces critères d’information. Comme exemple
d’illustration, nous modélisons la série 𝑌𝑡 = (𝑑(log(𝑖𝑛𝑣𝑡 )), 𝑑(log(𝑖𝑛𝑐𝑡 )), 𝑑(log(𝑐𝑠𝑡 ))). Les capture d’écran
vous aiderons à reproduire vous-mêmes la modélisation VAR avec EVIEWS.
18
Bensalma Modélisation VAR
19
Bensalma Modélisation VAR
On sait que le critère de Akaike est asymptotiquement biaisé, alors que les deux autres ne le sont pas. Mais en
petit échantillon, le critère de Akaike a de meilleures propriétés. C’est la raison pour laquelle un modèle
VAR(2) est retenu.
Vector Autoregression Estimates
Date: 12/10/21 Time: 17:07
Sample (adjusted): 1960Q4 1982Q4
Included observations: 89 after adjustments
Standard errors in ( ) & t-statistics in [ ]
Y1 Y2 Y3
20
Bensalma Modélisation VAR
Estimation Proc:
===============================
LS 1 2 Y1 Y2 Y3
VAR Model:
===============================
Y1 = C(1,1)*Y1(-1) + C(1,2)*Y1(-2) + C(1,3)*Y2(-1) + C(1,4)*Y2(-2) + C(1,5)*Y3(-1) + C(1,6)*Y3(-2) + C(1,7)
21
Bensalma Modélisation VAR
̂1 𝑧 − Π
Avec EVIEWS le calcul des inverses des racines de l’équation caractéristique 𝑑𝑒𝑡(𝐼 − Π ̂ 2 𝑧 2 ) = 0,
On voit que les modules des racines inverses sont toutes à l’intérieur du cercle unité donc le modèle est stable
De la même façon que pour les modèles AR, il convient de vérifier que les erreurs correspondant à un bruit
′
blanc. Soit 𝜀̂𝑡 = (𝜀̂1,𝑡 , 𝜀̂2,𝑡 , 𝜀̂3,𝑡 ) le processus d’erreurs et Σ̂𝜀 (ℎ) sa fonction d’autocorrélation. L’hypothèse à
tester est alors
𝐻0 : Σ𝜀 (1) = ⋯ = Σ𝜀 (ℎ).
La statistique Q de Box et Pierce peut alors se généraliser en multi-varié,
ℎ
22
Bensalma Modélisation VAR
Les deux statistiques suivent la même loi de Khi-deux à (𝑛2 (ℎ − 𝑝)) degrés de libertés. On rejette 𝐻0 si
𝑄𝑐𝑎𝑙𝑐𝑢𝑙é (ℎ) > 𝑎𝑢 𝑠𝑒𝑢𝑖𝑙 𝛼 = 0.05 𝑑 ′ 𝑢𝑛𝑒 Khi-deux à (𝑛2 (ℎ − 𝑝)) (test unilatérale à droite).
Par conséquent, l’hypothèse 𝐻0 est acceptée. Noter que 72 = 32 (10 − 2). En plus du test portemanteau, on
peut aussi visualiser, les corrélogrammes simples et croisés des erreurs,
.2 .2 .2
.1 .1 .1
.0 .0 .0
.2 .2 .2
.1 .1 .1
.0 .0 .0
.2 .2 .2
.1 .1 .1
.0 .0 .0
Les matrices estimées Σ̂𝜀 (ℎ) peuvent être obtenues à l’aide d’EVIEWS :
23
Bensalma Modélisation VAR
24
Bensalma Modélisation VAR
avec,
𝑌𝑇+ℎ−𝑖 𝑠𝑖 − (𝑝 − 1) < ℎ − 𝑖 < 0
𝐸(𝑌𝑇+ℎ−𝑖 |𝐼𝑇 ) = {
𝑌̂𝑇 (ℎ − 𝑖) 𝑠𝑖 ℎ − 𝑖 > 0
𝑌𝑇 = 𝜇 + ∑ Ψ𝑖 𝜀𝑇−𝑖 .
𝑖=0
𝑌𝑇+ℎ = 𝜇 + ∑ Ψ𝑖 𝜀𝑇+ℎ−𝑖 .
𝑖=0
Si maintenant on veut prédire 𝑌𝑇+ℎ à partir de la connaissance que nous avons du processus jusqu’en T, les
erreurs 𝜀𝑇+1 , 𝜀𝑇+2 , ⋯ , 𝜀𝑇+ℎ seront inconnues, ce qui fait que,
∞
25
Bensalma Modélisation VAR
∞ ∞
= ∑ Ψ𝑖 𝜀𝑇+ℎ−𝑖
𝑖=0
𝐸(𝑒𝑇 (ℎ)) = 0
ℎ−1
La variance de l’erreur de prévision de chacune des k variables est obtenue sur la diagonale des Σ̂ℎ : l’intervalle
𝛼
de confiance de la prévision au niveau 1 − 2 est donnée par
26
Bensalma Modélisation VAR
L’espérance de l’erreur de prévision est nulle, et sa variance est donnée par Σ̂1 = Σ̂ à horizon 1. A horizon 2,
cette variance est
Σ̂2 = Σ̂1 + Π
̂1 Σ̂Π
̂1′
= Σ̂ + Π
̂1 Σ̂Π
̂1′ .
De façon plus générale, la variance de la prévision à l’horizon ℎ est
Σ̂ℎ = Σ̂ + Π
̂ 1 Σ̂Π
̂1′ + Π
̂12 Σ̂Π
̂12′ + ⋯ + Π
̂1ℎ−1 Σ̂Π
̂1ℎ−1′
Exemple (suite consommation, revenu, investisement) : Calcul des prévisions pour ℎ = 1 et ℎ = 2 pour le
modèle VAR(2) estimé plus haut,
𝑌̂𝑇 (1) = Π
̂0 + Π
̂1 𝑌𝑇 + Π
̂0 + Π
̂ 2 𝑌𝑇−1
Il existe plusieurs définitions de la causalité : causalité au sens de Granger, causalité au sens de Pierce
et Haugh et causalité au sens de Sims. On ne se limitera dans notre cas qu’à la causalité au sens de Granger et
Pierce et Haugh.
1
Sandrine lardic et Valérie mignon macroéconomique et financière ed .economica 2002 page98-99.
27
Bensalma Modélisation VAR
𝑋𝑡 = (𝑥1𝑡 , 𝑥2𝑡 )′ et notons le passé de 𝑥1𝑡 et 𝑥2𝑡 par respectivement 𝑥1𝑡 = {𝑥1𝑡 , 𝑥1,𝑡−1 , ⋯ } et
Selon Granger, la variable 𝑥2𝑡 cause la variable 𝑥1𝑡 , si la connaissance du passé de 𝑥2𝑡 améliore la prévision de 𝑥1𝑡 à
tout horizon. C’est-à-dire :
Le test proposé par Granger pour vérifier la causalité entre deux variables est le suivant :
Avec :
T : nombre d’observations
𝑆𝐶𝑅𝑈 : La somme des carrées des résiduelles dans le modèle non contraint.
Cette statistique F va être comparé avec la valeur de Fisher tabulée F(C, T-K).
28
Bensalma Modélisation VAR
Exemple :
Si on ne tient compte que des résultats les plus significatifs, alors la variable qui est expliquée par la variable LINC est
(LCS). LCS cause LINV. LINV cause LINC.
Dans les applications empiriques, une des principales utilisations des processus VAR réside dans l’analyse
des réponses impulsionnelles. La fonction de réponse impulsionnelle représente l’effet d’un choc d’une
innovation sur les valeurs courantes et futures des variables endogènes. Un choc sur la ième variable peut
affecter directement cette ième variable, mais il se transmet également à l’ensemble des autres variables au
travers de la structure dynamiques du VAR. Comme illustration, considérons un modèle VAR d’ordre un sans
constante suivant :
𝑦1,𝑡 0.7 0.1 𝜀1,𝑡
𝑌𝑡 = (𝑦 ) = ( ) 𝑌𝑡−1 + (𝜀 ) , 𝑡 ∈ ℤ+
2,𝑡 0.6 0.25 2,𝑡
0 0
Comme Π0 = ( ), alors 𝐸(𝑌𝑡 ) = ( ). On veut analyser l’effet d’un choc à l’instant 𝑡 = 0. On impose un
0 0
𝜀1,𝑡 0
choc unitaire à l’erreur associée à 𝑦1,𝑡 , c’est-à-dire 𝜀1,0 = 1 et 𝜀2,𝑡 = 0 et (𝜀 ) = ( ) , ∀𝑡 ≠ 0.
2,𝑡 0
On a alors,
Les chiffres en rouge représentent l’évolution du choc unitaire sur 𝜀1,0 , au cours du temps, sur la variable 𝑦1,𝑡 .
Les chiffres en bleu représentent l’évolution du choc unitaire sur 𝜀1,0 , au cours du temps, sur la variable 𝑦2,𝑡
La représentation graphique de cette évolution se présente comme suit :
30
Bensalma Modélisation VAR
1.0
0.8
0.6
0.4
0.2
0.0
0 1 2 3 4 5 6 7 8 9 10 11
.7
.6
.5
.4
.3
.2
.1
.0
0 1 2 3 4 5 6 7 8 9 10 11
Si, plutôt, on choisissait d’imposer le choc unitaire à 𝜀2,𝑡 , l’impact de cette impulsion, après t périodes, serait
la deuxième colonne de la matrice Π1𝑡 .
Les coefficients de la forme 𝑀𝐴(∞) vont donner la suite des réponses impulsionnelles du système à un choc
unitaire sur les innovations du processus, car
𝜕 𝑌𝑡+ℎ
= Ψℎ = Π1ℎ
𝜕𝜀𝑡
Cette manière de calculer les réponses impulsionnelles, décrite ci-dessus n’est valable que si la matrice de
variance covariance Σ est diagonale. Si 𝜀1,𝑡 et 𝜀2,𝑡 sont fortement corrélés, un choc sur 𝜀1,𝑡 sera forcément
accompagné par un choc sur 𝜀2,𝑡 .
31
Bensalma Modélisation VAR
Supposons maintenant matrice de variance covariance Σ n’est pas diagonale. Si 𝜀1,𝑡 et 𝜀2,𝑡 sont fortement
corrélés, un choc sur 𝜀1,𝑡 sera forcément accompagné par un choc sur 𝜀2,𝑡 . Considérons maintenant la
décomposition de Σ en :
Σ = ΡΡ ′
Il s’agit de la décomposition de Choleski d’une matrice où P est une matrice triangulaire supérieure avec ses
éléments diagonaux positifs. On peut alors réécrire la forme 𝑀𝐴(∞) en :
∞ ∞ ∞
Où 𝐶𝑖 = Ψ𝑖 Ρ et 𝜔𝑡 = Ρ −1 𝜀𝑡−𝑖 . Il est facile de vérifier que les 𝜔𝑡 ont une matrice de variance covariance égale
à la matrice identité. Les colonnes de 𝐶𝑖 représenteront la réponse du système par rapport à un choc
indépendant et normalisé sur l’innovation d’une variable après i périodes.
Exemple
Soit 𝑢𝑡 et 𝜀𝑡 deux bruit blancs gaussiens bi-varié tel que :
′
𝑢𝑡 = (𝑢1,𝑡 , 𝑢2,𝑡 )
et
1 1
1 𝑢 𝑢1,𝑡 + 𝑢2,𝑡
𝜀𝑡 = ( 3 )(
1,𝑡
)=( 3 )
1 1 𝑢2,𝑡 1 1
𝑢 + 𝑢
2 4 2 1,𝑡 4 2,𝑡
Exemple : Soit 𝑦1,𝑡 = 𝑑(log(𝑖𝑛𝑣𝑡 )), 𝑦2,𝑡 = 𝑑(log(𝑖𝑛𝑐𝑡 )), 𝑦3,𝑡 = 𝑑(log(𝑐𝑠𝑡 )) de l’exemple précèdent :
Y1 Y2 Y3
33
Bensalma Modélisation VAR
𝑌𝑡 = 𝜇 + ∑ Ψ𝑗 𝜀𝑡−𝑗
𝑗=0
Soit Σ𝜀 = ΡΡ ′ la décomposition de Cholesky de la matrice de variance covariance des résidus. On peut alors
réécrire la forme 𝑉𝑀𝐴(∞) en :
∞ ∞ ∞
−1
𝑌𝑡 = 𝜇 + ∑ Ψ𝑖 𝜀𝑡−𝑖 = 𝜇 + ∑ Ψ𝑖 ΡΡ 𝜀𝑡−𝑖 = 𝜇 + ∑ 𝐶𝑖 𝜔𝑡−𝑖 .
𝑖=0 𝑖=0 𝑖=0
Où 𝐶𝑖 = Ψ𝑖 Ρ et 𝜔𝑡 = Ρ −1 𝜀𝑡−𝑖 .
𝑗 𝑗 𝑗
𝑐11 𝑐12 ⋯ 𝑐1𝑛 𝜔1,𝑡−𝑗
∞
𝑗 𝑗 𝑗 𝜔2,𝑡−𝑗
𝑌𝑡 = 𝜇 + ∑ 𝑐21 𝑐22 ⋯ 𝑐2𝑛 ( ⋮ ).
𝑗=0
⋮ ⋮ ⋮ ⋮
𝑗 𝑗 𝑗 𝜔𝑛,𝑡−𝑗
(𝑐𝑛1 𝑐𝑛2 ⋯ 𝑐𝑛𝑛 )
L’erreur de prévision à l’horizon h est donnée par l’expression suivante :
𝑗 𝑗 𝑗
𝑦1,𝑡+ℎ − 𝑦1,𝑡 (ℎ) 𝑐11 𝑐12 ⋯ 𝑐1𝑛 𝜔1,𝑡+ℎ−𝑗
𝑗 𝑗 𝑗 𝜔2,𝑡+ℎ−𝑗
𝑦2,𝑡+ℎ − 𝑦2,𝑡 (ℎ) ℎ−1 𝑐21 𝑐22 ⋯ 𝑐2𝑛
⋮ ⋮
𝑌𝑡+ℎ − 𝑌𝑡 (ℎ) = = ∑ ⋮𝑗 ⋮ ⋮
𝑦𝑖,𝑡+ℎ − 𝑦𝑖,𝑡 (ℎ) 𝑐𝑖1
𝑗
𝑐𝑖2 ⋯
𝑗
𝑐𝑖𝑛 𝜔𝑖,𝑡+ℎ−𝑗
𝑗=0
⋮ ⋮ ⋮ ⋯ ⋮ ⋮
(𝑦𝑛,𝑡+ℎ − 𝑦𝑛,𝑡 (ℎ)) 𝑗 𝑗 𝑗 (𝜔𝑛,𝑡+ℎ−𝑗 )
(𝑐𝑛1 𝑐𝑛2 𝑐𝑛𝑛 )
𝑗 𝑗 𝑗 𝑗
𝑐11 𝜔1,𝑡+ℎ−𝑗 + 𝑐12 𝜔2,𝑡+ℎ−𝑗 + ⋯ +𝑐1𝑖 𝜔𝑖,𝑡+ℎ−𝑗 + ⋯+ 𝑐1𝑛 𝜔𝑛,𝑡+ℎ−𝑗
𝑗 𝑗 𝑗 𝑗
ℎ−1 𝑐21 𝜔1,𝑡+ℎ−𝑗 + 𝑐22 𝜔2,𝑡+ℎ−𝑗 + ⋯ +𝑐2𝑖 𝜔𝑖,𝑡+ℎ−𝑗 + ⋯ + 𝑐2𝑛 𝜔𝑛,𝑡+ℎ−𝑗
=∑ ⋮ .
𝑗 𝑗 𝑗 𝑗
𝑗=0
𝑐𝑖1 𝜔1,𝑡+ℎ−𝑗 + 𝑐𝑖2 𝜔2,𝑡+ℎ−𝑗 + ⋯ +𝑐𝑖𝑖 𝜔𝑖,𝑡+ℎ−𝑗 + ⋯ + 𝑐𝑖𝑛 𝜔𝑛,𝑡+ℎ−𝑗
⋮
𝑗 𝑗 𝑗 𝑗
(𝑐𝑛1 𝜔1,𝑡+ℎ−𝑗 + 𝑐𝑛2 𝜔2,𝑡+ℎ−𝑗 + ⋯ +𝑐𝑛𝑖 𝜔𝑖,𝑡+ℎ−𝑗 + ⋯ + 𝑐𝑛𝑛 𝜔𝑛,𝑡+ℎ−𝑗 )
34
Bensalma Modélisation VAR
0 1 𝑗 ℎ−1
= ∑𝑛𝑘=1(𝑐𝑖𝑘 𝜔1,𝑡+ℎ + 𝑐𝑖𝑘 𝜔2,𝑡+ℎ−1 + ⋯ +𝑐𝑖𝑘 𝜔𝑖,𝑡+ℎ−𝑗 + ⋯ + 𝑐𝑖𝑘 𝜔𝑛,𝑡+1 ).
Exemple : Soit 𝑦1,𝑡 = 𝑑(log(𝑖𝑛𝑣𝑡 )), 𝑦2,𝑡 = 𝑑(log(𝑖𝑛𝑐𝑡 )), 𝑦3,𝑡 = 𝑑(log(𝑐𝑠𝑡 )) de l’exemple précèdent :
35
Bensalma Modélisation VAR
Variance
Decompositi
on of Y_INV:
Period S.E. Y_INV Y_INC Y_CS
Variance
Decompositi
on of Y_INC:
Period S.E. Y_INV Y_INC Y_CS
VarianceDe
composition
of Y_CS:
Period S.E. Y_INV Y_INC Y_CS
80
60
40
20
0
1 2 3 4 5 6 7 8 9 10
37
Bensalma Modélisation VAR
80
60
40
20
0
1 2 3 4 5 6 7 8 9 10
80
60
40
20
0
1 2 3 4 5 6 7 8 9 10
38
Bensalma Modélisation VAR
39
Référence bibliographiques
40