Modèles à Équations Simultanées
Modèles à Équations Simultanées
1 Introduction
Dans les modèles de régression à équation unique, la variable dite dépendante Y
est exprimée comme fonction linéaire d’une ou plusieurs variables explicatives
X.
Dans ces modèles, une hypothèse implicite est, qu’une relation de cause à
e¤et si elle existe, entre Y et les X est unidirectionnelle: les variables explicatives
sont la cause et la variable dépendante, l’e¤et.
Toutefois, il existe des situations où apparaît une situation à double sens
entre les variables économiques. Une variables en a¤ecte une autre qui, en
retour, est a¤ectée par la première.
Ainsi, sur la régression de la monnaie M sur le taux d’intérêt r, on suppose
implicitement que le taux d’intérêt est …xé (par exemple par la Banque Cen-
trale) et on tente de dégager la demande de monnaie aux variations du taux
d’intérêt. Mais qu’en est-il si le taux d’intérêt dépend de la demande de mon-
naie ? Dans ce cas, l’analyse de régression conditionnelle menée jusqu’alors peut
être inappropriée car r dépend de M et M dépend de r. Il faut donc considérer
deux équations, l’une reliant r à M et l’autre, reliant M à r.
Ceci nous conduit à examiner des modèles à équations simultanées dans
lesquelles il y a plus d’une équation de régression, une par variable interdépen-
dante. La méthode des moindres carrés ordinaire, M CO est généralement in-
applicable pour l’estimation des paramètres de chaque équation du modèle.
1
Les hypothèses classiques sont:
1. E("d;t j xt ) = E("o;t j xt ) = 0
2. E("2d;t j xt ) = 2
d; E("2o;t j xt ) = 2
o, absence d’hétéroscédasticité (2.2)
3. E("d;t "o;t j xt ) = E("d;t xt ) = E("o;t xt ) = 0
1 2 1 "d;t 1 "o;t
qt = xt + = 2 xt + v2;t
1 1 1 1
1 6= 1
2 2
Ainsi, cov(pt ; "d;t ) = d
1
; cov(pt ; "o;t ) = o
1
1 1
Les hypothèses du modèle de régression linéaire classique ne sont donc pas
satisfaites. Les paramètres ne peuvent plus être estimés de façon convergente
par la régression de q sur x et p.
De façon claire
2 "d;t "o;t
cov(pt ; "d;t ) = cov( xt + ; "d;t ) (2.4)
1 1 1 1
2 1
= cov(xt ; "d;t ) + cov("d;t "o;t ; "d;t )
1 1 1 1
2
d
= 0+
1 1
2
3 Variable instrumentale et estimation des moin-
dres carrés en deux étapes
Considérons le modèle classique:
0
yt = xt + "t ; t = 1; :::; T (3.1)
k k
xt 2 R ; 2R
0
Si on pose Y = (y1 ; :::; yT ) et X 0 = [x1 ; :::; xT ] le modèle (3.1) s’écrit
Y =X +"
0
où " = ("1 ; :::; "T )
Les hypothèses classiques supposent, en particulier que E("t j xt ) = 0; t =
1; :::; T
Supposons que
E("t j xt ) = t 6= 0 (3.2)
Cette hypothèse signi…e que les régresseurs et les perturbations sont corrélés
et donc, que les régresseurs contiennent de l’information sur l’espérance des
perturbations. Ceci implique que:
E(xt "t ) = 6= 0Rk (3.3)
Si le processus fxt ; t 2 Zg est stationnaire et ergodique, on a
1 PT 1
p lim xt "t = p lim X 0 " = (3.4)
T !+1 T t=1 T !+1 T
3
0
X0X
où Qxx = E(xt xt ) = p lim T , puisque le processus fxt ; t 2 Zg est
T !+1
stationnaire et ergodique.
L’estimateur des moindres carrés a perdu ses qualités. Dans ce cas, s’impose
une autre méthode d’estimation: la méthode de la variable instrumentale qui
est plus générale que la méthode des moindres carrés ordinaire. Il s’agit d’une
généralisation de la stratégie d’estimation développée dans le cas de la régression
classique. Dans le modèle (3.1), les variables k dimensionnelles xt ; t = 1; :::; T
peuvent être corrélées avec "t ; t = 1; :::; T .
Supposons qu’il existe un ensemble de variables L dimensionnelles, z t ; L
k telles que E("t j z t ) = 0, mais E(ztl xtj ) 6= 0; l = 1; :::; L; j = 1; :::; k, ou encore
0 0
E(z t xt ) = Qzx 6= OL k (la matrice nulle) et E(z t z t ) = Qzz …nie (i:e:; de norme
…nie) et indépendante de t.
Sous l’hypothèse de stationnarité et d’ergodicité, on peut écrire:
Z0Z
p lim T = Qzz matrice symétrique supposée dé…nie positive et …nie,
T !+1
0
Z = [z 1 ; :::; z T ]
Z0X
p lim T = Qzx matrice …nie d’ordre L k et de rang k.
T !+1
Z0"
p lim T = 0RL .
T !+1
4
4 Notation générale pour les modèles à équa-
tions simultanées linéaires
La forme structurelle du modèle est:
5
Pour que cette solution existe, doit être non singulière, i:i:; 1 existe.
Hypothèses sur les perturbations structurelles
On suppose qu’elles sont régies par une loi de probabilité M variée avec
E("t j xt ) = 0RM (4.4a)
et 0
E("t "t j xt ) = M M (4.4b)
On suppose, dans un premier temps, que
0
E("t "s j xt ; xs ) = 0RM RM ; t 6= s
Il s’ensuit que, les perturbations v t de la forme réduite (4.3) sont telles que:
0
1 1 0
E(v t j xt ) = E( "t j xt ) = ( ) E("t j xt ) = 0RM
0
1 0 1
E(v t v t j xt ) = ( ) = M M
Donc = 0
Si on regroupe toutes les observations, pour t = 1; :::; T , on obtient
2 0 0 0 3
y 1 x1 "1
6 y 0 x0 "0 7
6 2 2 27
6 . .. .. 7
6 . 7
[Y X ] = 6 . . . 7
6 . .. .. 7
6 . 7
4 . . . 5
0 0 0
y T xT "T T (2M +K)
6
1
b = (X 0 X) 1 X 0X X 0Y
X 0Y =
T T
et
1
X 0X X 0Y
= p lim p lim
T T
Cette estimateur correspond à la régression classique, équation par équation, de
Y en X.
1
Y 0Y Y 0X X 0X X 0Y
= p lim p lim
T T T T
Donc, pour la forme réduite, et peuvent être estimées de façon convergente
par la régression des moindres carrés de Y sur X.
Les coe¢ cients de la forme réduite peuvent être estimés directement. Si on
ignore la façon dont ils ont été dérivés, le système
0 0 0
y t = xt + v t ; t = 1; :::; T
apparaît simplement comme un modèle linéaire dans lequel les erreurs sont
centrées et ont une matrice de covariance. Etant donnés des estimateurs des
paramètres, on peut calculer des prévisions pour des valeurs futures de y t .
Pourquoi a-t-on besoin de méthodes pour estimer la forme structurelle ?
Il y a deux raisons :
Les restrictions ont aussi des implications sur la prévision. Si des restrictions
sont faites dans la forme structurelle, la forme réduite les subira aussi.
La question clé est la suivante : Peut-on maintenant, déduire les paramètres
structurels à partir de la forme réduite ?
La correspondance entre les paramètres est
= B 1; B =
= ( 1 )0 1
; = 0
7
5 Le problème de l’identi…cation
Plusieurs structures peuvent correspondre à la même forme réduite. Quelle
serait donc la vraie structure ?
Supposons que la ’vraie’structure soit ( ; B; ). Examinons une autre struc-
ture ( e ; B;
e e ) telle que Y e + X B
e = e avec e = F; Be = BF;e = F où F est
une matrice d’ordre M M arbitraire et non singulière. Alors
e = Be e 1 = BF F 1 1
= B 1
=
e = e 0 e e () e = ( e 0 ) 1ee 1
=( 1 0
) (F 1 0
) F0 FF 1 1
=( 1 0
) 1
=
8
4) Déduire donc, les solutions uniques pour les paramètres structurels en
fonction des paramètres de la forme réduite. Le modèle est identi…é.
Remarque 7 L’identi…cation peut être fondée sur une autre information hors
échantillon. C’est lorsqu’on connait les valeurs de certains paramètres.
Remarque 8 L’identi…cation peut être fondée sur des restrictions sur la co-
variance : le modèle récursif complet :
0
y1t = x
1 t
+ "1t
0
y2t = 12 y1t + x
2 t
+ "2t
..
.
0
yM t = 1M y1t + 2M y2t + ::: + M 1;M yM 1;t + x
M t
+ "M t
t = 1; :::; T
La première équation est déjà identi…ée, car elle est sous la forme réduite, la
1ère variable endogène ne dépendant que de variables exogènes. La 2ème variable
endogène y2 dépend de la valeur courante de y1 mais il n’y a pas de ’feedback’
instantané de y2 vers y1 . Il en est de même des autres variables endogènes. Si
est diagonale, l’ensemble du modèle sera identi…é. On pourra montrer que
toute fausse structure résultant d’une transformation de matrice F est telle que
F = IM .
Remarque 9 Les conditions d’ordre sont des conditions nécessaires pour l’identi…cation
du modèle. Les conditions de rang sont des conditions nécessaires et su¢ santes.
Elles seront développées.
6 Méthodes d’estimation
Il est possible d’estimer, de façon convergente, les paramètres de la forme ré-
duite, et , par la méthodes des moindres carrés ordinaires. Sauf pour la
prévision de y sachant x, ces paramètres n’ont, généralement pas d’intérêt, con-
trairement à ; B et :
9
6.1.1 Moindres carrés ordinaires
Pour les T observations, les termes non nuls de la j eme équation sont
y j = Yj j
+ Xj j
+ "j = Zj j + "j
0 1
! yj1
B yj2 C
j B C
où Zj = [Yj Xj ] et j = et y j = B .. C ; j = 1; :::; M .
j @ . A
yjT
Les M équations de la forme réduite sont Y = X + V . Pour les variables
endogènes incluses, Yj , les formes réduites sont les Mj colonnes de et de
1
V = : Yj = X j + Vj .
Calculons l’estimateur des MCO de j
b = (Zj0 Zj ) 1
Zj0 y j
j
= (Zj0 Zj ) 1
Zj0 (Zj
j + "j )
0 1 0
= j + (Zj Zj ) Zj "j
0 0
! 1
Yj Yj Yj Xj Yj0 "j
= + 0 0
j
Xj Yj Xj Xj Xj0 "j
On a p lim( T1 Xj0 "j ) = 0 et p lim( T1 Yj0 "j ) 6= 0. bj n’est pas un estimateur conver-
gent. C’est le biais de simultanéité des moindres carrés.
Cas particulier : le système récursif
0
y1t = x
1 t
+ "1t
0
y2t = 12 y1t + x
2 t
+ "2t
..
.
0
yM t = 1M y1t + 2M y2t + ::: + M 1;M yM 1;t + x
M t
+ "M t
t = 1; :::; T
10
convergents. Soit Wj une matrice T (Mj + Kj ) qui satisfait les conditions
d’un estimateur V.I.
1
p lim( Wj0 Zj ) = wz matrice …nie régulière
T
1
p lim( Wj0 "j ) = 0
T
1
p lim( Wj0 Wj ) = ww matrice symétrique dé…nie positive.
T
L’estimateur V.I.
b = (Wj0 Zj ) 1
Wj0 y j
j;V:I
Zj bj;V:I ) (y j Zj bj;V:I )
0
(y j
bjj =
T
b = 0 Yj Xj
j;2SLS
Xj Xj0 y j
! 1 !
Ybj Yj Ybj Xj Ybj0 y j
0 0
0 0
Xj Yj Xj Xj Xj0 y j
Xj0 ) Xj Yj = Xj Ybj , Ybj Yj = Yj0 P Ybj = Yj0 P P Yj = Ybj Ybj . D’où bj;2SLS =
0 0 0 0
11
! 1 !
Ybj Ybj Ybj Xj Ybj0 y j
0 0
\
Un estimateur de la variance asymptotique est Asy:V ar(bj;2SLS ) = bjj (Z
b0 Z
b
j j)
1
où
(y j Zj bj;2SLS ) (y j Zj bj;2SLS )
0
bjj =
T
12
7.1 Moindres carrés en trois étapes (M C3)
Rappelons qu’une méthode pour obtenir les instruments est de projeter la vari-
able (le vecteur) corrélée avec le bruit sur le sous espace engendré par la variable
exogène (le vecteur des variables exogènes).
Considérons donc les instruments
0b 1
Z1 O O
B .. C
BO Z b2 . C
b 0 1 0 0 1 0
W = Z = diag(X(X X) X Z1 ; :::; X(X X) X ZM ) = B . B C
. C
@ .. . . O A
O O bM
Z
b doit véri…er
Bien entendu Z
1 b0 1
p lim( Z ( IT )" = 0RM T
T
et
1 b0 1
p lim( Z ( IT )Z 6= 0RM T MT
| T {z }
m atrice non singulière
13
7.2 Maximum de vraisemblance à information complète
Hypothèse: Les perturbations suivent la loi normale. Pour écrire la fonction
de log vraisemblance, on considère la forme réduite
Y =X +V
0 1
v 01
B C
où V = @ ... A.
v 0T
T 1
log(L) = M log(2 ) + log j j + trace( W)
2
où wij = T1 (Y X 0i )0 (Y X 0j ) où 0j est la j eme colonne de .
On maximise cette fonction sous contraintes de toutes les restrictions induites
par la structure du modèle. On substitue = B 1 et = ( 1 )0 1
.
Ainsi
T 1
log(L) = M log(2 ) + log ( 1 )0 1
+ trace( A)
2 T
0
1 1 0 1
où A = (Y + XB ) (Y + XB ).
T 1 0 1 T
2 log ( ) = 2 log j j + T log j j
0 0
1 0
(Y + XB ) = Y 0 + B0X 0
1 0
(Y +XB) (Y +XB)
trace( 1 W ) = trace( T ) = trace( 1 S) où S =
1
(sij )i;j=1;:::;M et sij = T (Y i + XBi )0 (Y j + XBj ) et trace( 1 S) =
P
M P M
ij P
M PM
trace( sji ) = T1 ij
(y j Yj j Xj j )0 (y i Yi i Xi i ).
i=1 j=1 i=1 j=1
| {z }
cii
7.3 Estimation M M G
Conditions d’orthogonalité
0
E(xt "jt ) = E(xt (yjt zjt j )) = 0
14
1
P
T
0 jl
e j) =
où m( T (xt (yjt zjt j )). W est le j; l eme élément de la matrice
t=1
1
W , matrice de pondération optimale obtenue comme la matrice de covariance
asymptotique des moments
0 empiriques
1 e j ).
m(
e 1)
m(
B C p
e ) = @ ... A, alors le j; l eme bloc de Asy:V ar( T m(
si on pose m( e ))
e
m( M)
est
1 PT
jl = p lim( x x0 (yjt 0
zjt j )(ylt
0
zlt l)
T t=1 t t
X 0X
= ij p lim( )
T
ceci car "jt est non corrélé avec la variable exogène (j = 1; :::; M ) et les erreurs
sont supposées homoscédastiques. La fonction critère pour l’estimation M M G
(la méthode des moments généralisés) est
0 10 0 1 1 0 1
X 0 (y 1 Z1 1 )=T 11 1M X 0 (y 1 Z1 1 )=T
B .. C B .. .. C B .. C
q=@ . A @ . . A @ . A
X 0 (y M ZM M )=T M1 MM X 0 (y M ZM M )=T
15