Vectores Autoregresivos (VAR)
Facultad de Ciencias Empresariales y Económicas
Universidad de Lima
José Luis Nolazco*
Segunda Versión, Junio 2020
*
jnolazco@[Link]
1
1. Introducción
Lucas (1976) criticó a la econometrı́a clásica, en especial al modelo de
ecuaciones simultáneas, dos aspectos. Primero, se asume que la clasifica-
ción entre variables endógenas y exógenas supone una decisión arbitraria,
lo cual no es correcto en la teorı́a económica. Segundo, no es posible su-
poner que los coeficientes del modelo de ecuaciones simultáneas son in-
dependientes de los cambios en las variables exógenas, toda vez que los
agentes que maximizan las utilidades perciben el cambio inminente, y de
acuerdo a esto modificarán su conducta.
Sims (1980) argumentó que en muchos casos las restricciones que se
imponen a la forma reducida para identificar los parámetros de la forma
estructural no son comprobables por ser arbitraria la clasificación de va-
riables endógenas y exógenas. Sims sugiere como alternativa, los Vectores
Autorregresivos (VAR), como una generalización del modelo AR en múlti-
ples ecuaciones. Por lo tanto, la principal distinción entre la metodologı́a
VAR y los modelos de ecuaciones simultáneas son los siguientes:
No hay distinción a priori entre variables endógenas y variables exóge-
nas.
No se imponen restricciones de exclusión.
No se plantea una referencia estricta a la teorı́a económica en la
especificación del modelo.
Los modelos VAR aparecen como respuesta a la crı́tica de Lucas, don-
de todas las series del sistema de ecuaciones son consideradas endógenas1 .
Además, cada variable está en función de los valores rezagados de la mis-
ma y del resto de series, considerando varias fuentes de choques como la
generadoras de fluctuaciones. Consideremos el siguiente sistema bivariado:
1
Si al modelo se incluye variables estrictamente exógenas se denomina VARX. Las variables exógenas
usualmente utilizadas son el intercepto, dummies temporales, una tendencia, algunas variables que sean
teóricamente exógenas, entre otros.
2
yt = b10 − b12 πt + γ11 yt−1 + γ12 πt−1 + yt (1)
πt = b20 − b21 yt + γ21 yt−1 + γ22 πt−1 + πt (2)
donde yt sea la brecha producto y πt la inflación. Hay varias caracterı́sti-
cas de este modelo que vale la pena resaltar, primero, la dinámica tanto
de la inflación como del producto dependen ahora de los valores pasados y
presentes tanto de la inflación como de la brecha producto. Segundo, cada
variable depende de todas las fuentes de fluctuaciones o choques (también
llamados shocks o innovaciones) que son yt y πt .
Supuesto 1 Para estimar (1) y (2) se considera que: (i) todas las varia-
bles (en este caso yt y πt ) son estacionarias; (ii) yt y πt son choques o
innovaciones cuya caracterı́stica es que son ruido blanco con desviacio-
nes estándar σy y σπ , respectivamente; y (iii) yt y πt no se encuentran
correlacionados.
Las expresiones (1) y (2) constituyen un VAR de orden 1 en su forma
estructural, SVAR(1), dado que el rezago máximo en las variables yt y πt
es 1. La interpretación de los coeficientes es la siguiente. Por ejemplo, b12
es el efecto contemporáneo de un cambio unitario de πt sobre yt , y γ21 el
efecto de un cambio unitario en yt−1 sobre πt . Si b21 no es cero, yt tiene
un efecto contemporáneo indirecto sobre πt , y si b12 no es igual a cero, πt
tiene un efecto contemporáneo indirecto sobre yt .
Las expresiones (1) y (2) no presentan un VAR en su forma reducida
dado que yt tiene un efecto contemporáneo sobre πt , y este último sobre yt .
Afortunadamente, es posible transformar el sistema hacia una forma más
usada (reducida). Usando álgebra matricial, se puede escribir el sistema
como un VAR(1):
1 b12 yt b10 γ11 γ12 yt−1
= + + yt
b21 1 πt b20 γ21 γ22 πt−1 πt
ó
BXt = Γ0 + Γ1 Xt−1 + t (3)
3
1 b12 yt b10 γ11 γ12
donde: B = , Xt = , Γ0 = , Γ1 = ,
b21 1 πt b20 γ21 γ22
t = yt
πt
Pre-multiplicando por B −1 la expresión (3) permite obtener la especi-
ficación del VAR(1) en su forma estndar (reducida):
Xt = A0 + A1 Xt−1 + et (4)
donde: A0 = B −1 Γ0 , A1 = B −1 Γ1 , et = B −1 t . Para propósitos de
notación, se puede definir a ai0 como el elemento i del vector A0 , aij como
el elemento en la fila i y columna j de la matriz A1 , y eit como el elemento i
del vector et . Usando esta notación, se puede re-escribir (4) en la siguiente
forma:
yt = a10 + a11 yt−1 + a12 πt−1 + e1t (5)
πt = a20 + a21 yt−1 + a22 πt−1 + e2t (6)
Por lo tanto, el sistema (1)-(2) ó (3) representa el VAR estructural
(SVAR) o sistema primitivo de orden 1. Tal como mencionamos anterior-
mente, ahı́ se tiene el efecto contemporáneo de cada una de las variables
de análisis. El sistema (4) ó (5)-(6) es el VAR reducido, donde no aparece
el efecto contamporáneo. Además, es importante notar que los errores (es
decir, e1t y e2t ) están compuestos por los shocks yt y πt .
Dado que et = B − 1t , se tiene que e1t y e2t están representados de la
siguiente manera:
e1t = (yt − b12 πt )/(1 − b12 b21 ) (7)
e2t = (πt − b21 yt )/(1 − b12 b21 ) (8)
donde yt y πt son ruido blanco (ver Supuesto 1), por ello e1t y e2t tie-
nen media cero y varianza constante, y no se encuentran correlacionadas
individualmente.
4
Para encontrar las propiedades de e1t se analiza sus primeros momen-
tos. Aplicando valor esperado a (7):
Ee1t = E(yt − b12 πt )/(1 − b12 b21 ) = 0
La varianza de e1t esta dado por:
Ee21t = E[(yt − b12 πt )/(1 − b12 b21 )]2 = (σy2 + b212 σπ2 )/(1 − b12 b21 )
Finalmente, covarianza de e1t y e1t−i son:
Ee1t e1t−i = E[(yt − b12 πt )(yt−i − b12 πt−i )]/(1 − b12 b21 )]2 = 0 ∀ i6= 0.
Por lo tanto la media, varianza y covarianza de e1t son independientes
del tiempo. Similarmente, (8) puede ser usar para demostrar que e2t es
un proceso estacionario con media cero, varianza constante y covarianza
igual a 0 (demostrar). Sin embargo, algo muy importante a tener en
cuenta es que e1t y e2t se encuentran correlacionados. La covarianza
de los dos términos es:
Ee1t e2t = E[(yt −b12 πt )(πt −b21 yt )]/(1−b12 b21 )2 = −(b21 σy2 +b12 σπ2 )/(1−b12 b21 )2
(9)
De (9) se observa que la correlación entre e1t y e2t no es cero. En el
caso especial donde b12 = b21 = 0 (es decir, no existe efectos con-
temporáneos de yt sobre πt y πt sobre yt ) los shocks no estarán
correlacionados. Por lo tanto, es util definir la matriz de varianzas y
covarianzas de los shocks e1t y e2t como:
2
var(e1t ) cov(e1t , e2t ) σ1 σ12
Σ= =
cov(e1t , e2t ) var(e2t ) σ21 σ22
Donde var(eit ) = σi2 y σ21 = σ12 . Asimismo, todos los elementos de Σ
son independientes del tiempo (observe el cálculo de los primeros momen-
tos de e1t y e2t ). Algo muy importante a tener en cuenta es que
Σ en este caso es una matriz 2x2 debido a que el VAR reduci-
5
do de orden 1 analizado esta compuesto por 2 variables: brecha
producto e inflación. Ası́, si existieran m variables (y por ende m ecua-
ciones), Σ esta denotado de la siguiente manera:
2
σ1 σ12 ... σ1m
σ21 σ22 ... σ2m
Σ= ... ... ... ...
2
σm1 σm2 ... σm
2. Estabilidad y Estacionariedad del VAR
El VAR de orden p, VAR(p), esta escrito de la siguiente manera (con-
siderando m variables):
Xt = A0 + A1 Xt−1 + A2 Xt−2 + ... + Ap Xt−p + et (10)
Por lo tanto, un VAR(p) es estacionario si:
1. El valor esperado de Xt no depende del tiempo t:
µ1
µ2
E(Xt ) = E(Xt+j = µ) =
...
µm
2. La covarianza entre Xt y Xt+j depende de la distancia j y no del
tiempo t: [(Xt − µ)(Xt+j − µ)0 ] = [(Xs − µ)(Xs+j − µ)0 ] = γj
3. Dado que estabilidad implica estacionariedad, la condición de esta-
bilidad es frecuentemente referido a una condición de estacionaridad
en la literatura de series de tiempo. Usando el VAR(p) se tiene lo
siguiente:
Xt = A0 + A1 Xt−1 + A2 Xt−2 + ... + Ap Xt−p + et
(Im − A1 L − A2 L2 − ... − Ap Lp )Xt = A0 + et
A(L)Xt = A0 + et
6
donde A(L) es el polinomio caracterı́stico de rezagos. Para que Xt
sea estable, y por ende estacionario, A(L) tiene que ser invertible.
4. Por lo tanto, el VAR(p) es estable si todas las i = m ∗ p raı́ces del
polinomio caracterı́stico están (en valor absoluto) fuera del circulo
unitario. Es decir, si el det(Im − A1 L − A2 L2 − ... − Ap Lp ) = 0 les
muestra que | Li |> 1 o su inversa | λi |< 1. En este caso λi son las
raı́ces (eingevalue) del polinomio caracterı́stico.
Si el VAR(p) es estable, el vector Xt puede ser expresado como la suma
de todos los shocks et (que son ruido blanco). Esto significa que se puede
expresar un VAR(p) a un Vector de medias moviles de orden infinito (es
decir, VMA(∞)):
A(L)Xt = A0 + et
Xt = A(L)−1 A0 + A(L)−1 et
Xt = µ + A(L)−1 et
Xt = µ + (Im + A1 L + A2 L2 + ... + Ap Lp )et (11)
donde (11) representa un VMA(∞).
Ejemplo: Caso VAR(1). Supongamos que tenemos las mismas variables
descritas anteriormente, las cuales se han estimado a través de la siguiente
forma reducida:
yt = 0,6yt−1 − 0,3πt−1 + e1t (12)
πt = −0,3yt−1 + 0,6πt−1 + e2t (13)
Estas ecuaciones pueden trabajarse más fácilmente a través de matri-
ces:
yt 0,6 −0,3 yt−1 e
= + 1t
πt −0,3 0,6 πt−1 e2t
o también:
7
Xt = A1 Xt−1+ et
0,6 −0,3 yt yt−1 e
donde A1 = , Xt = , Xt−1 = , et = 1t
−0,3 0,6 πt πt−1 e2t
¿Cómo determinamos si el VAR(1) es estable? Despejando la expre-
sión anterior: (I − A1 L)Xt = et , analizamos el determinante de la matriz
(I − A1 L) e igualamos a cero:
|I − A1 L| = 0
1 0 0,6L −0,3L
| − |=0
0 1 −0,3L 0,6L
1 − 0,6L 0,3L
=0
0,3L 1 − 0,6L
Hallando la determinante:
|I − A1 L| = (1 − 0,6L)2 − (0,3L)2 = 0
|I − A1 L| = 0,272 − 1,2L + 1 = 0
L1 = 1,11 > 1, L2 = 3,33 > 1. Dado que las raı́ces del polinomio están
fuera del circulo unitario, el VAR(1) es estable.
3. Estimación
Sea el VAR de orden p, VAR(p) considerando m variables:
Xt = A0 + A1 Xt−1 + A2 Xt−2 + ... + Ap Xt−p + et (14)
donde:
Xt = es un vector mx1 de m variables incluidas en el VAR.
A0 = es un vector mx1 de interceptos.
Ai = es una matriz de coeficientes de dimensión mxm.
et = es un vector mx1 de errores.
Las variables a ser incluidas en el VAR son seleccionadas acorde a
un modelo económico relevante. Pruebas de rezago óptimo (a discutirse
luego) ayudan a definir ello. No obstante, un tema importante y que se
puede analizar en (14) es el número de parámetros a estimar. La matriz
8
A0 contiene m términos y cada matriz Ai contiene m2 coeficientes a ser
estimados. Por lo tanto, en un VAR(p) con m variables se tiene m + pm2
términos a ser estimados2 . Ası́, este VAR(p) con m variables es un cla-
ro ejemplo de un modelo sobreparametrizado en la cual muchos de estos
coeficientes estimados serán no significativos. Sin embargo, el objetivo de
estimar un VAR es establecer relaciones entre las variables económicas, lo
cual lleva a tomar la mejor decisión posible de cuantos rezagos usar para
que los mecanismos de transmisión entre las variables de análisis se den
de la mejor manera posible. Es un reto, y muchas veces a pesar de dispo-
ner de pruebas estadı́sticas, siempre se sugiere tener un juicio de experto
acorde a la teorı́a económica.
Note que al lado derecho de (14) se tiene sólo variables predetermina-
das y que los términos del error se encuentran no correlacionados y con
varianza constante. Por lo tanto, cada ecuación en el sistema puede
ser estimado usando MCO. Asimismo, estos coeficientes estima-
dos son consistentes y asintóticamente eficientes.
Un tema importante de comentar es sobre la estacionariedad de las
series cuando se estima un VAR. Al respecto, si las series no son esta-
cionarias se debe diferenciar las veces que sea necesario. Sin em-
bargo, puede existir un argumento importante en contra de lo mencionado
anteriormente. Sims (1980) y Sims, Stock y Watson (1990) recomiendan
no diferenciar las series a pesar de que contengan raı́z unitaria siempre y
cuando existan relaciones de cointegración. Ası́, si se corrobora rela-
ciones de largo plazo lo correcto es no diferenciar las series, sin
embargo; la metodologı́a útil en esta situación es un VAR coin-
tegrado o también denominado modelo de Vector de Corrección
de errores (VECM). Si se estima un VAR cuando existen relaciones de
largo plazo, se tiene de una mala especificación y los parámetros al ser
estimados son sesgados. Más adelante se hablará de esta metodologı́a.
2
Por ejemplo, si tuvieramos 3 variables y se estima un VAR(4) tendrı́amos 3+4∗32 = 39 parámetros.
Asimismo, si se tiene 6 variables y se estima un VAR(4) se tiene 6 + 4 ∗ 62 = 150 parámetros
9
3.1. Elección del VAR(p)
Tal como analizamos anteriormente, la elección del VAR es todo un re-
to. Si p es demasiado pequeño el modelo podria estar mal especificado, sin
embargo; si p es demasiado grande, se pierden grandes grado de libertad.
Hay básicamente 3 métodos para determinar p:
1. Usando un modelo teórico
Modelos macroeconómicos consideran muchas veces teorı́as económi-
cas o incluso modelos de equilibrio general dinámicos y estocásticos
(DSGE, por sus siglas en inglés) para determinar el número de reza-
gos del VAR. Por ejemplo, modelos Neo Keynesianos han sido cons-
truidos usando un VAR(2) y quizás una excepción a la regla fue el
modelo de Berg y otros (2006), quienes usaron un VAR(4) para mo-
delar la inflación. En pocas circunstancias el VAR(2) puede reducirse
a un VAR(1) dependiendo de si los resultados (impulso respuesta,
descomposición de varianza y pronóstico) salgan mejor con sólo 1 re-
zago. Generalmente, si los datos son trimestrales, un VAR(2) deberı́a
ser suficiente.
2. Usando criterios estadı́sticos y la regla general para mues-
tras pequeñas
Siempre que se disponga de un tamaño de información pequeño, se
sugiere usar como lı́mite máximo de rezagos p=4 cuando se tiene da-
tos trimestrales y p=6 cuando se tiene datos mensuales. La principal
razón de establecer lı́mites máximos de rezagos es una consecuencia
del número de parametros que necesitan ser estimados.
Posteriormente, para definir el número óptimo de rezagos, se utiliza
los criterios de Akaike (AIC) y Schwarz (BIC). Al igual que lo visto
anteriormente, se tiende a preferir BIC ya que es más parsimonioso:
P
P | + 2N
AIC = T ln|
BIC = T ln| | + N ln(T )
10
P
Donde | | es el determinante de la matriz de varianza y cova-
rianzas de los residuos, N es el número total de parámetros a ser
estimados y T es el total de observaciones.
3. Criterio estadı́sticos para muestras grandes
Se utiliza el test de Ratio de Verosimilitud (LR) para comparar
dos modelos VAR y escoger el más adecuado. El estadı́stico LR es:
P P
P PAIC = T (ln| u | − ln| r |)
Donde | u | y | r | son los determinantes de la matriz de varian-
za y covarianzas de los residuos de un VAR(u) y VAR(r), respectiva-
mente. El estadı́stico tiene un distribución asintótica χ2 con grados
de libertad igual al número de restricciones en el sistema.
3.2. Análisis de Causalidad de Granger
Causalidad a lo Granger, es un análisis de precedencia de una
variable sobre otra. Supongamos un modelo VAR(p) con las mismas
variables de siempre yt y πt :
yt = b10 + b111 yt−1 + ... + b11p yt−p + b121 πt−1 + ... + b12p πt−p + e1t (15)
πt = b20 + b211 yt−1 + ... + b21p yt−p + b221 πt−1 + ... + b22p πt−p + e2t (16)
Si la hipotesis nula fuera πt no causa a lo granger a yt implica que:
Ho : b121 = b122 = b123 = ... = b12p = 0 En caso contrario, no podemos
rechaza la hipotesis de no causalidad de πt sobre yt , lo que implica que no
se puede excluir la posible causalidad de πt sobre yt .
Si la hipotesis nula fuera yt no causa a lo granger a πt implica que:
Ho : b211 = b212 = b213 = ... = b21p = 0 En caso contrario, no podemos
rechaza la hipótesis de no causalidad de yt sobre πt , lo que implica que no
se puede excluir la posible causalidad de yt sobre πt . En cualquier caso,
la prueba de hipotesis sigue una distribución F con p y t-mp-1 grados de
libertad (recordar que p es el orden del VAR, m son las variables y t el
11
número de observaciones).
El término Causalidad de Granger hace que algunos estadı́sticos se sien-
tas incómodos. Una de las recientes lecciones en estadı́stica es que corre-
lación no necesariamente implica causalidad. Todavı́a la Causalidad
de Granger esta basado sobre la correlación (o pérdida de correlación) de
valores rezagados de alguna de las variables con los valores presentes de
las otras variables. Las pruebas en series de tiempo algunas veces resultan
apropiadas interpretarlas como una medida de causalidad entre las varia-
bles. Sin embargo, una causalidad verdadera requiere de alguna base no
estadı́stica o explicación adicional a la evidencia de la prueba de Granger.
3.3. Función impulso respuesta
Ası́ como un modelo autoregresivo tiene un representación de medias
móviles (MA), un vector autoregresivo puede ser escrito como un vector
de medias móviles (VMA). La representación VMA es una caracterı́stica
escencial de la metodologia de Sims(1980), la cual permite establecer la
senda de varios shocks sobre las variables contenidas en el sistema VAR.
Para propósitos ilustrativos, continuamos con las dos variables de siempre
(πt y yt ) en un VAR(1) analizado en las secciones previas:
yt a10 a11 a12 yt−1 e
= + + 1t (17)
πt a20 a21 a22 πt−1 e2t
Que puede ser expresado en su forma VMA(∞):
X ∞ i
yt ȳ a11 a12 e1t−i
= + (18)
πt π̄ a21 a22 e2t−i
i=0
Donde ȳ = [a10 (1 − a22 ) + a12 a20 / M], π̄ = [a20 (1 − a11 ) + a21 a10 / M] y
M= (1 − a11 )(1 − a22 ) − a12 a21 . Claramente (18) expresa yt y πt en términos
de e1t y e2t . Sin embargo, es útil expresar (18) en términos de yt y πt . Si
expresamos (7) y (8) matricialmente tenemos:
12
e1t 1 1 −b12 yt
= ∗ (19)
e2t 1 − b12 b21 −b21 1 πt
Usando (19) en (18):
∞
X i
yt ȳ 1 a11 a12 1 −b12 yt−i
= + (20)
πt π̄ 1 − b12 b21 a21 a22 −b21 1 πt−i
i=0
Dado que la notación puede ser dificil de manejar, nosotros podemos
simplificar lo anterior en una matriz 2x2 denominada φi con elementos
φjk (i):
Ai1
1 −b12
φi = (21)
1 − b12 b21 −b21 1
Por lo tanto, la representación VMA(∞) de (18) o (20) puede ser escrito
en términos de yt y πt de la siguiente manera:
X ∞
yt ȳ φ11 (i) φ12 (i) yt−i
= + (22)
πt π̄ φ21 (i) φ22 (i) πt−i
i=0
o más compactamente:
∞
X
Xt = µ + φi t−i (23)
i=0
La representación de medias moviles es una herramienta útil para exa-
minar la interacción entre πt y yt . Los coeficientes φi pueden ser usados
para generar el efecto de shocks yt y πt sobre πt y yt . Ası́, los cuatro
elementos φjk (0) son los multiplicadores de impacto. Por ejemplo,
el coeficiente φ12 (0) es el impacto instantáneo de un cambio unitario en
πt sobre yt . De la misma manera, los elementos φ11 (1) y φ12 (1) son las
respuestas a un periodo de un cambio unitario en yt−1 y πt−1 sobre yt ,
respectivamente. Actualizando a un periodo indican que φ11 (1) y φ12 (1)
son los efectos de un cambio unitario en yt y πt sobre yt+1 .
13
Los efectos acumulados de un impulso unitario en yt y/o πt pueden ser
obtenidos por la apropiada sumatoria de los coeficientes de las funciones
impulso respuesta. Por ejemplo, notar que, luego de n periodos, el efecto
de πt sobre el valor de yt+n es φ12 (n). Por lo tanto, luego de n periodos,
la suma acumulada de los efectos de πt sobre yt es:
∞
X
φ12 (i) (24)
i=0
Si πt y yt son estacionarias, entonces para todo j y k, los valores φjk (i)
convergen a cero para todo i demasiago grande. Esto significa que los
shocks no pueden tener efecto permanente sobre las series esta-
cionarias. Es decir:
∞
X
φ2jk (i) (25)
i=0
es finito. Los cuatro set de coeficientes φ11 (i), φ12 (i), φ21 (i), φ22 (i) son
las llamadas funciones impulso respuesta. Graficar las funciones im-
pulso respuesta (es decir, graficar los coeficientes φjk (i) contra i) es practi-
camente una manera visual de representar el comportamiento de las series
yt y πt en respuesta a varios shocks.
Desafortunadamente lo anterior presenta un gran problema.
P Los ele-
mentos del vector t se encuentran correlacionados con y por ende, la
interpretación causal de los impulsos respuesta no son correctos. En el
ejercicio de las dos variables macroeconómicas (brecha producto e infla-
ción), si un shock de demanda transitorio afecta a la inflación, se deberı́a
primero esperar que el shock afecte a la brecha producto y luego a la in-
flación. Este simple impulso respuesta realizado no nos puede ayudar a
responder a esta pregunta.
Ante esta dificultad, surge la necesidad de imponer un orden recursivo o
restricción de identificación denominado Descomposición de Choleski.
14
Por ejemplo, es posible restringir el sistema tal que los valores de yt
no tengan efectos contemporáneos sobre πt . Formalmente, esta restricción
implica que b21 (ver expresión (2)). Lo anterior implica que ahora (19) sea
descompuesto de la siguiente manera:
e1t 1 1 −b12 yt
= ∗
e2t 1 − b12 (0) −(0) 1 πt
que significa que:
e1t = yt − b12 πt (26)
e2t = πt (27)
Ası́, de (27) se observa que el error e2t es explicado por el shock πt .
Asimismo, dado el shock πt , el conocimiento de los valores e1t y el coefi-
ciente de correlación entre e1t y e2t , se permite el cálculo de yt usando
(26). Aunque esta descomposición de Choleski restringa el sistema tal que
el shock yt no afecta πt , hay un efecto indirecto tal que los valores reza-
gados de yt afectan a los valores contemporáneos de πt . El punto clave es
que la descomposición fuerza a una importante asimetrı́a sobre el sistema
dado que el shock πt tiene un efecto contemporáneo sobre πt y yt . Por
esta razón, (26) y (27) implica un ordenamiento de las variables.
Un shock πt afecta directamente a e1t y e2t pero el shock yt no
afecta e2t . Por lo tanto, πt es previo a yt .
La propuesta anterior implica decidir cual descomposición es más apro-
piada. En algunas circunstancias, quizás la teorı́a económica permitirı́a
ayudar a establecer el orden de las variables. En otras, no hay tal conoci-
miento a priori. Incluso, la idea de imponer una estructura sobre un VAR
luce contrario al espiritu de Sims el cual esta en contra de las restricciones
de identificación. Ası́, no hay una simple manera para resolver el problema.
Por ello, la identificación necesita imponer alguna estructura razona-
ble al sistema para identificar el VAR correctamente. La descomposicion
de Choleski proporciona un conjunto mı́nimo de supuestos que puede ser
15
usado para identificar el modelo. Asimismo, es crucial notar que la impor-
tancia del ordenamiento depende de la magnitud de la correlacion entre
e1t y e2t .
3.4. Descomposición de varianza
Otra ayuda útil para descubrir las interrelaciones entre las variables
en el sistema es el pronóstico de la descomposición de varianza del error.
Supongamos que se conoce los coeficientes de A0 y A1 y queremos pronos-
ticar los valores Xt+i condicional a los valores Xt . Actualizar la expresión
(4) un periodo:
Xt+1 = A0 + A1 Xt + et+1
Y tomando las expectativas condicionales de Xt+1 :
Et Xt+1 = A0 + A1 Xt
Ası́, el error de pronóstico un periodo adelante es:
Xt+1 − Et Xt+1 = et+1 (28)
Similarmente, actualizando 2 periodos la expresion (4):
Xt+2 = A0 + A1 Xt+1 + et+2
Xt+2 = A0 + A1 (A0 + A1 Xt + et+1 ) + et+2
Y si se toma expectativas condicionales Xt+2 :
Et Xt+2 = (I + A1 )A0 + A21 Xt
Ası́, el error de pronóstico dos periodos adelante es:
Xt+2 − Et Xt+2 = et+2 + A1 et+1 (29)
Más generalmente, el pronóstico para n periodos en adelante es:
Et Xt+n = (I + A1 + A21 + ... + An−1 n
1 )A0 + A1 Xt
16
Y el error de pronóstico es:
Xt+n − Et Xt+n = et+n + A1 et+n−1 + A21 et+n−2 + ... + An−1
1 et+1 (30)
Luego de lo aprendido anteriormente, estamos listos para armar los
errores de pronosticos en (23). Las expectativas condicionales es:
∞
X
Xt+n = µ + φi t+n−i (31)
i=0
Y el error de pronóstico es:
n−1
X
Xt+n − Et Xt+n = φi t+n−i (32)
i=0
Centrandonos en yt , el error de pronóstico (yt+n − Et yt+n ) es:
φ11 (0)yt+n + φ11 (1)yt+n−1 + ... + φ11 (n − 1)yt+1 +
φ12 (0)πt+n + φ12 (1)πt+n−1 + ... + φ12 (n − 1)πt+1
Denotando la varianza del error de pronóstico n pasos adelante como
σy (n)2 :
σy (n)2 =σy2 φ11 (0)2 + φ11 (1)2 + ... + φ11 (n − 1)2
+ σπ2 φ12 (0)2 + φ12 (1)2 + ... + φ12 (n − 1)2
Es posible descomponer la varianza del error n pasos adelante en pro-
porciones para cada uno de los shocks. La proporción de σy (n)2 que es
explicado por los shocks yt y πt son:
σy2 φ11 (0)2 + φ11 (1)2 + ... + φ11 (n − 1)2
(33)
σy (n)2
σπ2 φ12 (0)2 + φ12 (1)2 + ... + φ12 (n − 1)2
(34)
σy (n)2
La descomposición de la varianza del error nos dice la proporción
de movimiento que es explicado por el propio shock (asociado a
la misma variable) y el shock de la otra variable.
17