0% encontró este documento útil (0 votos)
41 vistas88 páginas

Modelos VAR en Macroeconometría

Cargado por

sd
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
41 vistas88 páginas

Modelos VAR en Macroeconometría

Cargado por

sd
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Vectores Autoregresivos (VAR)

EN15-2201-EX82 Macroeconometría

PhD. Econ. Freddy Rojas Cama !


10 de octubre de 2024

Universidad Peruana de Ciencias Aplicadas, Lima, Perú


Preamble
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Preámbulo

• El objetivo de esta sesión es discutir la estimación econométrica e inferencia de un


sistema de ecuaciones o vectores autoregresivos (VAR).
• Más importante es discutir la metodología de impulso-respuesta, una herramienta
muy popular cuando se utiliza los modelos VAR.

2/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Reading list

• Enders, Chapter. 5
• Sims (1980) “Macroeconomics and Reality”, Econometrica, Vol. 48, No. 1., pp. 1-
48.
• Stock and Watson (2001) “Vector Autoregressions”, Journal of Economic Perspec-
tives, Vol. 15, Number 4, Pages 101–115.

3/79
VAR models
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

VAR models

• El modelo de vectores autoregresivos (VAR) es una extensión multivariada de un


proceso autoregresivo.
• El modelo VAR es un sistema de múltiples ecuaciones que pueden ser estimadas
separadamente por OLS y las variables dependientes de cada ecuación son tratadas
como endógenas.
• La forma reducida incluye solamente rezagos de las variables dependientes en el
sistema, las variables contemporaneas no son incluídas.

4/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

VAR models

• De acuerdo a Sims (1980) si existe simultaneidad entre un set de variables entonces


todas deberían ser tratadas como tal; en otras palabras, no hay distinción entre
variables endógenas y exógenas.
• En un caso simple de dos variables, nosotros podemos permitir que y1t sea afectado
por realizaciones pasadas y por la contemporanea de y2t y viceversa.

5/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

VAR models

Empecemos con una forma estructural de 2 ecuaciones:


" # " # " # " #
φ11 φ12 β11 β12 γ11 γ12 σ1 0
Yt = Yt−1 + Yt−2 + Ψt
φ21 φ22 β21 β22 γ21 γ22 0 σ2

" #" # " #" # " #" #


φ11 φ12 y1t β11 β12 y1 t−1 γ11 γ12 y1 t−2
= +
φ21 φ22 y2t β21 β22 y2 t−1 γ21 γ22 y2 t−2
" #" #
σ1 0 ψ1t
+
0 σ2 ψ2t

6/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

VAR models

Se puede expresar lo anterior como lo siguiente si estandarizamos φ11 = 1 y φ22 = 1:

y1t = −φ12 y2t + β11 y1t−1 + β12 y2t−1 + γ11 y1t−2 + γ12 y2t−2 + σ1 ψ1t
y2t = −φ21 y1t + β21 y1t−1 + β22 y2t−1 + γ21 y1t−2 + γ22 y2t−2 + σ2 ψ2t (1)

Donde y1t y y2t son estacionarios, mientras que ψ1t y ψ2t son ruido blanco y i.i.d. con
varianza 1 y media cero.
Si φ21 (φ12 ) es diferente de cero, entonces ψ1t (ψ2t ) tiene un efecto contemporaneo
sobre y2t (y1t ).

7/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

VAR models

Volvamos a la notación matricial,


" # " #−1 " #" #
y1t φ11 φ12 β11 β12 y1 t−1
=
y2t φ21 φ22 β21 β22 y2 t−1
" #−1 " #" #
φ11 φ12 γ11 γ12 y1 t−2
+
φ21 φ22 γ21 γ22 y2 t−2
" #−1 " #" #
φ11 φ12 σ1 0 ψ1t
+
φ21 φ22 0 σ2 ψ2t

8/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

VAR models

En la forma reducida
" # " #" # " #" #
y1t α11 α12 y1 t−1 δ11 δ12 y1 t−2
= +
y2t α21 α22 y2 t−1 δ21 δ22 y2 t−2
" #" #
σ̃11 σ̃12 ψ1t
+ (2)
σ̃21 σ̃22 ψ2t
Si estandarizamos φ11 = 1 y φ22 = 1 tenemos que:
σ1 φ12 σ2
σ
e11 = e12 = −
; σ
1 − φ12 φ21 1 − φ12 φ21
σ1 φ21 σ2
σ
e21 =− ; σ
e22 =
1 − φ12 φ21 1 − φ12 φ21

9/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

VAR models

Por tanto el (nuevo) error es una combinación de las innovaciones:


σ1 φ12 σ2
1t = ψ1t − ψ2t
1 − φ12 φ21 1 − φ12 φ21
σ1 φ21 σ2
2t =− ψ1t + ψ2t
1 − φ12 φ21 1 − φ12 φ21
Los valores esperados de estos nuevos errores es igual a cero. La autocovarianza de estos
errores es igual a cero i.e. cov (1t , 1t−j ) = 0 y cov (2t , 2t−j ) = 0 para j 6= 0. El punto
critico es que 1t y 2t están correlacionados, formalmente,
φ21 σ12 + φ12 σ22
E (1t 2t ) = − ≡ σ12, ≡ σ21, (3)
(1 − φ12 φ21 )2

10/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

VAR models

Adicionalmente, si φ21 = 0 y φ12 = 0,

E (1t 2t ) = 0

11/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

VAR models

En resumidas cuentas, tenemos un VAR(2) bivariado.

Yt = AYt−1 + BYt−2 + C Ψt

12/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

El modelo VAR(1) univariado

En la forma reducida, un VAR(1) bivariado con constante


" #
1t
2t
" # " # " #" # z
" }| # " #{
y1t c1 α11 α12 y1 t−1 σ̃11 σ̃12 ψ1t
= + +
y2t c2 α21 α22 y2 t−1 σ̃21 σ̃22 ψ2t

Donde 1t y 2t son dos errores correlacionados (pueden ser no correlacionados también)

13/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

El modelo VAR(1) univariado

" # " # " #!


1t 0 σ2 σ12,
∼ MN , 1, 2
2t 0 σ21, σ2,

14/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

VAR models

Los modelos VAR son útiles por lo siguiente:

• Las series de tiempo por naturaleza son serialmente correlacionados (con otras
variables y sus propios rezagos).
• Construído para pronosticar. El resultado es un pronóstico sobre múltiples variables.
• Se puede hacer conjeturas acerca de la estructura del sistema (Inferencia en el VAR
estructural).
• Impulso y respuesta a shocks (este es el razgo más popular).

15/79
The IRF
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

The impulse-response function (IRF)

Tomemos el componente del error:


" #" #
σ̃11 σ̃12 ψ1t
σ̃21 σ̃22 ψ2t
| {z }
Z

Encontremos una descomposición tal que Z × Z = Ch × Ch0 , donde Ch es una matrix


triangular inferior.
" #
c11 0
Ch =
c12 c22

16/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

The impulse-response function

Ahora consideremos el VAR(1) bivariado, es decir un sistema de dos variables endógenas


dependiendo de los rezagos de las variables.

Yt = A0 + A1 Yt−1 + Ch Ψt

sustraemos la media incondicional a ambos lados,

Yt − (I − A1 )−1 A0 = A1 (Yt−1 − (I − A1 )−1 A0 ) + Ch Ψt

Ver la derivación anterior en el appendix. To Appendix

17/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

The impulse-response function

Luego adelantamos un periodo y reemplazamos lo anterior,

Yt+1 − (I − A1 )−1 A0 = A1 (Yt − (I − A1 )−1 A0 ) + Ch Ψt+1


et+1 ≡ A2 (Yt−1 − (I − A1 )−1 A0 ) + A1 C Ψt + C Ψt+1
Y 1 h h

Para t + 2 tenemos
et+2 ≡ A3 (Yt−1 − (I − A1 )−1 A0 ) + A2 C Ψt + A1 C Ψt+1 + C Ψt+2
Y 1 1 h h h

Para t + 3 tenemos
et+3 ≡ A4 (Yt−1 − (I − A1 )−1 A0 ) + A3 C Ψt + A2 C Ψt+1 + A1 C Ψt+2 + C Ψt+3
Y 1 1 h 1 h h h

18/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

The impulse-response function

Para t + s tenemos

et+s ≡ As (Yt−1 − (I − A1 )−1 A0 ) + As C Ψt + As−1 C Ψt+1 + . . . + A1 C Ψt+s−1 + C Ψt+s


Y 1 1 h 1 h h h

Tomado el esperado sobre el vector y haciendo condicional sobre la información (I) en


el período t tenemos:

et+s |It ) ≡ As (Yt−1 − (I − A1 )−1 A0 ) + As C Ψt


E (Y 1 1 h

Luego asumiendo que Yt−1 es igual al valor de la media incondicional tenemos

et+s |It ) ≡ As C Ψt
E (Y 1 h

19/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

The impulse-response function

et+s |It ) ≡ As C Ψt
E (Y 1 h

La expresión anterior calcula la respuesta s periodos sobre el vector Y a un impulso


en uno de los componentes en Ψt . Por ejemplo podemos empezar con un impulso en
ψ1t = 1 solamente;
" #
1
Ψt =
0

20/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

The impulse-response function

Tengamos el siguiente modelo VAR(1) bivariado:


" # " #" # " #" #
Y1t 0.4 0.0 Y1t−1 σ1 0 1t
= +
Y2t 0.6 0.9 Y2t−1 ρ σ2 2t

21/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

The impulse-response function

(a) ρ 6= 0 (b) ρ 6= 0
22/79
Estacionariedad e Eigenvalues
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Estacionariedad del VAR

¿Es el sistema de procesos estocásticos estacionario? Tenemos que chequear que el


sistema reproduce la característica de estacionariedad de las series. Comencemos con un
VAR(1) bivariado,
Yt = AYt−1 + C Ψt (4)

Donde A es la siguiente matriz,


" #
α11 α12
A= (5)
α21 α22

23/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Estacionariedad del VAR

Los asociados polinomios característicos de A son:

α11 − λ α12
|A − λI| = (6)
α21 α22 − λ

λ es el valor propio de A si |A − λI| = 0. En otras palabras:

λ2 − (α11 + α22 )λ − (α12 α21 − α11 α22 ) = 0 (7)

24/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Estacionariedad del VAR

• De forma similar al caso del ARIMA, las raíces características del polinomio anterior
deben de ser menores a uno en valor absoluto para definir la estabilidad del sistema.
• Si podemos controlar el efecto de los valores iniciales, las secuencias (variables)
serán estacionarias en covarianza si la condición de estabilidad se verifica.
• Así cada secuencia tendrá una media y varianza finita e invariante con respecto al
tiempo.
• Por un descuido de la notación, algunos autores definen la estabilidad como el
recíproco de las raíces. Hay que notar que la estabilidad está definida sobre el
tamaño de los valores propios.

25/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Estacionariedad del VAR

Ejemplo 1. Se tiene el siguiente sistema lineal


" #
0.8 0.3
Yt = Yt−1 + σUt
0.2 0.7

donde Yt0 = [Xt Zt ], Ut0 = [t εt ] y σ = 0.5. Responda lo siguiente

1. ¿Es el sistema lineal convergente? Analice.


2. Grafique la respuesta de la variable X a un shock en t = 0 para 5 períodos . [Hint:
Para empezar el cálculo asuma Ut=0 0 0
= [1 0]; Ut>0 0 = [0 0]]
= [0 0]; y Y−1

26/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Graficando la respuesta

27/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Obteniendo los eigenvalues en STATA

. matrix A=(0.8, 0.3\0.2, 0.7)


. matrix eigenvalues re im = A
. matrix list re
. matrix list im

(output supressed)

28/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Impulso y Respuesta en MATA

. mata Y0=J(2,1,0)
. mata A=st_matrix("A")
. mata U0=J(2,1,0)
. mata U0[1,1]=1
. mata Yv=J(1,2,0)
. mata C=(1,0\-0.5,1)

29/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Impulso y Respuesta en MATA

. forv i=1(1)25 {
. mata Y=A*Y0+0.5*C*U0
. mata Yv=Yv\Y’
. mata U0=J(2,1,0)
. mata Y0=Y
}

30/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Impulso y Respuesta en MATA

. mata st_matrix("Yvs",Yv)
. svmat Yvs,
. gen t=_n
. tsset t
. tsline Yvs1
. tsline Yvs2

(output supressed)

31/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Estacionariedad del VAR

Ejemplo 2. Se tiene el siguiente sistema lineal


" #
0.8 0
Yt = Yt−1 + σUt
0 0.7

donde Yt0 = [Xt Zt ], Ut0 = [t εt ] y σ = 0.5. Responda lo siguiente

1. ¿Es el sistema lineal convergente? Analice.


2. Grafique la respuesta de la variable X a un shock en t = 0 para 5 períodos . [Hint:
Para empezar el cálculo asuma Ut=0 0 0
= [1 0]; Ut>0 0 = [0 0]]
= [0 0]; y Y−1

32/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Estacionariedad del VAR

Ejemplo 3. Se tiene el siguiente sistema lineal


" #
1.2 −0.2
Yt = Yt−1 + σUt
0.6 0.4

donde Yt0 = [Xt Zt ], Ut0 = [t εt ] y σ = 0.5. Responda lo siguiente

1. ¿Es el sistema lineal convergente? Analice.


2. Grafique la respuesta de la variable X a un shock en t = 0 para 5 períodos . [Hint:
Para empezar el cálculo asuma Ut=0 0 0
= [1 0]; Ut>0 0 = [0 0]]
= [0 0]; y Y−1

33/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Diagonalización

Sea V ∈ R k×k is: h i


V = v1 v2 v3 . . . vk
Luego la matriz (diagonalizada) conteniendo los valores propios (sobre la diagonal prin-
cipal) es
 
λ1 0 0 ... 0
 0 λ2 0 ... 0
 
 
Λ =  0 0 λ3 ... 0


 . .. .. .. .. 
 . .
 . . . .

0 0 0 ... λk

34/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Diagonalización

Se tiene la siguiente equivalencia para una matriz cuadrada con rango completo A. Esto
es AV = V Λ. Una manera de expresar lo anterior es Avi = λi vi . La descomposición
espectral identifica la matriz Λ.

35/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Diagonalización

Tenemos el siguiente sistema lineal

yt = A0 + Ayt−1 + t (8)

La descomposición (espectral) se puede mostrar en los siguientes pasos:

yt = A0 + Ayt−1 + t
Vxt = A0 + AVxt−1 + t
V −1 Vxt = V −1 A0 + V −1 AVxt−1 + V −1 t
xt = V −1 A0 + Λxt−1 + V −1 t

36/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Resumiendo

Definición
Propiedad. Los vectores propios son ortogonales, i.e. V 0 V = I. Por tanto V 0 = V −1 .

Definición
Diagonalización de una matriz. Una matriz cuadrada A puede ser diagonalizada
utilizando sus propios vectores propios.

V 0 AV = V 0 V Λ ≡ Λ (9)

37/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Definición
Descomposición espectral. Lo anterior nos permite descomponer la matriz A en
vectores y valores propios.
A = V ΛV 0 (10)

Definición
Rango de una matriz. Es el número de filas (o columnas) de una matriz menos el
número de filas (o columnas) que contienen en su totalidad ceros después de aplicar
operaciones o transformaciones que preservan el valor del determinante de la matriz.

38/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Spectral decomposition

MATA code
mata symeigensystem(A,eigenvector,eigenvalue)
mata eigenvalue
(output omitted)
mata eigenvector
(output omitted)

39/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Spectral decomposition

MATA code
mata L=blockdiag(eigenvalue[1],eigenvalue[2])
mata eigenvector*L*qrinv(eigenvector)
(output omitted)

40/79
Escogiendo el rezago óptimo
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Escogiendo el rezago óptimo (Lag selection)

• EL VAR consume muchos grados de libertad.


• Si el número de rezagos es p para un VAR con K variables, entonces el número de
parámetros es igual a np = K + K 2 · p.
• La selección de rezagos es crítico: i) si p es pequeño, la posibilidad de sesgo por omi-
sión de variable relevante crece (misspecification), y ii) si p es elevado, se consume
grados de libertad.

41/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Escogiendo el rezago óptimo (Lag selection)

Tres métodos

• Utilizando un modelo teórico.


• Utilizando un “rule of thumb”.
• Utilizando el “information criteria”, el método yace sobre el trade-off que se hace
sobre la reducción del error cuadrático medio y una penalidad en incorporar un
número elevado de parámetros.

42/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Utilizando un modelo teórico

En modelos de equilibrio general dinámico, en específico en modelos de “habit persis-


tence” o en “costos de ajuste en la inversión” hay una dinámica que depende de rezagos
de las variables en análisis. El modelo teórico puede ser un punto de partida interesante
no solamente para seleccionar variables sino también rezagos.

43/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

The rule of thumb

Al trabajar con datos trimestrales, lo usual es escoger p = 4. Si la frecuencia es mensual


entonces p = 6. Hay que tener en cuenta que también el número de observaciones es
un limitante importante.

44/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Escogiendo el rezago óptimo (Lag selection)

La idea detrás es minimizar la log-likelihood.


Tn o
LL = − ln(|Σ̂|) + K ln(2π) + K (11)
2

45/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Escogiendo el rezago óptimo (Lag selection)

Donde K es el número de ecuaciones en el sistema VAR. El uso de los criterios de


información es recomendable para seleccionar el número de rezagos
LL np
AIC = − 2 +2 (12)
T T
LL ln(T )
SBIC = − 2 + np (13)
T T
LL 2 ln(ln(T ))
HQIC = − 2 + np (14)
T T
donde np es el número total de parámetros en el sistema VAR (incluyendo la constante).

46/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Lag exclusion test

Seguimos a Lutketpohl (2005), y testeamos un sistema VAR de ` contra ` − 1 rezagos.


El test apropiado es un “LR (log-likelihood) test”.

2
LR = (T − m)(log |Σ
b
`−1 | − log |Σ` |) ∼ χ (q)
b (15)

Donde T es el número de observaciones disponibles; m es el número de parámetros


estimados en cada ecuación del modelo “no restringido”, en este caso `. Finalmente q
es la diferencia de parámetros entre el modelo restringido y el no restringido.
Hay que recordar que |Σ
b | disminuye conforme se añaden más rezagos al modelo.
`

47/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Lag exclusion test

El estadístico LR se puede calcular de la siguiente manera también:


n o
LR(j) = 2 LL(j) − LL(j − 1) (16)

48/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Lag exclusion test

• Bajo la hipótesis nula, H0 : p = ` − 1 rezagos son apropiados, se re-estima el VAR


sobre la misma muestra disponible utilizando ` − 1. Se obtiene del procedimiento
anterior la matriz de varianzas y covarianzas Σ`−1 .
• Se computa el LR estadístico; si el estadístico es menor que χ2 (q) a un nivel
determinado de significancia estadística entonces no se puede rechazar la H0 .

49/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Lag exclusion (sequential) test

“The sequential modified LR test” es como sigue

• Se compara el LR test a un nivel de significancia, comenzando desde un rezago


máximo y así reduciendo el rezago por pasos hasta que se encuentra un rechazo.
• El rezago bajo la hipótesis alterna es marcado (?) cuando se rechaza la hipótesis
nula.
• Si ningún test es rechazado, el rezago mínimo será marcado.

Hay que recordar que lo que se busca es contrastar una “distancia estadística” signi-
ficativa. El procedimiento secuencial comienza con modelos “equivalentes” para luego
terminar rechazando la equivalencia en algún rezago.

50/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Lag exclusion (sequential) test

En otras palabras la hipótesis nula y alterna son:

H0 : |Σ
b
`−1 | es igual a |Σ` |
b

Ha : |Σ
b
`−1 | no es igual a|Σ` |
b

51/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Escogiendo el rezago óptimo (Lag selection)

El Final Prediction Error (FPE) es


 T + m K
FPE = |Σ̂| (17)
T −m
m es el número promedio de parámetros del VAR. El parámetro K es el número de
ecuaciones. Se escoge el modelo VAR con el FPE más pequeño.

52/79
Identificación estructural
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Identificación estructural

Supongamos que queremos estimar parámetros estructurales (profundos) desde el VAR


común y silvestre (la forma reducida). Algunas consideraciones,

• La identificación no es posible debido a la simultaneidad en el sistema estructural


(ver el sistema en 1).
• La razón es simple y1t esta correlacionado con el término del error ψ2t y y2t esta
correlacionado con el término del error ψ1t

53/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Identificación estructural

• Las técnicas estándar de estimación requieren que los regresores sean no correla-
cionados con el término del error.
• No existe ningún problema en estimar el VAR en la forma reducida.
• MCO (OLS) puede prover estimadores insesgados de los elementos de las matrices
asociados a los rezagos de las variables en el sistema.

54/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Identificación estructural

• Volvamos a nuestra intención inicial de estimar los parámetros estructurales. ¿Es la


forma estructural identificable utilizando la forma reducida del VAR?
• La respuesta a esta pregunta es: “Podemos hacerlo pero tenemos que imponer
valores sobre algunos parámetros”.
• Esto es claro de observar si comparamos el número de parámetros del VAR estruc-
tural con el número de parámetros de la forma reducida (ver expresión 2).

55/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Identificación estructural

Tomemos en cuenta una forma estructural con dos rezagos,


" #" # " # " #" # " #" #
φ11 φ12 y1t α β11 β12 y1 t−1 γ11 γ12 y1 t−2
= + +
φ21 φ22 y2t δ β21 β22 y2 t−1 γ21 γ22 y2 t−2
" #" #
σ1 σ12 ψ1t
+ (18)
σ21 σ2 ψ2t
De forma equivalente
AYt = A0 + A1 Yt−1 + A2 Yt−2 + BΨt
Obteniendo la forma reducida C
z }| {
−1 −1 −1 −1
Yt = A A0 + A A1 Yt−1 + A A2 Yt−2 + A BΨt

56/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Identificación estructural

• Se necesita encontrar parámetros estructurales a partir de la estimación de la matriz


de varianzas y covarianzas.
• La forma estructural bivariada con dos rezagos como en la expresión (18) tiene
(2 + p)K 2 + K parámetros a encontrar.
• Los parámetros asociados a los rezagos de cada Yt y las constantes son fácilmente
identificables una vez que se tenga identificada la matriz A. Así quedarían 2K 2
parámetros a estimar.

57/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Identificación estructural

K (K +1)
• La forma reducida (VAR) sólo provee Cb el cual es simétrica; así solo
2 pará-
metros podrían ser estimados. Recuerden que σe 12 = σ
b e 21 (ver 2).
b

• En conclusión existe una sobreidentificación de 2K 2 − K (K2+1) . De manera equivalen-


te, necesitamos imponer valores a un mismo número de parámetros para identificar
el resto.
• En el caso de K = 2 (un VAR bivariado) tenemos 5(= 8 − 3) restricciones.

58/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Identificación estructural

• La imposición de valores para algunos parámetros es bastante fácil; por ejemplo en


el caso de K = 2 tenemos que φ11 = 1 y φ22 = 1 (estandarización), además de
σ12 = 0 y σ21 = 0. Así nos quedaría solo que imponer una restricción.
• Una propuesta puede ser φ21 = 0 en (18):
" #
1 φ12
A= (19)
0 1

Lo que significa que y1t no tiene un impacto contemporáneo en y2t .

59/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Identificación estructural

Veamos como luce C :


" #−1 " #
1 φ12 σ1 0
C= (20)
0 1 0 σ2

" #
σ1 −φ12 σ2
≡ (21)
0 σ2

Así 1t = σ1 ψ1t − φ12 σ2 ψ2t y 2t = σ2 ψ2t . Lo último sugiere que las innovaciones ψ1t
y ψ2t afectan el valor contemporáneo de y1t , pero sólo ψ2t afecta a y2t . Así, el residuo
2t es identificado a ser un shock estructural.

60/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Identificación estructural

• Hay que notar que los shocks estructurales pueden ser identificados a partir de los
residuos del VAR (forma reducida).
• Existen otros métodos para la identificación como el que ofrece la descomposición
de Blanchard and Quah (1989).

61/79
Var. decomposition
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Descomposición de varianza

La descomposición de varianza indica cuánto de un shock (sobre una variable) puede


explicar la varianza del error del pronóstico de las otras variables (Ver Hamilton, page
323).
Equivalentemente, nos preguntamos cuál sería la contribución de cada shock en explicar
la varianza del error de pronóstico.

62/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Descomposición de varianza

Tengamos como un ejemplo un VAR(1) bivariado.

• Hacemos un pronóstico un período hacia adelante (“one-step ahead”)


• La media condicional es: E (Yt+1 |It ) = A0 + A1 Yt
• Una vez que llega el periodo t + 1 tenemos que Yt+1 = A0 + A1 Yt + t+1
• El error de pronóstico (forecast error) es: Yt+1 − E (Yt+1 |It ) = t+1

63/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Descomposición de varianza

• Hacemos un pronóstico dos período hacia adelante.


• La media condicional es:
E (Yt+2 |It ) = A0 + A1 E (Yt+1 |It )
≡A0 + A1 (A0 + A1 Yt )
≡(I + A1 )A0 + A21 Yt
• Una vez que llega el periodo t + 2 tenemos que Yt+2 = A0 + A1 Yt+1 + t+2
• El error de pronóstico (forecast error) es:

Yt+2 − E (Yt+2 |It ) = A0 + A1 Yt+1 + t+2 − A0 + A1 E (Yt+1 |It )


≡ A1 (Yt+1 − E (Yt+1 |It )) + t+2
≡ A1 t+1 + t+2

64/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Descomposición de varianza

• Hacemos un pronóstico de n período hacia adelante.


• La media condicional es:

E (Yt+n |It ) = (I + A1 + A21 + . . . + An−1 n


1 )A0 + A1 Yt

• El error de pronóstico (forecast error) es:

Yt+n − E (Yt+n |It ) = t+n + A1 t+n−1 + A21 t+n−2 + . . . + An−1


1 t+1

65/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Descomposición de varianza

El error cuadrático medio (MSE) es

E (Yt+n − E (Yt+n |It )(Yt+n − E (Yt+n |It )0 = Ω + A1 ΩA01 + A21 ΩA20 n−1
1 + . . . + A1 ΩA1
n−10

(22)

Donde:
Ω = E (t 0t )

66/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Descomposición de varianza

Si relacionamos los errores estructurales

t = A−1 BΨt = a1 σ1 ψ1t + a2 σ2 ψ2t (23)

Así entonces,

Ω = a1 a10 σ12 Var (ψ1t ) + a2 a20 σ22 Var (ψ2t )


≡ a1 a10 σ12 + a2 a20 σ22

67/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Descomposición de varianza

Así el MSE es (ver 22)


2 n o
σj2 [aj aj0 + A1 aj aj0 A01 + A21 aj aj0 A20 n−1 0 n−10
X
MSE (Yt+n |It ) = 1 + . . . + A1 aj aj A1 ] (24)
j=1

La expresión anterior ayuda a calcular la contribución de la innovación (ortogonalizada)


j al error cuadrático medio del pronostico n periodos adelante.

68/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Descomposición de varianza

Por ejemplo si n = 1 veamos la siguiente expresión:


A−1
z" }| #{ " #" #
a11 0 σ1 0 ψ1t
a21 a22 0 σ2 ψ2t

Tomando en cuenta (24) tenemos que

MSE (Yt+1 |It ) = σ12 a1 a10 + σ22 a2 a20

69/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Descomposición de varianza

Así tenemos, la siguiente expresión equivalente,


" # " #
a11 h i 0 h i
MSE (Yt+1 |It ) = σ12 a11 a21 + σ22 0 a22
a21 a22

Así, la varianza de la primera variable en n = 1 es igual a σ12 a11 2 y la contribución del

primer shock (innovación) es 1; mientras que la varianza de la segunda variable es igual


a σ12 a21
2 + σ 2 a 2 , por tanto la contribución del primer shock a la varianza en mención es
2 22
σ12 a21
2
2 +σ 2 a2 .
σ12 a21 2 22

70/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Descomposición de varianza

Summing up!

• La descomposición del error de pronóstico nos dice la proporción de los cambios en


una secuencia debido a un shock propio y debido a otros shocks a otras variables.
• Si un 2t no cambia la varianza del error de pronóstico para y1t entonces diremos
que y1t es exógeno.
• En el otro extremo, Si un 2t explica toda la varianza del error de pronóstico para
y1t entonces diremos que y1t es enteramente endógeno.

71/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Descomposición de varianza

Summing up!

• Es típico que para una variable el propio shock puede explicar casi toda la varianza
del error de pronóstico en un horizonte corto, y luego tener una pequeña proporción
explicada en un horizonte más lejano.
• Es típico en el VAR observar que 2t tiene poco (o nulo) efecto contemporáneo en
y1t ; sin embargo, la dinámica del sistema (léase rezagos) afecta y1t .

72/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Descomposición de varianza

Summing up!

• Nótese que la descomposición de Choleski permite que un shock j estructural iden-


tificado explique totalmente la varianza del error de pronóstico totalmente en el
periodo despues de la ocurrencia del shock.
• El efecto anterior es disipado o atenuado conforme se analizan los periodos que le
siguen.

73/79
Granger
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Granger Causality Test

• El test de Granger no es de causalidad solo establece un criterio de precedencia


estadística. Se utiliza como una herramienta adicional para seleccionar variables en
el VAR.
• La definición de causalidad fue desarrollada por Granger (1969) y Sims (1972).

74/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Granger Causality Test

• En un modelo de dos ecuaciones con dos rezagos, y1t no causa a la Granger a y2t
si α21 y δ21 son iguales a cero de forma conjunta, ver (2).
• Es decir, si y1t no ayuda a mejorar el pronóstico de y2t , y1t no causa a la Granger
a y2t .

75/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Granger Causality Test

Por comodidad replicamos la forma reducida de 2 ecuaciones vista anteriormente:


" # " #" # " #" #
y1t α11 α12 y1 t−1 δ11 δ12 y1 t−2
= +
y2t α21 α22 y2 t−1 δ21 δ22 y2 t−2
" #" #
σ̃11 σ̃12 ψ1t
+
σ̃21 σ̃22 ψ2t

76/79
Preamble VAR models The IRF Estacionariedad e Eigenvalues Escogiendo el rezago óptimo Identificación estructural Var. decomposition Granger

Granger Causality Test

El test se distribuye como un F para testear la hipótesis nula en un modelo VAR con p
rezagos:
H0 : α21 = δ21 = . . . = 0

H1 : At least one different from zero

Los grados de libertad son n1 = p y n2 = N − 2p − 1 donde p es el número de rezagos


y N el número de observaciones.

77/79
Unconditional mean of VAR

We calculate the unconditional mean of a stable VAR. We take expectations:

E (Yt ) − A1 E (Yt−1 ) = A0 (25)


(I − A1 )E (Yt ) = A0 (26)

Thus, the unconditional mean is:

E (Yt ) = (I − A1 )−1 A0 (27)

Go Back
Unconditional mean of VAR

Restamos en ambos lados de la expresión (17) la media incondicional.

Yt − (I − A1 )−1 A0 = A0 − (I − A1 )−1 A0 + A1 Yt−1 + Ch Ψt


≡ [I − (I − A1 )−1 ]A0 + A1 Yt−1 + Ch Ψt
≡ [I − (I − A1 )−1 ][(I − A1 )][(I − A1 )−1 ]A0 + A1 Yt−1 + Ch Ψt
≡ [I − A1 − I][(I − A1 )−1 ]A0 + A1 Yt−1 + Ch Ψt
≡ −A1 [(I − A1 )−1 ]A0 + A1 Yt−1 + Ch Ψt
≡ A1 [Yt−1 − [(I − A1 )−1 ]A0 ] + Ch Ψt

Go Back
Macroeconometrics
Lecturer: PhD. Freddy Rojas Cama
@freddyrojascama €

También podría gustarte