Procesos Estacionarios ARMA: Guía Completa
Procesos Estacionarios ARMA: Guía Completa
ECONOMÍA
ECONOMETRÍA 2
TEMA
Procesos Estacionarios ARMA
Índice
1. Introducción 4
3. Ruido Blanco 19
8. Invertibilidad 76
8.1. Invertibilidad para el Proceso MA(1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
8.2. Invertibilidad para el Proceso MA(q) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
Los procesos univariados ARMA proveen una clase útil de modelos para la descripción de la dinámica
de series de tiempo individuales.
{y1 , y2 , . . . , yT } (1)
La muestra observada [1] representa T números particulares, este conjunto de T números es una
posible salida de un subyacente proceso estocástico generador de datos.
Si imaginásemos haber observado el procesos para un periodo de tiempo infinito, obtendríamos la
secuencia
t=−∞ = {. . . , y−1 , y0 , y1 , . . . , yT , yT +1 , yT +2 , . . .}
{yt }∞
la cual puede ser vista como una simple realización de un proceso de series de tiempo.
{1 , 2 , . . . , T } (2)
con
t ∼ N 0, σ 2
a
Esta serie es conocida como una muestra de tamaño T de un proceso ruido blanco Gausiano.
La v.a. Yt tiene cierta densidad, denotada como fYt (yt ), la cual es llamada densidad incondicional
de Yt .
EJEMPLO: Para un proceso Ruido Blanco Gausiano, esta densidad está dada por
!
1 y2
fYt (yt ) = √ exp − t 2
2πσ 2σ
Esperanza
La esperanza de la observación t-ésima de una serie de tiempo hace referencia a la media de esta
distribución de probabilidad, siempre que exista:
ˆ ∞
E [Yt ] ≡ yt fYt (yt ) dyt (3)
−∞
Promedio Ensamble
La esperanza E [Yt ] puede ser vista como la probabilidad límite del promedio ensamble (ensemble
average)
1XI
(i)
E [Yt ] = plim Yt (4)
I→∞ I i=1
EJEMPLO:
Si {Yt }∞
t=−∞ representa la suma de una constante µ mas un proceso Ruido Blanco Gausiano
{t }∞
t=−∞
Yt = µ + t (5)
entonces su media es
E [Yt ] = µ + E [t ] = µ (6)
Yt = βt + t (7)
entonces su media es
E [Yt ] = βt (8)
NOTAS:
Muchas veces para enfatizar la esperanza E [Yt ] es llamada la media incondicional de Yt . La media
incondicional es denotada como µt :
E [Yt ] = µt
Observe que esta notación permite la posibilidad general que la media puede ser una función del
instante de la observación t. Para el proceso [7] que involucra a la tendencia temporal, la media [8]
es una función del tiempo, mientras que para la constante mas el ruido blanco Gausiano, la media
[6] no es una función del tiempo.
Varianza
EJEMPLO:
A partir de esta distribución podemos calcular la j-ésima autocovarianza de Yt (denotada por γjt ):
γjt = cov[Yt , Yt−j ] = E [(Yt − µt ) (Yt−j − µt−j )] (10)
ˆ ∞ˆ ∞ ˆ ∞
= ··· (yt − µt ) (yt−j − µt−j ) · fYt ,Yt−1 ,...,Yt−j (yt , yt−1 , . . . , yt−j ) dyt dyt−1 · · · dyt−j
−∞ −∞ −∞
NOTAS:
La autocovarianza γjt puede ser vista como el elemento (1, j + 1) de la matriz de covarianzas
del vector xt . Por esta razón, las autocovarianzas son descritas como los segundos momentos del
proceso para Yt .
Una vez mas, podemos pensar en la autocovarianza j-ésima como la probabilidad límite del
promedio ensamble:
1XI h
(i)
i h
(i)
i
γjt = plim Yt − µt · Yt−j − µt−j (11)
I→∞ I i=1
Si tanto la media µt como las autocovarianzas γjt no dependen del instante t, esto es
E [Yt ] = µ
(
σ 2 para j = 0
E [(Yt − µ) (Yt−j − µ)] =
0 para j 6= 0
Observación:
Se sigue que para el proceso estacionario en covarianza, γj y γ−j representarían la misma magnitud
(γ es una función par en j).
A partir de la definición
γj = E [(Yt − µ) (Yt−j − µ)] (12)
Si el proceso es estacionario en covarianza, su magnitud es la misma para todos los valores de t
que elijamos.
Observación: Refiriéndonos de nuevo a la definición [12], esta última expresión es exactamente la defi-
nición de γ−j . Así, para cualquier proceso estacionario en covarianza
Estacionariedad Estricta
Se dice que un proceso es estrictamente estacionario si, para cualesquier conjunto de valores
j1 , j2 , . . . , jn
la distribución conjunta de
(Yt , Yt+j1 , Yt+j2 , . . . , Yt+jn )
depende solo de los intervalos de separación entre los instantes (j1 , j2 , . . ., jn ) y no del instante
por si mismo (t).
Observe que si un proceso es estrictamente estacionario con segundos momentos finitos, entonces
éste debe ser estacionario en covarianza - si las densidades sobre las que son integradas en [3] y [10]
no dependen del tiempo, entonces los momentos µt y γjt no dependerán del tiempo. Sin embargo,
es posible imaginar un proceso es estacionario en covarianza pero no estrictamente estacionario; la
media y las autocovarianzas
pueden no ser funciones del tiempo, pero quizás si lo sean los momentos
mayores tales como E Yt3 .
NOTA: En este texto el término estacionario por si mismo significará estacionario en covarianza.
Proceso Gausiano
Como la media y varianza son necesarias para parametrizar completamente a una distribución
Gausiana multivariada, un proceso Gausiano estacionario en covarianza es estrictamente
estacionario.
Estas definiciones pueden ser un poco controversiales, ya que por lo general todo
n lo que uno disponeo
(1) (1) (1)
es una simple realización de tamaño T del proceso, al que denotamos como y1 , y2 , . . . , yT .
A partir de estas observaciones podemos calcular la media muestral ȳ. Esta, de hecho, no es el
promedio ensamble sino mas bien un promedio temporal:
1X T
(1)
ȳ ≡ y (14)
T t=1 t
En el caso en que los promedios temporales tales como [14] converjan eventualmente al promedio
ensamble E [Yt ] para un proceso estacionario, éste tiene que ver con la ergodicidad.
Un proceso será ergódico para la media siempre que la autocovarianza γj tienda a cero lo suficien-
temente rápido conforme j se hace grande.
Condición Suficiente: Se puede verificar que si las autocovarianzas para un proceso estacionario en
covarianza satisfacen ∞
X
|γj | < ∞ (15)
j=0
En el caso en el que {Yt } es un proceso Gausiano estacionario, la condición [15] es suficiente para
garantizar la ergodicidad de todos los momentos.
1X T
(i) 1X T 1X T
Yt = µ(i) + t = µ(i) + t
T t=1 T t=1 T t=1
converge a µ(i) en vez de a cero, la media de Yt , por lo tanto el proceso no es ergódico para la
media.
E [t ] = 0 (17)
h i
E 2t = σ 2 (18)
Un proceso que satisface desde [17] hasta [19] es descrito como un proceso ruido blanco.
En ocasiones vamos a desear reemplazar [19] con la condición un poco menos estricta de que los
’s son independientes en el tiempo:
Observe que [20] implica [19] pero [19] no implica [20]. Un proceso que satisface desde [17] hasta
[20] es llamado un proceso ruido blanco independiente.
Yt = µ + t + θt−1 (22)
donde µ y θ pueden ser cualquier constante. Esta serie de tiempo es llamado un proceso media
móvil de primer orden, denotado como M A(1).
NOTA: El término media móvil proviene del hecho que Yt es construido a partir de una suma ponderada,
similar a un promedio, de dos o mas valores recientes de .
Esperanza (µ)
Usamos el símbolo µ para el término constante en [22] en anticipación del resultado de que este
término constante resulte ser la media del proceso.
Varianza (γ0 )
La varianza (j = 0) de Yt es
h i h i
γ0 = E (Yt − µ)2 = E (t + θt−1 )2 (24)
h i
= E 2t + 2θt t−1 + θ2 2t−1
= σ2 + 0 + θ2 σ2
= 1 + θ2 σ2
Autocovarianzas (γj )
La primera autocovarianza (j = 1) es
γj = E [(Yt − µ) (Yt−j − µ)] = E [(t + θt−1 ) (t−j + θt−j−1 )] = 0 para j > 1 (26)
Como la media y las autocovarianzas no son funciones del tiempo, un proceso M A(1) es estacionario
en covarianza independientemente del valor θ. Además, [15] es claramente satisfecha:
∞
X
|γj | = 1 + θ2 σ 2 + θσ 2
j=0
Así, si {t } es un Ruido Blanco Gausiano, entonces el proceso M A(1) en [22] es ergódico para
todos los momentos.
Autocorrelación (ρj )
Observe también que la autocorrelación 0-ésima ρ0 es igual, por definición, a cualquier proceso
estacionario en covarianza.
A partir de [24] y [25], se observa que la primera autocorrelación para un proceso M A(1) está dado
por
θσ 2 θ
ρ1 = = (28)
(1 + θ ) σ
2 2 1 + θ2
y que las autocorrelaciones mayores son todas cero.
1 1
0 0
-1 -1
-5 0 5 10 15 20 25 -5 0 5 10 15 20 25
(a) Ruido blanco : Y t = ǫ t (b) MA(1) : Yt = ǫ t + 0.8ǫ t-1
-5 0 5 10 15 20 25 -5 0 5 10 15 20 25
(c) MA(4) : Y t = ǫ t - 0.6ǫ t-1 + 0.3ǫ t-2 - 0.5ǫ t-3 + 0.5ǫ t-4 (d) AR(1) : Yt = 0.8Y t-1 + ǫ t
Miguel Ataurima Arellano 25 [email protected]
1
Miguel Ataurima Arellano 25 [email protected]
PONTIFICIA UNIVERSIDAD CATÓLICA DEL PERÚ ECONOMETRÍA 2
DEPARTAMENTO DE ECONOMÍA INDICE Procesos Estacionarios ARMA
UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS SERIES DE TIEMPO
Facultad de Ciencias Económicas INDICE Procesos Estacionarios ARMA
Los valores para ρ1 debido a diferentes especificaciones de θ son dibujados en siguiente Figura.
0.5
0.4
0.2
ρ1 (θ)
-0.2
-0.4
-0.5
-0.6
-3 -2 -1 0 0.5 1 2 3
θ
Observe que:
M A(1) : Yt = t + 0,5t−1
y
M A(1) : Yt = t + 2t−1
tendrán la misma función de autocorrelación:
1
2 2
ρ1 = = 2 = 0,4
1 + 22 1
1+
2
donde {t }satisface [17] hasta [19] y (θ1 , θ2 , . . ., θq ) pueden ser cualesquier número real.
Esperanza (µ)
Varianza (γ0 )
Autocovarianzas (γj )
Para j = 1, 2, . . . , q,
" #
(t + θ1 t−1 + θ2 t−2 + · · · + θq t−q )
γj = E
× (t−j + θ1 t−j−1 + θ2 t−j−2 + · · · + θq t−j−q )
h i
= E θj 2t−j + θj+1 θ1 2t−j−1 + θj+2 θ2 2t−j−2 + · · · + θq θq−j 2t−q (32)
Los términos que involucran a los ’s en diferentes periodos han sido suprimidos porque sus productos
tienen expectativa cero, y θ0 es definida como la unidad.
Para j > q, no hay ’s con fechas comunes en la definición de γj , y por lo tanto la esperanza es
cero. Así,
(
(θj + θj+1 θ1 + θj+2 θ2 + · · · + θq θq−j ) σ 2 para j = 1, 2, . . . , q
γj = (33)
0 para j > q
La función de autocorrelación es cero luego de q rezagos, así como se muestra en la siguiente Figura
para el proceso M A(4): -1 -1
Yt-5= t −
0 0,6t−1
5 + 0,3 − 0,520
10 t−2 15 t−3 + 0,5
25 t−4 -5 0 5 10 15 20
(a) Ruido blanco : Y t = ǫ t (b) MA(1) : Yt = ǫ t + 0.8ǫ t-1
1 1
0 0
-1 -1
-5 0 5 10 15 20 25 -5 0 5 10 15 20
(c) MA(4) : Y t = ǫ t - 0.6ǫ t-1 + 0.3ǫ t-2 - 0.5ǫ t-3 + 0.5ǫ t-4 (d) AR(1) : Yt = 0.8Y t-1 + ǫ t
-1
con θ0 ≡ 1.
Notación: Utilizaremos
Se puede demostrar que la secuencia infinita en [34] genera un proceso estacionario en covarianza
bien definido siempre que
∞
X
ψj2 < ∞ (35)
j=0
Es a menudo conveniente trabajar con una condición ligeramente mas fuerte que [35]:
∞
X
|ψj | < ∞ (36)
j=0
NOTA: La sumabilidad absoluta implica sumabilidad cuadrática, pero no lo inverso (hay ejemplos de
secuencias cuadráticamente sumables que no son absolutamente sumables, ver Apéndice 3.A).
Por lo tanto, un proceso M A(∞) que satisface [36] es ergódico para la media (ver Apéndice 3.A):
y, si además los ’s son Gausianos, entonces el proceso es ergódico para todos los momentos.
El resto de la discusión del AR(1) asume que |φ| < 1. Esto garantiza que la representación
M A(∞) existe y puede ser manipulada en forma obvia, y que el proceso AR(1) es ergódico para
la media.
Esperanza (µ)
Varianza (γ0 )
h i 2
2 2 3
γ0 = E (Yt − µ) =E t + φt−1 + φ t−2 + φ t−3 · · ·
= 1 + φ2 + φ4 + · · · · σ 2
1
= σ2 (44)
1 − φ2
Autocovarianzas (γj )
-1
0 5 10 15 20 25 -5 0 5 10 15 20 25
4) : Y t = ǫ t - 0.6ǫ t-1 + 0.3ǫ t-2 - 0.5ǫ t-3 + 0.5ǫ t-4 (d) AR(1) : Yt = 0.8Y t-1 + ǫ t
Un valor positivo de φ como un valor positivo de θ para un proceso M A(1), implica una correlación
-1 -1
-1
-5 0 5 10 15 20 25
(e) AR(1) : Yt = -0.8Yt-1 + ǫ t
AR(1) : Yt = c + φYt−1 + t
con c = 0 y t ∼ N (0, 1) para tres diferentes valores del parámetro autoregresivo φ utilizando la misma
secuencia generada de valores t
φ=0
φ = 0,5
φ = 0,9
Identifique los efectos en la apariencia de una serie de tiempo {yt } al variar el parámetro φ.
-1
-2
-3
-4
-5
-6
0 10 20 30 40 50 60 70 80 90 100
Comentario:
Una serie sin autocorrelación se ve entrecortado y sin patrón a la vista; el valor de una observación
no otorga información acerca del valor de la siguiente observación.
-1
-2
-3
-4
-5
-6
0 10 20 30 40 50 60 70 80 90 100
Comentario:
La serie aparece suavizada, con observaciones por encima y por debajo de la media que a menudo
aparecen en manojos (clusters) de modesta duración.
-1
-2
-3
-4
-5
-6
0 10 20 30 40 50 60 70 80 90 100
Comentario:
Se observa que las desviaciones respecto de la media pueden ser bastante prolongadas; aquí los
choques fuertes toman considerable tiempo en diluirse.
Un segundo camino es asumir que el proceso es estacionario en covarianza y calcular los momentos
directamente a partir de la ecuación en diferencia
Yt = c + φYt−1 + t
Esperanza (µ)
Tomando esperanza
E [Yt ] = c + φ · E [Yt−1 ] + E [t ] . (47)
Asumiendo que el proceso es estacionario en covarianza
Observe que la fórmula [49] no genera claramente una afirmación sensata si |φ| ≥ 1.
Por ejemplo, si c > 0 y φ > 1 , entonces Yt en [41] es igual a la constante positiva mas un numero
positivo de veces su valor rezagado mas un variable aleatoria de media cero.
Sin embargo, [48] parece afirmar que Yt fuese en promedio negativo para un procesos de ese tipo!
La razón de que la fórmula [49] no sea válida cuando |φ| ≥ 1 es que hemos asumido en [48] que Yt
es estacionario en covarianza, un supuesta que no es correcto cuando |φ| ≥ 1.
Varianza (γ0 )
Para encontrar el segundo momento de Yt en una manera análoga, usamos [43] para reescribir [41]
como
Yt = µ (1 − φ) + φYt−1 + t
o
(Yt − µ) = φ (Yt−1 − µ) + t . (50)
Elevando al cuadrado ambos lados de [50] y tomando expectativas
h i h i h i
E (Yt − µ)2 = φ2 E (Yt−1 − µ)2 + 2φE [(Yt−1 − µ) t ] + E 2t . (51)
pero t no está correlacionado con t−1 , t−2 , . . ., de tal manera que t no está correlacionado con
(Yt−1 − µ). Así, el término promedio del lado derecho de [51] es cero:
E [(Yt−1 − µ) t ] = 0. (52)
Autocovarianzas (γj )
Similarmente, podemos multiplicar [50] por (Yt−j − µ) y tomar expectativas:
E [(Yt − µ) (Yt−j − µ)]
= φ · E [(Yt−1 − µ) (Yt−j − µ)] + E [t (Yt−j − µ)] (54)
Sin embargo, el término (Yt−j − µ) será una función lineal de t−j , t−j−1 , t−j−2 , . . ., el cual para
todo j > 0 se encontrará correlacionado con t . Así, para j > 0, el último termino del lado derecho
en [54] es cero
E [t (Yt−j − µ)] = 0 para j > 0
Observe que la expresión que aparece en el primer término del lado derecho de [54] es la autocova-
rianza de las observaciones en Y separadas por j − 1 periodos
h i
E [(Yt−1 − µ) (Yt−j − µ)] E (Yt−1 − µ) Y|t−1|−|j−1| − µ = γj−1
Ahora podemos darnos cuenta porque la función de respuesta al impulso y la función de autocorre-
lación para un proceso AR(1) coinciden:
Ambas representan la solución de una ED(1) con parámetro autoregresivo φ, con un valor inicial
igual a la unidad, y que no presenta choques posteriores.
1 − φ1 z − φ2 z 2 = 0 (58)
Observación: Recordando del capítulo 1, si los valores propios de F son todos menores que 1 en módulo,
entonces Fj convergerá a cero conforme j se haga grande. Si todos los valores de w e y son acotados,
podemos pensar en una solución de Yt en términos de la historia infinita de wt
donde
λp−1
ci = p
i
.
Y
(λi − λk )
k=1
k6=i
Esperanza (µ)
Como [61] es una proceso M A(∞) absolutamente sumable, su media está dada por el término
constante
c
µ= . (64)
1 − φ1 − φ2
Un método alternativo para el cálculo de la media es asumir que el proceso es estacionario en
covarianza y tomar expectativas de [56] directamente:
implica
µ = c + φ1 µ + φ2 µ + 0,
reproduciendo [64].
Autocovarianzas (γj )
Para encontrar los segundos momentos, escribimos [56] como
Yt = µ · (1 − φ1 − φ2 ) + φ1 Yt−1 + φ2 Yt−2 + t
o
(Yt − µ) = φ1 (Yt−1 − µ) + φ2 (Yt−2 − µ) + t . (65)
Así, las autocovarianzas siguen la misma ecuación en diferencias de segundo orden que el proceso
Yt , con la ecuación en diferencia para γj indexada por el rezago j.
Por lo tanto, las autocovarianzas se comportan exactamente como las soluciones de la ecuación de
segundo orden analizada en la Sección 1.2.
Autocorrelación (ρj )
Varianza (γ0 )
La varianza de un proceso AR(2) estacionario en covarianza puede ser encontrada multiplicando
ambos lados de [65] por (Yt − µ) y tomando expectativas:
h i
E (Yt − µ)2 = φ1 · E [(Yt−1 − µ) (Yt − µ)] + φ2 · E [(Yt−2 − µ) (Yt − µ)]
+ E [t (Yt − µ)] ,
o
γ0 = φ1 γ1 + φ2 γ2 + σ 2 . (70)
El último término (σ 2 ) en [70] proviene de observar que
E [t (Yt − µ)] = E [t (φ1 (Yt−1 − µ) + φ2 (Yt−2 − µ) + t )]
= φ1 · 0 + φ2 · 0 + σ 2 .
Esperanza (µ)
µ = c + φ1 µ + φ2 µ + · · · + φp µ,
o
c
µ= ≡ c · ψ(1) (75)
1 − φ1 − φ2 − · · · − φp
Autocovarianzas (γj )
Las autocovarianzas se encuentran multiplicando ambos lados de [76] por (Yt−j − µ) y tomando
expectativas:
(
φ1 γj−1 + φ2 γj−2 + · · · + φp γj−p para j = 1, 2, . . .
γj = (77)
φ1 γ1 + φ2 γ2 + · · · + φp γp + σ 2 para j = 0
Usando el hecho que γ−j = γj , el sistema de ecuaciones en [77] para j = 0,1,. . ., p puede ser
resuelto para γ0 ,γ1 , . . . , γp como funciones de σ 2 ,φ1 , φ2 ,. . . , φp .
Autocorrelaciones (ρj )
Así, las autocovarianzas y las autocorrelaciones siguen la misma ecuación en diferencia de p−ésimo
orden tal como lo hace el proceso por si mismo [72]. Para diferentes raíces, sus soluciones toman
la forma
γj = g1 γ1j + g2 γ2j + · · · + gp λjp , (79)
donde los valores propios (λ1 , . . . , λp ) son las soluciones de
λp − φ1 λp−1 − φ2 λp−2 − · · · − φp = 0.
(φ1 , φ2 , . . . , φp )
(θ1 , θ2 , . . . , θq )
Las autocovarianzas son encontradas multiplicando ambos lados de [83] por (Yt−j − µ) y tomando
expectativas.
Observe que [84] no se cumple para j ≤ q, debido a que las correlaciones entre θj t−j y Yt−j . Por
lo tanto, un proceso ARM A(p, q) tendrá autocovarianzas mas complicadas para los rezagos del 1
al q que las que corresponden a un proceso AR(p).
Para j > q con raíces autoregresivas distintas, las autocovarianzas estarán dadas por
Esta toma la misma forma que las autocovarianzas para un proceso AR(p) , como en [79], sin
embargo, como las condiciones iniciales (γ0 , γ1 , . . . , γq ) difieren para los procesos ARM A y AR,
los parámetros hk en [85] no serán los mismos que los gk en [79].
Yt = t . (86)
Si [86] es una representación válida, entonces también lo es [87] para cualquier valor de ρ.
Así, [87] puede ser descrita como un proceso ARM A(1, 1), con φ1 = ρ y θ1 = −ρ.
Como cualquier valor de ρ en [87] describe igualmente bien los datos, podemos obviamente meternos
en problemas tratando de estimar el parámetro ρ en [87] vía máxima verosimilitud.
Mas aún, las manipulaciones teóricas basadas en una representación tal como [87] pueden pasar
por alto importantes cancelaciones.
Si usamos un modelo ARM A(1, 1) en el cual θ1 es cercano a −φ1 , entonces los datos podrían ser
mejor modelados como un simple ruido blanco.
Una sobreparametrización relacionada puede también surgir con un modelo ARM A(p, q).
Φ(L)(Yt − µ) = Θ(L)t
(1 − λ1 L)(1 − λ2 L) · · · (1 − λp L)(Yt − µ) = (1 − η1 L)(1 − η2 L) · · · (1 − ηq L)t (88)
Asumimos que |λi | < 1 para todo i, tal que el proceso es estacionario en covarianza.
Si el operador autoregresivo
Φ(L) = 1 − φ1 L − φ2 L2 − · · · − φp Lp
Θ(L) = 1 + θ1 L + θ2 L2 + · · · + θq Lq
λi = ηj para algún i y j
O lo que es lo mismo
Φ(L)Yt = c + Θ(L)t
(1 − φ1 L − φ2 L − · · · − φp Lp )Yt = c + (1 + θ1 L + θ2 L2 + · · · + θq Lq )t .
2
Φ∗ (L)Yt = c + Θ∗ (L)t
(1 − φ∗1 L − φ∗2 L2 − · · · − φ∗p−1 Lp−1 )Yt = c + (1 + θ1∗ L + θ2∗ L2 + · · · + θq−1
∗
Lq−1 )t
{γj }∞
j=−∞
Si {γj }∞
j=−∞ es sumable absolutamente, entonces las γj se pueden resumir a través de la función
generadora de autocovarianzas.
∞
X
gY (z) = γj z j (90)
j=−∞
donde z ∈ C.
Cuando z cae sobre el circulo unitario complejo, éste se puede representar como
Espectro Poblacional
1 1 X ∞
sY (ω) = gY e−iω = γj e−iωj
2π 2π j=−∞
Se puede demostrar que, dado un proceso con autocovarianzas sumables absolutamente, existe la
función sY (ω) y puede ser usada para calcular todas las autocovarianzas.
NOTA: Si dos procesos diferentes comparten la misma gY (z) , entonces ambos exhiben la misma se-
cuencia de autocovarianzas.
Sabemos que
γ0 = 1 + θ 2 σ 2
γ1 = θσ 2
γj = 0 para j > 1
La forma de gY (z) para el proceso M A(1) nos sugiere que para el proceso M A(q)
gY (z) = σ 2 1 + θ1 z + θ2 z 2 + · · · + θq z q
× 1 + θ1 z −1 + θ2 z −2 + · · · + θq z −q (92)
(1 + θ1 z + θ2 z 2 + · · · + θq z q ) × (1 + θ1 z −1 + θ2 z −2 + · · · + θq z −q )
= (θq )z q + (θq−1 + θq θ1 ) z (q−1) + (θq−2 + θq−1 θ1 + θq θ2 )z (q−2)
+ · · · + (θ1 + θ2 θ1 + θ3 θ2 + · · · + θq θq−1 )z 1
+ (1 + θ12 + θ22 + · · · + θq2 )z 0
+ (θ1 + θ2 θ1 + θ3 θ2 + · · · + θq θq−1 )z −1 + · · · + (θq )z −q . (93)
entonces
gY (z) = σ 2 ψ(z)ψ z −1 . (97)
Yt − µ = (1 − φL)−1 t ,
donde
1
ψ(L) =
1 − φL
desarrollando
gY (z) = σ 2 1 + φz + φ2 z 2 + φ3 z 3 + · · · × 1 + φz −1 + φ2 z −2 + φ3 z −3 + · · ·
Θ(L) 1 + θ1 L + θ2 L2 + · · · + θq Lq
ψ(L) = =
Φ(L) 1 − φ1 L − φ2 L2 − · · · − φp Lp
entonces
gY (z) = σ 2 ψ(z)ψ z −1
! !
2 1 + θ1 z + θ2 z 2 + · · · + θq z q 1 + θ1 z −1 + θ2 z −2 + · · · + θq z −q
=σ
1 − φ1 z − φ2 z 2 − · · · − φp z p 1 − φ1 z −1 − φ2 z −2 − · · · − φp z −p
8. Invertibilidad
8.1. Invertibilidad para el Proceso MA(1)
8.1. Invertibilidad para el Proceso M A(1)
Sea un proceso M A(1),
Yt − µ = (1 + θL) t , (99)
con (
σ2 para t = τ
E [t τ ] =
0 en otro caso.
Siempre que |θ| < 1, ambos lados de [99] pueden ser multiplicados por (1 + θL)−1 para obtener1
1 − θL + θ2 L2 − θ3 L3 + · · · (Yt − µ) = t , (100)
1
Observe que a partir de
(1 − φL)−1 = lim 1 + φL + φ2 L2 + φ3 L3 + · · · + φj Lj .
j→∞
que
(1 + θL)−1 = [1 − (−θ) L]−1 = 1 + (−θ) L + (−θ)2 L2 + (−θ)3 L3 + · · ·
Si una representación M A(1) puede ser reescrita como una representación AR(∞) mediante la
inversión del operador media móvil Θ(L) = 1 + θL
[Θ(L)]−1 (Yt − µ) = t
2
Si |θ| ≥ 1, entonces la secuencia infinita en [100] no estaría bien definida
con (
σ2 para t = τ
E [t τ ] =
0 en otro caso.
media µ. ¿Cuál es la gY (z)?
La gY (z) será:
gY (z) = σ 2 1 + θz 1 + θz −1
n −1 o n −1 o
= σ2 θ z −1 + 1 θz θ z + 1 θz −1
2
= σ2θ
−1 −1
1+θ z 1+θ z −1 . (103)
Suponga que los parámetros θ, σ 2 y θ, σ 2 están relacionados mediante:
−1
θ=θ (104)
2 2 2
σ =θ σ (105)
Entonces:
gY (z) ≡ gY (z)
significando que Yt y Y t tendrían idénticos primer y segundo momento.
−1
Como θ = θ , entonces:
Para cualquier representación M A(1) invertible con |θ| < 1,
1
• Existe una representación M A(1) no invertible con θ =
θ
con los mismos primer y segundo momento de la representación invertible.
Para cualquier representación M A(1) no invertible con θ > 1,
1
• Existe una representación M A(1) invertible con θ =
θ
con los mismos primer y segundo momento de la representación no invertible.
con (
σ2 para t = τ
E [t τ ] =
0 en otro caso.
Θ(L) = 1 + θ1 L + θ2 L2 + · · · + θq Lq = (1 − λ1 L) (1 − λ2 L) · · · (1 − λq L) . (108)
Suponga que:
Implicación: Suponga una representación no invertible para un proceso M A(q) escrita en la forma
q
Y
Yt = µ + (1 − λi L) et (110)
i=1
donde
|λi | < 1 para i = 1, 2, . . . , n
|λi | > 1 para i = n + 1, n + 2, . . . , q
y (
e2
σ para t = τ
E [et eτ ] =
0 en otro caso.
Entonces la representación invertible está dada por
( n ) q
Y Y
Yt = µ + (1 − λi L) 1 − λ−1
i L , (111)
t
i=1 i=n+1
donde (
e 2 λ2n+1 λ2n+2 · · · λ2q
σ para t = τ
E [t τ ] =
0 en otro caso.
Entonces [110] y [111] tienen la idénticas funciones de generación de autocovarianzas; sin embarg,
solo [111] satisface la condición de invertibilidad.
Referencia
Hamilton J. (1994). Time Series Analysis, Princeton University Press.