Series de tiempo.
Una serie de tiempo es una
secuencia de datos numéricos en
la que cada elemento está
asociado a un instante particular
en el tiempo (Maddala).
• PIB anual.
• Tasa de desempleo mensual.
• Ventas diarias.
Estacionaried
Estacionariedad fuerte: Se ad.
dice que una serie de tiempo es estrictamente
estacionaria si la distribución conjunta de cualquier conjunto de n observaciones
es la misma que la distribución conjunta de para todo n y para todo k (Maddala).
En palabras simples, existe estacionariedad fuerte si la función de probabilidad
conjunta de un proceso estocástico no cambia a través del tiempo.
Estacionariedad débil: se dice que un proceso estocástico es débilmente estacionario
si su media, varianza y covarianza no varían con el tiempo (ósea, son constantes
finitas)
• Var(
• Cov(
Si X(t) sigue una distribución normal, dado que dicha distribución está
completamente caracterizada por su primer y segundo momento, los conceptos de
estacionariedad fuerte y débil son equivalentes (Maddala).
Ergodicidad.
La relación entre 2 variables aleatorias de
un proceso es más débil cuando las
variables son más lejanas en el tiempo.
lim 𝛾 𝑘 =0
𝑘− ∞
Teorema de
Wold.
Establece que un proceso estocástico estacionario
puede ser descompuesto en dos componentes: una
parte determinística y una parte estocástica.
𝑋 𝑡 =𝜇 + 𝑢𝑡
Operador de
rezago.
El operador de rezagos L está definido
por:
Operador de primeras
diferencias.
Indica el número de veces que
una variable se ha diferenciado.
Función de autocorrelación simple y
parcial.
Miden la relación lineal entre variables de procesos separados de
una cierta distancia en el tiempo.
Función de autocorrelación simple (FAS):
Función de autocorrelación parcial (FAP): implica la eliminación de la
influencia de los rezagos intermedios en la correlación entre la serie y
un rezago específico. Se calcula a través de regresiones.
Ruido blanco (White
Noise).
En series de tiempo, se asume que el termino de
error es un ruido blanco.
Proceso
AR(1).
Si una serie de tiempo Xt puede ser predicha
por sus valores pasados, tenemos un modelo
autorregresivo (AR).
El ejemplo más simple es un AR(1):
<1
Donde el ultimo termino es un ruido blanco.
Ejercicio: Demostrar que este proceso es
estacionario. Además, ver el
comportamiento cuando p=1
Dibujar los correlogramas.
Además, si |podemos representar
un proceso AR(1) en un
MA(Demostrar.
¿Qué pasa con los
AR(2)? ¿Y los
AR(P)?
Para que un proceso AR(2) sea estacionario, las raíces
de la ecuación característica deben de estar fuera del
círculo unitario (deben ser mayores a 1). Lo mismo pasa
con los AR(P). Otra forma de verificar es viendo los
eigen valores, los cuales deben ser menores a 1.
En el caso de un AR(2), la FAP se cortaría en el rezago 2
(en la rayita 2), en los AR(3), se cortaría en el rezago 3,
y así.
Procesos MA(1)
Si una serie de tiempo puede ser predicha por su termino de
error (el cual es ruido blanco) actual y pasados, estamos
hablando de un modelo de medias móviles (MA). Por definición,
estos procesos son estacionarios.
𝑋 𝑡 =𝜇+ 𝜀𝑡 − 𝜃 𝜀𝑡 −1
Ejercicio: Demostrar que este proceso es
estacionario. Además, ver el comportamiento
cuando =1 (por separado).
Dibujar los correlogramas.
Además, si ||<1, el proceso
MA(1) puede ser convertido en
un proceso AR()
(Invertibilidad). Demostrar
¿Qué pasa con los MA(2)? ¿Y
los MA(q)?
Sin importar el número de rezagos, los procesos MA son siempre
estacionarios. Lo importante aquí es ver si son invertibles. Si las
raíces de la ecuación característica son mayores a 1, el proceso
es invertible. Otra forma es que los eigen values sean menores a
1.
En un MA(2), la FAS se cortaría en el rezago 2, en un MA(3), se
corta en el rezago 3, y así.
Procesos ARMA
(1,1).
Es posible combinar los modelos AR y los modelos MA
en un modelo ARMA.
𝑋 𝑡 = 𝜌 𝑋 𝑡 −1 + 𝜀𝑡 + 𝜃 𝜀𝑡 −1
La estacionariedad del proceso depende
del valor de y la invertibilidad depende
de
• Si | es estacionario.
•Ejercicio:
Si | esencuentre
invertible.
media, varianza y una covarianza del
proceso ARMA(1,1).
Pronóstico
s .
Se crean a partir de un proceso (MA, AR, ARMA) iterando hacia
adelante (T+1, T+2,…), para luego obtener la esperanza condicional
de dicha iteración , donde representa toda la información disponible
en el periodo T (se sabe lo que pasó en T, T-1, T-2,…). Un paso
importante es encontrar la varianza del error y el intervalo de
confianza del pronóstico.
Intervalo=