UNIVERSIDAD NACIONAL DE INGENIERA
ANLISIS DE SERIES DE TIEMPO
TEMA 2
DOCENTE DE PRCTICA
Henry Colonia Barrenechea
1 Clase 2: Contenido
Teorema de Wold
Metodologa de Box y Jenkins
Estimacin de modelos ARIMA .
2 Teorema de Wold
Proposition 1 i) (descomposicin de Wold). Cualquier proceso estacionario
en covarianzas, yt puede representarse de la forma:
1
X
yt = c + k !t k
k=0
1
P
donde: =1y 2 < 1. El trmino ! t es un ruido blanco y representa
0 k
k=0
el error de la prediccin lineal de yt sobre sus valores rezagados ! t = yt
Et yt=yt 1; yt [Link]yt p
3 Identicacin de modelos ARIMA(p,d,q)
Mtodo iterativo de estimacin y chequeo de las propiedades del modelo.
Este proceso puede resumirse en los siguientes cuatro pasos:
Transformar los datos buscando inducir estacionariedad. Si la tendencia
es determinstica, se remueve estimando para la serie yt un polinomio
determinstico de la forma:
yt = 0 + 1t + 2t2:: sts + "t
el residuo de esta regresin se considera como el proceso estacionario
que se esta buscando identicar.
Si la tendencia no es determinstica se procede a diferenciar la serie
tantas veces sea necesario para convertirla en estacionaria.
(L) dyt = (L)
Para determinar si se ha alcanzado estacionariedad se debe examinar
las FAS y FAP de la serie transformada. Si esta es estacionaria, ambas
debera aproximarse a cero rpidamente.
Utilizar pmax y qmax del modelo ARMA(p,q) que mejor puede describir la
serie.
Estimar los parmetros de los polinomios de rezagos (L) y (L)
Hacer un diagnstico del residuo Si el modelo asumido es el correcto,
entonces
El residuo no debera presentar correlacin serial,
Debe ser homocedstico, e idealmente debera tener media cero y dis-
tribuirse normalmente.
De no cumplirse algunas de estas propiedades del residuo, se regresa al
paso (2) y se repite el proceso.
Adicionalmente, se puede utilizar criterios de informacin para escoger el
modelo ms adecuado. Este ser el modelo que minimice el mayor nmero
de criterios de informacin disponibles. El criterio de informacin de Akaike
( AIC)
L k
AIC = 2 +2
T T
El criterio de Schwarz (SC)
L log(T )
SC = 2 +k
T T
Y el criterio de Hanna-Quinn ( HQ)
L log(log(T ))
HQ = 2 + 2k
T T
Donde, T : tamao de muesta, L el logartimo de la funcin de verosimilitud,
mayor este valor, mayor la probabilidad de que los datos prevengan del modelo
planteado, y nalmente, k que representa el nmero de parmetros estimados.
4 Funciones de Autocorrelacin Simple (FAS) y
Parcial(FAP)
La FAS se dene como s = s; El correlograma se dene como el grco
0
de b s versus s
El estadstico de Box-Pierce y Box-Ljung Q: Permiten probar la hiptesis
conjunta: 1 = 2 = ::: = s = 0, el estadsitco de BP esta dado por ,
k
X
Q(k) = T b2
s , donde, Q(k )
2 (k )
s=1
Box-Ljung ajusta el estadstico utilizando grados de libertada para mejorar
el desempeo del estastico en muestras pequeas,
k
X b2s 2 (k )
Q(k) = T (T + 2) T s , donde, Q(k )
s=1
5 La FAP
Es la correlacion entre yt y yt s es la correlacin simple entre yt s y yt
menos la parte linelamente explicada por los rezagos [Link] =
11 yt 1 + 22 yt 2 + 33 yt 3 ::: ppyt p
La funcin de autocorrelacin parcial esta dada por el grco de kk versus
k
Para un AR(p) kk = 0 para k > p
Para MA(q) k = 0 para k > q
6 Estimacin de modelos ARMA(p,q)
Los modelos AR(p) pueden estimarse consistentemente por MCO si y solo
si el modelo esta adecuadamente identicado.
AR(1), yt = 1ytP1 + "t, el estimador
Supongamos el caso de un modeloP
y y "y
MCO de 1 esta dado por, b 1 = P t 2 t 1 = 1 + P t 2t 1 , Puesto que
yt 1 yt 1
Et ("tyt 1 ) = 0, entonces se tiene que p lim b 1 = 1:
Si por el contrario, el verdadero
P proceso es un P
AR(2) y estimamos un
y y ("tyt 1 + 2 yt 2 yt 1 )
AR(1), tenemos que b 1 = P t 2 t 1 = 1 + P 2 .
yt 1 yt 1
Puesto que Et ("tyt 1 + 2yt 2 yt 1 ) 6= 0, p lim b 1 6= 1, por lo que
el estimador MCO es inconsistente.
Los modelos MA(q) por el contrario no pueden estimarse por MCO, en
este caso hay que utilizar el mtodo de mxima verosimilitud.
7 Mxima verosimilitud
La funcin de verosimilitud L(yt; yt 1; yt 2::; y1; ) se dene como la
funcin de densidad conjunta de yt; yt 1; yt 2::; y1
Si las variables, yt son independientes, la funcin de densidad conjunta es
el producto de las densidades marginales
Cuando las variables yt no son independientes se pude utilizar la factor-
izacin condicional L;
La funcin de densidad conjunta siempre puede factorizarse como el pro-
ducto de la densidad condicional de y2 en y1 y la funcin marginal de y1
tal que f (y2; y1; ) = f (y2=y1; )f (y1; ).
Generalizando este concepto para el caso de t variables,
0 1
T
Y
L(Y; ) = @ f (yt=yt 1; yt 2::; y1; )A f (y1; )
t=2
Usualmente se utiliza un transformacin monotnica de L, el log L(Y; ) =
T
X
log f (yt=yt 1; yt 2::; y1; ) + log f (y1; )
t=2
8 Funcin de Verosimilitud para un AR(1)
Dado el modelo, yt = c + yt 1 + "t, donde "t se distribuye N (0; 2" )
2
La distribucin marginal de y1 es N ( ; "
2 ), donde, = 1c
1
2 2
de donde log f1(y1; ) = 1 log(2 ) 1 log " 1 (y1 )
2 2 1 2 2 2
"
1 2
Asimismo, la funcin de densidad de Y2 condicional en el valor de Y1,
f (y2=y1; ) N (c + Y1; 2" ), esta dado por :
2
log f (y2=y1; ) = 1 log(2 ) 1 log 2 1 (y2 c Y1 )
2 2 " 2 2
"
Por lo que la funcin verosimilitud estara dada por
2 2
log L(Y; ) = 1 log(2 ) 1 log " 1 (y1 )
2 2 1 2 2 2
"
1 2
TX1
(T 1) (T 1) 2 1 (y t c Yt 1 )2
2 log(2 ) 2 log " 2 2
"
t=1
9 Funcin de Verosimilitud para un MA(1)
Dado el siguiente proceso M A(1), yt = + "t + "t 1donde, "t
N (0; 2" ).
Si el valor de "t 1 es conocido, entonces, tenemos que yt="t 1 N( +
"t 1; 2" )
Supongamos que "0 = 0 entonces "1 = y1 ;utilizando "1; "2 =
y2 "1 = y2 (y1 ) y as sucesivamente, "t = yt "t 1
TX1 2
(T 1) (T 1) 2 1 "t
Con ello, log L(Y; ) = 2 log(2 ) 2 log " 2 2
"
t
Ejemplo, T = 3, "0 = 0; utilizando la denicin del proceso, "1 = y1 ,
"2 = y2 (y1 ), y "3 = y3 (y2 ) + 2 (y1 )
De donde, el logaritmo de la funcin de verosimilitud esta dado por
(3 1) (3 1) 2
log L(Y; ) = 2 log(2 ) 2 log "
!
2 2 2 (y 2
1 (y1 ) +(y2 (y1 )) +(y3 (y2 )+ 1 ))
2 2
"
10 Funcin de Verosimilitud para un MA(q)
Igualmente, en este caso, "o = " 1 = :::" q+1 = 0
Entonces recursivamente, "t = yt 1 "t 1 2 "t 2 :: q "t q
(T 1) (T 1) 2
Finalmente tenemos que: log L(Y; ) = 2 log(2 ) 2 log "
TX1 2
1 "t
2 2
"
t
11 Descomposicin del error de prediccin
Supuesto, yt t 1 N yt;t 1; ft;t 1 , entonces, para variables esta-
cionarias, la funcin de verosimilitud esta dada por
XT XT 1
ln L = 1 ln 2 ft;t 1 1 0 f
2 t=1 2 t=1 t;t 1 t;t 1 t;t 1
Donde, t;t 1 = yt Et(yt=It 1) representa el error de prediccin de yt
dada la informacin hasta el periodo t 1
ft;t 1 representa la varianza del error de prediccin ft;t 1 = Et 0
t;t 1 t;t 1
La descomposicin del error de prediccin es una representacin muy con-
veniente cuando se utiliza juntamente con el ltro de Kalman.
12 Propiedades del estimador de MV
Bajo ciertas condiciones de Regularidad, el estimador de MV, satisface
Consistencia, p lim bM V =
Normalidad Asinttica: bM V ! N ( ; I 1( )). En donde, I ( ) rep-
@ 2 log L
resenta la matriz de informacin denidad como, I ( ) = @ @ 0
Eciencia asinttica: bM V alcanza la cota de Cramer-Rao
Invarianza: El estimador de MV de = c( ) es b M V = c(bM V )