0% encontró este documento útil (0 votos)
68 vistas64 páginas

Procesos de Paseo Aleatorio y Estacionariedad

Este documento describe los procesos de paseo aleatorio y procesos lineales. Explica que un proceso sigue un paseo aleatorio si su valor en un momento es el valor del periodo anterior más un efecto aleatorio. También describe los tipos de procesos lineales como autoregresivos, de media móvil y ARMA.

Cargado por

Dante
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PPT, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
68 vistas64 páginas

Procesos de Paseo Aleatorio y Estacionariedad

Este documento describe los procesos de paseo aleatorio y procesos lineales. Explica que un proceso sigue un paseo aleatorio si su valor en un momento es el valor del periodo anterior más un efecto aleatorio. También describe los tipos de procesos lineales como autoregresivos, de media móvil y ARMA.

Cargado por

Dante
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PPT, PDF, TXT o lee en línea desde Scribd

Procesos de paseo aleatorio

• Un proceso estocástico sigue un paseo aleatorio si;

xt  xt 1   t
donde  t es ruido blanco
• El valor en un momento es el valor del periodo anterior más
un efecto aleatorio ruido blanco.

xt  xt 1  xt  (1  L) xt   t
Procesos de paseo aleatorio
Procesos de paseo aleatorio
• Se puede generalizar el modelo e incorporar una constante.

xt     t
xt  xt 1     t
Procesos de paseo aleatorio
• El primero momento;
 t 1 
E ( xt )  E  x0  t    t  j   x0  t
 j 0 
• Si   0 el proceso no es estacionario en media.
Procesos de paseo aleatorio
• La varianza;
2

t 1 
 t ,0  E ( xt  E ( xt ))  E    t  j 
2

 j 0 
 t 1  t 1
 t 1

 E    t  j  2   t  j t  j '    E ( t2 j )
2

 j 0 j , j ' 0  j 0
 j j' 
  2t  t es ruido blanco, y E ( t t  j )  0 j  0
• No es estacionario en varianza; tiene una tendencia (incrementa
linealmente). Paseo aleatorio tiene una tendencia en varianza o
tendencia estocástica.
Procesos de paseo aleatorio
• Otra manera de llegar al mismo resultado;
Procesos de paseo aleatorio
• Autocovarianza;
 t ,  E ( xt  E ( xt ))( xt   E ( xt  ))
 t 1  t  1  t  1
 E    t  j    t   j    E ( t2 j )
 j 0  j 0  j 0
  2 (t   )

• La autocovarianza tampoco es constante


• Por lo tanto el paseo aleatorio no es estacionario
Procesos de paseo aleatorio

• Si transformamos el proceso a través de una


diferencia, la transformación sería estacionaria.

wt  xt     t
wt es estacionario; es un ruido blanco alrededor de la media,  .
Procesos de paseo aleatorio
• Es importante detectar si un serie está generada por
un paseo aleatorio.

• 1) La función de autocorrelación simple puede dar


una indicación.
 t ,  2 (t   ) (t   ) 
t ,     1
 t ,0 t  ,0   t  (t   )
2 2
t (t   ) t

• Una correlograma presentará los primeros


coeficientes muy cerca de 1, y esta va decreciendo
suavemente.
Procesos de paseo aleatorio

 xt  c  11 xt 1  ut
x  c  x  x  u
 t 21 t 1 22 t  2 t

 
 xt  c  k1 xt 1  k 2 xt  2  ...  kk xt  k  ut

• La FAP, resultaría en un primero coeficiente significativo y


cerca de uno, mientras los siguientes coeficientes serán cero.
Procesos de paseo aleatorio
• Normalmente un FAC que está decreciendo muy lento con un
primer FAP cerca uno y los restos cero, indica que podemos
diferenciar para conseguir un serie temporal estacionario.
Procesos de paseo aleatorio

• Otra manera para saber si se debe diferenciar una serie


temporal son los contrastes de raíces unitarias.
• Constaste de raíces unitarias. “unit roots”. Estima la
ecuación;
xt  xt 1     t
Y contrastar si H 0 :   1
Procesos lineales
• Definición: Un proceso estocástico 
T
t t 1es
lineal cuando lo
podemos escribir como una función de una combinación lineal
(posiblemente infinita) de variables aleatorios de ruido blanco.

xt   t   1 t 1   2 t  2  ...

  j t  j
j 0
Procesos lineales
• Hay tres tipos de procesos estocásticos lineales;
• Autoregresivas (AR)
• Media móvil (MA)
• ARMA (la combinación de AR y MA)

AR ( p ); xt  1 xt 1  2 xt  2  ...   p xt  p   t
MA(q ); xt   t  1 t 1   2 t  2  ...   q t  q
ARMA( p, q ); xt  1 xt 1  ...   p xt  p   t  1 t 1  ...   q t  q

 t es un término aleatorio, independiente e idénticamente distribuido (“ruido blanco”).


Procesos lineales
• Se puede introducir una constante  para tener
procesos con una media . 0

• Se puede expresar los procesos con un polinomio de


operadores de retardos. El operador de retardos B esta
definido por:
Bxt  xt 1
B k xt  xt  k

k
Procesos lineales
• Utilizando el operador de retardos y la generalización, se
puede escribir los procesos:
AR( p );  p ( L) xt     t
MA(q ); xt     q ( L) t
ARMA( p, q );  p ( L) xt     q ( L) t

• Se puede transformar procesos AR y ARMA en procesos MA.


 p ( L)  1  1 L  2 L2  ...   p Lp polinomio autoregres sivo
 p ( L)  1  1 L   2 L2  ...   q Lq polinomio media móvil
Procesos lineales
Teorema de Wold. Cualquier proceso estocástico estacionario se
puede representar con una suma de dos procesos.
xt  d t  ut

Donde d t es linealmente determinista y ut es un procesoMA():


u t    ( L) t


j 0
j  t j

Donde  t es ruido blanco.


Procesos autoregresivos (AR)
• Un proceso autoregresivo se puede escribir,

 p ( L) xt     t
(1  1L  2 L2  ...   p Lp ) xt     t
xt    1 xt 1  2 xt  2  ...   p xt  p  
Procesos autoregresivos (AR)

• Para que un proceso AR sea estacionario el polinomio


en el operador de retardos  p (L) asociados al
proceso tiene que ser estable, es decir, al calcular las
raíces del polinomio,
 p ( L)  (1  1 L  2 L  ...   p L )  0
2 p

estas tienen de caer fuera del círculo unidad. Los


valores
L de L 1
que satisfacen esto cumple .
Procesos autoregresivos (AR)
• Si hay alguno raíz igual a 1 (raíz unitario) el proceso AR no es
estacionario, y no se pueden expresar como procesosMA(.) Si
hay alguna raíz inferior a 1 el proceso será explosivo y
tampoco estacionario.
Procesos autoregresivos (AR)
• Las condiciones para estacionariedad son:
p

• (necesaria, pero no suficiente): 


j 1
j 1

• (suficiente, pero no necesario): 


j 1
j 1
Procesos autoregresivos (AR)
• AR(1) estacionariedad

xt    1 xt 1   t
(1  L) xt     t

• Condición necesaria y suficiente:


 1
Procesos autoregresivos (AR)
• Un proceso AR (1) estacionario se puede escribir como un
proceso MA( .)

  t
xt   (1  L   2 L2  ...)(   t )
(1  L)
 
   j t  j
1   j 0

• Se puede llegar a la misma solución a través de substitución


recursiva.
xt    xt 1   t .
Procesos autoregresivos (AR)
• El momento de primer orden es;

    
  E ( xt )  E      t  j  
j

 1   j 0  1
• Con estacionariedad ( E ( xt )  E ( xt 1 )   )
tenemos el mismo resultado;

  E ( xt )  E (  xt 1   t )       (1   ) 1
Procesos autoregresivos (AR)
• La varianza del proceso es;
2
   
 2
 0  E ( xt   )  E     t  j         2
2
 j
 2j 2

 j 0  j 0 1
• También se puede llegar a este resultado a través;

 0  V ( xt )  V (  xt 1   t )   2 0   2   2 (1   2 ) 1
Procesos autoregresivos (AR)

• La función de autocorrelación simple es;



    
0

• y tiene un decrecimiento exponencial.

• FAP, al otro lado, sólo tiene un coeficiente diferente


de cero. Se puede demostrar con las ecuaciones de
Yule-Walker.
Procesos autoregresivos (AR)
Procesos autoregresivos (AR)
• AR(2): xt    1 xt 1  2 xt 2   t
(1  1 L  2 L2 ) xt     t
 2 ( L ) xt     t
donde 2 ( L)  (1  1 L  2 L2 )

• Al calcular las raíces del polinomio (1  1L  2 L2 )  0


tendríamos dos soluciones y hay los siguientes requisitos
(simultáneamente) para tener un polinomio estable.
2  1  1
2  1  1
2  1
Procesos autoregresivos (AR)
• Los resultados para la covarianza de AR(1) se puede
generalizar.
Procesos autoregresivos (AR)

• En síntesis los procesos AR(p) se caracterizan por tener una


FAC donde los coeficientes decrecen exponencialmente en
valor absoluto hacia 0 y por tener tantos coeficientes distintos
de 0 en la FACP como orden tenga el proceso. Los procesos
mas habituales son los de orden 1 y 2 y las condiciones de
estacionariedad son: AR (1)
1 1
AR (2)
 2 1
 2  1  1
 2  1  1
Procesos media móviles (MA(q))
• Un proceso media móvil de orden q;
xt     t  1 t 1   2 t  2  ...   q t  q
    q ( L) t

• Estos procesos siempre son estacionarios (los


momentos de primer y segundo orden son siempre
finitas y constantes a largo del tiempo).
• Una condición (que hay que comprobar) para estos
procesos es que son invertibles.
Procesos media móviles (MA(q))
• Esta condición implica que las raíces del polinomio q (L) están
fuera del círculo de unidad. Los procesos MA no invertibles
no permiten una representación autoregresiva convergente.
Procesos media móviles (MA(1))
• MA(1): xt     t  1 t 1

• La condición de invertibilidad es para un proceso MA(1) es


.
 1
• Esperanza:

  E ( xt )  E (   t  1 t 1 )  
Procesos media móviles (MA(1))
• Varianza:

 0  E ( xt   ) 2  E ( t  1 t 1 ) 2  E ( t2 )  12 E ( t21 )  21E ( t t 1 )


 
 1  12  2
• Autocovarianza:

 1  E ( xt   )( xt 1   )  E ( t  1 t 1 )( t 1  1 t  2 )  1 2


 2  E ( xt   )( xt  2   )  E ( t  1 t 1 )( t  2  1 t  3 )  0
   0   2
Procesos media móviles (MA(1))
• FAS es:  1
   1
   (1  1 )
2

0  2

• La FAP presenta un decrecimiento exponencial;


1k (1  12 )
kk  
1  12 ( k 1)
Procesos media móviles (MA(1))
Procesos media móviles (MA(2))

• Calcular las raíces del polinomio.


Procesos media móviles (MA(2))
• Para tener un modelos estable;
Procesos media móviles (MA(2))
Procesos media móviles (MA(2))
Procesos media móviles (MA(2))
Procesos media móviles (MA(2))
Procesos autoregresivos media
móviles (ARMA(p,q))
• Un modelo autoregresivo media móvil (ARMA(p,q))
sigue la forma;

• Es decir, tiene una parte autoregresivo y otra parte


media móvil.
Procesos autoregresivos media
móviles (ARMA(p,q))
• Debemos comprobar si la parte autoregresiva es estacionaria y
la parte media móvil es invertible.

• Si la parte AR es estacionario, se puede escribir como un MA()


Procesos autoregresivos media
móviles (ARMA(p,q))
• Si la parte MA es invertible, se puede expresarlo como un AR()
Procesos autoregresivos media
móviles (ARMA(p,q))
• Los procesos ARMA tienen un FAS como la de su parte AR y
una
• FAP como su parte MA.
• ARMA tiene FAS y FAP que decrecen exponencialmente en
valor absoluta hacia cero.
Procesos autoregresivos media
móviles (ARMA(p,q))
ARMA(1,1)
xt    xt 1   t  1 t 1
  (1  1 ) 1
1  211  12 2
0  
1  12
• FAS:
 (1  11 )(1  1 )
  1
   1  211  12
1  1  1
ARMA(1,1)
ARMA(p,q)

   p (1)  1

• Representar con MA() :


xt     j t  j      ( L) t
j 0

 0  E ( xt   ) 2   2  2j
j 0
Procesos autoregresivos integrados
media móvil; ARIMA(p,d,q)
• Procesos ARIMA presentan raíces unitarias en el polinomio
autoregresivo; no son estacionarios. Se puede factorizarr* ( L) a
partir de las raíces unitarias. Podemos escribir;
r* ( L)  (1  L) d r  d ( L)
• Donde r  d ( L)no incluye raíces unitarias y es el número de
*

raíces unitarias.
Procesos autoregresivos integrados
media móvil; ARIMA(p,d,q)
• Recuerda el operador de diferencias;
ARIMA(p,d,q)
• Por ejemplo, ARIMA(0,1,0) es un paseo aleatorio.
ARIMA(p,d,q)
• Si una serie presenta un correlograma como un AR(1) con  1
; FAS está muy cerca 1, y no caen rápidamente.
ARIMA(p,d,q)
• Si aplicamos el operador de diferencia cuando no es necesario
(sobre-diferenciar), tendremos un MA(1) que no es invertible.

• Por ejemplo: Ruido blanco;


ARIMA(p,d,q)
• Cuando el orden de diferencia se ha decidido , se
puede escribir un procesos ARIMA como AR()o un MA(.)
Procesos estaciónales
• Si tenemos datos con información de varias ocasiones durante
un año, podemos observar estacionalidad, es decir, un
comportamiento económico que depende del tiempo durante
un año. (Ejemplos; temperaturas, vacaciones, movimientos
turísticos). Los procesos anteriores están pensados para series
con sólo una observación cada año, o series sin estacionalidad.
• El numero de estaciones durante el año llamamos s. Por
ejemplo, S=12 para datos mensuales, o 4 para trimestrales. Se
puede generalizar los procesos explicas arriba para captar
estacionalidad.
Procesos estaciónales
Procesos estaciónales
Procesos estaciónales
Procesos estaciónales

• Una serie temporal con estacionalidad puede tener


una estructura de dependencia estacional y otra parte
regular (no estacional) que sigue un

• Normalmente estas partes pueden interactuar en una


especificación multiplicativa. Este es un modelo
Procesos estaciónales
• En estos modelos hay “efectos satélites”.
• Por ejemplo

• Nota el término que se nota en FAP


y FAS asociados los retardos próximos a los
múltiples de S, pero esto no significa que tengamos
procesos adicionales de MA(0,1) y SMA(0,1).
Procesos estaciónales
• FAS: Se reproduce la parte regular de la FAS
alrededor de los coeficientes estaciónales.
• FAP: Se reproduce la parte regular de la FAS a la
izquierda de los coeficientes estaciónales y la parte
de FAP a la derecha.
• Signos:
– En FAS se multiplica el signo del coeficientes estacional
por el de regular.
– En FAP, si el signo del coeficiente estacional es positivo
se inversa el signo a la parte derecha (FAP regular)
mientras si es negativo, se inversa el de la izquierda
(FAS regular).
Procesos estaciónales

También podría gustarte