0% encontró este documento útil (0 votos)
87 vistas47 páginas

Series Tiempo 2

El documento presenta una introducción a las series de tiempo. Explica que una serie de tiempo es una sucesión de observaciones indexadas por el tiempo que pueden mostrar dependencia temporal. Describe los componentes comunes de una serie de tiempo como tendencia, estacionalidad y ciclos. Resume los objetivos del análisis de series de tiempo como predicción, control de procesos y simulación. Explica brevemente el enfoque Box-Jenkins para el análisis de series de tiempo.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
87 vistas47 páginas

Series Tiempo 2

El documento presenta una introducción a las series de tiempo. Explica que una serie de tiempo es una sucesión de observaciones indexadas por el tiempo que pueden mostrar dependencia temporal. Describe los componentes comunes de una serie de tiempo como tendencia, estacionalidad y ciclos. Resume los objetivos del análisis de series de tiempo como predicción, control de procesos y simulación. Explica brevemente el enfoque Box-Jenkins para el análisis de series de tiempo.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Series de Tiempo:

Unidad I

José Luis Batún Cutz

Universidad Autónoma de Yucatán


Facultad de Matemáticas

March 1, 2021
Contenido

1 Introducción

2 Componentes de una serie de tiempo

3 Procesos Estocásticos

4 Función de Autocovarianza y Autocorrelación

5 Función de Autocorrelación parcial

6 Estimación en series estacionarias

7 Promedios Móviles y modelos autoregresivos

8 Ecuaciones en diferencias lineales


Introducción

Definición
Una serie de tiempo es una sucesión de observaciones,
que usualmente estan indexadas por el tiempo:
{Y1 , Y2 , . . . Yn }
Las observaciones se observan en intervalos regulares del
tiempo.
Las observaciones pueden presentar una estructura de
dependencia temporal
Es una trayectoria muestral de un proceso estocástico

Observación
Usualmente cada cierto periodo de tiempo se tiene una
observación, que es una realización de una variable aleatoria.
Los periodos de tiempo pueden ser, segundos, días, semanas,
meses, años, etc.
900,00

800,00 Número de desempleados en EEUU


700,00

600,00

500,00

400,00

300,00

200,00

100,00

0,00
1948 1950 1952 1954 1956 1958 1960 1962 1964 1966 1968 1970 1972 1974 1976 1978
Objetivos y tipos de análisis de series de tiempo

Objetivos
Predicción (pronóstico)
Control de Procesos
Simulación
Otros

Tipos de análisis
Enfoque clásico
Enfoque Box-Jenkins (inicios de los 70’s)
Análisis de Frecuencias
Patrones en una serie de tiempo
Tendencia: Existe una tendencia cuando hay un aumento o
disminución a largo plazo en los datos. No tiene por qué ser
lineal. A veces nos referiremos a una tendencia como "cambio
de dirección", cuando puede pasar de una tendencia creciente
a una tendencia decreciente.

Estacionalidad: Un patrón estacional ocurre cuando una serie


de tiempo se ve afectada por factores estacionales como la
época del año o el día de la semana. La estacionalidad es
siempre de un período fijo y conocido.

Ciclos:Un ciclo ocurre cuando los datos muestran una


tendencia de sube y baja que no son de una frecuencia fija.
Estas fluctuaciones generalmente se deben a las condiciones
económicas y, a menudo, están relacionadas con el "ciclo
económico".
Venta de Medicamentos anti-diabetes
30

20
$ Millones

10

1995 2000 2005


Ventas mensuales en Australia

Se presenta una tendencia creciente con un patron estacional


que se repite año con año
Seasonal plot: Venta de medicamentos anti-diabetes
30
2008
2007

2007

2006 2006

2005
20 2005
2008
2004
2004
2003
$ Millones

2002 2003
2002
2001

2000 2001
2000
1999
1999 1998
10 1997
1998
1997 1996
1996
1995
1993
1995
1994
1993 1994
1992
1992
1991
1991

Jan Feb Mar Apr May Jun Jul Aug Sep Oct Nov Dec
Mes
Ventas: Casas de una familia

80

60
Millones

40

1975 1980 1985 1990 1995


Año

¿Que patrones se presentan?


Contratos en Bonos del Tesoro USA

90
Número

88

86

0 20 40 60 80 100
Dia

¿Que patrones se presentan?


Producción trimestral de electricidad

60

40
Billion KW

20

1960 1970 1980 1990 2000 2010


Año

¿Que patrones se presentan?


Precios diarios al Cierre de las acciones de google

800

700
Precio

600

500

400

0 200 400 600 800 1000


Dia

¿Que patrones se presentan?


Precios diarios al Cierre de las acciones de google

50
Cambio en Precio diario

0 200 400 600 800 1000


Dia

¿Que patrones se presentan?


Usualmente se asume que una serie de tiempo se puede
descomponer en componentes que incorporan la
estacionalidad (St ), la tendencia-ciclo (Tt ) y una remanente Rt .
Así, cada observación dada en la serie de tiempo
{Y1 , Y2 , . . . Yn } puede ser expresado como:
Una descomposición aditiva:

Yt = St + Tt + Rt
o, una descomposición multiplicativa.
Para seleccionar el tipo de modelo a utilizar, se recomienda
aplicar la teoría explicada en

Yt = St × Tt × Rt
Para seleccionar el tipo de modelo a utilizar, se recomienda
aplicar la teoría explicada en :
Pegels, C. Exponential Forecasting: some new variations.
Management Science 1969; 15:311-4
Método Pegels
Enfoque Box-Jenkins

¿Estacionario?
No


Transformar los datos
(primera diferencia)

Determinar qué Sí
tipo de modelo es ¿Estacionario?
el adecuado
No
No
Transformar los datos
Estimar los
(segunda diferencia)
parámetros

del modelo Transformaciones
¿Estacionario? más
Sí No complejas
Diagnósticos Pronósticos
1. Identificación tentativa del modelo

2. Estimación de los parámetros del modelo

3. Evaluación de diagnósticos para comprobar si el modelo es adecuado;


mejorar el modelo si es necesario.

4. Generación de Pronósticos
Proceso Estocástico

Definición
Un proceso estocástico es una familia de variables aleatorias
{Xt }t∈T , donde T es un conjunto de índices arbitrario.

Definición
Para cada ω ∈ Ω, se tiene una "sucesión" {Xt (ω)}t∈T . Esta
sucesión se llama trayectoria muestral del proceso.
Distribuciones finito-dimensionales
Un proceso estocástico está completamente caracterizado
cuando se conocen todas las probabilidades de tipo

P((Xt1 , Xt2 , . . . , Xtn ) ∈ B)

N
para todo n ∈ , {t1 , t2 , . . . , tn } ⊂ T y B cualquier subconjunto
n-dimensional del σ-álgebra respectivo.
Lo anterior es equivalente a: un proceso está completamente
caracterizado si se conocen sus distribuciones finito-dimensionales.
Definición
Las distribuciones finito-dimensionales son las funciones de
distribución de cualquier subconjunto finito de variables
aleatorias pertenecientes al proceso, es decir,

Ft1 ,t2 ,...,tn (xt1 , xt2 , . . . , xtn ) = P[Xt1 ≤ xt1 , Xt2 ≤ xt2 , . . . , Xtn ≤ xtn ]

para n ∈ N, {t1, t2, . . . , tn } ⊂ T


Ejemplo
Sea {Xt }t∈[0,∞) un proceso gaussiano, es decir, cada
Xt ∼ N(µt , σt2 ). ¿Cuales son sus funciones de distribución
finito-dimensionales?
Definición
Sea {Xt }t∈T un proceso estocástico.
La función media mX : T → R, está dada por
mX (t) = E(Xt )

La función correlación RX : T × T → R está definida por


E(Xt1 − mX (t1 ))(Xt2 − mX (t2 ))
RX (t1 , t2 ) = p p
E(Xt1 − mX (t1 ))2 E(Xt2 − mX (t2 ))2
Definición
La función autocovarianza: CX : T × T → R tal que
CX (t1 , t2 ) = E[(Xt1 − E(Xt1 )(Xt2 − E(Xt2 )]
Ejemplo
Sea {Zn } una sucesión de v.a. no correlacionadas tal que
N
E(Zi ) = 0 y Var (Zi ) = σ 2 , para todo i ∈ . Se define un
proceso (cadena) estocástico {Xn } como sigue:

Xn = Z1 + Z2 + . . . + Zn n = 1, 2, ...

Determina la función media y la función autocorrelación del


proceso X = {Xn }.
Procesos estacionarios de orden n

Notación
Las distribuciones finito dimensionales se denotaran como:
− →
→ −
F ( x ; t ) = Ft1 ,t2 ,...,tn (xt1 , xt2 , . . . , xtn )
= P[Xt1 ≤ xt1 , Xt2 ≤ xt2 , . . . , Xtn ≤ xtn ]

− →

donde x = (x1 , x2 , . . . , xn ) y t = (t1 , t2 , . . . , tn ) y
t1 , t2 , . . . , tn ∈ T .
Procesos estacionarios de orden n

Definición
Un proceso estocástico X = {Xt }t∈T es estrictamente
estacionario de orden n si
− →
→ − − →
→ −
F ( x ; t ) = F ( x ; t + ∆t)

para toda colección de tamaño n, {t1 , t2 , . . . , tn } ∈ T y todo


∆t ∈ .R
Observación
¿Cual es la interpretación de la ecuación anterior?
Procesos estacionarios de orden n

Definición
Un proceso estocástico X = {Xt }t∈T es estrictamente
estacionario de orden n si
− →
→ − − →
→ −
F ( x ; t ) = F ( x ; t + ∆t)

para toda colección de tamaño n, {t1 , t2 , . . . , tn } ∈ T y todo


∆t ∈ .R
Observación
¿Cual es la interpretación de la ecuación anterior?
Proceso estrictamente estacionario

Definición
Si el proceso aleatorio es estrictamente estacionario de orden
N
n para todo n ∈ , entonces el proceso se llama proceso
estrictamente estacionario.

Ejercicio
Sea X = {Xt }t∈T proceso estocástico estacionario de orden 1.
Demuestra que su función media es constante.
Procesos débilmente estacionarios
Un proceso estocástico X = {Xt }t∈T es débilmente
estacionario (estacionario en el sentido amplio) si satisface las
condiciones siguientes:
1 La función media mX (t) = E[Xt ] no depende de t.
2 La función correlación depende de t1 y t2 a traves de la
diferencia t1 − t2 .

Notación
Un proceso debilmente estacionario se denota por X es WSS
(wide sense stationary). Tambien se les conoce como
covarianza-estacionarios.
Para un proceso X WSS, se tiene que RX (t1 , t2 ) = RX (τ ), con
τ = t1 − t2 .
En el caso de un proceso estrictamente estacionario, las
funciones de covarianza y autocorrelación se pueden expresar
en la forma:
E(Xt1 − µ)(Xt1 +k − µ)
ρk = RX (t1 , t1 + k ) = p q
E(Xt1 − µ)2 E(Xt1 +k − µ)2

o
γk
ρk =
γ0
con γk = E[(Xt1 − µ)(Xt1 +k − µ)] la función de autocovarianza.
Propiedades de la función de autocorrelación y
autocovarianza

1 γ0 = Var (Xt ) y ρ0 = 1
2 |γk | ≤ γ0 ; |ρk | ≤ 1
3 γk = γ−k y ρk = ρ−k
4 son funciones positivas semidefinidas, es decir,
n X
X n
αi αj γ|ti −tj | ≥ 0
i=1 j=1
n X
X n
αi αj ρ|ti −tj | ≥ 0
i=1 j=1

para cualesquiera reales α1 , . . . , αn y t1 , . . . , tn .


Observación
Si una función satisface las condiciones (1) a (3), no necesaria-
mente es una función de autocorrelación o autocovarianza.
Una condición necesaria para que sea función de autocovari-
anza o autocorrelación es que sea positiva semidefinida.

Ejercicio
Resolver los ejercicios 2.1 al 2.5 del texto Wei(1990)
Ruido Blanco

Definición
Un proceso {at } se llama ruido blanco si es una sucesión no
correlacionada de variables aleatorias con la misma
distribución, media constante E(at ) = µa ,, varianza constante
Var (at ) = σa2 y γk = Cov (at , at+k ) = 0 para k 6= 0.

En el texto, cuando se habla de un proceso estacionario, se


refiere a un proceso WSS o covarianza estacionario.
Ejercicio
Demuestra que un ruido blanco es estacionario y determina su
función de autocorrelación.
Función de autocorrelación parcial
La autocorrelación parcial entre dos variables Z1 y Zt+1 , t ≥ 2,
se define como la correlación entre los residuos obtenidos al
hacer regresión con respecto a las variables intermedias
Z2 , Z3 , . . . , Zt . Si t = 1, la autocorrelación parcial se define
como la autocorrelación.
Introducción
Componentes de una serie de tiempo
Procesos Estocásticos
Función de Autocovarianza y Autocorrelación
Función de Autocorrelación parcial
Estimación en series estacionarias
Promedios Móviles y modelos autoregresivos
Ecuaciones en diferencias lineales

Estimación de la media
Dada una serie de tiempo {Zt }nt=1 , como la función media es
constante, entonces un estimador de la media µ del proceso es
n
1X
Z = Zt . (1)
n
t=1

Este estimador es insesgado, con varianza dada por


(n−1)  
γ0 X |k |
Var (Z ) = 2 1− ρk (2)
n n
k =−(n−1)

Tarea: Determina las condiciones bajo las que el estimador


dado en (1) es L2 consistente para µ.
José Batún Series de Tiempo: Unidad I
Introducción
Componentes de una serie de tiempo
Procesos Estocásticos
Función de Autocovarianza y Autocorrelación
Función de Autocorrelación parcial
Estimación en series estacionarias
Promedios Móviles y modelos autoregresivos
Ecuaciones en diferencias lineales

Estimación de función de autocovarianza

Definición
Los estimadores de la función de autocovarianza están
definidos por:
n−k
1X
γ
bk = (Zt − Z )(Zt+k − Z )
n
t=1
n−k
1 X
γ
b
bk = (Zt − Z )(Zt+k − Z )
n−k
t=1

José Batún Series de Tiempo: Unidad I


Introducción
Componentes de una serie de tiempo
Procesos Estocásticos
Función de Autocovarianza y Autocorrelación
Función de Autocorrelación parcial
Estimación en series estacionarias
Promedios Móviles y modelos autoregresivos
Ecuaciones en diferencias lineales

Estimación de función de autocovarianza

Los estimadores anteriores son sesgados:

k n−k
γk ) = γk −
E(b γk − ( )Var (Z )
n n
bk ) = γk − Var (Z )
E(γ
b

José Batún Series de Tiempo: Unidad I


Introducción
Componentes de una serie de tiempo
Procesos Estocásticos
Función de Autocovarianza y Autocorrelación
Función de Autocorrelación parcial
Estimación en series estacionarias
Promedios Móviles y modelos autoregresivos
Ecuaciones en diferencias lineales

Estimación de función de autocorrelación


Utilizando cualquiera de los estimadores de autocovarianza da-
dos anteriormente, se pueden obtener dos estimadores de la
función de autocorrelación, aunque en la práctica se utiliza el
siguiente:

Pn−k
γ
bk t=1 (Zt − Z )(Zt+k − Z )
ρbk = = k = 0, 1, 2, . . . , n − 1 (3)
γ
b0 nb
γ0
Una gráfica de ρbk contra k (lag) se llama correlograma y per-
mite hacer análisis exploratorio para decidir el modelo a utilizar.
Tambien se utilizan estos valores para probar si existe autocor-
relación significativamente distinta de cero.
José Batún Series de Tiempo: Unidad I
Introducción
Componentes de una serie de tiempo
Procesos Estocásticos
Función de Autocovarianza y Autocorrelación
Función de Autocorrelación parcial
Estimación en series estacionarias
Promedios Móviles y modelos autoregresivos
Ecuaciones en diferencias lineales

Correlograma
Una observación está relacionada con previas y futuras obser-
vaciones (autocorrelación) y esto permite realizar pronósticos.
Debido a que la función de autocorrelación está definida como
desviaciones esperandas con respecto a la media, entonces:
autocorrelación positiva sugiere que desviaciones positivas
alrededor de la media se siguen de observaciones con des-
viaciones positivas de la media (periodos con varias obser-
vaciones consecutivas por arriba de la media, o por debajo
de la media)
autocorrelación negativa sugiere que desviaciones positi-
vas alrededor de la media se siguen de desviaciones nega-
tivas y viceversa.
José Batún Series de Tiempo: Unidad I
Introducción
Componentes de una serie de tiempo
Procesos Estocásticos
Función de Autocovarianza y Autocorrelación
Función de Autocorrelación parcial
Estimación en series estacionarias
Promedios Móviles y modelos autoregresivos
Ecuaciones en diferencias lineales

Ejemplo
18000
Indice Nikkei25

14000
8000 10000

0 100 200 300 400 500 600

tiempo

José Batún Series de Tiempo: Unidad I


Introducción
Componentes de una serie de tiempo
Procesos Estocásticos
Función de Autocovarianza y Autocorrelación
Función de Autocorrelación parcial
Estimación en series estacionarias
Promedios Móviles y modelos autoregresivos
Ecuaciones en diferencias lineales

Ejemplo

Autocorrelación Nikkei25
1.0
0.8
0.6
ACF

0.4
0.2
0.0

0 5 10 15 20 25

Lag

José Batún Series de Tiempo: Unidad I


Introducción
Componentes de una serie de tiempo
Procesos Estocásticos
Función de Autocovarianza y Autocorrelación
Función de Autocorrelación parcial
Estimación en series estacionarias
Promedios Móviles y modelos autoregresivos
Ecuaciones en diferencias lineales

Ejemplo
0.2
log-returns

0.1
0.0
-0.1

0 100 200 300 400 500 600

Tiempo

José Batún Series de Tiempo: Unidad I


Introducción
Componentes de una serie de tiempo
Procesos Estocásticos
Función de Autocovarianza y Autocorrelación
Función de Autocorrelación parcial
Estimación en series estacionarias
Promedios Móviles y modelos autoregresivos
Ecuaciones en diferencias lineales

Ejemplo

Autocorrelación Log return Nikei


1.0
0.8
0.6
ACF

0.4
0.2
0.0

0 5 10 15 20 25

Lag

¿Como será una gráfica de la función de autocorrelación del


ruido blanco?
José Batún Series de Tiempo: Unidad I
Introducción
Componentes de una serie de tiempo
Procesos Estocásticos
Función de Autocovarianza y Autocorrelación
Función de Autocorrelación parcial
Estimación en series estacionarias
Promedios Móviles y modelos autoregresivos
Ecuaciones en diferencias lineales

El operador retardo B se define como sigue:

BZt = Zt−1
2
B Zt = BBZt = Zt−2
. = .
k
B Zt = Zt−k

Este operador facilita la representación de una serie por medio


de combinaciones lineales, como en el caso de los modelos
autoregresivos:

Zt = a1 Zt−1 + a2 Zt−2 + . . . + ak Zt−k + εt


εt = (1 − a1 B − a2 B 2 − . . . − ak B k )Zt

José Batún Series de Tiempo: Unidad I


Introducción
Componentes de una serie de tiempo
Procesos Estocásticos
Función de Autocovarianza y Autocorrelación
Función de Autocorrelación parcial
Estimación en series estacionarias
Promedios Móviles y modelos autoregresivos
Ecuaciones en diferencias lineales

Promedios moviles

Usualmente se establecen modelos de series de tiempo


basados en la representacion de promedios moviles como
sigue:

Zt = εt + α1 εt−1 + α2 εt−2 , . . . , αq εt−q (4)


cuya representación en términos del operador retraso es:

Zt = (1 + α1 B + α2 B 2 , . . . , αq B q )εt

José Batún Series de Tiempo: Unidad I


Introducción
Componentes de una serie de tiempo
Procesos Estocásticos
Función de Autocovarianza y Autocorrelación
Función de Autocorrelación parcial
Estimación en series estacionarias
Promedios Móviles y modelos autoregresivos
Ecuaciones en diferencias lineales

Una generalización de la representación anterior es como


sigue:

X
Zt = µ + ψj at−j
j=0
P∞ 2
con ψ0 = 1, {aj } ruido blanco con media cero y j=0 ψj < ∞.
Note que

Zt − µ = ψ(B)at
P∞ j
con ψ(B) = j=0 B y B el operador retardo.

José Batún Series de Tiempo: Unidad I


Introducción
Componentes de una serie de tiempo
Procesos Estocásticos
Función de Autocovarianza y Autocorrelación
Función de Autocorrelación parcial
Estimación en series estacionarias
Promedios Móviles y modelos autoregresivos
Ecuaciones en diferencias lineales

Es facil comprobar que


E(Zt ) = µ
Var (Zt ) = σa2 ∞ 2
P
j=0 ψj
γk = σa2 ∞
P
j=0 ψj ψj+k
P∞
j=0 ψj ψj+k
ρk = P ∞ 2
j=0 ψj
P∞ 2
¿Porque es necesaria la condición j=0 ψj < ∞?

José Batún Series de Tiempo: Unidad I


Introducción
Componentes de una serie de tiempo
Procesos Estocásticos
Función de Autocovarianza y Autocorrelación
Función de Autocorrelación parcial
Estimación en series estacionarias
Promedios Móviles y modelos autoregresivos
Ecuaciones en diferencias lineales

Ecuación en diferencias de primer orden

Una ecuación en diferencia de primer orden es de la forma

yt = αyt−1 + wt (5)

Si conocemos el valor de y en el tiempo t = −1 y los valores


de wt en los tiempos t = 0, 1, 2, . . . , entonces por el método de
sustitución recursiva se obtiene:

yt = αt+1 + αt w0 + αt−1 w1 + . . . + αwt−1 + wt

José Batún Series de Tiempo: Unidad I

También podría gustarte