Series de Tiempo:
Unidad I
José Luis Batún Cutz
Universidad Autónoma de Yucatán
Facultad de Matemáticas
March 1, 2021
Contenido
1 Introducción
2 Componentes de una serie de tiempo
3 Procesos Estocásticos
4 Función de Autocovarianza y Autocorrelación
5 Función de Autocorrelación parcial
6 Estimación en series estacionarias
7 Promedios Móviles y modelos autoregresivos
8 Ecuaciones en diferencias lineales
Introducción
Definición
Una serie de tiempo es una sucesión de observaciones,
que usualmente estan indexadas por el tiempo:
{Y1 , Y2 , . . . Yn }
Las observaciones se observan en intervalos regulares del
tiempo.
Las observaciones pueden presentar una estructura de
dependencia temporal
Es una trayectoria muestral de un proceso estocástico
Observación
Usualmente cada cierto periodo de tiempo se tiene una
observación, que es una realización de una variable aleatoria.
Los periodos de tiempo pueden ser, segundos, días, semanas,
meses, años, etc.
900,00
800,00 Número de desempleados en EEUU
700,00
600,00
500,00
400,00
300,00
200,00
100,00
0,00
1948 1950 1952 1954 1956 1958 1960 1962 1964 1966 1968 1970 1972 1974 1976 1978
Objetivos y tipos de análisis de series de tiempo
Objetivos
Predicción (pronóstico)
Control de Procesos
Simulación
Otros
Tipos de análisis
Enfoque clásico
Enfoque Box-Jenkins (inicios de los 70’s)
Análisis de Frecuencias
Patrones en una serie de tiempo
Tendencia: Existe una tendencia cuando hay un aumento o
disminución a largo plazo en los datos. No tiene por qué ser
lineal. A veces nos referiremos a una tendencia como "cambio
de dirección", cuando puede pasar de una tendencia creciente
a una tendencia decreciente.
Estacionalidad: Un patrón estacional ocurre cuando una serie
de tiempo se ve afectada por factores estacionales como la
época del año o el día de la semana. La estacionalidad es
siempre de un período fijo y conocido.
Ciclos:Un ciclo ocurre cuando los datos muestran una
tendencia de sube y baja que no son de una frecuencia fija.
Estas fluctuaciones generalmente se deben a las condiciones
económicas y, a menudo, están relacionadas con el "ciclo
económico".
Venta de Medicamentos anti-diabetes
30
20
$ Millones
10
1995 2000 2005
Ventas mensuales en Australia
Se presenta una tendencia creciente con un patron estacional
que se repite año con año
Seasonal plot: Venta de medicamentos anti-diabetes
30
2008
2007
2007
2006 2006
2005
20 2005
2008
2004
2004
2003
$ Millones
2002 2003
2002
2001
2000 2001
2000
1999
1999 1998
10 1997
1998
1997 1996
1996
1995
1993
1995
1994
1993 1994
1992
1992
1991
1991
Jan Feb Mar Apr May Jun Jul Aug Sep Oct Nov Dec
Mes
Ventas: Casas de una familia
80
60
Millones
40
1975 1980 1985 1990 1995
Año
¿Que patrones se presentan?
Contratos en Bonos del Tesoro USA
90
Número
88
86
0 20 40 60 80 100
Dia
¿Que patrones se presentan?
Producción trimestral de electricidad
60
40
Billion KW
20
1960 1970 1980 1990 2000 2010
Año
¿Que patrones se presentan?
Precios diarios al Cierre de las acciones de google
800
700
Precio
600
500
400
0 200 400 600 800 1000
Dia
¿Que patrones se presentan?
Precios diarios al Cierre de las acciones de google
50
Cambio en Precio diario
0 200 400 600 800 1000
Dia
¿Que patrones se presentan?
Usualmente se asume que una serie de tiempo se puede
descomponer en componentes que incorporan la
estacionalidad (St ), la tendencia-ciclo (Tt ) y una remanente Rt .
Así, cada observación dada en la serie de tiempo
{Y1 , Y2 , . . . Yn } puede ser expresado como:
Una descomposición aditiva:
Yt = St + Tt + Rt
o, una descomposición multiplicativa.
Para seleccionar el tipo de modelo a utilizar, se recomienda
aplicar la teoría explicada en
Yt = St × Tt × Rt
Para seleccionar el tipo de modelo a utilizar, se recomienda
aplicar la teoría explicada en :
Pegels, C. Exponential Forecasting: some new variations.
Management Science 1969; 15:311-4
Método Pegels
Enfoque Box-Jenkins
¿Estacionario?
No
Sí
Transformar los datos
(primera diferencia)
Determinar qué Sí
tipo de modelo es ¿Estacionario?
el adecuado
No
No
Transformar los datos
Estimar los
(segunda diferencia)
parámetros
Sí
del modelo Transformaciones
¿Estacionario? más
Sí No complejas
Diagnósticos Pronósticos
1. Identificación tentativa del modelo
2. Estimación de los parámetros del modelo
3. Evaluación de diagnósticos para comprobar si el modelo es adecuado;
mejorar el modelo si es necesario.
4. Generación de Pronósticos
Proceso Estocástico
Definición
Un proceso estocástico es una familia de variables aleatorias
{Xt }t∈T , donde T es un conjunto de índices arbitrario.
Definición
Para cada ω ∈ Ω, se tiene una "sucesión" {Xt (ω)}t∈T . Esta
sucesión se llama trayectoria muestral del proceso.
Distribuciones finito-dimensionales
Un proceso estocástico está completamente caracterizado
cuando se conocen todas las probabilidades de tipo
P((Xt1 , Xt2 , . . . , Xtn ) ∈ B)
N
para todo n ∈ , {t1 , t2 , . . . , tn } ⊂ T y B cualquier subconjunto
n-dimensional del σ-álgebra respectivo.
Lo anterior es equivalente a: un proceso está completamente
caracterizado si se conocen sus distribuciones finito-dimensionales.
Definición
Las distribuciones finito-dimensionales son las funciones de
distribución de cualquier subconjunto finito de variables
aleatorias pertenecientes al proceso, es decir,
Ft1 ,t2 ,...,tn (xt1 , xt2 , . . . , xtn ) = P[Xt1 ≤ xt1 , Xt2 ≤ xt2 , . . . , Xtn ≤ xtn ]
para n ∈ N, {t1, t2, . . . , tn } ⊂ T
Ejemplo
Sea {Xt }t∈[0,∞) un proceso gaussiano, es decir, cada
Xt ∼ N(µt , σt2 ). ¿Cuales son sus funciones de distribución
finito-dimensionales?
Definición
Sea {Xt }t∈T un proceso estocástico.
La función media mX : T → R, está dada por
mX (t) = E(Xt )
La función correlación RX : T × T → R está definida por
E(Xt1 − mX (t1 ))(Xt2 − mX (t2 ))
RX (t1 , t2 ) = p p
E(Xt1 − mX (t1 ))2 E(Xt2 − mX (t2 ))2
Definición
La función autocovarianza: CX : T × T → R tal que
CX (t1 , t2 ) = E[(Xt1 − E(Xt1 )(Xt2 − E(Xt2 )]
Ejemplo
Sea {Zn } una sucesión de v.a. no correlacionadas tal que
N
E(Zi ) = 0 y Var (Zi ) = σ 2 , para todo i ∈ . Se define un
proceso (cadena) estocástico {Xn } como sigue:
Xn = Z1 + Z2 + . . . + Zn n = 1, 2, ...
Determina la función media y la función autocorrelación del
proceso X = {Xn }.
Procesos estacionarios de orden n
Notación
Las distribuciones finito dimensionales se denotaran como:
− →
→ −
F ( x ; t ) = Ft1 ,t2 ,...,tn (xt1 , xt2 , . . . , xtn )
= P[Xt1 ≤ xt1 , Xt2 ≤ xt2 , . . . , Xtn ≤ xtn ]
→
− →
−
donde x = (x1 , x2 , . . . , xn ) y t = (t1 , t2 , . . . , tn ) y
t1 , t2 , . . . , tn ∈ T .
Procesos estacionarios de orden n
Definición
Un proceso estocástico X = {Xt }t∈T es estrictamente
estacionario de orden n si
− →
→ − − →
→ −
F ( x ; t ) = F ( x ; t + ∆t)
para toda colección de tamaño n, {t1 , t2 , . . . , tn } ∈ T y todo
∆t ∈ .R
Observación
¿Cual es la interpretación de la ecuación anterior?
Procesos estacionarios de orden n
Definición
Un proceso estocástico X = {Xt }t∈T es estrictamente
estacionario de orden n si
− →
→ − − →
→ −
F ( x ; t ) = F ( x ; t + ∆t)
para toda colección de tamaño n, {t1 , t2 , . . . , tn } ∈ T y todo
∆t ∈ .R
Observación
¿Cual es la interpretación de la ecuación anterior?
Proceso estrictamente estacionario
Definición
Si el proceso aleatorio es estrictamente estacionario de orden
N
n para todo n ∈ , entonces el proceso se llama proceso
estrictamente estacionario.
Ejercicio
Sea X = {Xt }t∈T proceso estocástico estacionario de orden 1.
Demuestra que su función media es constante.
Procesos débilmente estacionarios
Un proceso estocástico X = {Xt }t∈T es débilmente
estacionario (estacionario en el sentido amplio) si satisface las
condiciones siguientes:
1 La función media mX (t) = E[Xt ] no depende de t.
2 La función correlación depende de t1 y t2 a traves de la
diferencia t1 − t2 .
Notación
Un proceso debilmente estacionario se denota por X es WSS
(wide sense stationary). Tambien se les conoce como
covarianza-estacionarios.
Para un proceso X WSS, se tiene que RX (t1 , t2 ) = RX (τ ), con
τ = t1 − t2 .
En el caso de un proceso estrictamente estacionario, las
funciones de covarianza y autocorrelación se pueden expresar
en la forma:
E(Xt1 − µ)(Xt1 +k − µ)
ρk = RX (t1 , t1 + k ) = p q
E(Xt1 − µ)2 E(Xt1 +k − µ)2
o
γk
ρk =
γ0
con γk = E[(Xt1 − µ)(Xt1 +k − µ)] la función de autocovarianza.
Propiedades de la función de autocorrelación y
autocovarianza
1 γ0 = Var (Xt ) y ρ0 = 1
2 |γk | ≤ γ0 ; |ρk | ≤ 1
3 γk = γ−k y ρk = ρ−k
4 son funciones positivas semidefinidas, es decir,
n X
X n
αi αj γ|ti −tj | ≥ 0
i=1 j=1
n X
X n
αi αj ρ|ti −tj | ≥ 0
i=1 j=1
para cualesquiera reales α1 , . . . , αn y t1 , . . . , tn .
Observación
Si una función satisface las condiciones (1) a (3), no necesaria-
mente es una función de autocorrelación o autocovarianza.
Una condición necesaria para que sea función de autocovari-
anza o autocorrelación es que sea positiva semidefinida.
Ejercicio
Resolver los ejercicios 2.1 al 2.5 del texto Wei(1990)
Ruido Blanco
Definición
Un proceso {at } se llama ruido blanco si es una sucesión no
correlacionada de variables aleatorias con la misma
distribución, media constante E(at ) = µa ,, varianza constante
Var (at ) = σa2 y γk = Cov (at , at+k ) = 0 para k 6= 0.
En el texto, cuando se habla de un proceso estacionario, se
refiere a un proceso WSS o covarianza estacionario.
Ejercicio
Demuestra que un ruido blanco es estacionario y determina su
función de autocorrelación.
Función de autocorrelación parcial
La autocorrelación parcial entre dos variables Z1 y Zt+1 , t ≥ 2,
se define como la correlación entre los residuos obtenidos al
hacer regresión con respecto a las variables intermedias
Z2 , Z3 , . . . , Zt . Si t = 1, la autocorrelación parcial se define
como la autocorrelación.
Introducción
Componentes de una serie de tiempo
Procesos Estocásticos
Función de Autocovarianza y Autocorrelación
Función de Autocorrelación parcial
Estimación en series estacionarias
Promedios Móviles y modelos autoregresivos
Ecuaciones en diferencias lineales
Estimación de la media
Dada una serie de tiempo {Zt }nt=1 , como la función media es
constante, entonces un estimador de la media µ del proceso es
n
1X
Z = Zt . (1)
n
t=1
Este estimador es insesgado, con varianza dada por
(n−1)
γ0 X |k |
Var (Z ) = 2 1− ρk (2)
n n
k =−(n−1)
Tarea: Determina las condiciones bajo las que el estimador
dado en (1) es L2 consistente para µ.
José Batún Series de Tiempo: Unidad I
Introducción
Componentes de una serie de tiempo
Procesos Estocásticos
Función de Autocovarianza y Autocorrelación
Función de Autocorrelación parcial
Estimación en series estacionarias
Promedios Móviles y modelos autoregresivos
Ecuaciones en diferencias lineales
Estimación de función de autocovarianza
Definición
Los estimadores de la función de autocovarianza están
definidos por:
n−k
1X
γ
bk = (Zt − Z )(Zt+k − Z )
n
t=1
n−k
1 X
γ
b
bk = (Zt − Z )(Zt+k − Z )
n−k
t=1
José Batún Series de Tiempo: Unidad I
Introducción
Componentes de una serie de tiempo
Procesos Estocásticos
Función de Autocovarianza y Autocorrelación
Función de Autocorrelación parcial
Estimación en series estacionarias
Promedios Móviles y modelos autoregresivos
Ecuaciones en diferencias lineales
Estimación de función de autocovarianza
Los estimadores anteriores son sesgados:
k n−k
γk ) = γk −
E(b γk − ( )Var (Z )
n n
bk ) = γk − Var (Z )
E(γ
b
José Batún Series de Tiempo: Unidad I
Introducción
Componentes de una serie de tiempo
Procesos Estocásticos
Función de Autocovarianza y Autocorrelación
Función de Autocorrelación parcial
Estimación en series estacionarias
Promedios Móviles y modelos autoregresivos
Ecuaciones en diferencias lineales
Estimación de función de autocorrelación
Utilizando cualquiera de los estimadores de autocovarianza da-
dos anteriormente, se pueden obtener dos estimadores de la
función de autocorrelación, aunque en la práctica se utiliza el
siguiente:
Pn−k
γ
bk t=1 (Zt − Z )(Zt+k − Z )
ρbk = = k = 0, 1, 2, . . . , n − 1 (3)
γ
b0 nb
γ0
Una gráfica de ρbk contra k (lag) se llama correlograma y per-
mite hacer análisis exploratorio para decidir el modelo a utilizar.
Tambien se utilizan estos valores para probar si existe autocor-
relación significativamente distinta de cero.
José Batún Series de Tiempo: Unidad I
Introducción
Componentes de una serie de tiempo
Procesos Estocásticos
Función de Autocovarianza y Autocorrelación
Función de Autocorrelación parcial
Estimación en series estacionarias
Promedios Móviles y modelos autoregresivos
Ecuaciones en diferencias lineales
Correlograma
Una observación está relacionada con previas y futuras obser-
vaciones (autocorrelación) y esto permite realizar pronósticos.
Debido a que la función de autocorrelación está definida como
desviaciones esperandas con respecto a la media, entonces:
autocorrelación positiva sugiere que desviaciones positivas
alrededor de la media se siguen de observaciones con des-
viaciones positivas de la media (periodos con varias obser-
vaciones consecutivas por arriba de la media, o por debajo
de la media)
autocorrelación negativa sugiere que desviaciones positi-
vas alrededor de la media se siguen de desviaciones nega-
tivas y viceversa.
José Batún Series de Tiempo: Unidad I
Introducción
Componentes de una serie de tiempo
Procesos Estocásticos
Función de Autocovarianza y Autocorrelación
Función de Autocorrelación parcial
Estimación en series estacionarias
Promedios Móviles y modelos autoregresivos
Ecuaciones en diferencias lineales
Ejemplo
18000
Indice Nikkei25
14000
8000 10000
0 100 200 300 400 500 600
tiempo
José Batún Series de Tiempo: Unidad I
Introducción
Componentes de una serie de tiempo
Procesos Estocásticos
Función de Autocovarianza y Autocorrelación
Función de Autocorrelación parcial
Estimación en series estacionarias
Promedios Móviles y modelos autoregresivos
Ecuaciones en diferencias lineales
Ejemplo
Autocorrelación Nikkei25
1.0
0.8
0.6
ACF
0.4
0.2
0.0
0 5 10 15 20 25
Lag
José Batún Series de Tiempo: Unidad I
Introducción
Componentes de una serie de tiempo
Procesos Estocásticos
Función de Autocovarianza y Autocorrelación
Función de Autocorrelación parcial
Estimación en series estacionarias
Promedios Móviles y modelos autoregresivos
Ecuaciones en diferencias lineales
Ejemplo
0.2
log-returns
0.1
0.0
-0.1
0 100 200 300 400 500 600
Tiempo
José Batún Series de Tiempo: Unidad I
Introducción
Componentes de una serie de tiempo
Procesos Estocásticos
Función de Autocovarianza y Autocorrelación
Función de Autocorrelación parcial
Estimación en series estacionarias
Promedios Móviles y modelos autoregresivos
Ecuaciones en diferencias lineales
Ejemplo
Autocorrelación Log return Nikei
1.0
0.8
0.6
ACF
0.4
0.2
0.0
0 5 10 15 20 25
Lag
¿Como será una gráfica de la función de autocorrelación del
ruido blanco?
José Batún Series de Tiempo: Unidad I
Introducción
Componentes de una serie de tiempo
Procesos Estocásticos
Función de Autocovarianza y Autocorrelación
Función de Autocorrelación parcial
Estimación en series estacionarias
Promedios Móviles y modelos autoregresivos
Ecuaciones en diferencias lineales
El operador retardo B se define como sigue:
BZt = Zt−1
2
B Zt = BBZt = Zt−2
. = .
k
B Zt = Zt−k
Este operador facilita la representación de una serie por medio
de combinaciones lineales, como en el caso de los modelos
autoregresivos:
Zt = a1 Zt−1 + a2 Zt−2 + . . . + ak Zt−k + εt
εt = (1 − a1 B − a2 B 2 − . . . − ak B k )Zt
José Batún Series de Tiempo: Unidad I
Introducción
Componentes de una serie de tiempo
Procesos Estocásticos
Función de Autocovarianza y Autocorrelación
Función de Autocorrelación parcial
Estimación en series estacionarias
Promedios Móviles y modelos autoregresivos
Ecuaciones en diferencias lineales
Promedios moviles
Usualmente se establecen modelos de series de tiempo
basados en la representacion de promedios moviles como
sigue:
Zt = εt + α1 εt−1 + α2 εt−2 , . . . , αq εt−q (4)
cuya representación en términos del operador retraso es:
Zt = (1 + α1 B + α2 B 2 , . . . , αq B q )εt
José Batún Series de Tiempo: Unidad I
Introducción
Componentes de una serie de tiempo
Procesos Estocásticos
Función de Autocovarianza y Autocorrelación
Función de Autocorrelación parcial
Estimación en series estacionarias
Promedios Móviles y modelos autoregresivos
Ecuaciones en diferencias lineales
Una generalización de la representación anterior es como
sigue:
∞
X
Zt = µ + ψj at−j
j=0
P∞ 2
con ψ0 = 1, {aj } ruido blanco con media cero y j=0 ψj < ∞.
Note que
Zt − µ = ψ(B)at
P∞ j
con ψ(B) = j=0 B y B el operador retardo.
José Batún Series de Tiempo: Unidad I
Introducción
Componentes de una serie de tiempo
Procesos Estocásticos
Función de Autocovarianza y Autocorrelación
Función de Autocorrelación parcial
Estimación en series estacionarias
Promedios Móviles y modelos autoregresivos
Ecuaciones en diferencias lineales
Es facil comprobar que
E(Zt ) = µ
Var (Zt ) = σa2 ∞ 2
P
j=0 ψj
γk = σa2 ∞
P
j=0 ψj ψj+k
P∞
j=0 ψj ψj+k
ρk = P ∞ 2
j=0 ψj
P∞ 2
¿Porque es necesaria la condición j=0 ψj < ∞?
José Batún Series de Tiempo: Unidad I
Introducción
Componentes de una serie de tiempo
Procesos Estocásticos
Función de Autocovarianza y Autocorrelación
Función de Autocorrelación parcial
Estimación en series estacionarias
Promedios Móviles y modelos autoregresivos
Ecuaciones en diferencias lineales
Ecuación en diferencias de primer orden
Una ecuación en diferencia de primer orden es de la forma
yt = αyt−1 + wt (5)
Si conocemos el valor de y en el tiempo t = −1 y los valores
de wt en los tiempos t = 0, 1, 2, . . . , entonces por el método de
sustitución recursiva se obtiene:
yt = αt+1 + αt w0 + αt−1 w1 + . . . + αwt−1 + wt
José Batún Series de Tiempo: Unidad I