Clase 3 Series de Tiempo
Felipe Elorrieta Lopez
Universidad de Santiago de Chile
September 26, 2023
Conceptos Previos
▶ Alisado Exponencial Simple-Medias Móviles Simples.
Conceptos Previos
▶ Alisado Exponencial Simple-Medias Móviles Simples.
▶ Alisado Exponencial Lineal Biparametrico de Holt.
Conceptos Previos
▶ Alisado Exponencial Simple-Medias Móviles Simples.
▶ Alisado Exponencial Lineal Biparametrico de Holt.
▶ Alisado Exponencial de Holt Winters
Tipos de Tendencia
Linear Trend Quadratic Trend
4000 8000
80
qt
lt
40
0
0
0 20 40 60 80 100 0 20 40 60 80 100
Time Time
Logarithmic Trend Exponential Trend
1 2 3 4
0.0e+00 1.5e+43
logt
et
-1
0 20 40 60 80 100 0 20 40 60 80 100
Time Time
Enfoque Regresión
▶ Usualmente, la información disponible para predecir el
comportamiento de un fenómeno es como sigue:
y1 , . . . , yn ⇒ Serie de Tiempo
x01 , . . . , x0n ⇒ Covariable 1
x11 , . . . , x1n ⇒ Covariable 2
. . .
. . .
. . .
xp1 , . . . , xpn ⇒ Covariable p
Enfoque Regresión
▶ Un caso particular de covariables es x0t = 1 y x1t = t , que
corresponde a un modelo lineal, donde
yt = β0 x0t + β1 x1t + ϵt
Enfoque Regresión
▶ Un caso particular de covariables es x0t = 1 y x1t = t , que
corresponde a un modelo lineal, donde
yt = β0 x0t + β1 x1t + ϵt
▶ Agregando una tercera componente x2t = t 2 . Podemos ajustar
un modelo cuadrático a una serie del tipo:
yt = β0 x0t + β1 x1t + β2 x2t + ϵt
Enfoque Regresión
▶ En general, para un polinomio de grado m se puede ajustar un
modelo polinomial denido por:
yt = β0 x0t + β1 x1t + . . . + βm xmt + ϵt
donde xjt = t j ∀j = 0, . . . , m.
Enfoque Regresión
▶ En general, para un polinomio de grado m se puede ajustar un
modelo polinomial denido por:
yt = β0 x0t + β1 x1t + . . . + βm xmt + ϵt
donde xjt = t j ∀j = 0, . . . , m.
▶ Para estimar los parámetros del modelo podemos utilizar
métodos convenciales como MCO. El problema es que se
puede presentar correlación entre las variables independientes,
pero se puede utilizar algún procedimiento para ortogonalizar
las variables.
Estimación de Mínimos Cuadrados
▶ Sea el vector de parámetros dado por β = (β0 , . . . , βm ), el
estimador de minimos cuadrádos se dene por
β̂ = (X T X )−1 X T Y
donde las matrices X e Y se denen como,
1 1 1 ... 1
y1 m
y2
1 2 4 ... 2
1 3 9 ... 3
m
Y = . X =
..
. . . .
. . . .
. . . .
yN
1 N N2 . . . Nm
Estacionalidad
▶ La estacionalidad es una característica que presentan algunas
series en lo largo del tiempo, y dicha característica es
observada con periodicidad. En esta sección podemos
considerar los siguientes casos,
Stationality Anomality
10
200
150
5
100
Yt
At
0
50
-5
-10
0
0 20 40 60 80 100 0 20 40 60 80 100
Time Time
Stationality + Trend Stationality * Trend
100
120
80
20 40 60 80
60
Mt
Xt
40
20
0
0 20 40 60 80 100 0 20 40 60 80 100
Time Time
Regresión Armónica
▶ Sea el modelo
Yt = Asin(ωt + ψ) (1)
donde
Regresión Armónica
▶ Sea el modelo
Yt = Asin(ωt + ψ) (1)
donde
▶ A=amplitud de la serie.
Regresión Armónica
▶ Sea el modelo
Yt = Asin(ωt + ψ) (1)
donde
▶ A=amplitud de la serie.
▶ ω es el número de ciclos por unidad de tiempo.
Regresión Armónica
▶ Sea el modelo
Yt = Asin(ωt + ψ) (1)
donde
▶ A=amplitud de la serie.
▶ ω es el número de ciclos por unidad de tiempo.
▶ ω = 2πf = 2Pπ .
Regresión Armónica
▶ Sea el modelo
Yt = Asin(ωt + ψ) (1)
donde
▶ A=amplitud de la serie.
▶ ω es el número de ciclos por unidad de tiempo.
▶ ω = 2πf = 2Pπ .
▶ P período de la serie.
Regresión Armónica
▶ Sea el modelo
Yt = Asin(ωt + ψ) (1)
donde
▶ A=amplitud de la serie.
▶ ω es el número de ciclos por unidad de tiempo.
▶ ω = 2πf = 2Pπ .
▶ P período de la serie.
▶ f frecuencia de la serie.
Regresión Armónica
▶ Sea el modelo
Yt = Asin(ωt + ψ) (1)
donde
▶ A=amplitud de la serie.
▶ ω es el número de ciclos por unidad de tiempo.
▶ ω = 2πf = 2Pπ .
▶ P período de la serie.
▶ f frecuencia de la serie.
▶ ψ desfase de la serie
Regresión Armónica
▶ Consideremos el modelo (1), como ω = 2πf podemos escribir,
Yt = Asin(2πft + ψ)
= A[sin(2πft)cos(ψ) + cos(2πft)sin(ψ)]
= Acos(ψ) sin(2πft) + Asin(ψ) cos(2πft)
| {z } | {z }
β1 β2
Luego,
Yt = β1 sin(2πft) + β2 cos(2πft) (2)
Regresión Armónica
▶ Esto puede ser visto como un modelo de regresión simple,
Y1 sin(2πf ) cos(2πf )
. . .
. . .
. . . β1
=
. . . β2
. . .
. . .
YN sin(2πfN) cos(2πfN)
Regresión Armónica
▶ Ahora, en el caso general,
Yt = β11 sin(2πf1 t)+β21 cos(2πf1 t)+. . .+β1q sin(2πfq t)+β2q cos(2πfq t)+ϵt
(3)
donde, las frecuencias propias {f1 , . . . , fq } se calculan en base al
espectro de la serie o transformada de Fourier, tópico que veremos
más adelante. Supondremos ahora que las frecuencias propias fi son
conocidas.
Regresión Armónica
▶ Sea la regresión armónico simple ajustada con una frecuencia
propia del tipo,
Yt = β1 sin(2πft) + β2 cos(2πft) + ϵt
podemos obtener una estimación de A y ψ a partir de las
estimaciones de β1 y β2 , usando,
q
A = β12 + β22
ψ = atan(β1 /β2 )
Regresión con variables dummy
▶ Suponga el modelo con tendencia determinística,
Tt = β0 + β1 t + . . . + βm t m
Regresión con variables dummy
▶ Suponga el modelo con tendencia determinística,
Tt = β0 + β1 t + . . . + βm t m
▶ Para nuestro modelo vamos a suponer que la periodicidad
observada ocurre cada 12 periodos de tiempo, entonces
12
X
St = αj djt
j=1
Regresión con variables dummy
▶ Suponga el modelo con tendencia determinística,
Tt = β0 + β1 t + . . . + βm t m
▶ Para nuestro modelo vamos a suponer que la periodicidad
observada ocurre cada 12 periodos de tiempo, entonces
12
X
St = αj djt
j=1
▶ Como suponemos la estacionalidad constante, αj no dependen
del tiempo, entonces podemos pensar en variables dummys,
por ejemplo en el caso que se presente una estacionalidad cada
12 meses (en una serie mensual).
(
1, si el periodo t corresponde al mes j j = 1, . . . , 12
djt =
0, si no
Regresión con variables dummy
▶ En este caso,
12
X
djt = d1t + d2t + . . . + d12t , t = 1, 2, . . . , n
j=1
de modo que la matriz no es de rango completo, así,
imponemos la restricción adicional
12
X
αj = 0
j=1
y obtenemos el modelo de rango completo
m
X 11
X
j
Yt = βj t + αj Djt + ϵt
j=0 j=1
Regresión con variables dummy
▶ El modelo de rango completo
m
X 11
X
j
Yt = βj t + αj Djt + ϵt
j=0 j=1
donde ahora,
1,
si el periodo t corresponde al mes j j = 1, . . . , 11
Djt = −1, si el periodo t corresponde al mes 12,
0,
eoc
Regresión con variables dummy
▶ De este modelo podemos utilizar la teoría usual de mínimos
cuadrados y obtener los estimadores de αj y βj , o sea, para
una muestra Y1 , . . . , YN obtenemos el modelo
Y = Cβ + Dα + ϵ
donde,
... α1
1 1 1
Y1
1 2 ... 2
m α2
.
Yn×1 = , Cn×(m+1) = , α11×1 = .
. . . .
. . . . ..
. . .
Yn
1 n ... nm α11
β0 D11 D21 ... D11,1 ϵ1
β1 D12 D22 ... D11,2 ϵ2
β(m+1)×1 = . , Dn×11 = . , ϵn×1 = .
. .
.. .. .
.
.
.
..
βm D1n D2n ... D11,n ϵn
Regresión con variables dummy
▶ El modelo se puede escribir de la siguiente manera,
Y = Xγ + ϵ
donde,
β
X = [C : D] y γ = ...
α
de modo que el estimador de mínimos cuadrados está dado por
γ̂ = [X ′ X ]−1 X ′ Y