0% encontró este documento útil (0 votos)
19 vistas38 páginas

Clase 2

Cargado por

felipe elorrieta
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
19 vistas38 páginas

Clase 2

Cargado por

felipe elorrieta
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Clase 2 Series de Tiempo

Felipe Elorrieta Lopez

Universidad de Santiago de Chile

28 de agosto de 2023
Conceptos Previos

I Componentes de una Serie de Tiempo


Conceptos Previos

I Componentes de una Serie de Tiempo


I Estacionaridad Estricta
Conceptos Previos

I Componentes de una Serie de Tiempo


I Estacionaridad Estricta
I Estacionaridad Débil
Conceptos Previos

I Componentes de una Serie de Tiempo


I Estacionaridad Estricta
I Estacionaridad Débil
I Ruido Blanco
Conceptos Previos

I Componentes de una Serie de Tiempo


I Estacionaridad Estricta
I Estacionaridad Débil
I Ruido Blanco
I Función de Autocovarianza
Descomposición clásica de una serie de Tiempo.

Sean las observaciones {Yt , t = 1, . . . , N } de una serie temporal. Vi-


mos anteriormente que un modelo descompuesto consiste en escribir
Yt como la siguiente suma,

Yt = Nt + Tt + St + t
Donde Nt corresponde al componete de nivel, Tt el de tendencia, St
el de estacionalidad y t es el término aleatorio.
Descomposición clásica de una serie de Tiempo.

I El modelo anterior se denomina modelo aditivo, que es


adecuado, cuando St no depende de otras componentes, como
Tt . Ahora, si las amplitudes estacionales varian con la
tendencia, un modelo más adecuado es uno multiplicativo del
tipo,

Yt = Nt × Tt × St × t
Descomposición clásica de una serie de Tiempo.

I El modelo multiplicativo puede ser transformado en uno


aditivo tomando logaritmos,

Yt∗ = Nt∗ + Tt∗ + St∗ + ∗t


donde, Yt∗ = log(Yt ), Tt∗ = log(Tt ), St∗ = log(St ) y
∗t = log(t ).
Descomposición clásica de una serie de Tiempo.

I Los modelos de suavizado se caracterizan por estimar cada


componente individualmente y asi descomponer la serie de
tiempo (de manera aditiva o multiplicativa). (Decompose in R)
Nivel y Ruido.

I Supongamos que la serie de tiempo {Yt , t = 1, . . . , N } puede


ser descompuesta en un modelo aditivo del tipo,

Yt = Mt + t
donde t es la componente aleatoria o el ruido y Mt es lo que
queda de la serie Yt al extraer el ruido, esto se conoce como la
señal o el patron de comportamiento de la serie.
Nivel y Ruido.

I Supongamos que la serie de tiempo {Yt , t = 1, . . . , N } puede


ser descompuesta en un modelo aditivo del tipo,

Yt = Mt + t
donde t es la componente aleatoria o el ruido y Mt es lo que
queda de la serie Yt al extraer el ruido, esto se conoce como la
señal o el patron de comportamiento de la serie.
I La idea basica de estos modelos es usar el patron de
comportamiento para predecir valores futuros de la serie.
Medias Móviles Simples

I La técnica de medias moviles consiste en calcular la media


aritmetica de las r observaciones más recientes, esto es,
Y + Yt −1 + . . . + Yt −r +1
Mt = t
r
o
Y − Yt −r
Mt = Mt −1 + t
r
Medias Móviles Simples

I La técnica de medias moviles consiste en calcular la media


aritmetica de las r observaciones más recientes, esto es,
Y + Yt −1 + . . . + Yt −r +1
Mt = t
r
o
Y − Yt −r
Mt = Mt −1 + t
r
I El nombre de media móvil es utilizado por que para cada t,
una observación más antigua se sustituye por una más
reciente, calculandose una nueva media.
Medias Móviles Simples

I Una predicción de todos los valores futuros es dada por la


última media móvil calculada, esto es,

Ŷt (h) = Mt ∀h > 0


o bien,
Y − Yt −r
Ŷt (h) = Ŷt −1 (h + 1) + t
r
Medias Móviles Simples

I Una predicción de todos los valores futuros es dada por la


última media móvil calculada, esto es,

Ŷt (h) = Mt ∀h > 0


o bien,
Y − Yt −r
Ŷt (h) = Ŷt −1 (h + 1) + t
r
I Las propiedades del metodo dependen del número de
observaciones utilizadas en el promedio (r). Un valor grande de
r implica una trayectoria lenta, un valor pequeño de r implica
una reacción más rápida.
Alisado Exponencial simple o de 1er orden

I El alisado exponencial simple (AES) puede ser escrito


matematica como,

Ŷt = αYt + (1 − α)Ŷt −1 (1)

donde, Ŷt es denominado el valor exponencialmente alisado y


α es una constante de suavizado, tal que α ∈ (0, 1). Además,
Ŷ1 = Y1
Alisado Exponencial simple o de 1er orden

I La ecuación 1 se puede expandir a,

Ŷt = αYt + α(1 − α)Ŷt −1 + α(1 − α)2 Ŷt −2 + . . .


Lo que signica que el AES es una media ponderada que da
pesos mayores a observaciones más recientes, lo cual es una
ventaja respecto al método de medias móviles.
Alisado Exponencial simple o de 1er orden

I La ecuación 1 se puede expandir a,

Ŷt = αYt + α(1 − α)Ŷt −1 + α(1 − α)2 Ŷt −2 + . . .


Lo que signica que el AES es una media ponderada que da
pesos mayores a observaciones más recientes, lo cual es una
ventaja respecto al método de medias móviles.
I Finalmente, la formula general es,

t −2
Ŷt = α (1 − α)k Yt −k + (1 − α)t −1 Ŷ1
X

k =0
Alisado Exponencial simple o de 1er orden

Propiedades
Alisado Exponencial simple o de 1er orden

Propiedades

1. El AES sirve cuando los datos no presentan tendencia, es decir


un caso de media constante.
Alisado Exponencial simple o de 1er orden

Propiedades

1. El AES sirve cuando los datos no presentan tendencia, es decir


un caso de media constante.
2. Una Predicción de los valores futuros esta dada por el último
valor del alisado exponencial, esto es,

Ŷt (h) = Ŷt ∀h > 0


o bien,
Ŷt (h) = αYt + (1 − α)Ŷt −1 (h + 1)
Alisado Exponencial simple o de 1er orden

Propiedades

1. El AES sirve cuando los datos no presentan tendencia, es decir


un caso de media constante.
2. Una Predicción de los valores futuros esta dada por el último
valor del alisado exponencial, esto es,

Ŷt (h) = Ŷt ∀h > 0


o bien,
Ŷt (h) = αYt + (1 − α)Ŷt −1 (h + 1)
3. El valor de α es aquel que minimiza los MSE donde,

(Ŷt − Yt )2
P
MSE =
n−1
Alisado Exponencial simple o de 1er orden

I Ejemplo: (Venta de Automoviles)


Mes Real Previstos Error
E 105
F 110
M 107
A 112
M 118
Complete los valores de la tabla usando el método de AES con
α = 0,3 y el método de MMS con m = 2.
Alisado Exponencial Lineal Biparametrico de Holt
I Supongamos ahora que en el modelo aditivo la componente
estacional no esta presente, entonces el modelo a considerar
será:

Yt = Nt + Tt + t
donde, t es una componente estacionaria de media cero y
varianza σ 2 .
Alisado Exponencial Lineal Biparametrico de Holt
I Supongamos ahora que en el modelo aditivo la componente
estacional no esta presente, entonces el modelo a considerar
será:

Yt = Nt + Tt + t
donde, t es una componente estacionaria de media cero y
varianza σ 2 .
I Los valores de nivel y de tendencia de la serie en un instante t,
serán estimados por,

N̂t = αYt + (1 − α)(N̂t −1 + T̂t −1 )


T̂t = β(N̂t − N̂t −1 ) + (1 − β)T̂t −1

con α y β constantes de alisamiento, donde 0 < α < 1,


0 < β < 1 y t = 2, . . . , N .
Alisado Exponencial Lineal Biparametrico de Holt

I De esta manera, una predicción para el valor Yt +h , con origen


en t, es dada por,

Ŷt (h) = N̂t + hT̂t h>0


Alisado Exponencial Lineal Biparametrico de Holt

Ejemplo (Ventas de cierto producto)

Año Yt Año Yt Año Yt


1976 174 1982 230 1988 299
1977 154 1983 244 1989 327
1978 175 1984 262 1990 317
1979 221 1985 293 1991 337
1980 200 1986 270 1992 336
1981 234 1987 291
α = 0,2 y β = 0,8.
Método de Holt-Winters Multiplicativo

I Considere una serie de tiempo estacional de periodo S. La


variante mas usual del método de Holt-Winters considera un
factor estacional St multiplicativo, mientras la tendencia
permanece aditiva, esto es,

Yt = (Nt + Tt )St + t
Método de Holt-Winters Multiplicativo

I Las tres ecuaciones de suavizado están dadas por

Yt
 
N̂t = α + (1 − α)(N̂t −1 + T̂t −1 )
Ŝt −s
T̂t = β(N̂t − N̂t −1 ) + (1 − β)T̂t −1
Y
Ŝt = γ t + (1 − γ)Ŝt −s
 

N̂t

donde α ∈ (0, 1), β ∈ (0, 1) y γ ∈ (0, 1) son constantes de


alisamiento y t=s+1,. . . ,N.
Método de Holt-Winters Aditivo

I El procedimiento anterior puede ser modicado para tratar los


casos donde el factor estacional es aditivo. Ahora, las
ecuaciones de alisamiento están dadas por,

N̂t = α(Yt − Ŝt −s ) + (1 − α)(N̂t −1 + T̂t −1 )


T̂t = β(N̂t − N̂t −1 ) + (1 − β)T̂t −1
Ŝt = γ(Yt − N̂t ) + (1 − γ)Ŝt −s

donde α ∈ (0, 1), β ∈ (0, 1) y γ ∈ (0, 1) son constantes de


alisamiento y t=s+1,. . . ,N.
Método de Holt-Winters

I Inicialización del método de Holt-Winters (t = 1, . . . , s )


Inicialización Multiplicativo Aditivo
Estacionalidad St = YY1t:s St = Yt − Y1:s
Tendencia Ts = 0 Ts = 0
Nivel Ns = Y1:s Ns = Y1:s
Método de Holt-Winters

I Una predicción a h pasos para el método de Holt-Winters está


dada por
Método de Holt-Winters

I Una predicción a h pasos para el método de Holt-Winters está


dada por
1. Caso Multiplicativo:

Ŷn (h) = (Nn + hTn )Ŝn+h−s h = , ,...,s


1 2

Ŷn (h) = (Nn + hTn )Ŝn+h−2s h = s + , . . . , s


1 2

. .
. .
. = .

Ŷn (h) = (Nn + hTn )Ŝn+h−ks h = (k − )s +


1 1 , . . . , ks
Método de Holt-Winters

I Una predicción a h pasos para el método de Holt-Winters está


dada por
Método de Holt-Winters

I Una predicción a h pasos para el método de Holt-Winters está


dada por
2. Caso Aditivo:

Ŷn (h) = Nn + hTn + Ŝn+h−s h = , , . . . , s


1 2

Ŷn (h) = Nn + hTn + Ŝn+h−2s h = s + , . . . , s


1 2

. .
. .
. = .

Ŷn (h) = Nn + hTn + Ŝn+h−ks h = (k − )s +


1 1 , . . . , ks
Método de Holt-Winters

I Ejemplo (Ventas Trimestrales)


Datos T1 T2 T3 T4
Año 1 1248 1392 1057 3159
Año 2 891 1065 1118 2934
Año 3 1138 1456 1224 3090
Usamos α = 0,4, β = 0,1 y γ = 0,3
Método de Holt-Winters

I Ejemplo (Ventas Trimestrales)


t Nt Tt St Ŷt t
1
2
3
4
5
6
..
.

También podría gustarte