Untitled
Javier Sánchez
2023-12-29
## R Markdown
En el vasto campo del análisis de series temporales, los Modelos ARIMA (Autoregressive Integrated Moving
Average) se han consolidado como una herramienta fundamental para comprender y predecir patrones en
datos secuenciales. Esta tesis se enfoca en la estructuración y comprensión detallada de la “Tabla de Modelos
ARIMA” como un recurso esencial para la modelización precisa y la predicción confiable en series temporales.
Contexto y Relevancia Las series temporales, presentes en diversos ámbitos como finanzas, economía,
meteorología y ciencias sociales, entre otros, exhiben patrones complejos que desafían su análisis y predicción.
En este contexto, los Modelos ARIMA ofrecen un marco robusto que combina componentes autoregresivos,
integrados y de media móvil para capturar y prever las dinámicas inherentes a estas series.
Objetivos y Alcance El propósito principal de esta tesis es proporcionar una exhaustiva exploración de la
“Tabla de Modelos ARIMA”, detallando los diferentes componentes que conforman estos modelos, tales como
la autoregresión (AR), la integración (I) y la media móvil (MA). Se buscará elucidar cómo cada uno de estos
componentes contribuye a la comprensión y predicción de series temporales.
Metodología y Estructura El desarrollo de esta investigación se basará en un análisis exhaustivo de la
literatura existente, enfocándose en estudios de casos, ejemplos prácticos y aplicaciones reales de los Modelos
ARIMA. Se presentarán comparativas detalladas entre diferentes configuraciones de estos modelos para
resaltar sus fortalezas y limitaciones en distintos escenarios.
Esta tesis se estructurará en capítulos dedicados a cada uno de los componentes de la “Tabla de Modelos
ARIMA”, comenzando con una exploración detallada de la autoregresión, seguida de la integración y la media
móvil. Se incluirán ejemplos ilustrativos y análisis específicos para respaldar la comprensión teórica.
Contribución y Significado Se espera que este estudio aporte una visión clara y estructurada de los
Modelos ARIMA, brindando a investigadores, analistas y profesionales una guía sólida para la aplicación
práctica de estas herramientas en la predicción y modelización precisa de series temporales. Se aspira a que
esta tesis sea un recurso útil y esclarecedor en el campo del análisis de series temporales.
Instalacion de librerias
library(datasets)
library(help=fpp)
library(ggplot2)
library(stats)
library(astsa)
library(forecast)
## Warning: package 'forecast' was built under R version 4.3.2
1
## Registered S3 method overwritten by 'quantmod':
## method from
## as.zoo.data.frame zoo
##
## Attaching package: 'forecast'
## The following object is masked from 'package:astsa':
##
## gas
library(foreign)
library(tseries)
## Warning: package 'tseries' was built under R version 4.3.2
library(readxl)
## Warning: package 'readxl' was built under R version 4.3.2
library(zoo)
## Warning: package 'zoo' was built under R version 4.3.2
##
## Attaching package: 'zoo'
## The following objects are masked from 'package:base':
##
## as.Date, as.Date.numeric
En la tabla siguiente, se presenta el número de matrimonios en Estados Unidos.
Calcule las primeras diferencias para tales datos. Grafique los datos originales y los datos de diferencia como
una serie de tiempo. ¿Hay tendencia en cualquiera de estas series? Explique su respuesta
Matri_monio <- read_excel("MATRIMONIOS_USA.xlsx")
attach(Matri_monio)
matri=ts(Matri_monio,start=c(1995),frequency=1)
matri
## Time Series:
## Start = 1995
## End = 2014
## Frequency = 1
## Año Marriages
## 1995 1995 2413
## 1996 1996 2407
## 1997 1997 2403
## 1998 1998 2396
## 1999 1999 2403
## 2000 2000 2443
## 2001 2001 2371
## 2002 2002 2362
## 2003 2003 2334
## 2004 2004 2362
## 2005 2005 2336
## 2006 2006 2344
## 2007 2007 2384
2
## 2008 2008 2244
## 2009 2009 2358
## 2010 2010 2329
## 2011 2011 2345
## 2012 2012 2254
## 2013 2013 2245
## 2014 2014 2279
diff
matri_df <-diff(matri)
matri_df
## Time Series:
## Start = 1996
## End = 2014
## Frequency = 1
## Año Marriages
## 1996 1 -6
## 1997 1 -4
## 1998 1 -7
## 1999 1 7
## 2000 1 40
## 2001 1 -72
## 2002 1 -9
## 2003 1 -28
## 2004 1 28
## 2005 1 -26
## 2006 1 8
## 2007 1 40
## 2008 1 -140
## 2009 1 114
## 2010 1 -29
## 2011 1 16
## 2012 1 -91
## 2013 1 -9
## 2014 1 34
ndiffs
literal_a<-ndiffs(matri)
literal_a
## [1] 1
gráfico de la serie de tiempo de los matrimonios en Estados Unidos entre 1995 y
2014
par(mfrow=c(1,1))
ts.plot(matri, xlab = "Años", ylab = "Marriages",
main = "Matrimonios en Estados Unidos 1995-2014", col = 12, lwd = 2)
grid(col = "green")
3
Matrimonios en Estados Unidos 1995−2014
2400
2300
Marriages
2200
2100
2000
1995 2000 2005 2010
Años
## función de autocorrelación (ACF)
acf(matri,col="blue",lwd=3)
4
Año Año & Marriages
−0.5 0.5
−0.5 0.5
ACF
0 2 4 6 8 10 0 2 4 6 8 10
Lag Lag
Marriages & Año Marriages
−0.5 0.5
−0.5 0.5
ACF
−10 −8 −6 −4 −2 0 0 2 4 6 8 10
Lag Lag
#
# Crear el gráfico de la serie de tiempo
ts.plot(matri_df, xlab = "Años", ylab = "Marriages",
main = "Matrimonios en Estados Unidos 1995-2014", col = 11, lwd = 2)
# Agregar la cuadrícula al gráfico
grid(col = "yellow")
5
Matrimonios en Estados Unidos 1995−2014
100
50
Marriages
0
−50
−150
2000 2005 2010
Años
## acf
acf(matri_df,col="red",lwd=3)
6
Año Año & Marriages
0.5
0.5
ACF
−0.5
−0.5
0 2 4 6 8 0 2 4 6 8
Lag Lag
Marriages & Año Marriages
0.5
0.5
ACF
−0.5
−0.5
−8 −6 −4 −2 0 0 2 4 6 8
Lag Lag
1. ¿Los datos son aleatorios?
Los datos de la serie de tiempo no parecen ser aleatorios. La visualización de la serie temporal inicial y su
autocorrelación no muestra un patrón de comportamiento aleatorio. Se observa cierta tendencia y patrones a
lo largo del tiempo, lo que sugiere que los datos no son aleatorios.
2. ¿Los datos muestran una tendencia (son no estacionarios)?
La serie inicial revela una clara tendencia descendente, lo que sugiere no estacionariedad. Sin embargo, tras
aplicar una diferenciación de orden 1, la nueva serie resultante parece estacionaria, evidenciando una ausencia
de tendencia en la media y variabilidad a lo largo del tiempo.
3. ¿Los datos son estacionarios?
Se empleó la función dif f () para obtener la diferencia entre la serie temporal original y su versión diferenciada.
Posteriormente, se analizó visualmente esta serie modificada junto con su función de autocorrelación. Cuando
la serie resultante después de la diferenciación no muestra tendencia y su función de autocorrelación desciende
rápidamente hacia cero, sugiere que los datos podrían volverse estacionarios tras aplicar una única diferencia.
4. ¿Los datos son estacionales?
La presencia de estacionalidad en los datos se refiere a la existencia de patrones repetitivos que ocurren
regularmente a intervalos específicos. Estos patrones pueden evidenciarse al observar la periodicidad en la
serie temporal o mediante la identificación de repeticiones consistentes en la función de autocorrelación. Si se
detecta un comportamiento recurrente en la función de autocorrelación en intervalos regulares, esto señalaría
la presencia de estacionalidad en los datos.
7
2. A Allie White, la jefa de la oficina de préstamos del Dominion Bank, le gustaría
analizar el portafolios de préstamos del banco para los años 2001 a 2006.Los datos
se presentan en la tabla siguiente.
library(datasets)
Banka <- read.csv("PRESTAMOS_TRIMESTRALES_DOMINION_BANK.csv")
Banka
## Prestamos
## 1 2313
## 2 2495
## 3 2609
## 4 2792
## 5 2860
## 6 3099
## 7 3202
## 8 3161
## 9 3399
## 10 3471
## 11 3545
## 12 3851
## 13 4458
## 14 4850
## 15 5093
## 16 5318
## 17 5756
## 18 6013
## 19 6158
## 20 6289
## 21 6369
## 22 6568
## 23 6646
## 24 6861
## Préstamos trimestrales Dominion Bank
Presta_mos = ts(Banka,start=c(2001,1),frequency=4)
Presta_mos
## Qtr1 Qtr2 Qtr3 Qtr4
## 2001 2313 2495 2609 2792
## 2002 2860 3099 3202 3161
## 2003 3399 3471 3545 3851
## 2004 4458 4850 5093 5318
## 2005 5756 6013 6158 6289
## 2006 6369 6568 6646 6861
a) Calcule con el entorno computacional R las autocorrelaciones para los retrasos
de tiempo.
autocorrelacion <- acf(Presta_mos,col="green",lag.max = 24,lwd=3)
8
Prestamos
0.8
0.4
ACF
0.0
−0.4
0 1 2 3 4 5
Lag
## valores guardados en autocorrelacion de una serie de tiempo
autocorrelacion$acf
## , , 1
##
## [,1]
## [1,] 1.00000000
## [2,] 0.89526248
## [3,] 0.78839748
## [4,] 0.67331136
## [5,] 0.55815739
## [6,] 0.43308269
## [7,] 0.30941932
## [8,] 0.18456656
## [9,] 0.05696942
## [10,] -0.05335579
## [11,] -0.16126358
## [12,] -0.26563945
## [13,] -0.35120910
## [14,] -0.39359168
## [15,] -0.41280330
## [16,] -0.42330233
## [17,] -0.42620441
## [18,] -0.40454220
## [19,] -0.37671426
## [20,] -0.34114592
9
## [21,] -0.29147808
## [22,] -0.23732753
## [23,] -0.16836787
## [24,] -0.09222121
b) Use R para graficar los datos y calcule las autocorrelaciones para los primeros
seis retrasos de tiempo. ¿Esta serie de tiempo es estacionaria?
# Establecer la disposición del gráfico a una sola fila y una sola columna
par(mfrow=c(1,1))
# Graficar la serie de tiempo
ts.plot(Presta_mos, xlab = "Años", main = "Prestamos trimestrales Dominion Bank", col = "green", lwd = 2
# Agregar la cuadrícula al gráfico
grid(col = "blue")
Prestamos trimestrales Dominion Bank
7000
6000
Presta_mos
5000
4000
3000
2001 2002 2003 2004 2005 2006
Años
## autorcorelacion 2
autocorrelacion_2 <- acf(Presta_mos,col="red",lag.max = 6,lwd=3)
10
Prestamos
0.8
0.4
ACF
0.0
−0.4
0.0 0.5 1.0 1.5
Lag
se_rie <- autocorrelacion_2$acf
se_rie
## , , 1
##
## [,1]
## [1,] 1.0000000
## [2,] 0.8952625
## [3,] 0.7883975
## [4,] 0.6733114
## [5,] 0.5581574
## [6,] 0.4330827
## [7,] 0.3094193
##Para determinar si la serie de tiempo es estacionaria ?
Empleamos la Prueba de Dickey-Fuller, un análisis que nos ofrece información acerca de la estacionariedad
de la serie. Este método nos ayuda a evaluar si la serie temporal presenta o no propiedades estacionarias.
Paso 1: Planteamiento de hipótesis
H0 = La serie de tiempo (ST) no es estacionaria H1 = La serie de tiempo (ST) es estacionaria
Paso 2: Definición del nivel de significancia
α = 0.05
(1 − α = 0.95) ACF
11
Paso 3: Tamaño de la muestra y cálculos estadísticos
# Se asume que sr contiene la serie de tiempo que se va a evaluar con adf.test()
# Se utiliza adf.test() para realizar la prueba de Dickey-Fuller
adf.test(se_rie, alternative = "stationary")
##
## Augmented Dickey-Fuller Test
##
## data: se_rie
## Dickey-Fuller = -0.37073, Lag order = 1, p-value = 0.9805
## alternative hypothesis: stationary
Paso 4: Especificación de las regiones de rechazo y no rechazo
0.9805 > 0.05
Paso 5: Decisión estadística
Dado que el valor p obtenido es 0.9805 y es mayor que el nivel de significancia de 0.05, no hay evidencia
suficiente para rechazar la hipótesis nula (H0). En consecuencia, según la prueba de Dickey-Fuller, la serie de
tiempo “sr” no exhibe suficientes indicios de estacionariedad.
c) Calcule las primeras diferencias de los datos de préstamos trimestrales del
Dominion Bank.
Prestamos_df <- diff(Presta_mos)
Prestamos_df
## Qtr1 Qtr2 Qtr3 Qtr4
## 2001 182 114 183
## 2002 68 239 103 -41
## 2003 238 72 74 306
## 2004 607 392 243 225
## 2005 438 257 145 131
## 2006 80 199 78 215
d) Calcule los coeficientes de autocorrelación para los retrasos de tiempo 1-6,
usando los datos diferenciados.
coef_c <- acf(x = Prestamos_df,lag.max = 6, main="Función de Autocorrelación Simple",
plot = F)
coef_c$acf
## , , 1
##
## [,1]
## [1,] 1.00000000
## [2,] 0.37563019
## [3,] 0.06989871
## [4,] 0.11278444
## [5,] 0.13196390
## [6,] -0.11558431
## [7,] -0.35089349
12
e) Use R para graficar los datos diferenciados y para calcular sus autocorrelaciones
de losprimeros seis retrasos de tiempo. ¿Esta serie es estacionaria?
## Gráfica de los datos diferenciados
par(mfrow=c(1,1))
ts.plot(Prestamos_df,x = "Años",main="Gráfica de los datos diferenciados",
col = "green",lwd = 2)+
grid(col = "black")
## Warning in xy.coords(x = matrix(rep.int(tx, k), ncol = k), y = x, log = log, :
## NAs introducidos por coerción
## Warning in xy.coords(x, y): NAs introducidos por coerción
Gráfica de los datos diferenciados
500
300
100
0
2002 2003 2004 2005 2006
Time
## integer(0)
autocorrelacion 3
## Autocorrelaciones de los primeros seis retrasos de tiempo
autocorrelacion_3 <- acf(Prestamos_df,col="orange",lag.max = 6,lwd=3)
13
Prestamos
0.8
0.4
ACF
0.0
−0.4
0.0 0.5 1.0 1.5
Lag
## seri_1
sr1 <-autocorrelacion_3$acf
sr1
## , , 1
##
## [,1]
## [1,] 1.00000000
## [2,] 0.37563019
## [3,] 0.06989871
## [4,] 0.11278444
## [5,] 0.13196390
## [6,] -0.11558431
## [7,] -0.35089349
¿Esta serie de tiempo es estacionaria?
La Prueba de Dickey-Fuller es una herramienta que nos ayuda a determinar si una serie temporal es estacionaria
o no. Este contraste nos permite evaluar si la serie exhibe propiedades estables a lo largo del tiempo o si hay
evidencia de tendencias o patrones que hacen que la serie no sea estacionaria. Es una forma de validar si la
serie de datos sigue un comportamiento constante en términos de media y variabilidad a lo largo del tiempo.
Paso 1: Planteamiento de hipótesis
H0 = La serie temporal sr1 es no estacionaria
H1 = La serie temporal sr1 es estacionaria
14
Paso 2: Definición del nivel de significancia
α = 0.05
(1 − α = 0.95)
Paso 3: Tamaño de la muestra y cálculos estadísticos
adf.test(sr1, alternative = "stationary")
## Warning in adf.test(sr1, alternative = "stationary"): p-value smaller than
## printed p-value
##
## Augmented Dickey-Fuller Test
##
## data: sr1
## Dickey-Fuller = -7.4467, Lag order = 1, p-value = 0.01
## alternative hypothesis: stationary
Paso 4: Especificación de las regiones de rechazo y no rechazo
0.01 < 0.05
Paso 5: Decisión estadística
Dado que el valor p obtenido es 0.01, el cual es menor que el nivel de significancia de 0.05, hay evidencia
suficiente para rechazar la hipótesis nula (H0). Por lo tanto, en este caso, se acepta la hipótesis alternativa
(H1), lo que sugiere que la serie de tiempo denominada “sr1” es estacionaria.
3. La tabla siguiente contiene las ventas semanales de un artículo alimenticio
#para 52 se manas consecutivas
library(reader)
## Warning: package 'reader' was built under R version 4.3.2
## Loading required package: NCmisc
## Warning: package 'NCmisc' was built under R version 4.3.2
##
## Attaching package: 'reader'
## The following objects are masked from 'package:NCmisc':
##
## cat.path, get.ext, rmv.ext
ventas <- read.csv("ventas semanales.csv")
View(ventas)
semanas <-ts(ventas,frequency = 1)
a) Grafique los datos de ventas como una serie de tiempo.
semanas<-ts(ventas,frequency = 1)
ts.plot(semanas,xlab = "semanas",ylab ="Sales" ,main="ventas semanales de un artículo alimenticio" ,col=
15
ventas semanales de un artículo alimenticio
8
6
Sales
4
2
0 10 20 30 40 50
semanas
## integer(0)
acf
# Crear un nuevo conjunto de datos sin filas que contengan NA
#nueva_base <- na.omit(ventas$Sales)
# Filtrar las filas que no tienen valores NA en ninguna columna
#nueva_base <- ventas$Sales[complete.cases(ventas$Sales), ]
#acf(semanas)
b) ¿Cree que esta serie sea estacionaria o no estacionaria? \
Utilizamos la Prueba o contraste de Dickey-Fuller (Prueba de estacionariedad). El contraste de Dickey-Fuller
permite conocer si es o no estacionaria una ST. \ Paso 1: Planteamiento de hipótesis \
H0 = ST Semanas es no estacionaria
H1 = ST Semanas es estacionaria
Paso 2: Definición del nivel de significancia \
α = 0.05
(1 − α = 0.95)
16
Paso 3: Tamaño de la muestra y cálculos estadísticos
## adf.test(semanas, alternative = "stationary")
Paso 4: Especificación de las regiones de rechazo y no rechazo ACF
Se establecen las siguientes regiones de rechazo y no rechazo para el ACF:
• -0.2
• 0.2
• 0.4
• 0.6
• 0.8
• 1.0
Paso 5: Decisión estadística
Se realizó la prueba de hipótesis con un valor p obtenido de 0.5275, el cual es mayor que el nivel de significancia
establecido de 0.05. Por lo tanto:
Puesto que p-value es: 0.5275 > 0.05, se rechaza la hipótesis alternativa y no se rechaza H0 (Hipótesis nula).
En consecuencia, se concluye que la serie de tiempo llamada “Semanas” no es estacionaria.
c) Usando R, calcule las autocorrelaciones de la serie de ventas para los 10
primeros retrasosde tiempo. ¿El comportamiento de las autocorrelaciones es
consistente con su respuesta al inciso b)? Explique por qué
##semana_10<-acf(semanas,lag.max = 10,col="orange",lwd=4)
Figure 1: lag
17
¿El comportamiento de las autocorrelaciones es consistente con su respuesta al
inciso b)?
Los diez primeros rezagos de tiempo muestran un patrón consistente y mantienen un comportamiento no
estacionario. Esta consistencia en el comportamiento de la serie a través de esos rezagos indica que aún no
exhibe propiedades estacionarias. Por consiguiente, se sugiere realizar diferenciación para convertir la serie en
estacionaria.
d) Usando R, calcule las autocorrelaciones de los residuos del inciso c) para los
primeros 10 retrasos de tiempo. ¿El modelo aleatorio es adecuado para los datos
de ventas? Explique su respuesta.
##auto.arima(sem_10,stepwise = F, approximation = F, seasonal = F)
#sem_10<-semana_10$acf
4. La tabla siguiente presenta los ingresos trimestrales de Southwest Airlines,antes
de partidas extraordinarias (millones de $) para los años de 2008 a 2019.
Ingresos <- read.csv("INGRESOS_TRIMESTRALES_de_SOUTHWEST_AIRLINES.csv")
Ingresos
## INGRESOS
## 1 0.17
## 2 19.64
## 3 5.09
## 4 -8.21
## 5 13.48
## 6 24.93
## 7 41.85
## 8 11.83
## 9 33.00
## 10 50.87
## 11 70.01
## 12 95.85
## 13 15.13
## 14 19.24
## 15 23.53
## 16 10.57
## 17 23.48
## 18 42.15
## 19 58.52
## 20 59.72
## 21 85.32
## 22 93.83
## 23 133.39
## 24 157.76
## 25 26.59
## 26 24.57
## 27 23.04
## 28 15.72
## 29 26.89
## 30 48.83
18
## 31 58.62
## 32 67.72
## 33 60.86
## 34 92.51
## 35 129.64
## 36 126.98
## 37 16.07
## 38 8.11
## 39 -4.58
## 40 8.84
## 41 27.17
## 42 38.37
## 43 20.34
## 44 43.36
## 45 28.16
## 46 80.55
## 47 100.38
## 48 93.80
a) Grafique los datos de ingresos como una serie de tiempo y describa cualquier
patrón(característica o componente) existente.
ingreso_s <- ts(Ingresos, start = c(2008,1),frequency = 4);ingreso_s
## Qtr1 Qtr2 Qtr3 Qtr4
## 2008 0.17 19.64 5.09 -8.21
## 2009 13.48 24.93 41.85 11.83
## 2010 33.00 50.87 70.01 95.85
## 2011 15.13 19.24 23.53 10.57
## 2012 23.48 42.15 58.52 59.72
## 2013 85.32 93.83 133.39 157.76
## 2014 26.59 24.57 23.04 15.72
## 2015 26.89 48.83 58.62 67.72
## 2016 60.86 92.51 129.64 126.98
## 2017 16.07 8.11 -4.58 8.84
## 2018 27.17 38.37 20.34 43.36
## 2019 28.16 80.55 100.38 93.80
autoplot(ingreso_s)+ggtitle("Ingresos trimestrales de Southwest Airlines")+
ylab("Ingresos en $")+
xlab("Periodo Trimestral Ene2008-Dic2019")
19
Ingresos trimestrales de Southwest Airlines
150
100
Ingresos en $
50
2008 2010 2012 2014 2016 2018 2020
Periodo Trimestral Ene2008−Dic2019
Esta serie de tiempo que representa los ingresos trimestrales de Southwest Airlines, excluyendo partidas
extraordinarias, durante los años 2008 a 2019, muestra una tendencia ascendente y una variabilidad en
constante cambio.
b) ¿La serie es estacionaria o no estacionaria? Explique su respuesta.
La serie de ingresos trimestrales de Southwest Airlines no se considera estacionaria porque muestra una
tendencia creciente con el tiempo y una autocovarianza que no permanece constante. Esta interpretación se
respalda al realizar una prueba de estacionariedad, específicamente la prueba de Dickey-Fuller.
adf.test(ingreso_s)
##
## Augmented Dickey-Fuller Test
##
## data: ingreso_s
## Dickey-Fuller = -3.5173, Lag order = 3, p-value = 0.04957
## alternative hypothesis: stationary
Paso 1: Establecimiento de hipótesis
H0 ≡ La serie de tiempo no es estacionaria
H1 ≡ La serie de tiempo es estacionaria
Paso 2: Definición del nivel de significancia
α = 0.05
20
Paso 3: Descripción del tamaño de la muestra y cálculos estadísticos
Prueba Dickey-Fuller p-valor > 0.05
Paso 4: Especificación de las regiones de no rechazo y rechazo
0.9045 > 0.05
Paso 5: Decisión estadística
No se rechaza la Hipótesis Nula. Por lo tanto, la serie de tiempo no es estacionaria.
c) Usando R, calcule las autocorrelaciones de la serie de ingresos para los primeros
10 retrasos de tiempo. ¿El comportamiento de las autocorrelaciones es congruente
con su elección realizada en el inciso b)? Explique su respuesta
acf(x = ingreso_s, lag.max = 10, main = " funcion de autocorrelacion", col = "blue")
funcion de autocorrelacion
0.2 0.4 0.6 0.8 1.0
ACF
−0.2
0.0 0.5 1.0 1.5 2.0 2.5
Lag
21
pacf(x = ingreso_s,lag.max = 10, main="Función de Autocorrelación Parcial", col="Brown")
Función de Autocorrelación Parcial
0.6
0.4
Partial ACF
0.2
0.0
−0.2
0.5 1.0 1.5 2.0 2.5
Lag
La serie temporal se confirma como no estacionaria al observar que los primeros 10 rezagos en la Función
de Autocorrelación Simple no mantienen una constancia, lo cual se refleja también en la Función de
Autocorrelación Parcial. Esta variabilidad en los retardos indica una falta de estacionariedad en la serie.
d) Use R o Excel para calcular las diferencias cuartas de los datos de ingresos en la
tablaanterior. Las diferencias cuartas se calculan diferenciando las observaciones
separadas por cuatro periodos. Con datos trimestrales, este procedimiento
algunas veces es útil en la creación de una serie estacionaria, a partir de una serie
no estacionaria. Por lo tanto, los datos diferenciados cuartos serán Y5 – Y1 =
19.64 – 0.17 = 19.47, Y6 – Y2 = 19.24 – 15.13 = 4.11, . . ., y así sucesivamente.
dif_cu <- diff(x = ingreso_s,differences = 4)
dif_cu
## Qtr1 Qtr2 Qtr3 Qtr4
## 2009 -1.53 -78.97 60.94 -68.12
## 2010 150.54 -152.62 59.06 0.86
## 2011 -118.69 304.65 -276.04 67.22
## 2012 60.55 -63.23 12.05 -4.81
## 2013 52.44 -81.06 89.63 -94.38
## 2014 -94.11 425.04 -413.35 122.38
## 2015 30.56 -32.00 -15.20 34.38
## 2016 -26.73 69.74 -87.50 -12.24
22
## 2017 -23.19 279.66 -318.88 138.52
## 2018 -52.04 9.16 -10.06 92.38
## 2019 -149.55 185.08 -205.96 106.30
DIFERENCIAS CUARTAS EN EXCEL
Differencias <- read_excel("Diferencias cuadradas ingresos trimestrales.xlsx")
datos_sin_na <- na.omit(Differencias)
datos_sin_na
## # A tibble: 47 x 1
## `NA`
## <chr>
## 1 NA
## 2 NA
## 3 NA
## 4 54.55
## 5 -54.13
## 6 -27.76
## 7 -37.22
## 8 62.75
## 9 -27.21
## 10 -48.41
## # i 37 more rows
Differencias$dif_cu
## Warning: Unknown or uninitialised column: `dif_cu`.
## NULL
e) Grafique las series de tiempo de las diferencias cuartas. ¿Estas series de tiempo
parecen ser estacionarias o no estacionarias? Explique su respuesta.
autoplot(dif_cu, col= 150 )+
ggtitle("Diferencias Cuartas de Ingresos trimestrales de Southwest Airlines") +
ylab(" ingresos en $") +
xlab(" perido trimestral enero2009- dic2009")
23
Diferencias Cuartas de Ingresos trimestrales de Southwest Airlines
250
ingresos en $
−250
2010 2012 2014 2016 2018 2020
perido trimestral enero2009− dic2009
adf.test(dif_cu)
## Warning in adf.test(dif_cu): p-value smaller than printed p-value
##
## Augmented Dickey-Fuller Test
##
## data: dif_cu
## Dickey-Fuller = -7.2559, Lag order = 3, p-value = 0.01
## alternative hypothesis: stationary
Paso 1: Establecimiento de hipótesis
H0 ≡ La serie de tiempo no es estacionaria
H1 ≡ La serie de tiempo es estacionaria
Paso 2: Definición del nivel de significancia
α = 0.05
Paso 3: Descripción del tamaño de la muestra y cálculos estadísticos
Prueba Dickey-Fuller
p-valor < 0.05
24
Paso 4: Especificación de las regiones de no rechazo y rechazo
0.02991 < 0.05
Paso 5: Decisión estadística
Se rechaza la Hipótesis Nula. Por lo tanto, la serie de tiempo es estacionaria.
conclusiones
1. Flexibilidad en la modelización: La amplia gama de modelos ARIMA y sus variantes permite ajus-
tarse a la diversidad de comportamientos temporales, capturando patrones complejos como tendencias,
estacionalidades y comportamientos irregulares en los datos a lo largo del tiempo.
2. Herramienta para la predicción: Estos modelos proveen una base sólida para predecir con precisión
y fiabilidad en el tiempo. Al comprender y modelar la estructura subyacente de los datos, se logra
realizar pronósticos futuros más precisos, siendo esenciales para la planificación y la toma de decisiones
en distintos sectores.
3. Selección del modelo óptimo: La tabla de modelos ARIMA permite comparar distintas configu-
raciones utilizando métricas de desempeño como el error cuadrático medio (ECM) o el coeficiente de
determinación (R cuadrado), facilitando así la identificación del modelo más adecuado para una serie
temporal específica.
4. Aplicaciones en diversos campos: Estos modelos encuentran utilidad en áreas como la economía,
las finanzas, la meteorología y la gestión de la demanda, donde entender y prever patrones temporales
resulta crucial para tomar decisiones estratégicas.
5. Mejora continua: Experimentar con diversas configuraciones de modelos y evaluar su desempeño a lo
largo del tiempo permite mejorar continuamente la capacidad predictiva y comprensión de las series
temporales. Esto conlleva a refinamientos en las predicciones y decisiones más informadas.
25