Conceptos fundamentales de procesos
estocásticos
Esquema
Introducción
Procesos Estocásticos
• Definición - ejemplos
• ¿Cómo caracterizar un proceso estocástico?
• Funcion de densidad de dimension finita
• Funcion de distribucion acumulada
• Momentos de un proceso estocástico
• Funciones de autocorrelacion simple y parcial
Procesos Estocásticos Estacionarios. Estacionariedad
estricta y en covarianza (o de segundo orden).
Procesos estocásticos útiles para el modelaje de series de
tiempo: ruido blanco, camino aleatorio, camino aleatorio
con deriva.
Introducción
En este tema vamos a estudiar distintos modelos de
probabilidad para series de tiempo, los cuales se
denominan colectivamente procesos estocásticos.
La mayoría de los procesos físicos en el mundo real
involucran un elemento aleatorio en su estructura.
Intuitivamente un proceso estocástico describe un
fenómeno (o proceso) que evoluciona en el tiempo y que
involucra un componente estocástico (aleatorio).
Empíricamente observamos tal proceso registrando
valores de una variable respuesta en diferentes puntos del
tiempo.
Proceso Estocástico
Definición: Una familia de variables aleatorias 𝑌𝑡 , donde 𝑡 es el
parámetro perteneciente a un conjunto de índices 𝑇, se denomina
proceso estocástico, y se denota por 𝑌𝑡 : 𝑡 ∈ 𝑇 o de forma alternativa
𝑌𝑡 : 𝑡 ∈ 𝑇, 𝜔 ∈ Ω donde Ω es el espacio muestral (espacio de estados).
𝑌𝑡 𝜔
Pertenece al Pertenece al
conjunto de índices espacio muestral
Para 𝑡 fijo 𝑌𝑡 𝜔 es una variable aleatoria.
Para un 𝜔 dado, 𝑌𝑡 𝜔 se denomina una función muestral o una
realización como una función de 𝑡 (ver figura 1).
Figura 1. Diferentes realizaciones de un proceso
estocástico 𝑌𝑡
Una variable aleatoria para cada 𝑡 fijo
Un recorrido muestral
𝑌𝑡
t tiempo
Informalmente un proceso estocástico es :
Un fenómeno del mundo real que evoluciona en el
tiempo de acuerdo con leyes de probabilidad.
Un conjunto de variables aleatorias asociadas a distintos
instantes de tiempo.
Un proceso (por ejemplo, variación en el tiempo o en el
espacio) cuyo comportamiento no es completamente
predecible y puede caracterizarse por leyes de
probabilidad.
Relación entre proceso estocástico y serie de
tiempo
a) Vamos a asumir que la serie de tiempo observada constituye una
realización de un proceso estocástico, es decir, que ha sido generada
por un proceso estocástico.
b) La relación entre una serie de tiempo y el proceso estocástico que
la genera es la misma que hay entre una muestra y la variable
aleatoria de la que procede.
c) Las peculiaridades de una serie de tiempo (frente a una muestra) y
de un proceso estocástico (frente a una variable aleatoria) son que las
series de tiempo y los procesos estocásticos están referidos a
instantes de tiempo concretos; y los datos están ordenados desde el
pasado hasta el presente.
d) El objetivo del análisis de series temporales es inferir la forma del
proceso estocástico a partir de las series temporales que genera. Así
como describir sus caracteristicas principales, tales como:
distribucion de probabilidad, momentos, etc
¿Cómo caracterizar o especificar un
proceso estocástico?
Las características de un fenómeno aleatorio pueden
describirse a través de la distribución de probabilidad de
una variable aleatoria que representa el fenómeno.
En la teoría de probabilidad, las propiedades estadísticas de
un fenómeno aleatorio que ocurre de manera aleatoria
respecto al tiempo no son considerados.
De manera análoga a las variables y vectores aleatorios
vamos a definir características no aleatorias de un proceso
estocástico tales como distribución de probabilidad,
esperanza, covarianzas, estructura de dependencia, etc.
Caracterización de un proceso estocástico
Función de densidad de dimensión finita. Definida por
la distribución conjunta de las variables aleatorias 𝑌𝑡 para
cualquier conjunto finito de tiempos 𝑡1 , 𝑡2 , … , 𝑡𝑛 , las fidis,
por su siglas en inglés, se denotan como
𝑓 𝑦𝑡1 , 𝑦𝑡2 , … , 𝑦𝑡𝑛 .
Función de distribución acumulada. Para cualquier
proceso estocástico con conjunto de indices 𝑇, su función de
distribucion acumulada (FDA) esta determinada
unicamente por sus funciones de distribucion de dimensión
finita. La FDA de dimensión 𝑛 de un proceso estocástico
esta definida por:
𝐹𝑌𝑡1 ,…,𝑌𝑡𝑛 𝑦1 ,…,𝑦𝑛 = 𝑃 𝑌𝑡1 < 𝑦1 , … . , 𝑌𝑡𝑛 < 𝑦𝑛
Para cualesquiera 𝑡1 , … , 𝑡𝑘 y cualesquiera números reales
𝑦1, … , 𝑦𝑛.
Ejemplo 3: Proceso Gaussiano
Un proceso estocástico se denomina Gaussiano si
todas sus fidis son normales multivariantes.
De acuerdo con la distribución normal
multivariante, sabemos que los parámetros y
del vector Gaussiano son, su esperanza y matriz de
covarianzas, respectivamente.
Por tanto, la distribución de un Proceso
Estocástico Gaussiano se encuentra determinada
solamente por la colección de esperanzas y
matrices de covarianzas de las fidis.
Ejemplo 4. Considere el proceso estocástico Gaussiano
{Yt, tT} con los parámetros
Entonces, para m = 1,2,…, se cumple
Por tanto, las fidis o distribuciones marginales son Normales
Momentos de un proceso estocástico
Un proceso estocástico tambien puede describirse a
través de sus momentos de orden uno y dos:
E 𝑌𝑡 ,
E 𝑌𝑡2 ,
𝐸 𝑌𝑡 𝑌𝑠 .
En base a estos momentos se definen las funciones
media, varianza, autocovarianza y autocorrelación.
Función media: E 𝑌𝑡 = 𝜇𝑡
Función varianza: Var 𝑌𝑡 = 𝜎𝑡2
Función autocovarianza. Para 𝑌𝑡 y 𝑌𝑠 se define:
cov 𝑌𝑡 , 𝑌𝑠 = 𝐸 𝑌𝑡 − 𝜇𝑡 𝑌𝑠 − 𝜇𝑠
Función autocorrelación. Para 𝑌𝑡 y 𝑌𝑠 se define:
cov 𝑌𝑡 , 𝑌𝑠
𝜌 𝑌𝑡 , 𝑌𝑠 =
𝜎𝑡2 𝜎𝑠2
Observación: las funciones media, varianza, autocovarianza
y autocorrelacion, respectivamente, con frecuencia son
funciones del tiempo.
Recordemos las definiciones de esperanza y varianza de una
variable aleatoria y de covarianza y correlación entre dos
variables aleatorias.
Ejemplo 5:
Un proceso aleatorio se define como
Yt = X0 + Vt,
donde X0 y V son variables aleatorias estadísticamente
independientes distribuidas uniformemente en los
intervalos [X01, X02] y [V1,V2], respectivamente, y t es el
tiempo. Hallar
(a) la media,
(b) la varianza,
(c) la función de autocovarianzas,
(d) la función de autocorrelación simple
Ejemplo 6:
Procesos Estocásticos Estacionarios
Para realizar inferencias acerca de la estructura de un proceso
estocástico en base a un registro observado de ese proceso, usualmente
se hacen algunas simplificaciones (y razonables) supuestos.
El supuesto más importante es el de Estacionariedad. La idea básica
de la estacionariedad es que las leyes de probabilidad que gobiernan el
proceso no van a cambiar en el tiempo.
Al describir un proceso real a través de un proceso estocástico
estacionario (estrictamente o en el sentido amplio) establecemos que
las propiedades características de este proceso no cambian en el
tiempo, tal como observamos en la figura 3.
Por tanto, este proceso estocástico se puede modelar mediante una
ecuación con coeficientes fijos que pueden estimarse a partir de los
datos históricos, es decir, a partir de la serie de tiempo observada).
Por otro lado, si las características del proceso estocástico cambian en
el tiempo, es decir, si el proceso no es estacionario, será difícil
representar la series de tiempo mediante un modelo algebraíco
sencillo.
Figura 3. Proceso estocástico estacionario
Proceso estrictamente estacionario
El proceso 𝑌𝑡 : 𝑡 ∈ 𝑇 , T ⊂ ℜ, es estrictamente estacionario
si las fidis son invariantes bajo cambios del parámetro, 𝑡,
esto es,
𝑑
𝑌1 , … , 𝑌𝑡 𝑌1+𝑘 , 𝑌2+𝑘 , … , 𝑌𝑡+𝑘
para todas las posibles selecciones de índices 𝑡1 , … , 𝑡𝑛
y 𝑛 > 1 y 𝑘 (que es un valor arbitrario) es tal que
𝑑
𝑡1+𝑘 , … , 𝑡𝑛+𝑘 ∈ 𝑇. Donde establece la identidad de las
distribuciones.
Ejemplo 7: para n = 1
La distribución (univariante) de 𝑌𝑡 es la misma que la de 𝑌𝑡+𝑘 ,
para todo 𝑡 , 𝑘 ; en otras palabras, 𝑌1, … , 𝑌𝑛 se distribuyen
(marginalmente) de manera idéntica.
También 𝐸 𝑌𝑡 = 𝐸 𝑌𝑡+𝑘 para todo 𝑡 , 𝑘 ; de manera que la
función media es constante para todo tiempo 𝑡.
Adicionalmente, 𝑉 𝑌𝑡 = 𝑉 𝑌𝑡+𝑘 para todo 𝑡,𝑘; de manera que
la función varianza también es constante en el tiempo.
Ejemplo 8: para n = 2
A partir de la definición de estacionariedad:
La distribución bivariante de 𝑌𝑡 y 𝑌𝑠 debe ser la misma
distribución de 𝑌𝑡+𝑘 y 𝑌𝑠+𝑘 , para todo 𝑡, s, 𝑘, y así sucesivamente.
En el caso de las autocorrelaciones:
El coeficiente de correlación para 1980 y 1985 es el mismo
coeficiente para 1990 y 1995, (t = 1980 y 1990, k = 5).
El coeficiente de correlación para 1980 y 1987 es el mismo
coeficiente para 1990 y 1997, (t = 1980 y 1990, k = 7).
Observaciones:
Cuando el proceso es estacionario podemos estudiar
cualquier parte del proceso y vamos a obtener los
mismos resultados.
El concepto de estacionariedad fuerte es muy
restrictivo, por lo que en la práctica se utiliza el
concepto de estacionariedad débil o en sentido
amplio o en covarianza o de segundo orden.
Estos procesos estacionarios de segundo orden
llamados también estacionarios en covarianza,
forman la familia que define nuestro ámbito de estudio
del análisis de series temporales.
Proceso estacionario de segundo orden o en
covarianza
a) Un proceso estocastico es estacionario en covarianza (o de
segundo orden) si sus dos primeros momentos son fijos y no
cambian en el tiempo (ver figura 4).
b) El primer momento es la media, 𝐸 𝑌𝑡 .
c) El segundo momento es la covarianza entre 𝑌𝑡 y 𝑌𝑡+𝑘 . La
covarianza aplicada sobre la misma variable aleatoria se
autocovarianza.
d) Por tanto, un proceso se denomina estacionario de segundo
orden si:
𝐸 𝑌𝑡 = 𝜇
𝐸 𝑌𝑡 − 𝜇 𝑌𝑡 − 𝜇 = 𝜎 2 < ∞
𝐸 𝑌𝑡 − 𝜇 𝑌𝑡+𝑘 − 𝜇 = 𝛾𝑘
Figura 4. Características de los procesos
estacionarios de segundo orden
Observación: a partir de ahora al referirnos a un proceso
estacionario quiere decir estacionario de segundo orden.
Funciones de autocovarianza y autocorrelación
Una característica importante en los datos de series de tiempo es que
están correlacionados, por tanto, nos interesa conocer la correlación
existente entre observaciones separadas por diferentes periodos de
tiempo.
Para el análisis de series de tiempo se tienen las funciones de
autocorrelación simple y la función de autocorrelación parcial, acf y
pacf, respectivamente, (por sus siglas en ingles); las cuales nos
ayudan en el diagnóstico de las propiedades de una serie de tiempo.
Por ejemplo, la función de autocorrelación es muy útil para detectar
patrones y periodicidades en series de tiempo.
Las funciones de autocovarianza y autocorrelación miden la
relación lineal entre variables aleatorias de procesos estocásticos
separadas de una cierta distancia en el tiempo.
La estimación de estas funciones permiten determinar la forma del
procesos estocástico.
Función de autocovarianzas
Para un proceso estacionario 𝑌𝑡 , con media constante 𝜇 y varianza
constante 𝜎 2 .
La función autocovarianza entre 𝑌𝑡 y 𝑌𝑡+𝑘 𝛾𝑘 denotada por 𝛾𝑘 está
dada por:
𝛾𝑘 = cov 𝑌𝑡 , 𝑌𝑡+𝑘 = 𝐸 𝑌𝑡 − 𝜇 𝑌𝑡+𝑘 − 𝜇
Propiedades:
a) 𝛾0 = Var 𝑌𝑡
b) 𝛾𝑘 = 𝛾−𝑘
c) La función de autocovarianzas 𝛾𝑘 es semidefinida positiva en el
𝑛 𝑛
sentido de que 𝑖=1 𝑗=1 𝛼𝑖 𝛼𝑗 𝛾𝑖−𝑗 ≥ 0 para cualesquiera números
reales 𝛼1 , … , 𝛼𝑛 .
Función de autocorrelación simple
El término autocorrelación indica la presencia de
correlación estándar (usualmente correlación de Pearson)
entre valores rezagados de una serie de tiempo. También se
denomina correlación serial.
En el análisis de series temporales, nos interesa conocer la
correlación que hay entre observaciones separadas por
diferentes periodos de tiempo. Por ejemplo, entre 𝑌𝑡 y 𝑌𝑡−1 ,
𝑌𝑡 y 𝑌𝑡+1 , 𝑌𝑡 y 𝑌𝑡−2 o 𝑌𝑡 y 𝑌𝑡+2 ,…, 𝑌𝑡 y 𝑌𝑡−𝑘 o 𝑌𝑡 y 𝑌𝑡+𝑘 , donde
𝑘 es un número entero.
Función de autocorrelación simple (cont.)
Para un proceso
2
estacionario 𝑌𝑡 , con media constante 𝜇 y varianza
constante 𝜎 .
La función autocorrelación entre 𝑌𝑡 y 𝑌𝑡+𝑘 denotada por 𝜌𝑘 está dada
por:
cov 𝑌𝑡 , 𝑌𝑡+𝑘
𝜌𝑘 = , 𝑉 𝑌𝑡 = 𝑉 𝑌𝑡+𝑘 = 𝛾0
𝑉 𝑌𝑡 𝑉 𝑌𝑡+𝑘
Propiedades:
a)𝜌0 = 1
b)−1 ≤ 𝜌𝑘 ≤ 1
c)𝜌𝑘 = 𝜌−𝑘
d)La función de autocorrelacion simple 𝜌𝑘 es semidefinida positiva
en el sentido de que 𝑛𝑖=1 𝑛𝑗=1 𝛼𝑖 𝛼𝑗 𝜌𝑖−𝑗 ≥ 0 para cualesquiera
números reales 𝛼1 , … , 𝛼𝑛 .
En detalle:
El coeficiente 𝜌1 , se denomina coeficiente de autocorrelación
de orden 1
Correlograma
La representación gráfica del conjunto de coeficientes, 𝜌𝑘 versus 𝑘,
recibe el nombre de correlograma o función de
autocorrelación. Bajo el supuesto de estacionariedad del
proceso, se tiene que 𝜌𝑘 = 𝜌−𝑘 . Por lo que sólo se consideran
valores positivos de 𝑘.
Figura 3 Correlograma de un proceso estocástico
1.0
0.5
k
0.0
-0.5
5 10 15
Retardo
Función de autocorrelación parcial
La función de autocorrelación parcial (pacf por sus siglas en
íngles) es similar a la acf, pero ésta mide la correlación entre las
observaciones que estan separadas por k periodos de tiempo,
luego de controlar la correlacion por los rezagos intermedios.
El coeficiente de correlación condicional
Corr(Yt , Yt+k | Yt+1, Yt+2,…, Yt+k-1)
con frecuencia se conoce con el nombre de coeficiente de
correlación parcial en el análisis de series de tiempo.
El coeficiente de correlación parcial es de gran utilidad para la
identificación de modelos autorregresivos.
Continuación de algunos ejemplos
Chequear si los procesos estocásticos de los ejemplos 4,
6 y 7, respectivamente son estacionarios en covarianza.
Ejemplo 5: Los siguientes procesos estocasticos.
¿Son estacionarios en covarianza?
a) 𝑌𝑡 = 𝜀𝑡 , 𝜀𝑡 ∼ 𝑖𝑖𝑑 0, 𝜎 2
b) 𝑌𝑡 = −1 𝑡 𝜀𝑡
c) 𝑌𝑡 = 𝜇 + 𝜀𝑡
d) 𝑌𝑡 = 𝛽𝑡 + 𝜀𝑡
e) 𝑌𝑡 = 𝑎 + 𝛽𝑡 + 𝜀𝑡
𝜀𝑡 +𝜀𝑡−1
f) 𝑌𝑡 =
2
g) 𝑌𝑡 = 𝐴0 cos 𝜔0 𝑡 + 𝜉 , 𝜉 ∼ 𝑈 −𝜋, 𝜋
Nota: Soluciones en un archivo separado.
Estimación de las funciones de autocovarianzas y
autocorrelacion simple y parcial.
En el mundo real, no conocemos los valores de 𝜇, 𝜎 2 , 𝛾𝑘 y
𝜌𝑘 , respectivamente, por lo que deben ser estimados a partir
de la serie de tiempo observada .
Función de autocovarianzas muestral
Dada una realización (serie temporal) 𝑦𝑡 de un proceso
estocástico estacionario 𝑌𝑡 , la función de autocovarianzas
muestrales esta dada por:
𝑛=𝑘
1
𝛾𝑘 = 𝑦𝑡 − 𝑦 𝑦𝑡+𝑘 − 𝑦
𝑛
𝑡=1
Función de autocorrelación simple muestral
Dada una realización (serie temporal) 𝑦𝑡 de un proceso
estocástico estacionario 𝑌𝑡 , la función de
autocorrelación muestral esta dada por:
𝑛=𝑘
𝑡=1 𝑦𝑡 − 𝑦 𝑦𝑡+𝑘 − 𝑦 𝛾𝑘
𝑟𝑘 = 𝑛 2
=
𝑡=1 𝑦𝑡 − 𝑦 𝛾0
Observación: las funciones de autocovarianzas y
autocorrelacion muestrales, respectivamente, tienen las
mismas propiedades de las funciones de autocovarianzas
y autocorrelacion simple teóricas.
Observaciones:
Los valores estimados r1, r2,… pueden graficarse contra
el rezago k conjuntamente con sus límites
confidenciales este gráfico se “Correlograma o función
de autocorrelación muestral”
En la práctica, para obtener una estimación útil para la
función de autocorrelación, la serie observada debería
tener al menos 50 observaciones
Los coeficientes de autocorrelación estimados rk
deberían calcularse hasta el rezago no mayor que N/4.
Para calcular la ACF muestral se utiliza software
estadistico: R, Splus, SAS, SPSS, Minitab, Excel.
Cálculo de las funciones de autocorrelación simple y
parcial muestrales de una serie de tiempo observada
en R
• En R, para obtener las funciones de autocovarianza,
autocorrelación simple o autocorrelacion parcial, se utiliza la
función acf.
• Adicionalmente, existe la función pacf para obtener las
correlaciones parciales.
• Sintaxis de la función acf:
acf(x,
lag.max = NULL,
type = c("correlation", "covariance", "partial"),
plot = TRUE,
na.action = na.fail,
demean = TRUE, ...)
Ejemplo 8: Calculo de la función de
autocovarianzas, autocorrelacion y autocorrelacion
parcial en R
acf (x)
# calcula (y grafica) la funcion de
autocorrelacion simple de la serie x
utilizando los argumentos por defecto
acf(x, type=”covariance”)
# calcula (y grafica) la funcion de
autocovarianza
acf(x, type=”partial) # calcula (y grafica)
la funcion de autocorrelacion parcial
Ejemplo 9:
Calcula la función de autocovarianzas
acf(lh.ts, type = "covariance")
Calcula la función de autocorrelacion simple
acf(lh.ts, type = “correlation")
Produce la función de autocorrelacion parcial
acf(lh.ts, type = “partial")
pacf(lh.ts)
par(mfrow=c(3,1))
acf(lh.ts, type = "covariance")
acf(lh.ts, type = "correlation")
acf(lh.ts, type = "partial")
Series lh.ts
0.25
ACF (cov)
0.10
-0.05
0 5 10 15
Lag
Series lh.ts
1.0
0.6
ACF
0.2
-0.2
0 5 10 15
Lag
Series lh.ts
0.6
Partial ACF
0.2
-0.2
5 10 15
Lag
Ejemplo 10: Si queremos obtener una lista de los coeficientes
de autocorrelacion muestrales, utilizamos
> acf(lh.ts, plot=FALSE)
Autocorrelations of series ‘lh.ts’, by lag
0 1 2 3 4 5 6
7 8 9 10 11 12 13
14 15 16
1.000 0.576 0.182 -0.145 -0.175 -0.150 -
0.021 -0.020 -0.004 -0.136 -0.154 -0.097
0.049 0.120 0.087 0.119 0.151
Ejemplo 9: Representando simultáneamente el
gráfico de la serie temporal y los correlogramas
muestrales simple y parcial
par(mfrow=c(3,1))
plot(AirPassengers.ts, ylab="Número de
pasajeros (en miles)", xlab="Tiempo",
main="Reservas de Pasajeros")
acf(AirPassengers.ts, 36, main= "Función
de Autocorrelación Muestral para la
serie AirPassengers")
acf(AirPassengers.ts, 48, main="")
Reservas de Pasajeros
Número de pasajeros (en miles)
500
300
100
1960 1962 1964 1966 1968 1970 1972
Tiempo
Función de Autocorrelación Muestral para la serie AirPassengers
1.0
0.6
ACF
0.2
-0.2
0.0 0.5 1.0 1.5 2.0 2.5 3.0
Lag
1.0
0.6
ACF
0.2
-0.2
0 1 2 3 4
Lag
Procesos estocásticos útiles en el modelaje de
series de tiempo
Proceso ruido blanco
Camino (o recorrrido) aleatorio
Proceso estocástico lineal
Proceso autorregresivo
Proceso de promedios móviles
Proceso mixto: autorregresivo y de promedios móviles.
Observación: el término «útil» indica que serán los procesos que
estudiaremos en este curso.
Proceso ruido blanco
Esta constituido por una sucesión de variables aleatorias
independientes e identicamente distribuidas, esto es,
𝜀1 , 𝜀2 , … ∼ 𝑖𝑖𝑑.
Es decir,
𝜀𝑡 ∞
𝑡=−∞
𝐸 𝜀𝑡 = 0
𝑉 𝜀𝑡 = 𝜎 2
𝐸 𝜀𝑡 𝜀𝑠 = 0, ∀𝑡, 𝑠, 𝑠 ≠ 𝑡
Características del proceso ruido blanco
También se denomina proceso puramente aleatorio.
Oscila en torno a una media constante.
Con volatilidad (o varianza) constante.
Todas sus covarianzas son cero.
Es debílmente estacionario.
No necesariamente son independientes.
El pasado no contiene información útil para predecir
valores futuros.
Si las variables t, se distribuyen normalmente, se
denomina Ruido Blanco Gaussiano.
Los términos de error y los residuales de un modelo de
regresión deberian comportarse como un ruido blanco.
Se utiliza como punto de partida para definir otros procesos
estocásticos.
Figura 5. Realizaciones de un Figura 6. Función de autocorrelación
Proceso Ruido Blanco de un Ruido Blanco
Gaussiano (en realidad normal
estándar)
Yt t
4
2
2
0 1.0
a1
a2
0
0.8
-2
-2
-4
Autocorrelation
0.6
0 50 100 150 200 250 300 0 50 100 150 200 250 300
t t
0.4
0.2
2
2
1
1
0.0
a3
a4
0
0 5 10 15 20
-1
Lag
-1
-2
-2
0 50 100 150 200 250 300 0 50 100 150 200 250 300
t t
Simulación de un proceso de ruido blanco
A partir del siguiente código en R se puede generar una
realización del proceso ruido blanco.
set.seed(951) # Para generar siempre el
mismo resultado
n2 = 250
noise = rnorm(n2, 0, sqrt(1.5))
par(mfrow=c(2,1))
plot.ts(noise)
acf(noise)
Proceso Camino Aleatorio (en inglés se
denomina random walk)
Sea 𝜀𝑡 un proceso de ruido blanco o puramente
aleatorio.
Se define el proceso camino aleatorio, 𝑌𝑡 , por
𝑌0 = 0
𝑌𝑡 = 𝑌𝑡−1 + 𝜀𝑡
Características del proceso camino
aleatorio
El proceso camino aleatorio no es estacionario
Sus momentos son: 𝐸 𝑌𝑡 = 𝑡𝜇 y 𝑉 𝑌𝑡 = 𝑡𝜎 2 .
La primera diferencia es estacionaria: 𝛻𝑌𝑡 =𝑌𝑡 − 𝑌𝑡−1
Los ejemplos tipicos de series de tiempo que se comportan
como caminos aleatorios son los precios de las acciones en el
mercado bursátil en días sucesivos. Un modelo que da con
frecuencia buenas aproximaciones es:
Precio en el día = Precio en el día -1 + error aleatorio.
Este proceso puede incluir un término constante y se denomina
Camino aleatorio con desplazamiento:
𝑌𝑡 = 𝑐 + 𝑌𝑡−1 + 𝜀𝑡
Figura 8. Realizaciones del proceso camino
aleatorio con 𝜺𝒕 ∼ 𝑵 𝟎, 𝟏
20
15
0
10
-10
5
-20
0
-5
0 50 100 150 200 250 300 0 50 100 150 200 250 300
Time Time
5
0
0
-25 -20 -15 -10 -5
-5
-15
-25
0 50 100 150 200 250 300 0 50 100 150 200 250 300
Time Time
Figura 9. Funciones de autocorrelación simple y
parcial para un camino aleatorio
Acf
0.8
0.4
rk
0.0
0 5 10 15 20
Retardo
Pacf
0.8
rkk
0.4
0.0
5 10 15 20
Retardo
• La figura 10 muestra el perfil de dos series generadas por
caminos aleatorios con y sin deriva.
• Como puede observarse, la característica fundamental de
este proceso es la falta de afinidad de las series a una
media estable:
Figura 11. Camino aleatorio con y sin deriva
1 450
400
0
350
-1 300
250
-2 200
150
-3
100
-4 50
100 200 300 400 500 100 200 300 400 500
Paseo aleatorio sin deriva Paseo aleatorio con deriva
Simulación de un proceso camino aleatorio
Vamos a simular un camino aleatorio con los comandos cumsum
y rnorm:
wn <- cumsum(rnorm(240, 0, 1))
Ahora se crea una serie temporal con la función ts, utilizando
una frecuencia de 12 comenzando en 1990:
wn.ts <- ts(wn, start = 1990, frequency = 12)
plot(wn.ts, main = "Simulated Random Walk",
xlab = "time in year")
Figura 11. Procesos ruido blanco y camino
aleatorio
Las observaciones fluctúan
alrededor de un valor medio
5
constante o de otra forma, la
serie temporal no tiene
tendencia
0
Yt
-5
La serie presenta cambios
de tendencia (creciente,
-10
decreciente) indicándonos
Ruido blanco
Camino aleatorio que la media no es
constante
0 50 100 150 200 250
t
Figura 12. Procesos ruido blanco y camino
aleatorio Los coeficientes
de autocorrelación
muestrales se
encuentran dentro
Ruido blanco
de los límites
confidenciales y
por tanto, no son
0.6
rk
significativamente
0.0
diferentes de cero
0 5 10 15 20 Los coeficientes
Retardo
de
autocorrelación
muestrales
Camino aleatorio decrecen muy
lentamente,
están fuera de
0.6
los limites
rk
confidenciales
0.0
indicando que
0 5 10 15 20
son
Retardo significativamen
te diferentes de
cero.
Comentarios:
En las figuras 10 y 11 se muestran realizaciones de los
procesos ruido blanco y camino aleatorio así como sus
respectivas funciones de autocorrelación simple muestrales
(correlogramas).
En los comportamientos observados en estas figuras se
contrasta entre un proceso estacionario (ruido blanco) y
un proceso no estacionario (camino aleatorio)
Anexo 1: Propiedades de la esperanza
matematica, varianza, covarianza y
correlacion.
Revisar Apendice A, páginas 24-26 de Cryer y
Chan.
Observaciones finales
El tema de procesos estocásticos es muy extenso, sólo
hemos realizado una introducción necesaria para
continuar con aquellos que nos serán de utilidad en el
análisis de series de tiempo.
Sólo hemos definido la función de autocorrelación
parcial brevemente, en los próximos temas ésta se
utilizara con mas frecuencia.
Los procesos estocásticos: lineal, autorregresivo, de
promedios móviles y mixtos, respectivamente, son el
objeto de estudio del tema siguiente.