Introducción a Procesos Estocásticos
Introducción a Procesos Estocásticos
om
Introducción a los Procesos
Estocásticos 1
Sample book subtitle 2
G
C ÉSAR G ÓMEZ3
ar
24 de febrero de 2021
es
C
1 Thisis a footnote.
2 Thisis yet another footnote.
3 [Link]
C II
es
ar
G
om
ez
C
es
Dedicated
ar
G
om
ez
C IV
es
ar
G
om
ez
ez
Índice general
om
1. Introducción 1
1.1. Conceptos básicos . . . . . . . . . . . . . . . . . . . . . . . 1
V
VI ÍNDICE GENERAL
ez
3.2. Predicción . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.3. Estimación para cadenas de Markov en tiempo discreto ho-
mogeneas . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.3.1. Distribuciones apriori conjugadas . . . . . . . . . . . 51
om
3.4. Predicción en el corto plazo . . . . . . . . . . . . . . . . . . 53
3.5. Predicción en el régimen estacionario (largo plazo) . . . . . 55
4. El Proceso de Poisson 57
4.1. Tiempos de inter-ocurrencia y tiempos de espera (o llegada) 63
4.1.1. Propiedad de no-memoria de la distribución expo-
G
nencial . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.2. Reducción (Thinning) y superposición de Procesos de Pois-
son . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
4.2.1. Distribución condicional de los tiempos de Espera . 73
ar
ez
5.2.1. Matriz exponencial . . . . . . . . . . . . . . . . . . . 110
5.2.2. Diagonalización . . . . . . . . . . . . . . . . . . . . 110
5.3. Comportamiento en el largo plazo . . . . . . . . . . . . . . 113
5.4. Cadenas absorbentes . . . . . . . . . . . . . . . . . . . . . 122
om
5.5. Filas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
5.5.1. Proceso de nacimiento-muerte . . . . . . . . . . . . 125
5.5.2. La Fila M/M/c . . . . . . . . . . . . . . . . . . . . . 131
ez
om
G
ar
es
C
ez
Índice de figuras
om
2.1. Una red conformada por 7 páginas web. . . . . . . . . . . . 21
2.2. Secuencia de acido nucleico en formato digital . . . . . . . 30
2.3. Caminata aleatoria. . . . . . . . . . . . . . . . . . . . . . . 33
2.4. Proceso de ramificación. . . . . . . . . . . . . . . . . . . . . 35
IX
X ÍNDICE DE FIGURAS
ez
7.2. Con n = 10, las funciones sin(2πkt/n), k = 1, 2, 3, 4. . . . 175
7.3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
7.4. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
7.5. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
om
G
ar
es
C
ez
Índice de cuadros
om
2.1. Ranking de las páginas . . . . . . . . . . . . . . . . . . . . 23
3.1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.1. x2 = o(x). . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
G
ar
es
C
XI
XII ÍNDICE DE CUADROS
ez
om
G
ar
es
C
ez
Capítulo 1
om
Introducción
1
2 CAPÍTULO 1. INTRODUCCIÓN
de fallas.
ez
cos para la evolución de los precios de las acciones y otros activos fi-
nancieros, tasas de interés. Cuantificación de siniestros,frecuencias
y tasas de accidentalidad, etc.
om
remos) (PE) es una colección de variables aleatórias {Xt , t ∈ I}. Donde I
es un conjunto denominado conjunto de indices del [Link] variables
aleatórias están definidas en un mismo espacio muestral Ω.
ez
1 con prob 1 − p
X0 , X1 , X2 , . . . = 01100001 · · · . (1.1)
om
Para completar la descripción de un proceso, se debe especificar en
que forma la familia de variables aleatorias que lo constituyen X = {X1 , X2 , X3 . . .}
varian de forma conjunta entre si.
Esto se lleva a cabo a través de las distribuciones finito-dimencionales
Ft1 ,t2 ,...,tk (xt1 , xt2 , . . . , xtk ) = P (Xt1 ≤ xt1 , Xt2 ≤ xt2 , . . . , Xtk ≤ xtk ) . (1.2)
es
µX (t) = E[Xt ].
4 CAPÍTULO 1. INTRODUCCIÓN
ez
om
G
ar
es
C
ez
Capítulo 2
om
Cadenas de Markov En Tiempo
Discreto
si
ar
5
6 CAPÍTULO 2. CADENAS DE MARKOV EN TIEMPO DISCRETO
ez
P (Xj = s|Xi1 = x1 , Xi2 = x2 , Xi3 = x3 . . . , Xin = xn ) = P (Xj = s|Xin = xn ) .
(2.2)
donde i1 < i2 < · · · < in < j.
La evolución en el transcurso del tiempo de la cadena Xn es decrita
por las probabilidades de transición
om
P (Xn+1 = j|Xn = i) .
X
pij = 1. (2.4)
j
7
ez
[Link]. Dynamical bias in coin tossing. SIAM review, 49(2):211-
235, 2007.
El autor muestra que los lanzamientos de moneda simpre están lige-
ramente sesgados para caer mostrando el lado que mostraba la moneda
om
al principio. “Para lanzamientos naturales” asegura el autor, las posibili-
dades de que tras el lanzamiento se muestre el lado que inicialmente se
mostraba es en realidad aproximadamente 0.51. En este caso tenemos la
siguiente matriz de transición
C S
G
C 0.51 0.49
P = (2.5)
S 0.49 0.51
X
pij (m + n) = pik (m)pkj (n). (2.7)
k
8 CAPÍTULO 2. CADENAS DE MARKOV EN TIEMPO DISCRETO
O también matricialmente
Pm+n = Pm Pn = Pn Pm . (2.8)
ez
De este teorema se deduce imediatamente que
Pn = P n , (2.9)
om
Es decir la matriz de transición de n pasos Pn no es más que la poten-
sia n-ésima de la matriz de transición P .
Vamos también a denotar por µn un vector fila de dimensión |S| y que
representa la función de masa de probabilidad (fmp) o marginal de la va-
riable Xn es decir
(n)
µi = P (Xn = i), para cada estado, i ∈ S. (2.10)
G
(n) (n) (n) (n)
µ(n) = [µ1 µ2 µ3 · · · µd ]. (2.11)
ar
Lema 1
µ(n+m) = µ(m) Pn , y también µ(n) = µ(0) P n (2.12)
Ejemplo 4 (Estados del tiempo) Un modelo muy básico del estado del
tiempo en un determinado lugar puede modelarse por medio de una ca-
es
LL N S
LL 0.2 0.4 0.4
C
P = N 0.4 0.4 0.2 (2.13)
S 0.2 0.3 0.5
2.1. CLASIFICACIÓN DE ESTADOS 9
ez
2.1. Clasificación de Estados
om
Si esta probabilidad es menor que 1, entonces decimos que el estado
i es transitorio.
Sea
G
fij (n) = P (Xn = j, Xn−1 6= j, Xn−2 6= j, · · · , X1 6= j|X0 = i), (2.15)
∞
X
es
n=1
esto ocurre entonces pij (n) = ∞ para todo estado i tal que fij >
P
n
0.
10 CAPÍTULO 2. CADENAS DE MARKOV EN TIEMPO DISCRETO
ez
Corolario 1 Si j es transitorio, entonces pij (n) −→ 0 cuando n −→ ∞
para todo i.
om
Sea
E[Ti |X0 = i] = ∞
ar
P
n nfii (n) si i es recurrente
µi = E[Ti |X0 = i] = (2.18)
∞
si i es transitorio
ez
Es también de interes notar en que instantes es posible el regreso a
un estado.
Definición 9 El periodo d(i) del estado i esta definido por d(i) = mcd{n :
pii (n) > 0}. Denominamos el estado i periodico si d(i) > 1 y aperiodico
om
si d(i) = 1.
Ejemplo 5
1 1
2 2
0 0 0 0
1 3
4 4
0 0 0 0
G
1 1 1 1
0 0
4 4 4 4
(2.19)
1 1 1 1
4
0 4 4
0 4
0 1 1
0 0 0
2 2
ar
1 1
0 0 0 0 2 2
Como acá para cada estado i, pii (1) > 0 entonces cada estado es
aperiodico.
es
1 1
2 2
P = (2.20)
1 3
4 4
12 CAPÍTULO 2. CADENAS DE MARKOV EN TIEMPO DISCRETO
ez
entonces se puede reescribir como
λ1 0 ··· 0
0
λ2 0 ··· 0
−1 −1
P = V DV =V
. .. .. V (2.21)
.
om
. . .
0 0 ··· 0 λd
donde la matriz V está formada por columnas que son los autovectores
de los correspondientes autovalores λ1 , λ2 , . . . , λn .
G
de (6) tenemos entonces que
n
λ1 0 ··· 0
ar
0 λn2 0 ··· 0
n n −1 −1
P =VD V =V V (2.22)
.. .. ..
. . .
n
0 0 ··· 0 λd
es
1 1
2 2 1 1 1 0 31 2
3
P = = (2.23)
C
1 3
1
1
2 2
4 4
1 −2 0 4 3
−3
por lo tanto
2.2. CLASIFICACIÓN DE CADENAS 13
1 1
2 2 1 1 1n 0 13 2
3
Pn =
=
ez
n
1 3
1
1
2 2
4 4
1 −2 0 4 3
−3
1 2 2 2
3 + 3·4n 3
− 3·4n
=
1 1 2 1
3
− 3·4n 3
+ 3·4n
om
(2.24)
Teorema 3 Si i ↔ j entonces
es
ez
permanece en dicho conjunto en lo sucesivo.
Un conjunto cerrado que consiste de exactamente de un estado i se
denomina absorbente (el respectivo estado se denomina absorbente).
om
la cadena cuya matriz de transició es como en el ejemplo 5 tenemos que:
S = T ∪ C1 ∪ C2 ∪ · · · (2.25)
ez
conjunto o puede eventualmente migrar a uno de los conjuntos Ci .
Tenemos que si el conjunto S es finito siempre debe haber almenos un
estado recurrente.
om
Proposición 2 Si S es finito entonces al menos un estado es recurrente
y todos los estados rrecurrentes son no-nulos.
Dem 1 Sea i cualquier estado, si todos los estados son transitorios enton-
ces por el corolario 1 llegariamos a la contradicción
X
1 = lı́m pij (n) = 0, (2.27)
G
n→∞
j
representada por un vector fila λ con una componete por cada estado tal
que, para i y j cualesquiera
ez
lı́m pij (n) = λj .
n→∞
(2.28)
om
Veremos que la existencia de una distribución límite para Xn cuando
n → ∞, está relacionada con la existencia de una distribución estaciona-
ria.
µ(1) = πP = π, (2.29)
es
µ(n) = πP n = π. (2.30)
C
ez
Ejemplo 9 Encuentre la distribución estacionaria π para la cadena Xn cu-
ya matriz de transición P biene dada por
1 1
2 2
0
om
P = 1 0 3 (2.31)
4 4
1 3
0 4 4
O equivalentemente
ar
0 0
(xP ) = x
0 0
P x = x0
0 0
(I − P )x = 0.
es
(2.33)
Es decir
1 1
− 2 4
0 x1
0
C
1 −1 1 x2
= 0
(2.34)
2 4
x3 0
3
0 4
− 41
18 CAPÍTULO 2. CADENAS DE MARKOV EN TIEMPO DISCRETO
1 1 1 1 1 1
− 2 4
0 − 2 4
0 − 2 4
0
ez
1 1+2 1 2+3
1
2 −1 4
→ 0 − 34 4
→ 0 − 34 1
4
(2.35)
3
0 4
− 41 0 3
4
− 14 0 0 0
om x3 = 3x2
x2 = 2x1
de modo que
ar
1 2 3
[π1 π2 π3 ] = [ ] (2.38)
9 9 9
es la distribución estacionaria.
es
ez
1 1
2 2
(2.39)
1 3
4 4
encontramos que
om
1 2 1 2 2 1
p00 (n) p01 (n) 3 + · 3 4n 3
− ·3 4n
Pn =
=
(2.40)
1
p10 (n) p11 (n) 3
− 13 · 1
4n
2
3
+ 13 · 1
4n
1 2
G
pi0 (n) → y pi1 (n) → , cuando n → ∞. (2.41)
3 3
ar
1 1
2 2
1 2 1 2
[ ] =[ ]. (2.42)
3 3
3 3
1 3
4 4
0 1
P =
1 0
0 si n es impar
p11 (n) = p22 (n) = (2.43)
1 si n es par
20 CAPÍTULO 2. CADENAS DE MARKOV EN TIEMPO DISCRETO
ez
Teorema 6 Para una cadena irreducible y aperiódica , se tiene que
1
pij (n) → , cuando n → ∞, para todo i, j (2.44)
µj
om
0, para todo i y j, debido a que µi = ∞ para cada estado i.
1
pij (n) → πj = , (2.45)
µj
X
= lı́m
n−→∞
pij (n)P (X0 = i),
i
X
= lı́m pij (n) P (X0 = i),
n−→∞
i
" #
X 1
= P (X0 = i),
i µj
" #
1 X
C
= P (X0 = i),
µj i
1
= (2.46)
µj
2.3. DISTRIBUCIONES ESTACIONARIAS Y EL TEOREMA DEL LÍMITE21
ez
1
lı́m pij (n) = ,
n−→∞ µj
1
lı́m P (Xn = j) = ,
n−→∞ µj
om
(2.47)
G
Ejemplo 12 (Ranking de páginas) La “matriz de transición” asociada a
ar
es
C
A B C D E F G
ez
A 0 0 0 0 1/2 1/2 0
B
1/3 0 1/3 0 0 1/3 0
C
0 0 0 1/2 0 1/2 0
P = D
0 0 0 0 0 0 0 (2.48)
om
E
1/4 0 0 1/4 0 1/4 1/4
F
1/2 1/2 0 0 0 0 0
G 1/3 0 0 0 1/3 1/3 0
Observe que esta no es una matriz estocastica debido a que el nodo
D sin salida.
Pero vamos a considerar nuevas probabilidades de transición p∗ij del
G
sigueinte modo
O equivalentemente
P ∗ = pP + (1 − p)J, (2.50)
πA πB πC πD πE πF πG
0.2374 0.1419 0.0666 0.0882 0.1499 0.2584 0.0576
ez
Cuadro 2.1: Ranking de las páginas
Recuerde que
om
n→∞
ez
Acá la matriz P de la cadena Xn es
0 1 2 3 4 5 d
0 1 0 0 0 0 0 0
om
1 − p
1 0 p 0 0 0 0
2
0 1−p 0 p 0 0 0
P = 3
0 0 1−p 0 p 0 0
(2.52)
4
0 0 0 1−p 0 p 0
5
0 0 0 0 1−p 0 p
d 0 0 0 0 0 0 1
G
Se tiene que los estados 0 Y d = 6 son absorbentes. Los estados
{1, 2, 3, 4, 5} son todos transitorios.
ar
Q R
P =
(2.53)
0 I
C
ez
1 2 3 4 5 0 d
1 0 p 0 0 0 1−p 0
1 − p
2 0 p 0 0 0 0
3
0 1−p 0 p 0 0 0
P = 4 1−p p (2.54)
0 0 0 0 0
om
5
0 0 0 1−p 0 0 p
0
0 0 0 0 0 1 0
d 0 0 0 0 0 0 1
acá
G
0 p 0 0 0
1 − p 0 p 0 0
Q= 0
1−p 0 p 0
(2.55)
ar
1−p
0
0 0 p
0 0 0 1−p 0
1 − p 0
es
0 0
R=
0 0
(2.56)
0 0
0 p
C
2
Q R Q R Q (I + Q)R
P2 = =
ez
0 I 0 I 0 I
2 3 2
Q (I + Q)R Q R Q (I + Q + Q )R
P3 = =
0 I 0 I 0 I
y en general
Pn =
Q
0
n
om(I + Q + · · · + Q
I
∞
An = (I − A)−1 .
X
(2.58)
n=0
−1
0 (I + Q) R
lı́m P n = (2.59)
n→∞
0 I
ez
En lo sucesivo vamos a denominar a la matriz F = (I − Q)−1 la matriz
fundamental.
om
probabilidad de ganar p = 0.4 tenemos
1 2 3 4 5 0 d
1 0 0.4 0 0 0 0.6 0
2
0.6 0 0.4 0 0 0 0
3
0 0.6 0 0.4 0 0 0
P = 4
0 0 0.6 0 0.4 0 0
(2.60)
G
5
0 0 0 0.6 0 0 0.4
0
0 0 0 0 0 1 0
d 0 0 0 0 0 0 1
ar
0 0.4 0 0 0
0.6 0 0.4 0 0
Q= 0
0.6 0 0.4 0
(2.61)
es
0 0 0.6 0 0.4
0 0 0 0.6 0
0.6 0
0 0
R= 0 0 (2.62)
C
0 0
0 0.4
28 CAPÍTULO 2. CADENAS DE MARKOV EN TIEMPO DISCRETO
Tenemos que
ez
0 d
−1
1 −0.4 0 0 0 0.6 0 1 0.9519 0.0481
−0.6 1 −0.4 0 0 0 0 2 0.8797 0.1203
F R = (I−Q)−1 R =
0
−0.6 1 −0.4 0
0
0
= 3
0.7714 0.2286
−0.6 −0.4
0 0 1 0 0 4
0.6090 0.3910
om
0 0 0 −0.6 1 0 0.4 5 0.3654 0.6346
(2.63)
F = (I − Q)−1 . (2.64)
es
X
ai = Fij , (2.65)
j∈A
2.4. CADENAS ABSORBENTES 29
ez
Ejemplo 15 En el caso de la cadena de la ruina del jugador con d = 6,
tenemos
om
1 1.5865 0.9774 0.5714 0.3008 0.1203 3.5564
2 1.4662 2.4436 1.4286 0.7519 0.3008 6.3910
suma por filas
F = (I−Q)−1 =
3
1.2857 2.1429 2.7143 1.4286 0.5714
→ 8.1429
4
1.0150 1.6917 2.1429 2.4436 0.9774
8.2707
5 0.6090 1.0150 1.2857 1.4662 1.5865 5.9624
(2.66)
G
2.4.3. Patrones en secuencias
ar
ez
construiremos una cadena de Markov en el espacio de estados S1 =
{0, s1 , s2 , . . . , sn } donde el patrón deseado sn sea el único estado absor-
bente.
om
po en que el patón aparece por primera vez en un muestreo repetido de
elementos de S
0 C CS CSS CSSC
ez
1 1
0 2 2
0 0 0
1 1
C 0 0 0
2 2
P = CS 0 1 1 (2.67)
2
0 2
0
1 1
CSS
2 0 0 0 2
om
CSSC 0 0 0 0 1
Entonces acá
−1
1
2
− 12 0 0 4 8 4 2 18
1
0 − 21 0 2
8 4 2 16
F = (I−Q)−1 = 2
= suma por filas
− 21 − 12
0 1
2
6 4 2
14
− 12
G
0 0 1 2 4 2 2 10
la suma de la primera fila de la matriz fundamental es 18. es decir en
promedio se necesitán 18 lanzamientos para observar CSSC por primera
vez.
ar
ez
Teorema 8 La secuencia Yn = XN −n es una cadena de Markov con pro-
babilidades de transición con probabilidades de transición
πj
pYij = P (Yn+1 = j|Yn = i) = pji . (2.68)
πi
om
Dem 2
P (Yk = ik : k = 0, 1, . . . , n + 1)
= ,
P (Yk = ik : k = 0, 1, . . . , n)
πin+1
= pi ,i = pYin ,in+1 .
πin n+1 n
(2.69)
es
Q.E.D
ez
Figura 2.3: Caminata aleatoria.
om
Teorema 9 Sea P la matriz de transición de una cadena irreducible Xn ,
suponga que existe una distribución π tal que πi pij = πj pji para todo i y j.
Entonces Xn es una cadena reversible y π es su distribución estacionaria.
pji X
qij = mı́n(pij , πj ), qii = 1 − qij . (2.71)
πi j6=i
es
πj πi
πi qij = πi pij ⇐⇒ pij < pji ⇐⇒ pij < pji , (2.73)
ez
πi πj
πi
En consecuencia de la última desigualdad qji = p
πj ij
y por tanto
om
Si de otra forma
πj πi
πi qij = πj pji ⇐⇒ pji < pij ⇐⇒ pji < pij (2.75)
πi πj
En consecuencia de la última desigualdad qji = pji y por tanto sustitu-
yendo qji por pji en la primera igualdad
G
πi qij = πj qji . (2.76)
ez
siguientes supuestos sobre los tamaños de estas familias:
om
2. El tamaño de cualquier familia posee la misma función de masa de
probabilidad f (x) en N = {0, 1, 2, 3, . . .}
ez
Ejemplo 18 [Variables constantes]
om
[variables de Bernoulli]
[Distribución geométrica]
G
Una v.a X posee distribución geométrica con parámetro p si P (X =
k) = p(1 − p)k−1 para k ≥ 1. tenemos que
ar
G(s) = E[sX ]
∞
sk p(1 − p)k−1
X
=
k=1
∞
es
[s(1 − p)]k
X
= sp
k=0
sp
= .
1 − s(1 − p)
(2.78)
C
[Distribución de Poisson]
Si X ∼ Poiss(λ) entonces
2.6. PROCESO DE RAMIFICACIÓN 37
G(s) = E[sX ],
ez
∞
λk
sk e−λ
X
= ,
k=0 k!
∞
(sλ)k
= e−λ
X
,
k=0 k!
= exp (λ(s − 1)) . (2.79)
om
Entre las aplicaciones de las funciones generadoras de probabilidad
hay 2 aplicaciones importantes.
2.
= G(k) (1).
ez
GX+Y (s) = GX (s)GY (s) = exp (λ(s − 1)) exp (µ(s − 1)) = exp ((λ + µ)(s − 1)) .
(2.81)
Por lo tanto X + Y ∼ Poiss(λ + µ).
SN =
N
X
om
Proposición 6 Si X1 , X2 , X3 , . . . una secuencia i.i.d de [Link] con f.g.p co-
mún GX (s) y N es otra va independiente de X1 , X2 , X3 , . . . con f.g.p GN (s).
Entonces para la va SN definida por
Xn = X1 + X2 + · · · + XN , (2.82)
G
n=1
Ejemplo 20 Suponga que una persona con cierta infección tiene contac-
to(está próxima) con N personas durante 1 dia, donde N ∼ Poiss(λ), cada
una de estas personas puede o no contraer la infección de manera inde-
es
SN = X1 + X2 + · · · + XN , (2.84)
2.6. PROCESO DE RAMIFICACIÓN 39
donde
1 con prob p.
ez
Xi = (2.85)
0 con prob (1 − p).
om
donde GN (s) = exp (λ(s − 1)) y GX (s) = 1 − p + sp. por lo tanto
2.
Gn (s) = G(G(G(· · · ))) (2.88)
| {z }
n composiciones
40 CAPÍTULO 2. CADENAS DE MARKOV EN TIEMPO DISCRETO
ez
lı́m P(Zn = 0) = P (De Extinción final) . (2.89)
n→∞
om
E[Zn ] = µn .
nσ 2 si µ = 1.
var[Zn ] = 2 n n−1
(2.90)
σ (µ −1)µ
, si µ 6= 1.
µ−1
Teorema 10 Sea
G
η = lı́m
n→
P (Zn = 0) = P (De Extinción final) . (2.91)
η = 1 si µ < 1.
η < 1 si µ > 1.
es
om
Un ejemplo de estimación
Bayessiana.
41
42 CAPÍTULO 3. UN EJEMPLO DE ESTIMACIÓN BAYESSIANA.
ez
θ.
A parte de la función de verosimilitud, la metodología Bayessiana tam-
bién tiene en cuenta otra fuente de información sobre los parámetros θ.
En muchas ocaciones un analista puede tener acceso a otras fuentes ex-
om
ternas de información como por ejemplo la información proporcionada por
expertos, o información basada en experiencias anteriores o otros estu-
dios previos relacionados. Esta información externa es incorporada en el
análisis Bayessiano por medio de una función distribución f (θ) denomi-
nada distribución apriori, nos referiremos simplemente a la apriori.
La apriori y la función de verosimilitud se pueden combinar via el teo-
G
rema de Bayes para conseguir la denominada distribución aposteriori
f (θ|x).
De forma más precisa el teorema de Bayes propone que
ar
f (x|θ)f (θ)
f (θ|x) = R ∝ f (x|θ)f (θ) (3.1)
f (x|θ)f (θ)dθ
Es decir la distribución aposteriori es la distribución de los parámetros
dada la muestra observada x. La aposteriori resume toda la información
es
ez
Algunas cuentas simples muestran que
" #!
n θ2 − 2x̄θ
f (θ|x) ∝ exp − (3.2)
2 σ2
por lo tanto
om
θ|x ∼ N x̄,
σ2
n
!
!−1
nx̄/σ 2 + µ0 /σ02 n 1
θ|x ∼ N 2 2
, 2
+ 2 (3.5)
n/σ + 1/σ0 σ σ0
ez
Γ(α + β) α−1
b(x; α, β) = x (1 − x)β−1 , 0≤x≤1 (3.6)
Γ(α)Γ(β)
R ∞ α−1 −x
Donde Γ(α) = 0 x e dx es la función gamma.
Γ(α)Γ(β)
La función beta es B(α, β) =
om
Γ(α+β)
G
Figura 3.1: Distribución beta.
ar
α−1 β−1
1 1 x−A B−x
f (x; α, β, A, B) = (3.7)
B − A B(α, β) B − A B−A
α (B − A)2 αβ
µ = A + (B − A) · , σ2 = . (3.8)
α+β (α + B)2 (α + β + 1)
En el caso de la distribución beta estándar A = 0 y B = 1.
45
ez
turno, el apostador gana o pierde $1 dependiendo de si la moneda cae
cara o sello. El apostador continua a jugar hasta que quede en bancarro-
ta o bien con sus ganancias alcance un monto digamos $m. Sea Xn el
tamaño del monto del jugador despues de n turnos. Suponemos que los
om
lanzamientos de la moneda son iid con probabilidad p de que caiga en
cara, en cada turno. Entonces Xn es una cadena de Markov homogenea
con
(3.9)
de que la modeda caiga cara. Sin embargo el jugador “cree” con un cierto
grado de incertidumbre que la modena puede estar ligeramente sesgada.
ez
!
12 9 1
∝ p (1 − p)3 p5−1 (1 − p)5−1
9 B(5, 5)
∝ p14−1 (1 − p)8−1 .
om
(3.10)
Por lo tanto
FIGURA
G
3.1. Estimación de parámetros
Por ejemplo si se quiere resumir una distribución por una medida de ten-
dencia central, entonces se puede utilizar por ejemplo la media aposteriori
Z
es
ez
En particular en el caso en que una apriori uniforme fue utilizada todas
estas estimaciones puntuales resultaron ser iguales a x̄, el cual es el MLE
de θ.
Cuando una apriori informativa se utilizó , todas las estimaciónes pun-
om
tuales acavaron siendo iguales a
! !
nx̄/σ 2 + µ0 /σ02 n/σ 2 1/σ02
= x̄ + µ0 (3.14)
n/σ 2 + 1/σ02 n/σ 2 + 1/σ02 n/σ 2 + 1/σ02
que corresponde a una media ponderada del MLE y la media apriori
con pesos proporcionales a las precisiones del MLE y la media apriori
G
respectivamente.
Estimación aposteriori
p̂med 0.6364
p̂med 0.6406
p̂mod 0.65
es
Cuadro 3.1
3.2. Predicción
C
ez
utiliza una distribución predictiva.
Para esto, dada una muestra de datos x, si supieramos el valor de
θ utilizaríamos la distribución predictiva condicional f (y|x, θ), ahora bien
la incertidumbre en el valor de θ es modelada a travéz de la aposteriori
om
f (θ|x), integrando ambas obtenemos la densidad predictiva
Z
f (y|x) = f (y|x, θ)f (θ|x)dθ. (3.15)
n+1 2
Xn+1 |x ∼ N (x̄, σ ). (3.17)
n
q q
[x̄ − zα/2 σ (n + 1)/n, x̄ + zα/2 σ (n + 1)/n] (3.18)
3.2. PREDICCIÓN 49
ez
El jugador puede estar interesado en la probabilidad de ruina en los
próximos turnos, por ejemplo:
om
Z 1
P (x2 = 0|x) = (1 − p)2 f (p|x)dp,
0
Z 1
1
= (1 − p)2 p13 (1 − p)7 dp
0 B(14, 8)
B(14, 10)
= = 0.1423. (3.19)
B(14, 8)
En forma similar se obtiene que P (x3 = 0|x) = 0.1423.
G
También
Z 1
P (x4 = 0|x) = (1 − p)2 [1 + 2p(1 − p)]f (p|x)dp
ar
0
1
= [B(14, 10) + 2B(15, 11)] ,
B(14, 8)
= 0.2087. (3.20)
0 1 2 3 4 5 0 1 2 3 4 5
0 1 0 0 0 0 0 1 0 0 0 0 0
(1 − p)
1 0 p 0 0 (1 − p)
0 0 p 0 0 0
P2 =
C
2 0 (1 − p) 0 p 0 0 0 (1 − p) 0 p 0 0
3
0 0 (1 − p) 0 p 0
0 0 (1 − p) 0 p 0
4 0 0 0 (1 − p) 0 p 0 0 0 (1 − p) 0 p
50 CAPÍTULO 3. UN EJEMPLO DE ESTIMACIÓN BAYESSIANA.
0 1 2 3 4 5
1 0 0 0 0 0
ez
0 1 2 3 4 5 (1 − p) 0 p 0 0 0
2 (1 − p)2 0 2p(1 − p) 0 p 0 0 (1 − p) 0 p 0 0 P =
0 0 (1 − p) 0 p 0
0 0 0 (1 − p) 0 p
2
0
(1 − p)2
1
2p(1 − p)2
2
?om 3
?
4
?
5
(1 − p)
0
0
0
1
1
0
0
(1 − p)
0
2
0
p
0
(1 − p)
3
0
0
p
0
4
0
0
0
p
5
0
0
0
0
=
G
0 0 0 (1 − p) 0 p
po discreto homogeneas
K Y
K
Y nij
l(P |x) = pij , (3.21)
i=1 j=1
3.3. ESTIMACIÓN PARA CADENAS DE MARKOV EN TIEMPO DISCRETO HOMOGENEAS 51
ez
sico de máxima verosimilitud de P es la matriz P̂ con entradas que son
las correspondientes proporciones observadas de transiciones, así
K
nij X
p̂ij = , donde ni· = nij . (3.22)
ni· j=1
om
Sin embargo, especialmente en cadenas donde el número de estados
K es grande y por lo tanto el número de transiciones posibles K 2 es tam-
bién grande, algunas transiciones pueden no ser observadas por lo que
en la correspondiente estimación obtendríamos p̂ij = 0.
y
es
P
K
Γ i=1 θi
K K
θi −1
Y X
f (x) = QK xi , 0 < xi < 1, xi = 1. (3.25)
i=1 Γ(θi ) i=1 i=1
52 CAPÍTULO 3. UN EJEMPLO DE ESTIMACIÓN BAYESSIANA.
K
θj θj (θ0 − θj )
ez
X
E[Xj ] = , V [Xj ] = 2 , con θ0 = θi . (3.26)
θ0 θ0 (θ0 + 1) i=1
om
0 0
pi |x ∼ Dir(αi ), donde αij = αij +nij , para i, j = 1, 2, . . . , K. (3.27)
2 2 2 2 2 2 2 2 2 2
1 1 2 1 1 1 1 1 1 1
2 2 1 1 1 1 2 2 2 1
2 1 1 1 1 1 2 1 1 1
es
1 1 1 1 1 1 1 1 1
p11 1 − p11
P = (3.28)
1 − p22 p22
3.4. PREDICCIÓN EN EL CORTO PLAZO 53
ez
p11 |x ∼ Be(25.5, 5.5), p22 |x ∼ Be(12.5, 6.5). (3.29)
om
0.823 0.177
E[P |x] = (3.30)
0.342 0.658
Z
P (Xn+1 = j|x) = P (Xn+1 = j|x, P )f (P |x)dP
Z
= pxn j f (P |x)dP
es
= E[pxn ,j |x]
α xn j + n xn j
= .
αxn · + nxn ·
(3.31)
C
PK PK
Donde αi · = j=1 αij y similarmente ni· = j=1 nij .
La predicción de un estado t > 1 periodos hacia el futuro deviene
54 CAPÍTULO 3. UN EJEMPLO DE ESTIMACIÓN BAYESSIANA.
ez
Z
P (Xn+1 = j|x) = (P t )xn j f (P |x)dP , (3.32)
om
la expresión (3.15) se hace computacionalmente pesada. Una alternati-
va simple consiste en utilizar un algoritmo Monte Carlo para simular los
valores futuros de la cadena del siguiente modo:
For r = 1, . . . , N :
Generate P (r) from f (P |x).
(r) (r)
Generate xn+1 , . . . , xn+t de la cadena de Markov con P (r)
G
y estado inicial xn .
1 PN
Entonces, P (Xn+t = j|x) ≈ N r=1 Ix(r) =j I es una función indicadora
n+t
1 PN (r)
y E[Xn+t |x] ≈ N r=1 xn+t .
ar
entonces tendriamos
ez
Comunmente también puede haber interés en la distribución estacio-
naria de la [Link] predicción de valores futuros ara cadenas en un
espacio de estados de baja dimensión no ofrese mayores dificulatades
debido a que la distribución estacionaria o de equilibrio puede ser calcu-
om
lada de forma exacta.
p11 1 − p11
Ejemplo 28 Supongamos que K = 2 y P = .
1 − p22 p22
entonces la probabilidad en equilibrio (estacionaria) de estar en el es-
tado 1 biene dada por
1 − p22
G
π1 =
2 − p11 − p22
y la distribución predictiva estacionaria es
1 − p22
ar
Z 1Z 1
E[π1 |x] = π1 = f (p11 , p22 |x)dx (3.33)
0 0 2 − p11 − p22
la cual puede ser evaluada con alguna técnica numérica de integra-
ción.
es
ez
N
1 X
E[π|x] ≈ π (r) . (3.35)
N r=1
om
G
ar
es
C