Tareas
Justifica completa y cuidadosamente todas tus [Link]: Si no se hace explcito de otro modo,
{Xn }nN es una cadena de Markov homogenea con espacio de estados finito o numerable S.
1. Para la cadena de Markov con matriz de transicion
0 p 1p
P = 1 0 0
1 0 0
clasifica sus estados y encuentra P n para toda n.
2. Para la cadena de Markov con matriz de transicion
1
0 18 1 1
2 4 8 0 0
0 0 1 0 0 0 0
0 0 0 1 0 0 0
P = 0 1 0 0 0 0 0
1 1
0 0 0 0 0
2 2
0 0 0 1 1
0 2 2 0
1 1
0 0 0 0 0 2 2
clasifica sus cerrados, sus estados y encuentra 0y para y S = {0, 1, 2, 3, 4, 5, 6}.
3. Para la cadena de Markov con matriz de transicion
1 1
2 2 0 0 0 0
1 2 0 0 0 0
3 3 1
0 56
0 0 0
P = 6
1 1 0 0 1 1
4 4 1 4 4
0 0
4 0 34 0
0 15 0 15 51 2
5
clasifica sus cerrados, sus estados y encuentra {0,1} (y) para y S = {0, 1, 2, 3, 4, 5}.
4. Considera una cadena irreducible de nacimiento y muerte en N.
(a) Da condiciones sobre las probabilidades de transicion para que x0 = 1 y para que x0 6= 1.
(b) Si px qx para toda x, entonces es recurrente.
(c) Si
2
qx x
=
px x+1
la cadena es transitoria y encuentra x0 .
(d) En el caso de la ruina del jugador, (0 absorbente y las probabilidades de transicion homogeneas),
si q p, x0 = 1. En caso contrario, x0 = (q/p)x para x 0. Explica que quiere decir eso para la
cadena.
5. Calcula la esperanza del proceso de ramificacion.
Estacionarias
6. En S = N, sean
2
i+1
P (0, 1) = 1 P (i, i + 1) + P (i, i 1) = 1, P (i, i + 1) = P (i, i 1).
i
Si X0 = 0, entonces
P[Xn 1, para todo n 1] = 6/ 2 .
7. Calcula la distribucion estacionaria para la cadena de Ehrenfest. Ahora supon que se empieza con
todas las bolas en la segunda caja. Encuentra la esperanza del tiempo esperado para que la cadena
regrese a ese estado.
8. Considera una cadena de Markov irreducible en un espacio de estados finito S, con probabilidades de
transicion P (x, y), x, y S tal que P (x, x) = 0, x S y distribucion estacionaria .
Sea 0 < px < 1 y definamos Q(x, y) como
(
1 px si y = x,
Q(x, y) =
px P (x, y) si y 6= x.
Entonces Q es la funcion de transicion de una cadena de Markov en S, con distribucion estacionaria
1
(x) X (y)
(x) = , x S,
px py
yS
y tal que desde cada punto x, con probabilidad 1 px se queda en x y con probabilidad px sigue
la cadena anterior, dada por P . Demuestra todas estas afirmaciones. Puedes construir una cadena
parecida aun si P (x, x) 6= 0?