1.
1 OBJETIVOS
OBJETIVO GENERAL:
Investigar las cadenas de Markov con valores y vectores propios para comprender y analizar
de mejor manera lo mencionado.
OBJETIVOS SECUNDARIOS:
Definir la investigación metodológica sobre la cadena de Markov con valores y vectores
propios.
Analizar las cadenas de Markov mediante ejemplos propuestos.
Deducir la importancia de las cadenas de Markov en la vida cotidiana.
2 HIPÓTESIS
Las Cadenas de Markov tienen la propiedad particular de que las probabilidades que describen la
forma en que el proceso evolucionara en el futuro dependen solo del estado actual en que se
encuentra el proceso y, por lo tanto, son independientes de los eventos ocurridos en el pasado.
Muchos procesos se ajustan a esta descripción por lo que las cadenas de Markov constituyen una
clase de modelos probabilísticas de gran importancia.
Una cadenas de Markov se utilizan para estudiar el comportamiento a largo y corto plazo de ciertos
sistemas estocásticos es decir sirven para determinar futuras acciones solamente dependiendo del
estado inmediatamente anterior.
3 FUNDAMENTACIÓN TEÓRICA
CADENAS DE MARKOV
Una cadena de Markov es un proceso estocastico en el que si el estado actual 𝑋1 , … … , 𝑋𝑛−1 son
conocidos la probabilidad del estado furturo 𝑋𝑛−1
PROPIEDAD DE MARKOV
Dada una secuancia de variables aleatorias 𝑋1 , … . . 𝑋𝑛 esel estado del proceso en el tiempo m. si la
distribucion de probabilidad condicional de 𝑋𝑛 en estados pasados es uan funcion de 𝑋𝑛 por si
sola entonces:
P(𝑋𝑛+1 = 𝑋𝑛+1 |𝑋1 = 𝑋1 , 𝑋2 = 𝑋2 , … . . , 𝑋𝑛 = 𝑋𝑛 ) =
P(𝑋𝑛+1 = 𝑋𝑛+1 |𝑋𝑛 = 𝑋𝑛 )
Donde x es el estado del proceso en el instante i.
Cadenas de Markov finitas con probabilidades estaconarias
CADENA DE MARKOV FINITA
Es una cadena de Markov para la que existe sólo número finito k de estados posibles 𝑋1 , … . . 𝑋𝑛 y
en cualquier instante de tiempo la cadena está en uno de estos n estados.
PROBABILIDAD DE TRANSICIÓN
Es la probabilidad condicionada
P(𝑋𝑛+1 = 𝑃𝑖 |𝑋𝑛 = 𝑃𝑗 )
PROBABILIDAD DE TRANCISIÓN ESTACIONARIA
Una cadana de Markov tiene probabilidades de transición estacionaria si para cualquier par de
estados 𝑃𝑖 y 𝑃𝑗 si existe una probabilidad de transición 𝑃𝑖𝑗 tal que:
P(𝑋𝑛+1 = 𝑃𝑗 |𝑋𝑛 = 𝑃𝑖 )= 𝑃𝑖𝑗 para n=1,2,…
MATRIZ ESTOCÁSTICA
Dada una cadena de Markov con n estados posibles 𝑋1 , … . . 𝑋𝑛 y probabilidades de transición
estacionarias.
Si 𝑃𝑖𝑗 = P(𝑋𝑛+1 = 𝑃𝑗 |𝑋𝑛 = 𝑃𝑖 )
La matriz de transición P de cualquier cadena de Markov finita con probabilidades de trancición
estacionarias es una matriz estocástica.
CADENA DE MARKOV CON VALORES Y VECTORES PROPIOS
Sea P=(𝑃𝑖𝑗 ) 1≤ i,j ≤ r una matriz estocástica y ƛ 0 = 1 es un valor propio y que todos los otros
valores propios tienen modlo n maor a uno. Si todos los valores propios son disitintos, entonces
𝑃𝑖𝑗 𝑛 =𝜋𝑗 + ⋯ + 𝑎𝑖𝑗 (𝑟)ƛ𝑛𝑟
Donde 𝜋𝑗 pueden ser expresados en terminos de los elementos de 𝑃𝑛
4 EJERCICIO
En un curso de quimica se imparte en dos secciones, si cada semana djan el curso ¼ de los queestan
en la sección A y 1/3 de los que están en la sección B y 1/6 de cada sección se transfieree de la otra.
A largo plazo cual será la distribución de Markov.
1/6
A B
C
1/4 1/3
7 1 7 1
𝐴𝑛−1 𝐵𝑛−1 0 0
12 6 12 6
|1
𝑉𝑛 = | 6 𝐴𝑛−1
1
𝐵𝑛−1 |1
0|| = | 6
1
0||
2 2
1 1 1 1
𝐴𝑛−1 𝐵𝑛−1 1 1
4 3 4 3
Cadena de Markov
7 1
0
12 6 ƛ 0 0
|1 1
0||-|0 ƛ 0|
|6 2
1 1 0 0 ƛ
1
4 3
Valores propios
ƛ=1
13 − √17
ƛ=
24
13 + √17
ƛ=
24
EJERCICIO N.-2
5 ANALISIS DE LOS RESULTADOS
Como se expresa la matriz estocástica n términos d valores propios de P, y la convergencia Pn.
Hacemos a demostración de un resultado que relaciona el proceso de Markov. Finalmente se calcula
cual será la distribución a largo plazo.
Los problemas actuarios por medio de procesos multiestados, hace más fácil los cálculos de
probabilidades de transición, que por medio de las tablas de mortalidad para grupos seleccionados ya
que en Ecuador no existen.
Seleccionar un subgrupo de personas con una cierta característica que se encuentran dentro de un
grupo general, enfoca problemas específicos del área de seguros. Las estimaciones de probabilidad a
través de una cadena de Markov obtenidas tienen errores de 0.001% con respecto a los valores de la
tabla de mortalidad.
6 CONCLUSIONES
Las cadenas de Markov es un proceso estocástico en el cual menciona la probabilidad de un
stado actual a un estado en el futuro.
La matriz de transición P de cualquier cadena de Markov finita con probabilidades de
trancición estacionarias es una matriz estocástica
Por tanto mediante ejmplos propuestos se da a conocer de mejor manera el proceso y cálculo
de una cadena de Markov con valores y vectores propios.
7 RECOMENDACIONES
Es de importancia analizar de manera detallada sobre las cedenas de Markov para un mejor
compresión del tema.
Para el desarrollo de los ejercicios planteados es necesario dominar la materia a cual a tratar.
Recopilar informacion de diversas fuentes para una mayor compresion del tema ya que de esta
manera fortalece el conocimiento de este tema.
8 REFERENCIAS BIBLIOGRÁFICAS Y DE LA WEB
Latacunga 23 de Agosto del 2016.