0% encontró este documento útil (0 votos)
277 vistas8 páginas

Ejemplos de Cadenas de Markov Cotidianas

Este documento describe la investigación de cadenas de Markov con valores y vectores propios. Los objetivos son definir el método, analizar ejemplos y deducir su importancia. Explica que las cadenas de Markov describen la probabilidad de futuros estados dependiendo solo del estado actual. Luego presenta la fundamentación teórica con definiciones como cadena de Markov finita, probabilidad de transición estacionaria y matriz estocástica. Finalmente, propone un ejercicio sobre la distribución de estudiantes en dos secciones de un curso y calcula los valores y vect

Cargado por

Alis Masabanda
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
277 vistas8 páginas

Ejemplos de Cadenas de Markov Cotidianas

Este documento describe la investigación de cadenas de Markov con valores y vectores propios. Los objetivos son definir el método, analizar ejemplos y deducir su importancia. Explica que las cadenas de Markov describen la probabilidad de futuros estados dependiendo solo del estado actual. Luego presenta la fundamentación teórica con definiciones como cadena de Markov finita, probabilidad de transición estacionaria y matriz estocástica. Finalmente, propone un ejercicio sobre la distribución de estudiantes en dos secciones de un curso y calcula los valores y vect

Cargado por

Alis Masabanda
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

1.

1 OBJETIVOS
OBJETIVO GENERAL:

 Investigar las cadenas de Markov con valores y vectores propios para comprender y analizar
de mejor manera lo mencionado.

OBJETIVOS SECUNDARIOS:

 Definir la investigación metodológica sobre la cadena de Markov con valores y vectores


propios.
 Analizar las cadenas de Markov mediante ejemplos propuestos.
 Deducir la importancia de las cadenas de Markov en la vida cotidiana.

2 HIPÓTESIS

Las Cadenas de Markov tienen la propiedad particular de que las probabilidades que describen la
forma en que el proceso evolucionara en el futuro dependen solo del estado actual en que se
encuentra el proceso y, por lo tanto, son independientes de los eventos ocurridos en el pasado.
Muchos procesos se ajustan a esta descripción por lo que las cadenas de Markov constituyen una
clase de modelos probabilísticas de gran importancia.

Una cadenas de Markov se utilizan para estudiar el comportamiento a largo y corto plazo de ciertos
sistemas estocásticos es decir sirven para determinar futuras acciones solamente dependiendo del
estado inmediatamente anterior.

3 FUNDAMENTACIÓN TEÓRICA

CADENAS DE MARKOV

Una cadena de Markov es un proceso estocastico en el que si el estado actual 𝑋1 , … … , 𝑋𝑛−1 son
conocidos la probabilidad del estado furturo 𝑋𝑛−1

PROPIEDAD DE MARKOV

Dada una secuancia de variables aleatorias 𝑋1 , … . . 𝑋𝑛 esel estado del proceso en el tiempo m. si la
distribucion de probabilidad condicional de 𝑋𝑛 en estados pasados es uan funcion de 𝑋𝑛 por si
sola entonces:

P(𝑋𝑛+1 = 𝑋𝑛+1 |𝑋1 = 𝑋1 , 𝑋2 = 𝑋2 , … . . , 𝑋𝑛 = 𝑋𝑛 ) =


P(𝑋𝑛+1 = 𝑋𝑛+1 |𝑋𝑛 = 𝑋𝑛 )

Donde x es el estado del proceso en el instante i.


Cadenas de Markov finitas con probabilidades estaconarias

CADENA DE MARKOV FINITA


Es una cadena de Markov para la que existe sólo número finito k de estados posibles 𝑋1 , … . . 𝑋𝑛 y
en cualquier instante de tiempo la cadena está en uno de estos n estados.

PROBABILIDAD DE TRANSICIÓN

Es la probabilidad condicionada
P(𝑋𝑛+1 = 𝑃𝑖 |𝑋𝑛 = 𝑃𝑗 )

PROBABILIDAD DE TRANCISIÓN ESTACIONARIA

Una cadana de Markov tiene probabilidades de transición estacionaria si para cualquier par de
estados 𝑃𝑖 y 𝑃𝑗 si existe una probabilidad de transición 𝑃𝑖𝑗 tal que:

P(𝑋𝑛+1 = 𝑃𝑗 |𝑋𝑛 = 𝑃𝑖 )= 𝑃𝑖𝑗 para n=1,2,…

MATRIZ ESTOCÁSTICA

Dada una cadena de Markov con n estados posibles 𝑋1 , … . . 𝑋𝑛 y probabilidades de transición


estacionarias.

Si 𝑃𝑖𝑗 = P(𝑋𝑛+1 = 𝑃𝑗 |𝑋𝑛 = 𝑃𝑖 )

La matriz de transición P de cualquier cadena de Markov finita con probabilidades de trancición


estacionarias es una matriz estocástica.

CADENA DE MARKOV CON VALORES Y VECTORES PROPIOS

Sea P=(𝑃𝑖𝑗 ) 1≤ i,j ≤ r una matriz estocástica y ƛ 0 = 1 es un valor propio y que todos los otros
valores propios tienen modlo n maor a uno. Si todos los valores propios son disitintos, entonces

𝑃𝑖𝑗 𝑛 =𝜋𝑗 + ⋯ + 𝑎𝑖𝑗 (𝑟)ƛ𝑛𝑟


Donde 𝜋𝑗 pueden ser expresados en terminos de los elementos de 𝑃𝑛

4 EJERCICIO

En un curso de quimica se imparte en dos secciones, si cada semana djan el curso ¼ de los queestan
en la sección A y 1/3 de los que están en la sección B y 1/6 de cada sección se transfieree de la otra.

A largo plazo cual será la distribución de Markov.


1/6
A B
C

1/4 1/3

7 1 7 1
𝐴𝑛−1 𝐵𝑛−1 0 0
12 6 12 6
|1
𝑉𝑛 = | 6 𝐴𝑛−1
1
𝐵𝑛−1 |1
0|| = | 6
1
0||
2 2
1 1 1 1
𝐴𝑛−1 𝐵𝑛−1 1 1
4 3 4 3
Cadena de Markov

7 1
0
12 6 ƛ 0 0
|1 1
0||-|0 ƛ 0|
|6 2
1 1 0 0 ƛ
1
4 3

Valores propios
ƛ=1
13 − √17
ƛ=
24
13 + √17
ƛ=
24

EJERCICIO N.-2
5 ANALISIS DE LOS RESULTADOS

Como se expresa la matriz estocástica n términos d valores propios de P, y la convergencia Pn.


Hacemos a demostración de un resultado que relaciona el proceso de Markov. Finalmente se calcula
cual será la distribución a largo plazo.

Los problemas actuarios por medio de procesos multiestados, hace más fácil los cálculos de
probabilidades de transición, que por medio de las tablas de mortalidad para grupos seleccionados ya
que en Ecuador no existen.

Seleccionar un subgrupo de personas con una cierta característica que se encuentran dentro de un
grupo general, enfoca problemas específicos del área de seguros. Las estimaciones de probabilidad a
través de una cadena de Markov obtenidas tienen errores de 0.001% con respecto a los valores de la
tabla de mortalidad.

6 CONCLUSIONES

 Las cadenas de Markov es un proceso estocástico en el cual menciona la probabilidad de un


stado actual a un estado en el futuro.
 La matriz de transición P de cualquier cadena de Markov finita con probabilidades de
trancición estacionarias es una matriz estocástica
 Por tanto mediante ejmplos propuestos se da a conocer de mejor manera el proceso y cálculo
de una cadena de Markov con valores y vectores propios.
7 RECOMENDACIONES

 Es de importancia analizar de manera detallada sobre las cedenas de Markov para un mejor
compresión del tema.
 Para el desarrollo de los ejercicios planteados es necesario dominar la materia a cual a tratar.
 Recopilar informacion de diversas fuentes para una mayor compresion del tema ya que de esta
manera fortalece el conocimiento de este tema.

8 REFERENCIAS BIBLIOGRÁFICAS Y DE LA WEB

Latacunga 23 de Agosto del 2016.

También podría gustarte