0% encontró este documento útil (0 votos)
96 vistas9 páginas

Tarea 8

El documento presenta un informe sobre las cadenas de Markov, modelos matemáticos que describen sistemas con transiciones probabilísticas entre estados. Se abordan sus aplicaciones en diversas áreas, la clasificación de estas cadenas, y se incluye una actividad práctica para determinar la matriz de transición y las proyecciones estacionarias. Se concluye que las cadenas de Markov son herramientas valiosas para modelar y predecir el comportamiento de sistemas dinámicos en campos como la economía y la inteligencia artificial.

Cargado por

78r5gx6jqg
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
96 vistas9 páginas

Tarea 8

El documento presenta un informe sobre las cadenas de Markov, modelos matemáticos que describen sistemas con transiciones probabilísticas entre estados. Se abordan sus aplicaciones en diversas áreas, la clasificación de estas cadenas, y se incluye una actividad práctica para determinar la matriz de transición y las proyecciones estacionarias. Se concluye que las cadenas de Markov son herramientas valiosas para modelar y predecir el comportamiento de sistemas dinámicos en campos como la economía y la inteligencia artificial.

Cargado por

78r5gx6jqg
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

Universidad Abierta Para Adultos.

(UAPA)

Escuela:

Informática gerencial

Asignatura:

Investigación de Operaciones

Facilitador:

JOSE L. TAVERAS

Participante:

Smarlim Mejía Cabrera

Tema:

Tarea 8

Fecha:

25/03/2025
Introducción

Las cadenas de Markov son modelos matemáticos utilizados para describir


sistemas que evolucionan en el tiempo mediante transiciones probabilísticas entre
diferentes estados. Estas cadenas son ampliamente aplicadas en unas áreas
como economía, inteligencia artificial, biología y teoría de colas. Su característica
principal es que el futuro del sistema solo depende del estado actual, no de cómo
se llegó a él, lo que se conoce como la propiedad de Markov.

Este informe aborda la clasificación de las cadenas de Markov mediante un mapa


conceptual y presenta una actividad práctica para determinar la matriz de
transición y las proyecciones estacionarias, fundamentales en la modelización de
procesos estocásticos.
Objetivos Específicos

1. Comprender la teoría fundamental de las cadenas de Markov.


2. Clasificar las cadenas de Markov según sus características principales.
3. Determinar la matriz de transición de un sistema basado en este modelo.
4. Calcular y analizar proyecciones estacionarias de un proceso de Markov.
1. Preparar informe que contenga:

Investiga acerca de la cadena de Markov y realiza las siguientes


actividades que te presentamos

La cadena de Markov, también conocida como modelo de Markov o proceso de


Markov, es un concepto desarrollado dentro de la teoría de la probabilidad y la
estadística que establece una fuerte dependencia entre un evento y otro
suceso anterior. Su principal utilidad es el análisis del comportamiento
de procesos estocásticos.

La explicación de estas cadenas la desarrolló el matemático de origen ruso


Andréi Márkov en 1907. Así, a lo largo del siglo XX, se ha podido emplear
dicha metodología en numerosos casos prácticos de la vida cotidiana.

También se conoce como cadena simple biestable de Markov.

Según señaló Markov, en sistemas o procesos estocásticos (es decir,


aleatorios) que presentan un estado presente es muy posible conocer sus
antecedentes o desarrollo histórico. Por lo tanto, es factible establecer una
descripción de la probabilidad futura de los mismos.

Más formalmente, la definición supone que en esos procesos estocásticos la


probabilidad de que algo suceda solamente depende del pasado histórico de la
realidad que estamos estudiando. Por este motivo, a menudo se dice que estas
cadenas cuentan con memoria.
La base de las cadenas es la conocida como propiedad de Markov, la cual
resume lo que se dijo anteriormente en la siguiente regla: lo que la cadena
experimente en un momento t + 1 solamente depende de lo acontecido en el
momento t (el inmediatamente anterior).

Dada esta sencilla explicación de la teoría, puede observarse que es posible a


través de la misma conocer la probabilidad de que un estado ocurra en el largo
plazo. Esto ayuda indudablemente a la predicción y estimación en largos
periodos de tiempo.

¿Dónde se utiliza la cadena de Markov?

Las cadenas de Markov han experimentado una importante aplicación real en


el ámbito de los negocios y las finanzas. Esto, al permitir, como se ha
señalado, analizar y estimar futuros patrones de conducta de los individuos
atendiendo a la experiencia y los resultados anteriores.

Lo anterior puede reflejarse en diferentes campos como la morosidad, el


estudio de las conductas de consumidores, la demanda estacional de mano de
obra, entre otros.

El sistema elaborado por Markov es bastante sencillo y cuenta, como hemos


dicho, con una aplicación práctica bastante fácil. Sin embargo, muchas voces
críticas señalan que un modelo tan simplificado no puede ser totalmente
efectivo en procesos complejos.
A) Realice un mapa conceptual donde explique la clasificación de la
cadena de Markov.

b. Actividad practica para determinar la matriz de transición y las


proyecciones estadistas

La Matriz de Transición

Se parte de un sistema con tres estados, denominados S_1, S_2 y S_3. La matriz
de transición P es una representación de las probabilidades de moverse de un
estado a otro en un solo paso, y se expresa de la siguiente forma:

P=

\begin{bmatrix}

P_{11} & p_{12} & p_{13} \\

P_{21} & p_{22} & p_{23} \\

p_{31} & p_{32} & p_{33}


\end{bmatrix}
Por ejemplo, consideremos la siguiente matriz:

P=

\begin{bmatrix}

0.5 & 0.3 & 0.2 \\

0.4 & 0.4 & 0.2 \\

0.3 & 0.3 & 0.4


\end{bmatrix}

Donde cada elemento p_{ij} representa la probabilidad de transitar del estado S_i
al estado S_j.

Cálculo de la Proyección (Distribución) Estacionaria

La distribución estacionaria \pi = (\pi_1, \pi_2, \pi_3) es aquella que satisface la


ecuación:

\pi P = \pi

junto con la condición de normalización:

\pi_1 + \pi_2 + \pi_3 = 1.

Esto implica resolver el siguiente sistema de ecuaciones:

\[

\begin{cases}

\pi_1 = 0.5\pi_1 + 0.4\pi_2 + 0.3\pi_3, \\

\pi_2 = 0.3\pi_1 + 0.4\pi_2 + 0.3\pi_3, \\

\pi_3 = 0.2\pi_1 + 0.2\pi_2 + 0.4\pi_3, \\

\pi_1 + \pi_2 + \pi_3 = 1.

\end{cases}
\]
Mediante técnicas algebraicas (por ejemplo, eliminando variables y utilizando la
condición de suma unitaria), se puede obtener el valor de cada \pi_i, que
representa la probabilidad a largo plazo de encontrar el sistema en el estado S_i.

Ejemplo simplificado:
Si se asume que el sistema alcanza el equilibrio, se resuelve el sistema para
poder encontrar \pi. En muchos casos, se utilizan métodos numéricos o software
matemático para obtener estos valores de forma precisa.
Conclusión

Las cadenas de Markov proporcionan una herramienta matemática poderosa para


modelar sistemas dinámicos en diversas áreas del conocimiento. Su clasificación
nos permite entender su comportamiento y poder aplicarlas en situaciones reales.
La determinación de la matriz de transición y la distribución estacionaria es clave
para predecir la evolución a largo plazo de estos sistemas.

Este análisis demuestra que los procesos de Markov permiten optimizar la toma
de decisiones basada en probabilidades, contribuyendo significativamente en
campos como la logística, la economía y la inteligencia artificial. Su
implementación en la resolución de los problemas reales refuerza lo que es la
importancia de comprender sus principios fundamentales.

También podría gustarte