Universidad Abierta Para Adultos.
(UAPA)
Escuela:
Informática gerencial
Asignatura:
Investigación de Operaciones
Facilitador:
JOSE L. TAVERAS
Participante:
Smarlim Mejía Cabrera
Tema:
Tarea 8
Fecha:
25/03/2025
Introducción
Las cadenas de Markov son modelos matemáticos utilizados para describir
sistemas que evolucionan en el tiempo mediante transiciones probabilísticas entre
diferentes estados. Estas cadenas son ampliamente aplicadas en unas áreas
como economía, inteligencia artificial, biología y teoría de colas. Su característica
principal es que el futuro del sistema solo depende del estado actual, no de cómo
se llegó a él, lo que se conoce como la propiedad de Markov.
Este informe aborda la clasificación de las cadenas de Markov mediante un mapa
conceptual y presenta una actividad práctica para determinar la matriz de
transición y las proyecciones estacionarias, fundamentales en la modelización de
procesos estocásticos.
Objetivos Específicos
1. Comprender la teoría fundamental de las cadenas de Markov.
2. Clasificar las cadenas de Markov según sus características principales.
3. Determinar la matriz de transición de un sistema basado en este modelo.
4. Calcular y analizar proyecciones estacionarias de un proceso de Markov.
1. Preparar informe que contenga:
Investiga acerca de la cadena de Markov y realiza las siguientes
actividades que te presentamos
La cadena de Markov, también conocida como modelo de Markov o proceso de
Markov, es un concepto desarrollado dentro de la teoría de la probabilidad y la
estadística que establece una fuerte dependencia entre un evento y otro
suceso anterior. Su principal utilidad es el análisis del comportamiento
de procesos estocásticos.
La explicación de estas cadenas la desarrolló el matemático de origen ruso
Andréi Márkov en 1907. Así, a lo largo del siglo XX, se ha podido emplear
dicha metodología en numerosos casos prácticos de la vida cotidiana.
También se conoce como cadena simple biestable de Markov.
Según señaló Markov, en sistemas o procesos estocásticos (es decir,
aleatorios) que presentan un estado presente es muy posible conocer sus
antecedentes o desarrollo histórico. Por lo tanto, es factible establecer una
descripción de la probabilidad futura de los mismos.
Más formalmente, la definición supone que en esos procesos estocásticos la
probabilidad de que algo suceda solamente depende del pasado histórico de la
realidad que estamos estudiando. Por este motivo, a menudo se dice que estas
cadenas cuentan con memoria.
La base de las cadenas es la conocida como propiedad de Markov, la cual
resume lo que se dijo anteriormente en la siguiente regla: lo que la cadena
experimente en un momento t + 1 solamente depende de lo acontecido en el
momento t (el inmediatamente anterior).
Dada esta sencilla explicación de la teoría, puede observarse que es posible a
través de la misma conocer la probabilidad de que un estado ocurra en el largo
plazo. Esto ayuda indudablemente a la predicción y estimación en largos
periodos de tiempo.
¿Dónde se utiliza la cadena de Markov?
Las cadenas de Markov han experimentado una importante aplicación real en
el ámbito de los negocios y las finanzas. Esto, al permitir, como se ha
señalado, analizar y estimar futuros patrones de conducta de los individuos
atendiendo a la experiencia y los resultados anteriores.
Lo anterior puede reflejarse en diferentes campos como la morosidad, el
estudio de las conductas de consumidores, la demanda estacional de mano de
obra, entre otros.
El sistema elaborado por Markov es bastante sencillo y cuenta, como hemos
dicho, con una aplicación práctica bastante fácil. Sin embargo, muchas voces
críticas señalan que un modelo tan simplificado no puede ser totalmente
efectivo en procesos complejos.
A) Realice un mapa conceptual donde explique la clasificación de la
cadena de Markov.
b. Actividad practica para determinar la matriz de transición y las
proyecciones estadistas
La Matriz de Transición
Se parte de un sistema con tres estados, denominados S_1, S_2 y S_3. La matriz
de transición P es una representación de las probabilidades de moverse de un
estado a otro en un solo paso, y se expresa de la siguiente forma:
P=
\begin{bmatrix}
P_{11} & p_{12} & p_{13} \\
P_{21} & p_{22} & p_{23} \\
p_{31} & p_{32} & p_{33}
\end{bmatrix}
Por ejemplo, consideremos la siguiente matriz:
P=
\begin{bmatrix}
0.5 & 0.3 & 0.2 \\
0.4 & 0.4 & 0.2 \\
0.3 & 0.3 & 0.4
\end{bmatrix}
Donde cada elemento p_{ij} representa la probabilidad de transitar del estado S_i
al estado S_j.
Cálculo de la Proyección (Distribución) Estacionaria
La distribución estacionaria \pi = (\pi_1, \pi_2, \pi_3) es aquella que satisface la
ecuación:
\pi P = \pi
junto con la condición de normalización:
\pi_1 + \pi_2 + \pi_3 = 1.
Esto implica resolver el siguiente sistema de ecuaciones:
\[
\begin{cases}
\pi_1 = 0.5\pi_1 + 0.4\pi_2 + 0.3\pi_3, \\
\pi_2 = 0.3\pi_1 + 0.4\pi_2 + 0.3\pi_3, \\
\pi_3 = 0.2\pi_1 + 0.2\pi_2 + 0.4\pi_3, \\
\pi_1 + \pi_2 + \pi_3 = 1.
\end{cases}
\]
Mediante técnicas algebraicas (por ejemplo, eliminando variables y utilizando la
condición de suma unitaria), se puede obtener el valor de cada \pi_i, que
representa la probabilidad a largo plazo de encontrar el sistema en el estado S_i.
Ejemplo simplificado:
Si se asume que el sistema alcanza el equilibrio, se resuelve el sistema para
poder encontrar \pi. En muchos casos, se utilizan métodos numéricos o software
matemático para obtener estos valores de forma precisa.
Conclusión
Las cadenas de Markov proporcionan una herramienta matemática poderosa para
modelar sistemas dinámicos en diversas áreas del conocimiento. Su clasificación
nos permite entender su comportamiento y poder aplicarlas en situaciones reales.
La determinación de la matriz de transición y la distribución estacionaria es clave
para predecir la evolución a largo plazo de estos sistemas.
Este análisis demuestra que los procesos de Markov permiten optimizar la toma
de decisiones basada en probabilidades, contribuyendo significativamente en
campos como la logística, la economía y la inteligencia artificial. Su
implementación en la resolución de los problemas reales refuerza lo que es la
importancia de comprender sus principios fundamentales.