Conclusión
RICARDO DZACUN: Las cadenas de Markov establecen una fuerte dependencia
entre un evento y otro suceso anterior que a la vez son utilizados para estudiar la
evolución de sistemas a lo largo de ensayos repetidos los que, a menudo son
períodos sucesivos donde el estado del sistema en cualquier periodo en particular
no puede determinarse con certeza. Como podemos saber las cadenas de Markov
de primer orden se usan como modelo de procesos que cumplen ciertas
propiedades, como numero 1 es que el conjunto de sucesos posibles es finito
ósea que los sucesos posibles llegan a terminarse en un cierto punto, ahora bien
en el punto 2 la probabilidad del siguiente suceso depende solamente del suceso
anterior y en el ultimo punto se dice que las probabilidades siempre van a
permanecer constantemente con el tiempo, ahora bien las probabilidades de
transición estacionaria de n pasos se resuelven con un método llamada
ecuaciones de Chapman-Kolmogorov, dichas ecuaciones señalan que al ir de un
estado i al estado j en n pasos, el proceso estará en algún estado k después de
exactamente m que debe ser menor que n pasos, solo la probabilidad condicional
de que, si se comienza en el estado i, el proceso vaya al estado k después de m
pasos y después al estado j en n- m pasos. En el estado estable es cuando ya no
hay cambios en el sistema, es decir que se alcanza el equilibrio una manera de
obtener las condiciones del sistema es repetir iterativamente los cálculos para
cada periodo hasta hallar el periodo final con aquellas probabilidades constantes o
que no cambian. Existen casos especiales que son utilizados después de alcanzar
determinadas condiciones como por ejemplo después de hallar un numero
predeterminado de partes defectuosas o aceptables.
DANIEL REYES: El enfoque estocástico se presenta muchas veces en los
procesos administrativos, ya que existen variables aleatorias, cuyos valores son
estados característicos de los mismos. Las Cadenas de Markov constituyen una
herramienta eficiente para el análisis a corto y a largo plazo de procesos que
cambian de estado con el transcurso del tiempo, en los que la probabilidad de
estar en un estado determinado depende del estado en el cual se encontraba el
sistema.
El análisis de la ejecución de proyectos de investigación en Salud pudo
considerarse como una cadena de Markov, definiendo los diferentes estados por
los que puede pasar un proyecto y las probabilidades de que este se encuentre en
un estado determinado a partir del estado en que se encontraba. Las cadenas de
Markov han experimentado una importante aplicación real en el ámbito de los
negocios y las finanzas. Esto, al permitir, como se ha señalado, analizar y estimar
futuros patrones de conducta de los individuos atendiendo a la experiencia y los
resultados anteriores.
Resultados
Como conclusión las cadenas de Markov nos permite hacer análisis sobre el
estudio de los comportamientos de ciertos sistemas en ciertos periodos que
pueden ser cortos o largos. Además, se tiene una relación con las probabilidades
absolutas. Pero sin embargo lo más importante es el estudio del comportamiento
sistemas a largo plazo, cuando el número de transiciones tiene al infinito Al
conocer más o menos las probabilidades de un experimento, esto a su vez nos
permitirá conocer a corto y plazo los estados en que se encontrarían en periodos o
tiempos futuros y tomar decisiones que afectarán o favorecerán nuestros
intereses, y tomar una decisión de manera consciente y no se comentan muchos
errores. Esto también nos proporcionara un tiempo estimado para que
identifiquemos cada estado y el periodo en que se encuentra con la
implementación de un proceso, también se establece las probabilidades como una
herramienta más en las cadenas de Markov. Para aplicar los métodos descritos
anteriormente es necesario verificar que el proceso cumple la propiedad de
Markov. Con las parametrizaciones adecuadas, cualquier proceso estocástico
puede expresarse como un modelo lineal generalizado auto regresivo donde los
valores pasados actúan como variables explicativas del estado actual del proceso.
Para comprobar si la cadena es de Markov bastará con verificar que todos los
coeficientes de regresión del modelo son 0 excepto el que corresponde al estado
del proceso en el instante de tiempo anterior, en cuyo caso se tendrá un modelo
auto regresivo de primer orden equivalente a la propiedad de Markov.