0% encontró este documento útil (0 votos)
201 vistas30 páginas

Matrices No Negativas

El documento introduce los conceptos básicos de las cadenas de Markov, incluyendo las probabilidades de transición entre estados, la matriz estocástica que las representa, y la propiedad de Markov que establece que el futuro depende solo del presente. Explica luego cómo se clasifican los estados y cadenas, y analiza el comportamiento a largo plazo mediante la distribución estacionaria, pudiendo calcularse esta de forma analítica. Finalmente propone ejerc

Cargado por

camila
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
201 vistas30 páginas

Matrices No Negativas

El documento introduce los conceptos básicos de las cadenas de Markov, incluyendo las probabilidades de transición entre estados, la matriz estocástica que las representa, y la propiedad de Markov que establece que el futuro depende solo del presente. Explica luego cómo se clasifican los estados y cadenas, y analiza el comportamiento a largo plazo mediante la distribución estacionaria, pudiendo calcularse esta de forma analítica. Finalmente propone ejerc

Cargado por

camila
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Matrices No Negativas

• MATRICES NO NEGATIVAS: Se dice que una matriz 𝐴 = 𝑎𝑖𝑗 es no


negativa si todos sus elementos son no negativos:
∀𝑖, 𝑗: 𝐴 ≥ 0 ⇔ 𝑎𝑖𝑗 ≥ 0

• MATRICES POSITIVAS: se dice que una matriz 𝐴 es positiva si todos


sus elementos son positivos:
𝐴 > 0 ⇔ 𝑎𝑖𝑗 > 0∀𝑖, ∀𝑗.
TEOREMA DE PERRON
1. una matriz positiva A siempre tiene un valor característico real y
positivo r, que es una raíz simple de la ecuación característica y
excede el módulo de todos los demás valores característicos.
2. A este valor o raíz “maximal” r corresponde un vector característico
positivo.
3. Para todo número real s > r la matriz (s I – A) es no singular
(determinante no nulo) y su inversa (𝑠𝐼 − 𝐴)−1 es positiva.
1er TEOREMA DE FROBENIUS
1. una matriz no negativa no descomponible A tiene siempre un valor
característico real y positivo r, que es una raíz simple de la ecuación
característica; los módulos de los otros valores característicos no
exceden a r.

2. Al valor característico r corresponde un vector característico


positivo.

3. Para todo número real s > r la matriz (s I – A) es no singular y su


inversa (𝑠𝐼 − 𝐴)−1 es positiva.
2do TEOREMA DE FROBENIUS
1. una matriz no negativa A tiene siempre un valor característico r tal
que los módulos de todos los valores característicos de A no
exceden a r.

2. Al valor característico r corresponde un vector característico no


negativo.

3. Para todo número real s > r la matriz (s I – A) es no singular y su


inversa (𝑠𝐼 − 𝐴)−1 es no negativa.
Ejemplo
221
𝐴 = 131 es una matriz positiva, por lo que se aplica el Teorema de Perron:
122

𝐴 − 𝜆𝐼 = −𝜆3 + 7𝜆2 − 11𝜆 + 5 = 0. Las raíces son 𝜆1 = 5; 𝜆2 = 𝜆3 = 1

• La raíz “maximal” r es 5, positiva, simple, mayor que el módulo de las demás.

1
• A esta raíz r corresponde un vector propio 1 que es un vector positivo.
1
4 −2 −1
• Si elegimos s = 6 > 5 vemos que la matriz (6 I – A) = −1 3 − 1 es no singular y su inversa es
10 10 5 −1 − 2 4
−1 1
positiva: (6𝐼 − 𝐴) = 5 15 5
25
5 10 10
Ejemplo
460
• 𝐴 = 021 matriz no negativa, no descomponible=> primer Teorema de Frobenius:
103
𝜆1 = 5 = 𝑟
• 𝐴 − 𝜆𝐼 = −𝜆3 + 9𝜆2 − 26𝜆 + 30 = 0 ൞𝜆2 = 2 + 2𝑖
ቋ𝜌 = 6 < 5
𝜆3 = 2 − 2𝑖

𝑇
A r = 5 corresponde el vector característico 6,1,3 positivo.

2 −6 0
• Si elegimos s = 6 > 5 (6 I – A) = 0 4 − 1 y (6𝐼 − 𝐴)−1 positiva.
−1 0 3
Ejemplo
102
• 𝐴 = 120 matriz no negativa, descomponible => 2do Teorema de Frobenius
201
𝜆1 = 3 = 𝑟
3 2
𝐴 − 𝜆𝐼 = −𝜆 + 4𝜆 − 𝜆 + 6 = 0 ቐ 𝜆2 = 2
𝜆3 = −1
al valor propio r no negativo corresponde un vector propio no negativo
2,2,2 𝑇

3 2−2
• para s=4 >r (4I–A)= −1 2 0 (4𝐼 − 𝐴)−1 matriz no negativa
−2 0 3
CADENAS DE MARKOV - GONZALO HERNÁN BALLESTERO

Facultad de Ciencias Económicas


Universidad de Buenos Aires

RESUMEN

El objetivo del presente trabajo es brindar a los alumnos de la Licenciatura en Economía y Actuario de la Facultad de
Ciencias Económicas de la Universidad de Buenos Aires los conceptos fundamentales relacionados con los procesos
estocásticos Markovianos, frecuentemente denominados cadenas de Markov1.

La nota de clase está organizada en cuatro secciones. En la primera se explican las propiedades y elementos
principales que caracterizan a una cadena de Markov, el concepto de matriz estocástica y probabilidad de transición.
En la segunda sección se introduce la noción de vector de estado o vector de distribución de probabilidades. La
tercera sección detalla cómo se clasifican los diferentes estados y cadenas. Por último, en la cuarta sección, se analiza
el comportamiento a largo plazo del proceso y se ofrecen dos métodos analíticos para calcular la distribución
estacionaria.

Para finalizarse proponen tres ejercicios, uno de los cuales corresponde a una aplicación de la teoría de los procesos
estocásticos Markovianos en un modelo de movilidad social. Seguido a esto, con el afán de consolidar el desarrollo
teórico contenido en este trabajo, se podrá encontrar la resolución paso por paso de cada uno de los ejercicios
planteados.

INTRODUCCIÓN

Los fenómenos económicos son esencialmente de carácter aleatorio. El comportamiento de las


principales variables macroeconómicas e indicadores financieros no se pueden anticipar con certeza. Sin
embargo, se puede asociar a cada fenómeno una probabilidad de ocurrencia con el fin de predecir
acontecimientos futuros. Esta información reviste total importancia para que los agentes económicos
puedan tomar decisiones óptimas, anticipando lo que sucederá. Por ejemplo, una firma que posee una
determinada cuota de mercado estaría interesada en predecir cómo se distribuirá el mercado en el
futuro2. Esta información permitirá establecer si es conveniente o no invertir para expandir la estructura
productiva de la firma, anticipándose a sus competidores.

Otro ejemplo puede encontrarse en el mundo de las finanzas. Aquí, las cadenas de Markov son utilizadas
para modelizar fenómenos del mercado bursátil: los agentes que participan en él desean conocer y

1
Su nombre se debe al matemático ruso Andrey Markov (1856-1922), quien inició el estudio de los procesos
estocásticos. Su intención era crear un modelo probabilístico para analizar la frecuencia con la que aparecen las
vocales en poemas y textos literarios.
2
Ver modelo en Bernardello, A., Bianco, M., Casparri, M., García Fronti, J., Olivera de Marzana, S. Matemática para
economistas con Excel y Matlab, sección 1.3.2.

78
pronosticar el precio de ciertos activos financieros para tomar decisiones con el objetivo de maximizar el
retorno de las operaciones3.
Por último, se puede añadir que otro hecho socioeconómico que admite ser modelizado como una cadena
de Markov es lo que se conoce en la literatura económica como movilidad social, es decir, el cambio en el
status quo de los individuos dentro de la estructura social. Es evidente que las predicciones que arroje tal
modelo serán fundamentales para tomar decisiones de política económica.

En este marco, la teoría de los procesos estocásticos adquiere una relevancia fundamental para los
estudiantes de ciencias económicas.

1. MATRIZ ESTOCÁSTICA

1.1. Probabilidades de transición

Un proceso estocástico es un modelo matemático que permite predecir de manera probabilística el


comportamiento de determinados sistemas a través del tiempo. Una cadena de Markov es un tipo de
proceso estocástico cuya propiedad particular es que el estado futuro del sistema depende única y
exclusivamente del estado presente, independientemente de cuales hayan sido los estados pasados. En
otras palabras, el estado presente resume toda la información relevante para predecir cuál será el estado
futuro. Esta característica es denominada propiedad markoviana y, por este motivo, se dice que las
cadenas de Markov tienen “memoria de un período”.

Definición 1 Sea la variable aleatoria !! que describe cuál es el estado del sistema en el momento ". Sea
un conjunto finito de # estados posibles $ = {'" , '# , . . , '$ } y sea un conjunto de probabilidades de
(()
transición de + pasos ,%& {- = 1, 2, … , # ∧ 3 = 1, 2, … , #}.
El proceso comienza en un determinado estado y puede trasladarse a otro a medida que transcurre el
tiempo4. Si en el momento " el proceso se encuentra en el estado '% entonces, en " + 1, podrá estar en el
(")
estado '& con una probabilidad ,%& . De este modo, el subíndice - denota el estado presente, mientras
que el subíndice 3 refiere el estado futuro que podrá alcanzar el proceso.
Los desplazamientos temporales se denominan pasos, y éstos son indicados mediante el supraíndice +.
(")
Por convención, cuando + = 1, se omite el supraíndice⟹ ,%& = ,%&

Las probabilidades de transición deben cumplir tres axiomas:


• No negatividad: 0 ≤ ,%& ≤ 1 ∀ - ∧ 3.

• Ley de cierre: ∑$&*" ,%& = 1 ∀ - ∈ $

Lo cual indica que los # estados son exhaustivos y mutuamente excluyentes.

3
Ver modelo en Casparri, M., Masci, M. y Venosi, C. Valuación de bonos con riesgo de default utilizando cadenas
de Markov.
4
t ∈ T = {0, 1, 2, 3, … , T}. Siendo t = 0 el momento actual, t = 1 el momento próximo, y así sucesivamente. De
esta forma, el lector podrá advertir que el tiempo será considerado como una variable discreta.

79
• Estacionariedad:

,%& = ,(!!+" = 3 | !! = -) = ,(!!+# = 3 | !!+" = -) = ,(!!+( = 3 | !!+(," = -)

Por lo tanto, las probabilidades no se modifican con el paso del tiempo.

Habiendo definido los elementos que caracterizan a los procesos de Markov, se puede formalizar la
propiedad markoviana de la siguiente manera:
,%& = ,(!!+" = 3 | !! = -) ∀ " = 0, 1, … , >.

1.2. Matriz de probabilidadesde transición

El conjunto de probabilidades de transición asociadas a una cadena de Markov puede ser representado
mediante una matriz de # x #llamadamatriz de probabilidades de transición o matriz de transición.
,"" ⋯ ,"$
@=A ⋮ ⋮ ⋮ D
,$" ⋯ ,$$

Cada fila de la matriz es un vector de probabilidades cuyos elementos son no negativos y la sumatoria de
éstos debe ser igual a 1. Toda matriz que cumpla éstas dos condiciones se denomina matriz estocástica.
Por lo tanto, toda matriz de transición es estocástica, pero no necesariamente toda matriz estocástica es
de transición.

1.3. Transición de ! pasos

Hasta el momento se ha limitado el estudio a las transiciones de un paso, pero sería de gran interés
responder la siguiente pregunta: si el proceso se encuentra en el estado'% en el período ", ¿cuál es la
probabilidad que alcance el estado '& enel período " + 2, es decir, en 2 pasos?

Definición 2 Sea@la matriz de probabilidades de transición de un sólo paso

F-- ⋯ F-.
E=A ⋮ ⋮ ⋮ D
F.- ⋯ F..

De manera que la matriz de transición de dos pasosE(/) es

E(/) = E/ = E · E

F-- ⋯ F-. F-- ⋯ F-.


E/ = A ⋮ ⋮ ⋮ D·A ⋮ ⋮ ⋮ D
F.- ⋯ F.. F.- ⋯ F..

Al multiplicar a la matriz @ por sí misma, se obtiene

80
F-- · F-- + ⋯ + F-. · F.- ⋯ F-- · F-. + ⋯ + F-. · F..
/ ⋮ ⋮ ⋮
E =A D
F.- · F-- + ⋯ + F.. · F.- ⋯ F.- · F-. + ⋯ + F.. · F..

(#) (#)
,"" ⋯ ,"$
#
@ =H ⋮ ⋮ ⋮ I
(#) (#)
,$" ⋯ ,$$

De este modo, se induce la matriz de transición de + pasos correspondiente a # estados

(() (()
,"" ⋯ ,"$
@(() = @( = H ⋮ ⋮ ⋮ I
(() (()
,$" ⋯ ,$$

Si se quisiera calcular una probabilidad de transición en particular, en lugar de elevar la matrizal cuadrado,
se podría utilizar la ecuación de Chapman-Kolmogorov:

$
(#)
,%& = J ,%0 · ,0&
0*"

(#)
Así, la probabilidad de transición de 2 pasos ,%& es la probabilidad condicional de que el sistema se
encuentre en el estado 3 después de 2desplazamientos5, dado que comenzó en el estado -.

2. VECTOR DE ESTADO

El estado inicial del proceso es determinado por un vector fila llamado vector de distribución de
probabilidad o vector de estado
v0 =L,"(1) … ,$(1) M

Cada elemento del vector indica la probabilidad asociada a los diferentes estados del sistema en el
momento " = 0.
Por ejemplo, si el proceso inicia en el estado '" con certeza, la probabilidad asociada a tal estado (," )
será igual a 1 y las demás probabilidades, dado que la sumatoria de los elementos del vector debe ser
iguala la unidad, serán igual a cero

v0 =[1 … 0]

El vector de estado del siguiente período puede calcularse posmultiplicando al vector de estado inicial por
la matriz probabilidades de transición

5
En el Apéndice se ofrece una ilustración gráfica del problema utilizando el diagrama de árbol.

81
v" = v1 · @

,"" ⋯ ,"$
L,"(") …
(")
,$ M = L,"(1) …
(1)
,$ M · A ⋮ ⋮ ⋮ D
,$" ⋯ ,$$

Después de multiplicar, se obtiene el vector de estado correspondiente al período " = 1



v" = L(," · ,"" + ⋯ + ,$ · ,$" ) … (,"(1) · ,"$ + ⋯ + ,$(1) · ,$$ )M
(1) (1)

v1 =L,"(") (")
… ,$ M

Definición 3 Sea @ la matriz de probabilidades de transición. Sea v1 el vector deestado que representa la
distribución inicial. Entonces, el vector deestado después de + pasos es
v( = v1 · @(
Demostración

v" = v1 · @
v# = v" · @ = ( v1 · @) · @ = v1 · @#

v# = v1 · @#

v2 = v# · @ = ( v" · @) · @ = ( v1 · @) · @ · @ = v1 · @2

v2 = v1 · @2
Por inducción matemática, se llega a la conclusión:

v( = v1 · @(

3. CLASIFICACIÓN DE ESTADOS Y CADENAS


3.1. Estados alcanzables y comunicados

(()
Se considera que el estado 3 es alcanzable desde el estado - si ,%& > 0 para algún + ≥ 1. De este modo,
que el estado 3 sea alcanzable desde el estado - significa que es posible que el sistema llegue al estado 3
si comienza en el estado -.
Si el estado 3 es alcanzable desde el estado - y el estado - es alcanzable desde el estado 3, entonces se
dice que los estados - y 3 se comunican.
Si el estado - se comunica con el estado 3 y éste con el estado S, entonces el estado - se comunica con el
estado S.
Si todos los estados se comunican entre sí, la cadena de Markov es irreducible o ergódica.

3.2. Estados transitorios, recurrentes y absorbentes

82
Un estado se denomina transitorio si después de haber entrado a este estado, el proceso nunca regresa
a él. Por consiguiente, el estado - es transitorio si y sólo si existe un estado 3 que es alcanzable desde el
estado -, pero no viceversa. Es decir, el estado - no es alcanzable desde el estado 3.

Gráfico 1

Un estado se considera recurrente si, después de haber entrado a este estado, el proceso definitivamente
regresará a ese estado. De este modo, un estado es recurrente si y sólo si no es transitorio.
Un caso extremo de los estados recurrentes son los estados absorbentes. Cuando el proceso entra en este
tipo de estados, nunca saldrá de él. Por lo tanto, el estado - es un estado absorbente si y sólo si ,%% = 1.
En otros términos, si sobre la diagonal principal de la matriz de probabilidades de transición hay un 1, tal
estado será absorbente.

Una cadena de Markov es absorbente si satisface dos condiciones:


• Tiene al menos un estado absorbente.

• Debe ser posible llegar a algún estado absorbente (no necesariamente en un solo paso).
3.3. Cadenas de Markov regulares

Una cadena de Markov es regular si para algún paso + ≥ 1, todos los elementos de la matriz de transición
de + pasos son estrictamente positivos ⇒ @( > 0

Un criterio para comprobar si una cadena es regular consiste en calcular las sucesivas potencias de @ hasta
encontrar un número + de pasos tal que la matriz @( tenga todos sus elementos no nulos.

Nota Si la matriz de transición @ tiene al menos un elemento igual a cero, y @# también tiene al menos un
elemento igual a cero, sería natural preguntarse qué tantas veces se debe multiplicar a la matriz @ por sí
misma para asegurar que no es regular. La respuesta es la siguiente: considere la matriz @0 que tiene al
menos un elemento igual a cero. Si se multiplica una vez más, se obtiene@0 · @ = @0+" . Si @0 y @0+"
tienen algún elemento igual a cero exactamente en el mismo lugar, entonces se puede asegurar que la
matriz no es regular.

4. COMPORTAMIENTO A LARGO PLAZO


4.1. Cadenas de Markov absorbentes

Ejemplo 1: caminata aleatoria

83
Una persona alcoholizada se encuentra en alguna calle entre su casa y su bar preferido. La distancia entre
estos dos lugares es de 3 cuadras. Este individuo camina dando pasos tanto hacia la derecha como hacia
la izquierda con igual probabilidad. Y seguirá caminando (y dando vueltas) hasta que llegue a su casa o al
bar. Si llega a alguno de los dos lugares, se quedará allí.

Este problema puede ser modelizado como una cadena de Markov de4 estados: 0, 1, 2,3 y 4. Siendo el
estado 0la casa y el estado 4 el bar.

A continuación, se ofrece una representación gráfica de la situación utilizando el diagrama de transición

Gráfico 2

En base al gráfico y al enunciado, la matriz de transición se define de la siguiente manera

0é 1 0 0 0 0ù
ê
1 ê1 2 0 1 2 0 0 úú
P = 2ê 0 1 2 0 1 2 0 ú
ê ú
3ê 0 0 1 2 0 1 2ú
4 êë 0 0 0 0 1 úû

Los estados 1,2 y 3 son estados transitorios, mientras que los estados 0 y 4 son absorbentes (,%% = 1 ⇒
,11 = ,33 = 1). Además, como desde cualquier estado transitorio es posible llegar a los estados
absorbentes, la cadena de Markov es absorbente.

Si se toma una cadena de Markov absorbente y se reagrupan los estados, colocando los transitorios
primero y luego los absorbentes, se obtiene lo que se conoce como la forma canónica de la matriz de
transición

1é 0 1 2 0 1 2 0 ù
2 êê1 2 0 1 2 0 0 úú
P = 3ê 0 1 2 0 0 1 2ú
ê ú
0ê 0 0 0 1 0ú
4 êë 0 0 0 0 1 úû
Si se divide a la matriz en 4, se obtiene el siguiente esquema

84
TR ABS
TR Q R
@= \ _
ABS 0 I
Q: Matriz de estados transitorios de 3x3
R: Matriz no nula de 3x2
0: Matriz nula de 2x3
I: Matriz de estados absorbentes de 2x2
En general, si hay a estados transitorios y b estados absorbentes, entonces el tamaño deQ sería de a x a,
R de a x b, 0 de b x a e I de b x b.

Una vez dividida la matriz @ en cuatro submatrices, se puede analizar el comportamiento a largo plazo de
cada una de ellas, es decir, cuando el número de desplazamientos temporales + tiende a infinito

TR ABS
(
(TR Q R(
lim @ = \ _
(→5 ABS 0 I
Definición 4 Sea una cadena de Markov absorbente. Sea el estado - transitorio y el estado 3 absorbente
(() (()
lim ,%% = 0 ⋀ lim ,&& = 1
(→5 (→5

Lo que significa que la probabilidad de que el proceso se encuentre en un estado transitorio, luego de un
número lo suficientemente grande de pasos, es igual a cero. Esto se debe a que el proceso, en algún paso,
llegará a un estado absorbente y permanecerá en éste indefinidamente. De la misma manera, la
probabilidad de que el proceso se encuentre en un estado absorbente a largo plazo es igual a 1.
En caso de existir# estados absorbentes, la probabilidad de que el sistema sea absorbido por uno u otro
variará dependiendo en qué estado comience el proceso.

Dado que la matriz Q está formada únicamente por estados transitorios, de la definición anterior se puede
deducir
lim Q( = 0
(→5

4.2. Cadenas de Markov regulares: vector de punto fijo

En las cadenas de Markov regulares ocurre una particularidad en el largo plazo: a medida que
aumenta la cantidad de desplazamientos, la matriz de probabilidades de transición tiende a
converger a una matriz que tiene todas sus filas iguales. Este vector fila es único y se denomina
vector de punto fijo o distribución estacionaria.

Definición 5 Sea un conjunto finito de # estados $ = {'" , '# , . . , '$ }.Sea @ la matriz de transición de # f #
elementos correspondiente a una cadena de Markov regular y sea + la cantidad de pasos. Entonces la
matriz de probabilidades de transición a largo plazo es igual a

g-h @( = i
(→5

85
Cuando + tiende a infinito, la matriz de probabilidades tiende a una matriz i,donde todos sus vectores
fila son exactamente idénticos

(() (()
,"" ⋯ ,"$ i" ⋯ i$
g-h H ⋮ … ⋮ I=A ⋮ … ⋮D
(→5 (()
,$"
(()
⋯ ,$$ i" ⋯ i$

El vector [i" … i$ ] es el vector de punto fijo, cuyos elementos son no negativos y la sumatoria de
éstos debe ser igual a la unidad
$

J i% = 1
%*"

Definición 6 Sea un conjunto finito de # estados posibles $ = {'" , '# , . . , '$ }. Sea @ la matriz de transición
de # f # elementoscorrespondiente a una cadena de Markov regular. Sea iel vector de punto fijo,
entonces
i·@ =i
,"" ⋯ ,"$
[i" … i$ ] · A ⋮ … ⋮ D = [i" … i$ ]
,$" ⋯ ,$$
De manera que el producto entre el vector de punto fijo y la matriz de transición equivale al vector de
punto fijo.

Definición 7 Sea @ la matriz de probabilidades de transición asociada a una cadena de Markov regular.
Sea el vector de distribución de probabilidades correspondiente al período S ≥ 0,v0 = [v0" v0# ]

lim v0 · @( = i
(→5

Demostración
lim v0 · @( = i
(→5

Por propiedades del límite

v0 · lim @( = i
(→5

Utilizando la primera definición que ha sido presentada al comienzo de esta sección

v6 · π = π

i i#
[v0" v0# ] · k " i i# ]
i" i# l = [ "
Expresándolo como un sistema de ecuaciones
n ·i +n ·i =i
mn0" · i" + n0# · i" = i"
0" # 0# # #

Sacando factor común i7 en cada ecuación

86
i" · (v0" + v0# ) = i"
o
i# · (v0" + v0# ) = i#
Como v0 es un vector de probabilidad, entoncesv0" + v0# = 1. De esta manera, se cumple la igualdad y
queda demostrada la definición. En consecuencia, se concluye que, independientemente de cuales sean
las condiciones iniciales, el sistema arribará al vector de punto fijo en el largo plazo.

4.2.1. Métodos para calcular el vector de punto fijo


4.2.1.1. Sistema de ecuaciones
Sea la matriz de probabilidades de transición correspondiente a una cadena de Markov regular
,"" ,"#
@ = k, ,## l
#"

Siguiendo la propiedad de la definición 6

i·@ =i
, ,"#
[i" i# ] · k "" i i# ]
,#" ,## l = [ "

Multiplicando y sabiendo que i" + i# = 1, se plantea un sistema de tres ecuaciones y dos incógnitas
i" · ,"" + i# · ,#" = i"
p " · ,"# + i# · ,## = i#
i
i" + i# = 1

Para su resolución será conveniente utilizar el método de sustitución. El mismo consiste en despejar una
incógnita en alguna de las ecuaciones y llevar su valor a las otras. Se obtiene así un sistema equivalente al
original, pero con una ecuación menos. Por ejemplo, si se despeja i" de la tercera ecuación y se sustituye
en la primera6
(1 − i# ) · ,"" + i# · ,#" = 1 − i#
o
i" · ,"# + i# · ,## = i#
Luego de operar, se encuentran las soluciones
,#" 1 − ,""
i" = ; i# =
1 + ,#" − ,"" 1 + ,#" − ,""
De esta manera, se obtiene el vector de punto fijo
,#" 1 − ,""
i=s t
1 + ,#" − ,"" 1 + ,#" − ,""

4.2.1.2. Autovector, vector propio o eigenvector


Sea la matriz de probabilidades de transición correspondiente a una cadena de Markov regular

6
Nótese que ha quedado planteado un sistema compatible determinado, el cual garantiza la existencia y unicidad
de la solución.

87
,"" ,"#
@ = k, ,## l
#"

Se plantea
i · (@ − uv) = θ
Siendo I la matriz identidad y θ un vector columna nulo

[i" i# ] · s,"" − v ,"# 0


t=k l
,#" ,## − v 0
Resolviendo el determinante |@ − uv| = 0 se encuentran las raíces: v" y v# .Estas se denominan valores
propios de @, también llamados autovalores o eigenvalores.
Como @ es una matriz estocástica, se sabe que λ = 1 es un autovalor válido7

[i" i# ] · s,"" − 1 ,"# 0


t=k l
,#" ,## − 1 0
Luego se selecciona una de las dos columnas8 y, teniendo en cuenta la regla de los signos de Laplace, se
halla el adjunto de la matriz. De esta manera, se calcula el vector propio n.
Por ejemplo, si se elige la columna 2, el vector propio que se obtiene será
n = [n" n# ] = [−,#" ,"" − 1]
Después de sumar los elementos del vector
#

J n% = −,#" + ,"" − 1
%*#

Finalmente se divide a cada elemento del vector propio por la sumatoria, obteniéndose el vector de punto
fijo
n" n#
i = [i" i# ] = s t
∑ n% ∑ n%
−,#" ,"" − 1
i=s t
−,#" + ,"" − 1 −,#" + ,"" − 1
Sacando factor común (−1) y simplificando la expresión
,#" 1 − ,""
i=s t
1 + ,#" − ,"" 1 + ,#" − ,""
Nótese que el resultado no varía si se utiliza un método u otro.

7
Ver Bernardello, A., Bianco, M., Casparri, M., García Fronti, J., Olivera de Marzana, S. Matemática para economistas
con Excel y Matlab, sección 1.4.3
8
Es indistinto utilizar una columna u otra. El alumno podrá constatar que el resultado que se obtiene es el mismo,
independiente de la columna seleccionada.

88
EJERCICIOS PROPUESTOS

Ejercicio I.
,"" ,"#
Dada la siguiente matriz de transición @ = k, ,## l
#"

Defina la cadena de Markov sabiendo que @%% = 1


Sabiendo que ,## = 1, y que0 < ,"" < 1, encuentre lim @(
(→5

Sabiendo que ,## = 0, y que 0 < ,"" < 1, encuentre el vector de punto fijo.
1 − ,# ,#
Dada la siguiente matriz de transición: @=s t y dado el vector inicial
1 − ,# ,#
v1 = [5⁄13 8⁄13]. Calcular v8 sabiendo que 0 < ,# < 1.

Ejercicio II.
Dada la siguiente matriz:
x 0.5 0.2 a
@ = y A 0.8 0.1 b D
z a + b b 0.5
a) ¿Para qué valores de a y b la matriz es estocástica?
b) ¿Es la matriz de probabilidades de transición regular?
c) Si en t = 0 el sistema se encuentra en x, ¿cuál es la probabilidad de que el sistema en t = 2 se
encuentre en •?
d) Determine el vector de punto fijo.

Ejercicio III.
Modelo de movilidad social
Considere una sociedad estratificada de la siguiente manera: clase baja, media y alta. Dado que el sistema
social es de carácter dinámico, un individuo que pertenece a cierta clase social en un período determinado
puede ascender, mantenerse o descender socialmente en el siguiente período. Este fenómeno es
representado mediante la siguiente matriz:
B 0.6 0.35 0.05
@ = M A0.36 0.5 0.14D
A 0.05 0.4 0.55
a) Clasifique la cadena de Markov.

89
b) Sabiendo que un individuo pertenece a la clase baja en el período t=0, ¿cuál es la probabilidad de que
ascienda a clase media al cabo de 2 períodos?
c) Suponiendo que inicialmente (" = 0) un 20% de la población pertenece a la clase alta, un 45% a la
clase media y un 35% a la clase baja, hallar la distribución de la sociedad en el período " = 2.
d) Encontrar la distribución estacionaria.
RESOLUCIÓN DE EJERCICIOS

Ejercicio I.
La cadena de Markov es absorbente porque tiene 2 estados absorbentes y es posible llegar a uno de ellos
en al menos un solo paso.
Sabiendo que ,## = 1, necesariamente ,#" = 0. Y como 0 < ,"" < 1, entonces
0 < ,"# < 1. Por lo tanto, el estado 1 es transitorio y el estado 2 es absorbente. En consecuencia, la
cadena de Markov es absorbente.

Analizando el problema en términos gráficos

Gráfico 3
Como en el largo plazo los estados transitorios tienden a ser absorbidos por los estados absorbentes, la
probabilidad de que el proceso se encuentre en un estado transitorio es igual a cero
(()
lim , =0
(→5 ""

De esto, se deduce que


(()
lim , =1
(→5 "#

Finalmente, se halla la solución


(() (()
, ,"# 0 1
lim @( = A "" D=k l
(→5 (()
,#"
(()
,## 0 1

a) Si ,## = 0, entonces ,#" = 1. De este modo, se define la matriz @


, ,"#
@ = k "" l
1 0
Primero, se debe verificar si la matriz es regular. Con este fin se eleva P al cuadrado
@# = @ · @

90

,"" ,"# ,"" ,"# , · , + ,"# ,"" · ,"#
k l·k l = k "" "" l
1 0 1 0 ,"" ,"#

Como 0 < ,"" < 1, necesariamente 0 < ,"# < 1. De tal manera se comprueba que todos los elementos
de la matriz @# son estrictamente positivos. Por lo tanto, la cadena de Markov es regular, lo que significa
que el vector de punto fijo existe y es único. En consecuencia, se procede a calcularlo utilizando la
definición6

i·@ =i

[i" i# ] · k,"" ,"#


l = [i" i# ]
1 0
Multiplicando, y sabiendo que ∑#%*" i% = 1, se plantea un sistema de ecuaciones
i" · ,"" + i# = i"
p i" · ,"# = i#
i" + i# = 1
Despejando i# de la última ecuación i# = 1 − i"
Reemplazando esta expresión en la primera ecuación, se reduce el sistema

i · , + 1 − i" = i"
o " ""
i" · ,"# = i#

De la primera ecuación se obtiene que i" equivale a


1
i" =
2 − ,""

Sabiendo que i# = 1 − i"


2 − ,"" 1
i# = −
2 − ,"" 2 − ,""

1 − ,""
i# =
2 − ,""
Otro método para hallar el vector de punto fijo es restarle a la matriz de probabilidades de transición, la
matriz identidad
,"" − 1 ,"#
@−u =k l
1 −1
Tomando los adjuntos de la segunda columna se obtiene el vector propio

n = [−1 ,"" − 1]

Cuya sumatoria es ∑#%*" n% = ,"" − 2

Finalmente se divide a cada elemento del vector propio por la sumatoria

91
−1 ,"" − 1
i = [i" i# ] = s t
,"" − 2 ,"" − 2
Sacando(−1) como factor común y simplificando la expresión
1 1 − ,""
i=s t
2 − ,"" 2 − ,""

b) Para calcular v8 se podría multiplicarv1 · @8 pero resultaría engorroso. Para aliviar y simplificar los
cálculos, es conveniente aplicar ciertas propiedades. Como se sabe que 0 < ,# < 1 entonces la matriz
es regular. De este modo, se asegura que el vector de punto fijo existe y es único.
1 − ,# ,#
[i" i# ] · s t = [i" i# ]
1 − ,# ,#
Después de operar, se obtiene vector de punto fijo

i = [1 − ,# ,# ]

En consecuencia, es evidente que la matriz está compuesta por el vector de punto fijo. Esto significa que
la matriz dada es a la matriz de largo plazo. Recordando la definición 7, el producto entre el vector de
estado correspondiente al momento S ≥ 0yla matriz de largo plazo es igual al vector de punto fijo
v0 · lim @( = i
(→5
i" i#
i i# ]
v0 · ki
" i# l = [ "
1 − ,# ,#
[5⁄13 5⁄13] · s t = [1 − ,# ,# ]
1 − ,# ,#
v8 = [1 − ,# ,# ]

Ejercicio II.
a) Para que la matriz@ sea considerada estocástica, todos sus elementos deben ser 0 ≤ ,%& ≤ 1 y la
sumatoria de los elementos de cada vector fila debe ser igual a 1.
De este modo, para hallar los valores de a y bse plantea un sistema de ecuaciones

0.5 + 0.2 + a = 1
p 0.8 + 0.1 + b = 1
a+b + b + 0.5 = 1
De la primera ecuación
a = 1 − 0.5 − 0.2

a = 0.3
De la segunda
b = 1 − 0.8 − 0.1

b = 0.1

92
De la tercera
a + 2b =1 − 0.5

Reemplazando los valores obtenidos anteriormente, se halla que la solución a = 0.3 y b = 0.1 satisface
simultáneamente las 3 ecuaciones.

b) Dada la matriz de probabilidades de transición


0.5 0.2 0.3
@ = A0.8 0.1 0.1D
0.4 0.1 0.5
Como todos sus elementos son no negativos, entonces la matriz de probabilidades de transición es regular
para + = 1

c) Sabiendo que en t = 0 el sistema se encuentra en el estado x


v0 = [1 0 0]
Para hallar cuál es la probabilidad de que el sistema en t = 2 se encuentre en •, se debe resolver
v# = v1 · @# = v1 · @ · @
0.5 0.2 0.3 0.5 0.2 0.3
@# = @ · @ = A0.8 0.1 0.1D · A0.8 0.1 0.1D
0.4 0.1 0.5 0.4 0.1 0.5

0.5 · 0.5 + 0.2 · 0.8 + 0.3 · 0.4 0.5 · 0.2 + 0.2 · 0.1 + 0.3 · 0.1 0.5 · 0.3 + 0.2 · 0.1 + 0.3 · 0.5
= A0.8 · 0.5 + 0.1 · 0.8 + 0.1 · 0.4 0.8 · 0.2 + 0.1 · 0.1 + 0.1 · 0.1 0.8 · 0.3 + 0.1 · 0.1 + 0.1 · 0.5D
0.4 · 0.5 + 0.1 · 0.8 + 0.5 · 0.4 0.4 · 0.2 + 0.1 · 0.1 + 0.5 · 0.1 0.4 · 0.3 + 0.1 · 0.1 + 0.5 · 0.5
0.53 0.15 0.32
@# = A0.52 0.18 0.3 D
0.48 0.14 0.38
0.53 0.15 0.32
v# = [1 0 0] · A0.52 0.18 0.3 D = [0.53 0.15 0.32]
0.48 0.14 0.38

La probabilidad de que el sistema en t = 2 se encuentre en • es 0.32.

d) Para calcular el vector de punto fijo se utiliza la propiedad


i·@ =i
0.5 0.2 0.3
[i" i# i2 ] · A0.8 0.1 0.1D = [i" i# i2 ]
0.4 0.1 0.5
Multiplicando, y sabiendo que ∑2%*" i% = 1, se plantea un sistema de ecuaciones

i" · 0.5 + i# · 0.8 + i2 · 0.4 = i"


i · 0.2 + i# · 0.1 + i2 · 0.1 = i#
Ñ "
i" · 0.3 + i# · 0.1 + i2 · 0.5 = i2
i" + i# + i2 = 1

93

Despejandoi" de la cuarta ecuación y reemplazándolo en las dos primeras, se logra reducir el sistema a
tres ecuaciones

(1 − i# − i2 ) · 0.5 + i# · 0.8 + i2 · 0.4 = 1 − i# − i2


Ö (1 − i# − i2 ) · 0.2 + i# · 0.1 + i2 · 0.1 = i#
i" · 0.3 + i# · 0.1 + i2 · 0.5 = i2

De la primera ecuación se obtiene que 1.3 · i# + 0.9 · i2 = 0.5

Si se despeja i# y se expresa en términos fraccionarios para no perder precisión


5 9
i# = − · i (1)
13 13 2
De la segunda ecuación, se despeja i2

i2 = 2 − 11 · i# (2)
Reemplazando (2) en (1) y resolviendo
13
i# = = 0.1512(3)
86
Sustituyendo(3) en (2)
13
i2 = 2 − 11 ·
86
29
i2 = = 0.3372
86
Finalmente, para hallar i"
13 29
i" = 1 − i# − i2 = 1 − −
86 86

44
i" = = 0.5116
86

Ejercicio III.

a) Debido a que todos los elementos de la matriz @ son no nulos para + = 1, entonces la cadena de
Markov es regular.
b) Inicialmente el individuo pertenece a la clase baja y se pretende calcular la probabilidad de que éste
ascienda a clase media luego de 2 períodos. El problema se puede ilustrar de la siguiente manera:

94
Gráfico 4
De modo que, para hallar la probabilidad de movilidad social ascendente se debe resolver
(#)
,:; = ,:: · ,:; + ,:; · ,;; + ,:< · ,<;
(#)
,:; = 0.6 · 0.35 + 0.35 · 0.5 + 0.05 · 0.4
(#)
,:; = 0.405 ⇒ 40.5%

c) De acuerdo a los datos del enunciado, en " = 0 un 35% de la población pertenece a la clase baja, un
45% a la clase media y un 20% a la clase alta. De esta manera, se define el vector de estado inicial
v1 = [0.35 0.45 0.2]

Para hallar la distribución de la sociedad en " = 2, se plantea
v2 = v1 · @#

Multiplicando a P por sí misma, se obtiene @#


0.49 0.41 0.11
@# = @ · @ = A 0.4 0.43 0.17D
0.2 0.44 0.36
Reemplazando el resultado obtenido en la expresión anterior
0.49 0.41 0.11
v2 = [0.35 0.45 0.2] · A 0.4 0.43 0.17D
0.2 0.44 0.36
v2 = [0.39 0.42 0.18]
De este modo, se puede predecir que en t = 2 la sociedad en su conjunto experimentará un movimiento
social descendente. Nótese que ha disminuido el porcentaje de la población que pertenece a la clase alta
y media, siendo su contrapartida un aumento en la clase baja.

d) Para calcular la distribución estacionaria o el vector de punto fijo, se utiliza la definición 6:


i·@ =i

95
0.6 0.35 0.05
[i: i; i< ] · A0.36 0.5 0.14D = [i: i; i< ]
0.05 0.4 0.55
Sabiendo que la sumatoria de los elementos del vector de punto fijo debe ser igual a la unidad, y
expresándolo como un sistema de ecuaciones:
i: · 0.6 + i; · 0.36 + i< · 0.05 = i:
i · 0.35 + i; · 0.5 + i< · 0.14 = i;
Ñ :
i: · 0.05 + i; · 0.14 + i< · 0.55 = i<
i: + i; + i< = 1
Luego de reducir el sistema a 3 ecuaciones y operar algebraicamente, se obtiene la solución

i = [0.35 0.47 0.18]

Interpretando el resultado se puede afirmar que a largo plazo el 35% de la población se ubicará en la clase
baja, un 47% en la clase media y un 18% en la clase alta.

APÉNDICE: DIAGRAMA DE ÁRBOL


Considere una cadena de Markov de 3 estados. Suponga que interesa calcular cuál es la probabilidad de
que el proceso alcance el estado 3 en dos pasos, dado que inició en el estado 1. Para resolver este
problema, se plantea la ecuación de Chapman-Kolmogorov en su forma general
$
(#)
,%& = J ,%0 · ,0&
0*"

En este caso particular, como el proceso consta de 3 estados: # = 3. Además, se sabe que inicia en el
estado 1 y se pretende llegar al estado 3, entonces- = 1 y 3 = 3
2
(#)
,"2 = J ,"0 · ,02
0*"
(#)
,"2 = ,"" · ,"2 + ,"# · ,#2 + ,"2 · ,22
La ecuación de Chapman-Kolmogorov también puede pensarse en términos gráficos utilizando el
diagrama de árbol

96
Gráfico 5
Cada nodo representa los estados del proceso y las ramas indican las posibles transiciones que se pueden
efectuar de un estado a otro. Cada término de la ecuación es la multiplicación de los elementos de cada
rama. Luego, se suman los productos y se obtiene la probabilidad de transición de dos pasos.

97
BIBLIOGRAFÍA
BARTHOLOMEW, D. (1973). Stochastic Models for Social Processes. Segunda edición. John Wiley & Sons.
BERNARDELLO, A., BIANCO, M., CASPARRI, M., GARCÍA FRONTI, J., OLIVERA DE MARZANA, S. (2010).
Matemática para economistas con Excel y Matlab. Editorial Omicron.
CHIANG A. C. (2006). Métodos Fundamentales de Economía Matemática. Cuarta edición. Ed Mcgraw-Hill
CHING, W. & NG, M. (2006). Markov Chains. Models, Algorithms and Applications. Segunda edición.
Springer Science.
GRINSTEAD, C. & SNELL, J. (2003). Introduction to Probability. Segunda edición. American Mathematical
Society.
HILLIER, F. & LIEBERMAN, G. (2010). Introducción a la Investigación de Operaciones. Novena edición. Ed
Mcgraw-Hill.
KEMENY, J. & SNELL, J. (1960). Finite Markov Chains. Van Nostrand.
LUENBERGER, D. (1979). Introduction to Dynamic Systems. Theory models and Applications. John Wiley &
Sons.

98

También podría gustarte