Matrices No Negativas
Matrices No Negativas
1
• A esta raíz r corresponde un vector propio 1 que es un vector positivo.
1
4 −2 −1
• Si elegimos s = 6 > 5 vemos que la matriz (6 I – A) = −1 3 − 1 es no singular y su inversa es
10 10 5 −1 − 2 4
−1 1
positiva: (6𝐼 − 𝐴) = 5 15 5
25
5 10 10
Ejemplo
460
• 𝐴 = 021 matriz no negativa, no descomponible=> primer Teorema de Frobenius:
103
𝜆1 = 5 = 𝑟
• 𝐴 − 𝜆𝐼 = −𝜆3 + 9𝜆2 − 26𝜆 + 30 = 0 ൞𝜆2 = 2 + 2𝑖
ቋ𝜌 = 6 < 5
𝜆3 = 2 − 2𝑖
𝑇
A r = 5 corresponde el vector característico 6,1,3 positivo.
2 −6 0
• Si elegimos s = 6 > 5 (6 I – A) = 0 4 − 1 y (6𝐼 − 𝐴)−1 positiva.
−1 0 3
Ejemplo
102
• 𝐴 = 120 matriz no negativa, descomponible => 2do Teorema de Frobenius
201
𝜆1 = 3 = 𝑟
3 2
𝐴 − 𝜆𝐼 = −𝜆 + 4𝜆 − 𝜆 + 6 = 0 ቐ 𝜆2 = 2
𝜆3 = −1
al valor propio r no negativo corresponde un vector propio no negativo
2,2,2 𝑇
3 2−2
• para s=4 >r (4I–A)= −1 2 0 (4𝐼 − 𝐴)−1 matriz no negativa
−2 0 3
CADENAS DE MARKOV - GONZALO HERNÁN BALLESTERO
RESUMEN
El objetivo del presente trabajo es brindar a los alumnos de la Licenciatura en Economía y Actuario de la Facultad de
Ciencias Económicas de la Universidad de Buenos Aires los conceptos fundamentales relacionados con los procesos
estocásticos Markovianos, frecuentemente denominados cadenas de Markov1.
La nota de clase está organizada en cuatro secciones. En la primera se explican las propiedades y elementos
principales que caracterizan a una cadena de Markov, el concepto de matriz estocástica y probabilidad de transición.
En la segunda sección se introduce la noción de vector de estado o vector de distribución de probabilidades. La
tercera sección detalla cómo se clasifican los diferentes estados y cadenas. Por último, en la cuarta sección, se analiza
el comportamiento a largo plazo del proceso y se ofrecen dos métodos analíticos para calcular la distribución
estacionaria.
Para finalizarse proponen tres ejercicios, uno de los cuales corresponde a una aplicación de la teoría de los procesos
estocásticos Markovianos en un modelo de movilidad social. Seguido a esto, con el afán de consolidar el desarrollo
teórico contenido en este trabajo, se podrá encontrar la resolución paso por paso de cada uno de los ejercicios
planteados.
INTRODUCCIÓN
Otro ejemplo puede encontrarse en el mundo de las finanzas. Aquí, las cadenas de Markov son utilizadas
para modelizar fenómenos del mercado bursátil: los agentes que participan en él desean conocer y
1
Su nombre se debe al matemático ruso Andrey Markov (1856-1922), quien inició el estudio de los procesos
estocásticos. Su intención era crear un modelo probabilístico para analizar la frecuencia con la que aparecen las
vocales en poemas y textos literarios.
2
Ver modelo en Bernardello, A., Bianco, M., Casparri, M., García Fronti, J., Olivera de Marzana, S. Matemática para
economistas con Excel y Matlab, sección 1.3.2.
78
pronosticar el precio de ciertos activos financieros para tomar decisiones con el objetivo de maximizar el
retorno de las operaciones3.
Por último, se puede añadir que otro hecho socioeconómico que admite ser modelizado como una cadena
de Markov es lo que se conoce en la literatura económica como movilidad social, es decir, el cambio en el
status quo de los individuos dentro de la estructura social. Es evidente que las predicciones que arroje tal
modelo serán fundamentales para tomar decisiones de política económica.
En este marco, la teoría de los procesos estocásticos adquiere una relevancia fundamental para los
estudiantes de ciencias económicas.
1. MATRIZ ESTOCÁSTICA
Definición 1 Sea la variable aleatoria !! que describe cuál es el estado del sistema en el momento ". Sea
un conjunto finito de # estados posibles $ = {'" , '# , . . , '$ } y sea un conjunto de probabilidades de
(()
transición de + pasos ,%& {- = 1, 2, … , # ∧ 3 = 1, 2, … , #}.
El proceso comienza en un determinado estado y puede trasladarse a otro a medida que transcurre el
tiempo4. Si en el momento " el proceso se encuentra en el estado '% entonces, en " + 1, podrá estar en el
(")
estado '& con una probabilidad ,%& . De este modo, el subíndice - denota el estado presente, mientras
que el subíndice 3 refiere el estado futuro que podrá alcanzar el proceso.
Los desplazamientos temporales se denominan pasos, y éstos son indicados mediante el supraíndice +.
(")
Por convención, cuando + = 1, se omite el supraíndice⟹ ,%& = ,%&
3
Ver modelo en Casparri, M., Masci, M. y Venosi, C. Valuación de bonos con riesgo de default utilizando cadenas
de Markov.
4
t ∈ T = {0, 1, 2, 3, … , T}. Siendo t = 0 el momento actual, t = 1 el momento próximo, y así sucesivamente. De
esta forma, el lector podrá advertir que el tiempo será considerado como una variable discreta.
79
• Estacionariedad:
Habiendo definido los elementos que caracterizan a los procesos de Markov, se puede formalizar la
propiedad markoviana de la siguiente manera:
,%& = ,(!!+" = 3 | !! = -) ∀ " = 0, 1, … , >.
El conjunto de probabilidades de transición asociadas a una cadena de Markov puede ser representado
mediante una matriz de # x #llamadamatriz de probabilidades de transición o matriz de transición.
,"" ⋯ ,"$
@=A ⋮ ⋮ ⋮ D
,$" ⋯ ,$$
Cada fila de la matriz es un vector de probabilidades cuyos elementos son no negativos y la sumatoria de
éstos debe ser igual a 1. Toda matriz que cumpla éstas dos condiciones se denomina matriz estocástica.
Por lo tanto, toda matriz de transición es estocástica, pero no necesariamente toda matriz estocástica es
de transición.
Hasta el momento se ha limitado el estudio a las transiciones de un paso, pero sería de gran interés
responder la siguiente pregunta: si el proceso se encuentra en el estado'% en el período ", ¿cuál es la
probabilidad que alcance el estado '& enel período " + 2, es decir, en 2 pasos?
F-- ⋯ F-.
E=A ⋮ ⋮ ⋮ D
F.- ⋯ F..
E(/) = E/ = E · E
80
F-- · F-- + ⋯ + F-. · F.- ⋯ F-- · F-. + ⋯ + F-. · F..
/ ⋮ ⋮ ⋮
E =A D
F.- · F-- + ⋯ + F.. · F.- ⋯ F.- · F-. + ⋯ + F.. · F..
(#) (#)
,"" ⋯ ,"$
#
@ =H ⋮ ⋮ ⋮ I
(#) (#)
,$" ⋯ ,$$
(() (()
,"" ⋯ ,"$
@(() = @( = H ⋮ ⋮ ⋮ I
(() (()
,$" ⋯ ,$$
Si se quisiera calcular una probabilidad de transición en particular, en lugar de elevar la matrizal cuadrado,
se podría utilizar la ecuación de Chapman-Kolmogorov:
$
(#)
,%& = J ,%0 · ,0&
0*"
(#)
Así, la probabilidad de transición de 2 pasos ,%& es la probabilidad condicional de que el sistema se
encuentre en el estado 3 después de 2desplazamientos5, dado que comenzó en el estado -.
2. VECTOR DE ESTADO
El estado inicial del proceso es determinado por un vector fila llamado vector de distribución de
probabilidad o vector de estado
v0 =L,"(1) … ,$(1) M
Cada elemento del vector indica la probabilidad asociada a los diferentes estados del sistema en el
momento " = 0.
Por ejemplo, si el proceso inicia en el estado '" con certeza, la probabilidad asociada a tal estado (," )
será igual a 1 y las demás probabilidades, dado que la sumatoria de los elementos del vector debe ser
iguala la unidad, serán igual a cero
v0 =[1 … 0]
El vector de estado del siguiente período puede calcularse posmultiplicando al vector de estado inicial por
la matriz probabilidades de transición
5
En el Apéndice se ofrece una ilustración gráfica del problema utilizando el diagrama de árbol.
81
v" = v1 · @
,"" ⋯ ,"$
L,"(") …
(")
,$ M = L,"(1) …
(1)
,$ M · A ⋮ ⋮ ⋮ D
,$" ⋯ ,$$
v1 =L,"(") (")
… ,$ M
Definición 3 Sea @ la matriz de probabilidades de transición. Sea v1 el vector deestado que representa la
distribución inicial. Entonces, el vector deestado después de + pasos es
v( = v1 · @(
Demostración
v" = v1 · @
v# = v" · @ = ( v1 · @) · @ = v1 · @#
v# = v1 · @#
v2 = v# · @ = ( v" · @) · @ = ( v1 · @) · @ · @ = v1 · @2
v2 = v1 · @2
Por inducción matemática, se llega a la conclusión:
v( = v1 · @(
(()
Se considera que el estado 3 es alcanzable desde el estado - si ,%& > 0 para algún + ≥ 1. De este modo,
que el estado 3 sea alcanzable desde el estado - significa que es posible que el sistema llegue al estado 3
si comienza en el estado -.
Si el estado 3 es alcanzable desde el estado - y el estado - es alcanzable desde el estado 3, entonces se
dice que los estados - y 3 se comunican.
Si el estado - se comunica con el estado 3 y éste con el estado S, entonces el estado - se comunica con el
estado S.
Si todos los estados se comunican entre sí, la cadena de Markov es irreducible o ergódica.
82
Un estado se denomina transitorio si después de haber entrado a este estado, el proceso nunca regresa
a él. Por consiguiente, el estado - es transitorio si y sólo si existe un estado 3 que es alcanzable desde el
estado -, pero no viceversa. Es decir, el estado - no es alcanzable desde el estado 3.
Gráfico 1
Un estado se considera recurrente si, después de haber entrado a este estado, el proceso definitivamente
regresará a ese estado. De este modo, un estado es recurrente si y sólo si no es transitorio.
Un caso extremo de los estados recurrentes son los estados absorbentes. Cuando el proceso entra en este
tipo de estados, nunca saldrá de él. Por lo tanto, el estado - es un estado absorbente si y sólo si ,%% = 1.
En otros términos, si sobre la diagonal principal de la matriz de probabilidades de transición hay un 1, tal
estado será absorbente.
• Debe ser posible llegar a algún estado absorbente (no necesariamente en un solo paso).
3.3. Cadenas de Markov regulares
Una cadena de Markov es regular si para algún paso + ≥ 1, todos los elementos de la matriz de transición
de + pasos son estrictamente positivos ⇒ @( > 0
Un criterio para comprobar si una cadena es regular consiste en calcular las sucesivas potencias de @ hasta
encontrar un número + de pasos tal que la matriz @( tenga todos sus elementos no nulos.
Nota Si la matriz de transición @ tiene al menos un elemento igual a cero, y @# también tiene al menos un
elemento igual a cero, sería natural preguntarse qué tantas veces se debe multiplicar a la matriz @ por sí
misma para asegurar que no es regular. La respuesta es la siguiente: considere la matriz @0 que tiene al
menos un elemento igual a cero. Si se multiplica una vez más, se obtiene@0 · @ = @0+" . Si @0 y @0+"
tienen algún elemento igual a cero exactamente en el mismo lugar, entonces se puede asegurar que la
matriz no es regular.
83
Una persona alcoholizada se encuentra en alguna calle entre su casa y su bar preferido. La distancia entre
estos dos lugares es de 3 cuadras. Este individuo camina dando pasos tanto hacia la derecha como hacia
la izquierda con igual probabilidad. Y seguirá caminando (y dando vueltas) hasta que llegue a su casa o al
bar. Si llega a alguno de los dos lugares, se quedará allí.
Este problema puede ser modelizado como una cadena de Markov de4 estados: 0, 1, 2,3 y 4. Siendo el
estado 0la casa y el estado 4 el bar.
Gráfico 2
0é 1 0 0 0 0ù
ê
1 ê1 2 0 1 2 0 0 úú
P = 2ê 0 1 2 0 1 2 0 ú
ê ú
3ê 0 0 1 2 0 1 2ú
4 êë 0 0 0 0 1 úû
Los estados 1,2 y 3 son estados transitorios, mientras que los estados 0 y 4 son absorbentes (,%% = 1 ⇒
,11 = ,33 = 1). Además, como desde cualquier estado transitorio es posible llegar a los estados
absorbentes, la cadena de Markov es absorbente.
Si se toma una cadena de Markov absorbente y se reagrupan los estados, colocando los transitorios
primero y luego los absorbentes, se obtiene lo que se conoce como la forma canónica de la matriz de
transición
1é 0 1 2 0 1 2 0 ù
2 êê1 2 0 1 2 0 0 úú
P = 3ê 0 1 2 0 0 1 2ú
ê ú
0ê 0 0 0 1 0ú
4 êë 0 0 0 0 1 úû
Si se divide a la matriz en 4, se obtiene el siguiente esquema
84
TR ABS
TR Q R
@= \ _
ABS 0 I
Q: Matriz de estados transitorios de 3x3
R: Matriz no nula de 3x2
0: Matriz nula de 2x3
I: Matriz de estados absorbentes de 2x2
En general, si hay a estados transitorios y b estados absorbentes, entonces el tamaño deQ sería de a x a,
R de a x b, 0 de b x a e I de b x b.
Una vez dividida la matriz @ en cuatro submatrices, se puede analizar el comportamiento a largo plazo de
cada una de ellas, es decir, cuando el número de desplazamientos temporales + tiende a infinito
TR ABS
(
(TR Q R(
lim @ = \ _
(→5 ABS 0 I
Definición 4 Sea una cadena de Markov absorbente. Sea el estado - transitorio y el estado 3 absorbente
(() (()
lim ,%% = 0 ⋀ lim ,&& = 1
(→5 (→5
Lo que significa que la probabilidad de que el proceso se encuentre en un estado transitorio, luego de un
número lo suficientemente grande de pasos, es igual a cero. Esto se debe a que el proceso, en algún paso,
llegará a un estado absorbente y permanecerá en éste indefinidamente. De la misma manera, la
probabilidad de que el proceso se encuentre en un estado absorbente a largo plazo es igual a 1.
En caso de existir# estados absorbentes, la probabilidad de que el sistema sea absorbido por uno u otro
variará dependiendo en qué estado comience el proceso.
Dado que la matriz Q está formada únicamente por estados transitorios, de la definición anterior se puede
deducir
lim Q( = 0
(→5
En las cadenas de Markov regulares ocurre una particularidad en el largo plazo: a medida que
aumenta la cantidad de desplazamientos, la matriz de probabilidades de transición tiende a
converger a una matriz que tiene todas sus filas iguales. Este vector fila es único y se denomina
vector de punto fijo o distribución estacionaria.
Definición 5 Sea un conjunto finito de # estados $ = {'" , '# , . . , '$ }.Sea @ la matriz de transición de # f #
elementos correspondiente a una cadena de Markov regular y sea + la cantidad de pasos. Entonces la
matriz de probabilidades de transición a largo plazo es igual a
g-h @( = i
(→5
85
Cuando + tiende a infinito, la matriz de probabilidades tiende a una matriz i,donde todos sus vectores
fila son exactamente idénticos
(() (()
,"" ⋯ ,"$ i" ⋯ i$
g-h H ⋮ … ⋮ I=A ⋮ … ⋮D
(→5 (()
,$"
(()
⋯ ,$$ i" ⋯ i$
El vector [i" … i$ ] es el vector de punto fijo, cuyos elementos son no negativos y la sumatoria de
éstos debe ser igual a la unidad
$
J i% = 1
%*"
Definición 6 Sea un conjunto finito de # estados posibles $ = {'" , '# , . . , '$ }. Sea @ la matriz de transición
de # f # elementoscorrespondiente a una cadena de Markov regular. Sea iel vector de punto fijo,
entonces
i·@ =i
,"" ⋯ ,"$
[i" … i$ ] · A ⋮ … ⋮ D = [i" … i$ ]
,$" ⋯ ,$$
De manera que el producto entre el vector de punto fijo y la matriz de transición equivale al vector de
punto fijo.
Definición 7 Sea @ la matriz de probabilidades de transición asociada a una cadena de Markov regular.
Sea el vector de distribución de probabilidades correspondiente al período S ≥ 0,v0 = [v0" v0# ]
lim v0 · @( = i
(→5
Demostración
lim v0 · @( = i
(→5
v0 · lim @( = i
(→5
v6 · π = π
i i#
[v0" v0# ] · k " i i# ]
i" i# l = [ "
Expresándolo como un sistema de ecuaciones
n ·i +n ·i =i
mn0" · i" + n0# · i" = i"
0" # 0# # #
86
i" · (v0" + v0# ) = i"
o
i# · (v0" + v0# ) = i#
Como v0 es un vector de probabilidad, entoncesv0" + v0# = 1. De esta manera, se cumple la igualdad y
queda demostrada la definición. En consecuencia, se concluye que, independientemente de cuales sean
las condiciones iniciales, el sistema arribará al vector de punto fijo en el largo plazo.
i·@ =i
, ,"#
[i" i# ] · k "" i i# ]
,#" ,## l = [ "
Multiplicando y sabiendo que i" + i# = 1, se plantea un sistema de tres ecuaciones y dos incógnitas
i" · ,"" + i# · ,#" = i"
p " · ,"# + i# · ,## = i#
i
i" + i# = 1
Para su resolución será conveniente utilizar el método de sustitución. El mismo consiste en despejar una
incógnita en alguna de las ecuaciones y llevar su valor a las otras. Se obtiene así un sistema equivalente al
original, pero con una ecuación menos. Por ejemplo, si se despeja i" de la tercera ecuación y se sustituye
en la primera6
(1 − i# ) · ,"" + i# · ,#" = 1 − i#
o
i" · ,"# + i# · ,## = i#
Luego de operar, se encuentran las soluciones
,#" 1 − ,""
i" = ; i# =
1 + ,#" − ,"" 1 + ,#" − ,""
De esta manera, se obtiene el vector de punto fijo
,#" 1 − ,""
i=s t
1 + ,#" − ,"" 1 + ,#" − ,""
6
Nótese que ha quedado planteado un sistema compatible determinado, el cual garantiza la existencia y unicidad
de la solución.
87
,"" ,"#
@ = k, ,## l
#"
Se plantea
i · (@ − uv) = θ
Siendo I la matriz identidad y θ un vector columna nulo
J n% = −,#" + ,"" − 1
%*#
Finalmente se divide a cada elemento del vector propio por la sumatoria, obteniéndose el vector de punto
fijo
n" n#
i = [i" i# ] = s t
∑ n% ∑ n%
−,#" ,"" − 1
i=s t
−,#" + ,"" − 1 −,#" + ,"" − 1
Sacando factor común (−1) y simplificando la expresión
,#" 1 − ,""
i=s t
1 + ,#" − ,"" 1 + ,#" − ,""
Nótese que el resultado no varía si se utiliza un método u otro.
7
Ver Bernardello, A., Bianco, M., Casparri, M., García Fronti, J., Olivera de Marzana, S. Matemática para economistas
con Excel y Matlab, sección 1.4.3
8
Es indistinto utilizar una columna u otra. El alumno podrá constatar que el resultado que se obtiene es el mismo,
independiente de la columna seleccionada.
88
EJERCICIOS PROPUESTOS
Ejercicio I.
,"" ,"#
Dada la siguiente matriz de transición @ = k, ,## l
#"
Sabiendo que ,## = 0, y que 0 < ,"" < 1, encuentre el vector de punto fijo.
1 − ,# ,#
Dada la siguiente matriz de transición: @=s t y dado el vector inicial
1 − ,# ,#
v1 = [5⁄13 8⁄13]. Calcular v8 sabiendo que 0 < ,# < 1.
Ejercicio II.
Dada la siguiente matriz:
x 0.5 0.2 a
@ = y A 0.8 0.1 b D
z a + b b 0.5
a) ¿Para qué valores de a y b la matriz es estocástica?
b) ¿Es la matriz de probabilidades de transición regular?
c) Si en t = 0 el sistema se encuentra en x, ¿cuál es la probabilidad de que el sistema en t = 2 se
encuentre en •?
d) Determine el vector de punto fijo.
Ejercicio III.
Modelo de movilidad social
Considere una sociedad estratificada de la siguiente manera: clase baja, media y alta. Dado que el sistema
social es de carácter dinámico, un individuo que pertenece a cierta clase social en un período determinado
puede ascender, mantenerse o descender socialmente en el siguiente período. Este fenómeno es
representado mediante la siguiente matriz:
B 0.6 0.35 0.05
@ = M A0.36 0.5 0.14D
A 0.05 0.4 0.55
a) Clasifique la cadena de Markov.
89
b) Sabiendo que un individuo pertenece a la clase baja en el período t=0, ¿cuál es la probabilidad de que
ascienda a clase media al cabo de 2 períodos?
c) Suponiendo que inicialmente (" = 0) un 20% de la población pertenece a la clase alta, un 45% a la
clase media y un 35% a la clase baja, hallar la distribución de la sociedad en el período " = 2.
d) Encontrar la distribución estacionaria.
RESOLUCIÓN DE EJERCICIOS
Ejercicio I.
La cadena de Markov es absorbente porque tiene 2 estados absorbentes y es posible llegar a uno de ellos
en al menos un solo paso.
Sabiendo que ,## = 1, necesariamente ,#" = 0. Y como 0 < ,"" < 1, entonces
0 < ,"# < 1. Por lo tanto, el estado 1 es transitorio y el estado 2 es absorbente. En consecuencia, la
cadena de Markov es absorbente.
Gráfico 3
Como en el largo plazo los estados transitorios tienden a ser absorbidos por los estados absorbentes, la
probabilidad de que el proceso se encuentre en un estado transitorio es igual a cero
(()
lim , =0
(→5 ""
90
,"" ,"# ,"" ,"# , · , + ,"# ,"" · ,"#
k l·k l = k "" "" l
1 0 1 0 ,"" ,"#
Como 0 < ,"" < 1, necesariamente 0 < ,"# < 1. De tal manera se comprueba que todos los elementos
de la matriz @# son estrictamente positivos. Por lo tanto, la cadena de Markov es regular, lo que significa
que el vector de punto fijo existe y es único. En consecuencia, se procede a calcularlo utilizando la
definición6
i·@ =i
i · , + 1 − i" = i"
o " ""
i" · ,"# = i#
1 − ,""
i# =
2 − ,""
Otro método para hallar el vector de punto fijo es restarle a la matriz de probabilidades de transición, la
matriz identidad
,"" − 1 ,"#
@−u =k l
1 −1
Tomando los adjuntos de la segunda columna se obtiene el vector propio
n = [−1 ,"" − 1]
91
−1 ,"" − 1
i = [i" i# ] = s t
,"" − 2 ,"" − 2
Sacando(−1) como factor común y simplificando la expresión
1 1 − ,""
i=s t
2 − ,"" 2 − ,""
b) Para calcular v8 se podría multiplicarv1 · @8 pero resultaría engorroso. Para aliviar y simplificar los
cálculos, es conveniente aplicar ciertas propiedades. Como se sabe que 0 < ,# < 1 entonces la matriz
es regular. De este modo, se asegura que el vector de punto fijo existe y es único.
1 − ,# ,#
[i" i# ] · s t = [i" i# ]
1 − ,# ,#
Después de operar, se obtiene vector de punto fijo
i = [1 − ,# ,# ]
En consecuencia, es evidente que la matriz está compuesta por el vector de punto fijo. Esto significa que
la matriz dada es a la matriz de largo plazo. Recordando la definición 7, el producto entre el vector de
estado correspondiente al momento S ≥ 0yla matriz de largo plazo es igual al vector de punto fijo
v0 · lim @( = i
(→5
i" i#
i i# ]
v0 · ki
" i# l = [ "
1 − ,# ,#
[5⁄13 5⁄13] · s t = [1 − ,# ,# ]
1 − ,# ,#
v8 = [1 − ,# ,# ]
Ejercicio II.
a) Para que la matriz@ sea considerada estocástica, todos sus elementos deben ser 0 ≤ ,%& ≤ 1 y la
sumatoria de los elementos de cada vector fila debe ser igual a 1.
De este modo, para hallar los valores de a y bse plantea un sistema de ecuaciones
0.5 + 0.2 + a = 1
p 0.8 + 0.1 + b = 1
a+b + b + 0.5 = 1
De la primera ecuación
a = 1 − 0.5 − 0.2
a = 0.3
De la segunda
b = 1 − 0.8 − 0.1
b = 0.1
92
De la tercera
a + 2b =1 − 0.5
Reemplazando los valores obtenidos anteriormente, se halla que la solución a = 0.3 y b = 0.1 satisface
simultáneamente las 3 ecuaciones.
0.5 · 0.5 + 0.2 · 0.8 + 0.3 · 0.4 0.5 · 0.2 + 0.2 · 0.1 + 0.3 · 0.1 0.5 · 0.3 + 0.2 · 0.1 + 0.3 · 0.5
= A0.8 · 0.5 + 0.1 · 0.8 + 0.1 · 0.4 0.8 · 0.2 + 0.1 · 0.1 + 0.1 · 0.1 0.8 · 0.3 + 0.1 · 0.1 + 0.1 · 0.5D
0.4 · 0.5 + 0.1 · 0.8 + 0.5 · 0.4 0.4 · 0.2 + 0.1 · 0.1 + 0.5 · 0.1 0.4 · 0.3 + 0.1 · 0.1 + 0.5 · 0.5
0.53 0.15 0.32
@# = A0.52 0.18 0.3 D
0.48 0.14 0.38
0.53 0.15 0.32
v# = [1 0 0] · A0.52 0.18 0.3 D = [0.53 0.15 0.32]
0.48 0.14 0.38
93
Despejandoi" de la cuarta ecuación y reemplazándolo en las dos primeras, se logra reducir el sistema a
tres ecuaciones
i2 = 2 − 11 · i# (2)
Reemplazando (2) en (1) y resolviendo
13
i# = = 0.1512(3)
86
Sustituyendo(3) en (2)
13
i2 = 2 − 11 ·
86
29
i2 = = 0.3372
86
Finalmente, para hallar i"
13 29
i" = 1 − i# − i2 = 1 − −
86 86
44
i" = = 0.5116
86
Ejercicio III.
a) Debido a que todos los elementos de la matriz @ son no nulos para + = 1, entonces la cadena de
Markov es regular.
b) Inicialmente el individuo pertenece a la clase baja y se pretende calcular la probabilidad de que éste
ascienda a clase media luego de 2 períodos. El problema se puede ilustrar de la siguiente manera:
94
Gráfico 4
De modo que, para hallar la probabilidad de movilidad social ascendente se debe resolver
(#)
,:; = ,:: · ,:; + ,:; · ,;; + ,:< · ,<;
(#)
,:; = 0.6 · 0.35 + 0.35 · 0.5 + 0.05 · 0.4
(#)
,:; = 0.405 ⇒ 40.5%
c) De acuerdo a los datos del enunciado, en " = 0 un 35% de la población pertenece a la clase baja, un
45% a la clase media y un 20% a la clase alta. De esta manera, se define el vector de estado inicial
v1 = [0.35 0.45 0.2]
Para hallar la distribución de la sociedad en " = 2, se plantea
v2 = v1 · @#
95
0.6 0.35 0.05
[i: i; i< ] · A0.36 0.5 0.14D = [i: i; i< ]
0.05 0.4 0.55
Sabiendo que la sumatoria de los elementos del vector de punto fijo debe ser igual a la unidad, y
expresándolo como un sistema de ecuaciones:
i: · 0.6 + i; · 0.36 + i< · 0.05 = i:
i · 0.35 + i; · 0.5 + i< · 0.14 = i;
Ñ :
i: · 0.05 + i; · 0.14 + i< · 0.55 = i<
i: + i; + i< = 1
Luego de reducir el sistema a 3 ecuaciones y operar algebraicamente, se obtiene la solución
Interpretando el resultado se puede afirmar que a largo plazo el 35% de la población se ubicará en la clase
baja, un 47% en la clase media y un 18% en la clase alta.
En este caso particular, como el proceso consta de 3 estados: # = 3. Además, se sabe que inicia en el
estado 1 y se pretende llegar al estado 3, entonces- = 1 y 3 = 3
2
(#)
,"2 = J ,"0 · ,02
0*"
(#)
,"2 = ,"" · ,"2 + ,"# · ,#2 + ,"2 · ,22
La ecuación de Chapman-Kolmogorov también puede pensarse en términos gráficos utilizando el
diagrama de árbol
96
Gráfico 5
Cada nodo representa los estados del proceso y las ramas indican las posibles transiciones que se pueden
efectuar de un estado a otro. Cada término de la ecuación es la multiplicación de los elementos de cada
rama. Luego, se suman los productos y se obtiene la probabilidad de transición de dos pasos.
97
BIBLIOGRAFÍA
BARTHOLOMEW, D. (1973). Stochastic Models for Social Processes. Segunda edición. John Wiley & Sons.
BERNARDELLO, A., BIANCO, M., CASPARRI, M., GARCÍA FRONTI, J., OLIVERA DE MARZANA, S. (2010).
Matemática para economistas con Excel y Matlab. Editorial Omicron.
CHIANG A. C. (2006). Métodos Fundamentales de Economía Matemática. Cuarta edición. Ed Mcgraw-Hill
CHING, W. & NG, M. (2006). Markov Chains. Models, Algorithms and Applications. Segunda edición.
Springer Science.
GRINSTEAD, C. & SNELL, J. (2003). Introduction to Probability. Segunda edición. American Mathematical
Society.
HILLIER, F. & LIEBERMAN, G. (2010). Introducción a la Investigación de Operaciones. Novena edición. Ed
Mcgraw-Hill.
KEMENY, J. & SNELL, J. (1960). Finite Markov Chains. Van Nostrand.
LUENBERGER, D. (1979). Introduction to Dynamic Systems. Theory models and Applications. John Wiley &
Sons.
98