Cap
tulo 4
El proceso de Poisson
Estudiaremos en ste y en el siguiente cap
e
tulo el modelo de cadena de Markov a
tiempo continuo. Como una introduccin a la teor general que se expondr ms
o
a
a a
adelante, en el presente cap
tulo estudiaremos uno de los ejemplos ms importantes
a
de este tipo de modelos: el proceso de Poisson. Deniremos este proceso de varias
formas equivalentes, y estudiaremos algunas de sus propiedades y generalizaciones.
El proceso de Poisson es un modelo relevante tanto en las aplicaciones como en la
teor general de los procesos estocsticos.
a
a
4.1.
Proceso de Poisson
Suponga que un cierto evento ocurre repetidas veces de manera aleatoria a lo largo
del tiempo como se muestra en la Figu0
ra 4.1. Tal evento puede ser por ejemplo
la llegada de una reclamacin a una como
Figura 4.1:
pa aseguradora, o la recepcin de una
na
o
llamada a un conmutador, o la llegada de un cliente a una ventanilla para solicitar
alg n servicio, o los momentos en que una cierta maquinaria requiere reparacin,
u
o
etctera. Suponga que las variables aleatorias T1 , T2 . . . representan los tiempos
e
que transcurren entre una ocurrencia del evento y la siguiente ocurrencia. Suponga
que estos tiempos son independientes uno del otro, y que cada uno de ellos tiene
distribucin exp(). Se dene el proceso de Poisson al tiempo t como el n mero
o
u
97
98
4.1. Proceso de Poisson
de ocurrencias del evento que se han observado hasta ese instante t. Esta es una
denicin constructiva de este proceso y la formalizaremos a continuacin. Ms
o
o
a
adelante enunciaremos otras deniciones axiomticas equivalentes de este mismo
a
proceso.
Denicin. (I) Sea T1 , T2 , . . . una sucesin de variables aleatorias indepeno
o
dientes cada una con distribucin exp(). El proceso de Poisson de parmetro
o
a
es el proceso a tiempo continuo {Xt : t 0} denido de la siguiente manera:
Xt = mx {n 1 : T1 + + Tn t}.
a
Se postula adems que el proceso inicia en cero y para ello se dene mx = 0.
a
a
En palabras, la variable Xt es el entero n mximo tal que T1 + + Tn es menor o
a
igual a t, y ello equivale a contar el n mero de eventos ocurridos hasta el tiempo t.
u
A este proceso se le llama proceso de Poisson homogneo, tal adjetivo se reere a
e
que el parmetro no cambia con el tiempo, es decir, es homogneo en el tiempo.
a
e
Una trayectoria t
pica de este proceXt ()
so puede observarse en la Figura 4.2,
la cual es no decreciente, constante 3
por pedazos, continua por la derecha
y con l
mite por la izquierda. A los 2
tiempos T1 , T2 , . . . se les llama tiem- 1
pos de estancia, o tiempos de interarribo, y corresponden a los tiempos
t
W1
W2
W3
que transcurren entre un salto del
0
proceso y el siguiente salto. Hemos
T1
T2
T3
T4
supuesto que estos tiempos son independientes y que todos tienen disFigura 4.2:
tribucin exp(). En consecuencia, la
o
variable Wn = T1 + + Tn tiene distribucin gama(n, ). Esta variable representa el tiempo real en el que se observa la
o
ocurrencia del n-simo evento. Observe la igualdad de eventos (Xt n) = (Wn
e
t), esto equivale a decir que al tiempo t han ocurrido por lo menos n eventos si, y
slo si, el n-simo evento ocurri antes de t.
o
e
o
Una de las caracter
sticas sobresalientes de este proceso es que puede encontrarse
Cap
tulo 4. El proceso de Poisson
99
expl
citamente la distribucin de probabilidad de la variable Xt para cualquier
o
valor de t. La respuesta es la distribucin Poisson, y es de all de donde el proceso
o
adquiere su nombre.
Proposicin. La variable Xt tiene distribucin Poisson(t), es decir, para
o
o
cualquier t > 0, y para n = 0, 1, . . .
P (Xt = n) = et
(t)n
.
n!
Demostracin. Como Wn tiene distribucin gama(n, ), su funcin de distribucin
o
o
o
o
es, para t > 0,
n1
(t)k
t
P (Wn t) = 1 e
.
k!
k=0
Entonces para cualquier t > 0 y para cada n = 0, 1, . . .
P (Xt = n)
= P (Xt n) P (Xt n + 1)
= P (Wn t) P (Wn+1 t)
= et
(t)k
.
k!
Entonces, dado que Xt tiene una distribucin Poisson(t), se tiene que E(Xt ) =
o
t, y Var(Xt ) = t. Por lo tanto t es el promedio de observaciones o registros
del evento de inters en el intervalo [0, t]. As mientras mayor es la longitud del
e
,
intervalo de observacin, mayor es el promedio de observaciones realizadas, y mayor
o
tambin la incertidumbre del n mero de observaciones.
e
u
Prdida de memoria y sus consecuencias. Una de las propiedades que cae
racterizan de manera unica a la distribucin exponencial dentro del conjunto de
o
distribuciones continuas es que satisface la propiedad de prdida de memoria, esto
e
es, si T tiene distribucin exp(), entonces para cualesquiera tiempos s, t > 0 se
o
cumple la igualdad
P (T > t + s | T > s) = P (T > t).
100
4.1. Proceso de Poisson
En otras palabras, condicionada al evento (T > s), la variable T s sigue teniendo
distribucin exp(). Esto signica que el proceso de Poisson puede estudiarse a
o
partir de cualquier tiempo s 0, teniendo las mismas propiedades a partir de ese
momento hacia adelante. Esto es, si uno toma cualquier tiempo s 0 y empieza a
contar desde cero las ocurrencias de eventos a partir de ese momento, lo que uno
obtiene es nuevamente un proceso de Poisson. Entonces, para cualquier t > 0 y
para n = 0, 1, . . .
P (Xt+s Xs = n) = P (Xt = n) = et
(t)n
.
n!
(4.1)
Esta propiedad caracteriza de manera unica a este proceso y de ella pueden derivar
se todas las propiedades del Proceso de Poisson, incluida la propiedad de Markov,
la cual demostraremos a continuacin.
o
Proposicin. El proceso de Poisson satisface las siguientes propiedades.
o
a) Es un proceso de Markov.
b) Tiene incrementos independientes.
c) Tiene incrementos estacionarios.
d) Para cualesquiera s, t > 0, Xt+s Xs Poisson(t).
e) Para cualesquiera s, t 0, y enteros 0 i j, las probabilidades de
transicin son
o
(t)ji
P (Xt+s = j | Xs = i) = et
.
(4.2)
(j i)!
Demostracin.
o
a) Considere la probabilidad condicional P (Xtn = xn | Xt1 = x1 , . . . , Xtn1 =
xn1 ), para cualesquiera n tiempos 0 t1 t2 tn , y estados 0 x1
. . . xn . Entonces al tiempo tn1 ha habido xn1 ocurrencias del evento de inters.
e
A partir de ese momento inicia un nuevo proceso de Poisson y para que al tiempo
tn hayan xn ocurrencias es necesario que en el intervalo de tiempo (tn1 , tn ] hayan
ocurrido xn xn1 eventos. Esto es exactamente P (Xtn = xn | Xtn1 = xn1 ).
b) Considere cualesquiera n tiempos 0 t1 t2 tn , y cualesquiera estados
x1 , . . . , xn . Por comodidad llamaremos sn a la suma x1 + + xn , para cada n 1.
Cap
tulo 4. El proceso de Poisson
101
Por la propiedad de Markov y por (4.1),
P (Xt1 = x1 , Xt2 Xt1 = x2 , . . . , Xtn Xtn1 = xn )
= P (Xt1 = s1 , Xt2 = s2 , . . . , Xtn = sn )
= P (Xt1 = s1 ) P (Xt2 = s2 | Xt1 = s1 )
P (Xtn = sn | Xtn1 = sn1 )
= P (Xt1 = x1 ) P (Xt2 Xt1 = x2 ) P (Xtn Xtn1 = xn ).
Las propiedades c), d) y e) son consecuencia inmediata de (4.1).
La expresin (4.2) establece de manera evidente que las probabilidades de transicin
o
o
son estacionarias en el tiempo, es decir, no dependen del parmetro s, y se escriben
a
simplemente como pij (t). Pero tambin es interesante observar que (4.2) dice que
e
estas probabilidades son estacionarias en el espacio, es decir, dependen de los estados i y j unicamente a travs de la diferencia j i. En s
e
mbolos, pij (t) = p0,ji (t),
para j i.
Ejemplo. (Paradoja del autob s). Suponga que la llegada de autobuses a una estau
cin se modela mediante un proceso de Poisson de parmetro , es decir, el tiempo
o
a
que transcurre entre la llegada de un autob s y el siguiente es una variable aleau
toria con distribucin exp(). Suponga que el tiempo es medido en minutos. La
o
propiedad de prdida de memoria en este contexto puede interpretarse de la sie
guiente forma: Un persona ha llegado a la estacin y ha esperado s minutos sin que
o
un autob s aparezca. La probabilidad de que tenga que esperar ms de t minutos
u
a
adicionales es la misma que la probabilidad de espera de ms de t minutos para
a
una persona que acaba de llegar a la estacin!
o
Ejemplo. Sean {Xt } y {Yt } dos procesos de Poisson independientes de parmetros
a
1 y 2 respectivamente. Demostraremos que el proceso suma {Xt + Yt } es un
proceso de Poisson de parmetro 1 + 2 . Denotaremos por T1 , T2 , . . . a los tiempos
a
de interarribo del proceso suma. La forma en la que se obtienen estos tiempos
se muestra en la Figura 4.3. Demostraremos que estas variables aleatorias son
independientes con idntica distribucin exp(1 + 2 ).
e
o
Para cualesquiera tiempos t1 , . . . , tn , el evento
(T1 > t1 , T2 > t2 , . . . , Tn > tn )
102
4.1. Proceso de Poisson
Xt
Yt
Xt + Yt
Figura 4.3:
puede expresarse como
((X + Y )[0,t1 ] = 0, (X + Y )[T1 ,T1 +t2 ] = 0, . . . , (X + Y )[Tn1 ,Tn1 +tn ] = 0),
esto es,
(X[0,t1 ] = 0) (Y[0,t1 ] = 0)
(X[T1 ,T1 +t2 ] = 0) (Y[T1 ,T1 +t2 ] = 0)
(X[Tn1 ,Tn1 +tn ] = 0) (Y[Tn1 ,Tn1 +tn ] = 0).
Por la independencia de los procesos y la propiedad de incrementos independientes
de cada uno de ellos, la probabilidad de este evento es
P (X[0,t1 ] = 0) P (Y[0,t1 ] = 0)
P (X[T1 ,T1 +t2 ] = 0) P (Y[T1 ,T1 +t2 ] = 0)
P (X[Tn1 ,Tn1 +tn ] = 0) P (Y[Tn1 ,Tn1 +tn ] = 0).
Por lo tanto,
P (T1 > t1 , T2 > t2 , . . . , Tn > tn ) = e(1 +2 )t1 e(1 +2 )t2 e(1 +2 )tn .
Esta identidad demuestra que las variables T1 , T2 , . . . , Tn son independientes con
idntica distribucin exp(1 + 2 ).
e
o
Distribuciones asociadas al proceso de Poisson. Adems de las distribuciones
a
exponencial y gama ya mencionadas, existen otras distribuciones de probabilidad
que surgen al estudiar ciertas caracter
sticas del proceso de Poisson. Mencionaremos
a continuacin algunas de ellas.
o
Cap
tulo 4. El proceso de Poisson
103
Proposicin. Dado el evento (Xt = n), el vector de tiempos reales
o
(W1 , . . . , Wn ) tiene la misma distribucin que el vector de las estad
o
sticas de
orden (Y(1) , . . . , Y(n) ) de una muestra aleatoria Y1 , . . . , Yn de la distribucin
o
uniforme en el intervalo [0, t], es decir,
n! si 0 < w1 < < wn < t,
tn
fW1 ,...,Wn |Xt (w1 , . . . , wn | n) =
0
otro caso.
Demostracin. La frmula general para la funcin de densidad conjunta de las
o
o
o
estad
sticas de orden Y(1) , . . . , Y(n) de una muestra aleatoria Y1 , . . . , Yn de una
distribucin con funcin de densidad f (y) es, para y1 < < yn ,
o
o
fY(1) ,...,Y(n) (y1 , . . . , yn ) = n! f (y1 ) f (yn ).
Cuando la funcin de densidad f (y) es la uniforme en el intervalo [0, t], esta funcin
o
o
de densidad conjunta es la que aparece en el enunciado. Demostraremos que la
distribucin conjunta de las variables W1 , . . . , Wn , condicionada al evento (Xt = n)
o
tambin tiene esta misma funcin de densidad. Usaremos nuevamente la identidad
e
o
de eventos (Xt n) = (Wn t). Para tiempos 0 < w1 < < wn < t, se tiene
que
fW1 ,...,Wn |Xt (w1 , . . . , wn | n)
n
=
P (W1 w1 , W2 w2 , . . . , Wn wn | Xt = n)
w1 wn
n
=
P (Xw1 1, Xw2 2, . . . , Xwn n | Xt = n)
w1 wn
n
=
P (Xt Xwn = 0, Xwn Xwn1 = 1, . . .
w1 wn
. . . , Xw2 Xw1 = 1, Xw1 = 1)/P (Xt = n)
n
=
e(twn ) e(wn wn1 ) (wn wn1 )
w1 wn
e(w2 w1 ) (w2 w1 ) ew1 w1 /[ et (t)n /n! ]
n
=
n! (wn wn1 ) (w2 w1 )w1 /tn
w1 wn
= n!/tn .
104
4.1. Proceso de Poisson
Observe que bajo el signo de derivada, la probabilidad del evento (Xw1 1, Xw2
2, . . . , Xwn n, Xt = n), que aparece en la segunda igualdad, es idntica a la
e
probabilidad de (Xt Xwn = 0, Xwn Xwn1 = 1, . . . , Xw2 Xw1 = 1, Xw1 = 1),
pues si alguna de estas identidades (exceptuando la primera) fuera distinta de uno,
la derivada se anula.
La frmula anterior nos provee de un mecanismo para obtener simulaciones por
o
computadora de las trayectorias del proceso Poisson. El procedimiento es el siguiente: Fije un valor t y asigne un valor para . Genere un valor al azar de la
variable Xt con distribucin Poisson(t). Suponga Xt = n. A continuacin genere
o
o
n valores u1 , . . . , un de la distribucin unif(0, t), y ordene estos valores de menor
o
a mayor: u(1) u(n) . Estos son los tiempos en donde la trayectoria tiene
saltos. De esta forma pueden obtenerse trayectorias como la que se muestra en la
Figura 4.2.
El siguiente resultado establece una forma de obtener la distribucin binomial a
o
partir del proceso de Poisson. Suponga que durante el intervalo de tiempo [0, t] se
han observado n ocurrencias del evento de inters, es decir, el evento (Xt = n) ha
e
ocurrido. La pregunta es cuntos de estos eventos ocurrieron en el subintervalo
a
[0, s]? Demostraremos a continuacin que esta variable aleatoria tiene distribucin
o
o
binomial(n, s/t).
Proposicin. Sean s y t tiempos tales que 0 < s < t, y sean k y n enteros
o
tales que 0 k n. Entonces
P (Xs = k | Xt = n) =
n s k
s
( ) (1 )nk .
k
t
t
Demostracin. Por la propiedad de incrementos independientes,
o
P (Xu = k | Xt = n) =
=
=
=
P (Xu = k, Xt = n)/P (Xt = n)
P (Xu = k, Xt Xu = n k)/P (Xt = n)
P (Xu = k)P (Xt Xu = n k)/P (Xt = n)
P (Xu = k)P (Xtu = n k)/P (Xt = n).
Substituyendo estas probabilidades y simplicando se obtiene el resultado.
Cap
tulo 4. El proceso de Poisson
105
Recordando que la suma de dos procesos de Poisson independientes es nuevamente
un proceso de Poisson, se puede comprobar fcilmente el siguiente resultado.
a
Proposicin. Sean X1 (t) y X2 (t) dos procesos de Poisson independientes con
o
parmetros 1 y 2 respectivamente, y sean k y n enteros tales que 0 k n.
a
Entonces
P (X1 (t) = k | X1 (t) + X2 (t) = n) =
1
n
1
)k (1
)nk .
(
1 + 2
k 1 + 2
Demostracin. Por la hiptesis de independencia entre los procesos,
o
o
P (X1 (t) = k | X1 (t) + X2 (t) = n)
= P (X1 (t) = k, X1 (t) + X2 (t) = n)/P (X1 (t) + X2 (t) = n)
=
=
P (X1 (t) = k, X2 (t) = n k)/P (X1 (t) + X2 (t) = n)
P (X1 (t) = k) P (X2 (t) = n k)/P (X1 (t) + X2 (t) = n).
Substituyendo estas probabilidades se obtiene el resultado.
4.2.
Deniciones alternativas
La denicin (I) de proceso de Poisson es constructiva pues a partir de los tiempos
o
de interarribo se construye el proceso de conteo correspondiente. Existen otras
formas equivalentes y un tanto axiomticas de denir a este proceso. Revisaremos
a
y comentaremos a continuacin dos de ellas. Una de las ventajas de contar con
o
estas deniciones alternativas es que para demostrar que un cierto proceso es de
Poisson se puede tomar cualquiera de las deniciones a conveniencia.
106
4.2. Definiciones alternativas
Denicin. (II) Un proceso de Poisson de parmetro > 0 es un proceso a
o
a
tiempo continuo {Xt : t 0}, con espacio de estados {0, 1, . . .}, y que cumple
las siguientes propiedades:
a) X0 = 0.
b) Tiene incrementos independientes y estacionarios.
c) Para cualquier t 0, y cuando h 0,
i) P (Xt+h Xt 1) = h + o(h).
ii) P (Xt+h Xt 2) = o(h).
Esta denicin hace uso de las probabilidades innitesimales del proceso y ello tiene
o
algunas ventajas desde el punto de vista de la interpretacin de lo que sucede en
o
un intervalo innitesimal de tiempo (t, t + h]. El proceso empieza en cero y por el
tercer postulado la probabilidad de que pase al estado uno al nal de un intervalo
de tiempo peque o [0, h] es h + o(h), la probabilidad de que el proceso no sufra
n
ning n cambio en dicho intervalo es 1 h + o(h), y nalmente la probabilidad de
u
que el proceso tenga dos o ms incrementos en tal intervalo es o(h). Es decir, en un
a
intervalo cualquiera de longitud innitesimal h slo pueden ocurrir dos situaciones:
o
que haya un incremento o que no lo haya.
Ejemplo. (Demostracin de que la variable Xt+s Xs tiene distribucin Poisson(t)
o
o
a partir de los postulados de la denicin (II)). Se dene pn (t) = P (Xt = n)
o
y se considera cualquier h > 0. Denotaremos por pn (t, t + h] a la probabilidad
P (Xt+h Xt = n). Por la hiptesis de independencia, para t 0 y cuando h 0,
o
p0 (t + h) =
=
p0 (t) p0 (t, t + h]
p0 (t) (1 h + o(h)).
Haciendo h 0 se obtiene la ecuacin diferencial p0 (t) = p0 (t), cuya solucin
o
o
es p0 (t) = c et , en donde la constante c es uno por la condicin inicial p0 (0) = 1.
o
Ahora encontraremos pn (t) para n 1. Nuevamente por independencia,
pn (t + h)
= pn (t) p0 (t, t + h] + pn1 (t) p1 (t, t + h] + o(h)
= pn (t) (1 h + o(h)) + pn1 (t) (h + o(h)) + o(h).
Entonces pn (t) = pn (t) + pn1 (t), con condicin inicial pn (0) = 0 para
o
n 1. Deniendo qn (t) = et pn (t) la ecuacin diferencial se transforma en qn (t) =
o
Cap
tulo 4. El proceso de Poisson
107
qn1 (t), con condiciones qn (0) = 0 y q0 (t) = 1. Esta ecuacin se resuelve iterao
tivamente primero para q1 (t), despus para q2 (t), y as sucesivamente, en general
e
qn (t) = (t)n /n! Por lo tanto pn (t) = et (t)n /n! Esto signica que Xt tiene
distribucin Poisson(t). Debido al postulado de incrementos estacionarios, la vao
riable Xt+s Xs tiene la misma distribucin que Xt .
o
Denicin. (III) Un proceso de Poisson de parmetro > 0 es un proceso a
o
a
tiempo continuo {Xt : t 0} con espacio de estados {0, 1, . . .}, con trayectorias
no decrecientes y que cumple las siguientes propiedades:
a) X0 = 0.
b) Tiene incrementos independientes.
c) Xt+s Xs Poisson(t), para cualesquiera s 0, t > 0.
Esta es posiblemente la denicin mas frecuente del proceso de Poisson. A partir de
o
ella inmediatamente sabemos que Xt tiene distribucin Poisson(t). La indepeno
dencia de los incrementos es expl
cita, y la estacionariedad de los mismos aparece
de manera impl
cita en el tercer postulado. Para demostrar la equivalencia con la
denicin (I), el reto consiste en denir los tiempos de interarribo y demostrar que
o
stos son variables aleatorias independientes con distribucin exponencial().
e
o
Ejercicio. Usando la denicin (III), demuestre que la suma de dos procesos de
o
Poisson independientes es nuevamente un proceso Poisson.
Proposicin. Las deniciones (I), (II) y (III) son equivalentes.
o
Demostracin. Hemos demostrado que (II) (III). El rec
o
proco es inmediato
pues la propiedad de incrementos independientes y estacionarios aparecen en ambas
deniciones, y para cualquier t 0 y h > 0,
P (Xt+h Xt 1) =
=
=
=
1 P (Xt+h Xt = 0)
1 eh
1 (1 h + o(h))
h + o(h).
108
4.2. Definiciones alternativas
Anlogamente
a
P (Xt+h Xt 2) =
=
=
=
1 P (Xt+h Xt = 0) P (Xt+h Xt = 1)
1 eh eh h
1 (1 h + o(h)) (h + o(h))
o(h).
Estos clculos y lo desarrollado antes demuestran que (II) (III). Tambin antes
a
e
hemos demostrado que (I) (III). Para demostrar el rec
proco es necesario comprobar que los tiempos de interarribo T1 , T2 , . . . son independientes con distribucin
o
exp(). Daremos una demostracin no completamente rigurosa de este resultado.
o
Sean t1 , . . . , tn > 0 tiempos cualesquiera y sean t1 , . . . , tn las longitudes que se
muestran en la Figura 4.4.
t1
t1
t2
t2
tn
tn
Figura 4.4:
La probabilidad de que T1 tome un valor en el intervalo t1 , T2 tome un valor en
el intervalo t2 , etctera, es
e
fT1 ,...,Tn (t1 , . . . , tn )t1 tn
=
=
(et1 et1 t1 ) (et2 et2 t2 ) (etn etn tn )
et1 et2 etn t1 tn e(t1 ++tn )
Al hacer t1 , . . . , tn 0 se obtiene
fT1 ,...,Tn (t1 , . . . , tn ) = et1 et2 etn .
Esto demuestra que las variables T1 , . . . , Tn son independientes y cada una de ellas
tiene distribucin exp(). En conjunto esto demuestra que (I) (III) (II).
o
Observe que la pregunta acerca de la existencia de un proceso estocstico que
a
cumpla los postulados de la denicin (II) o (III) queda resuelta al vericar la
o
equivalencia de tales postulados con la denicin constructiva (I).
o
Presentaremos a continuacin algunas generalizaciones del proceso de Poisson. Una
o
de tales generalizaciones que estudiaremos con mayor detalle en un cap
tulo ms
a
Cap
tulo 4. El proceso de Poisson
109
adelante es aquella en la que se considera que las variables T1 , T2 , . . . no son necesariamente exponenciales, en tal caso se pierde la propiedad de Markov del proceso.
A este tipo de procesos se les llama procesos de renovacin.
o
4.3.
Proceso de Poisson no homogneo
e
Se considera ahora que el parmetro del proceso de Poisson no es necesariamente
a
una constante sino una funcin del tiempo. A veces a este proceso se le llama
o
tambin proceso de Poisson con parmetro dependiente del tiempo. Este modelo
e
a
puede ser naturalmente ms adecuado para algunas situaciones reales aunque deja
a
de cumplir la propiedad de Markov.
Denicin. Un proceso de Poisson no homogneo es un proceso a tiempo cono
e
tinuo {Xt : t 0}, con espacio de estados {0, 1, . . .}, con parmetro la funcin
a
o
positiva y localmente integrable (t), y que cumple las siguientes propiedades:
a) X0 = 0.
b) Los incrementos son independientes.
c) Para cualquier t 0, y cuando h 0,
i) P (Xt+h Xt 1) = (t) h + o(h).
ii) P (Xt+h Xt 2) = o(h).
Comparando esta denicin con la denicin (II) de proceso de Poisson se observa
o
o
mucha similaridad excepto por dos aspectos: En lugar de la constante se escribe
ahora la funcin (t), y la hiptesis de incrementos estacionarios ya no aparece. Ello
o
o
es consecuencia de que el parmetro var con el tiempo, generalmente de manera
a
a
decreciente. Es decir, la distribucin de probabilidad de la variable incremento
o
Xt+s Xs depende de los valores de la funcin en el intervalo (s, s + t]. Sin
o
embargo, y en completa analog con el caso homogneo, la variable Xt contin a
a
e
u
teniendo distribucin Poisson como a continuacin demostraremos.
o
o
110
4.3. Proceso de Poisson no homogneo
e
Proposicin. La variable Xt en un proceso de Poisson no homogneo de
o
e
t
parmetro (t) tiene distribucin Poisson((t)), en donde (t) = 0 (s) ds,
a
o
es decir, para n = 0, 1, . . .
P (Xt = n) = e(t)
[(t)]n
.
n!
Demostracin. La prueba es anloga a una de las realizadas en el caso homogneo.
o
a
e
Se dene nuevamente pn (t) = P (Xt = n) y se considera cualquier h > 0. Denotaremos por pn (t, t + h] a la probabilidad P (Xt+h Xt = n). Por la hiptesis de
o
independencia, para t 0 y cuando h 0,
p0 (t + h) = p0 (t) p0 (t, t + h]
= p0 (t) (1 (t)h + o(h)).
Calculando la derivada se obtiene la ecuacin diferencial p0 (t) = (t) p0 (t), cuya
o
solucin es p0 (t) = c e(t) , en donde la constante c es uno debido a la condio
cin inicial p0 (0) = 1. Ahora encontraremos pn (t) para n 1. Nuevamente por
o
independencia,
pn (t + h) =
=
pn (t) p0 (t, t + h] + pn1 (t) p1 (t, t + h] + o(h)
pn (t) (1 (t)h + o(h)) + pn1 (t) ((t)h + o(h)) + o(h).
Entonces pn (t) = (t) pn (t) + (t) pn1 (t), con condicin inicial pn (0) = 0 pao
ra n 1. Deniendo qn (t) = e(t) pn (t) la ecuacin diferencial se transforma en
o
qn (t) = (t) qn1 (t), con condiciones qn (0) = 0 y q0 (t) = 1. Esta ecuacin se reo
suelve iterativamente primero para q1 (t), despus para q2 (t), y as sucesivamente,
e
en general qn (t) = ((t))n /n! y de aqu se obtiene pn (t).
Las trayectorias de un proceso de Poisson no homogneo son semejantes a las
e
trayectorias de un proceso de Poisson, es decir, son trayectorias no decrecientes y
con saltos unitarios hacia arriba, pero la frecuencia promedio con la que aparecen
los saltos cambia a lo largo del tiempo. De manera anloga al caso homogneo, los
a
e
incrementos de este proceso tambin tienen distribucin Poisson.
e
o
Proposicin. Xt+s Xs tiene distribucin Poisson((t + s) (s)).
o
o
Cap
tulo 4. El proceso de Poisson
111
Demostracin. Se escribe Xt+s = Xs + (Xt+s Xs ), en donde, por el axioma de
o
incrementos independientes, en el lado derecho aparece la suma de dos variables
aleatorias independientes. Recordando que la funcin generadora de momentos de
o
la distribucin Poisson() es M (r) = exp [(er 1)], al aplicar este resultado a la
o
ecuacin anterior se obtiene
o
exp [(t + s) (er 1)] = exp [(s) (er 1)] MXt+s Xs (r).
Por lo tanto MXt+s Xs (r) = exp [((t + s) (s)) (er 1)].
Si la funcin (t) es constante igual a , entonces (t) = t, y se recupera el
o
proceso de Poisson homogneo. Cuando (t) es continua, (t) es diferenciable y
e
por lo tanto (t) = (t). A la funcin (t) se le llama funcin de intensidad y a (t)
o
o
se le conoce como funcin de valor medio. Un proceso de Poisson no homogneo
o
e
en donde {(t) : t 0} es un proceso estocstico se le llama proceso de Cox.
a
El siguiente resultado establece que bajo una transformacin del parmetro tiempo,
o
a
un proceso de Poisson no homogneo puede ser llevado a un proceso de Poisson
e
homogneo de parmetro uno. Antes de demostrar este resultado observemos que
e
a
como la funcin t (t) es positiva, la funcin de intensidad (t) es continua y no
o
o
decreciente, y en general no es invertible. Puede denirse, sin embargo, la inversa
por la derecha
1 (t) =
nf{u 0 : (u) = t},
que cumple la identidad (1 (t)) = t, y que es una funcin continua y creciente.
o
Proposicin. Sea {Xt } un proceso de Poisson no homogneo de parmetro
o
e
a
t
(t), y funcin de intensidad (t) = 0 (s) ds. Dena la funcin
o
o
1 (t) = nf{u 0 : (u) = t}.
Entonces el proceso {X1 (t) } es un proceso de Poisson homogneo de parmee
a
tro = 1.
Demostracin. Usaremos la denicin (III) de proceso de Poisson. El proceso X1 (t)
o
o
empieza en cero y tiene incrementos independientes pues si se consideran cualesquiera tiempos 0 t1 < t2 < < tn , bajo la funcin creciente 1 (t) estos
o
tiempos se transforman en una nueva coleccin montona de tiempos
o
o
0 1 (t1 ) < 1 (t2 ) < < 1 (tn ).
112
4.4. Proceso de Poisson compuesto
Por lo tanto las variables X1 (t1 ) , X1 (t2 ) X1 (t1 ) ,. . ., X1 (tn ) X1 (tn1 )
son independientes. Finalmente, para cualesquiera tiempos s, t 0 el incremento X1 (t+s) X1 (s) tiene distribucin Poisson de parmetro (1 (t + s))
o
a
(1 (s)) = (t + s) s = t.
Pueden denirse los tiempos de interarribo T1 , T2 , . . ., y los tiempos de saltos
W1 , W2 , . . . para un proceso de Poisson no homogneo de manera anloga al caso
e
a
homogneo. Por hiptesis los incrementos de este procesos son independientes, sin
e
o
embargo, debido a que el parmetro (t) es una funcin del tiempo, los tiempos
a
o
de interarribo T1 , T2 , . . . no son independientes pues, por ejemplo, T2 depende de
(t) para valores de t mayores a T1 . Y por las mismas razones las distribuciones de
estas variables no son idnticas.
e
4.4.
Proceso de Poisson compuesto
Esta es una de las generalizaciones del proceso de Poisson ms conocidas y de
a
amplia aplicacin.
o
Denicin. Sea {Nt } un proceso de Poisson y sea Y1 , Y2 , . . . una sucesin de
o
o
variables aleatorias independientes, idnticamente distribuidas e independientes
e
del proceso Poisson. Sea Y0 = 0. El proceso de Poisson compuesto se dene de
la siguiente forma:
Nt
Xt =
Yn .
n=0
La variable Xt es una suma de variables aleatorias en donde el n mero de suu
mandos es aleatorio. Tal tipo de modelos encuentra aplicacin natural en distino
tos contextos, por ejemplo, la variable Xt
puede interpretarse como el monto total
de reclamaciones recibidas por una compa aseguradora al tiempo t. El proceso
na
de Poisson determina el n mero de siniesu
tros o reclamaciones efectuadas hasta un
Xt ()
Y3
Y2
Y1
t
Figura 4.5:
Cap
tulo 4. El proceso de Poisson
113
momento cualquiera. La variable Yn representa el monto de la n-sima reclamacin y es natural suponer Yn > 0. En la Fie
o
gura 4.5 se muestra una trayectoria de este proceso y en los siguientes ejercicios
se presentan algunas de sus propiedades bsicas. Cuando las variables Y1 , Y2 , . . .
a
toman valores en el conjunto {1, 2, . . .} se dice que este proceso es un proceso de
Poisson generalizado pues los saltos ya no son necesariamente unitarios. Observe
que si las variables Y1 , Y2 , . . . son todas idnticamente uno, este proceso se reduce
e
al proceso de Poisson.
Ejercicio. Demuestre que el proceso de Poisson compuesto satisface las siguientes
propiedades.
a) La funcin generadora de momentos de la variable Xt , es decir, MXt (u) =
o
E(euXt ) es MXt (u) = exp [ t (MY (u) 1) ].
b) E(Xt ) = t E(Y ).
c) Var(Xt ) = t E(Y 2 ).
d) Cov(Xt , Xs ) = E(Y 2 ) m
n{s, t}.
e) Tiene incrementos independientes y estacionarios.
Notas y referencias. El proceso de Poisson es otro de los temas clsicos que
a
se estudia en los cursos elementales de procesos estocsticos. La mayor de los
a
a
textos sobre procesos estocsticos que aparecen en la bibliograf cuentan por lo
a
a
menos con una seccin sobre este tema. Algunos textos espec
o
cos que dedican un
cap
tulo entero para el proceso de Poisson son: Basu [1], Taylor y Karlin [37], y
Jones y Smith [17].
114
4.4. Proceso de Poisson compuesto
Ejercicios
Proceso de Poisson
71. Los clientes de una tienda entran al establecimiento de acuerdo a un proceso de Poisson de parmetro = 4. Sea Xt el n mero de clientes que han
a
u
ingresado hasta el instante t. Calcule
a) P (X2 = 1).
b) P (X1 = 3, X2 = 6).
c) P (X1 = 0 | X3 = 4).
d ) P (X2 = 4 | X1 = 2).
e) P (X2 3).
f ) P (X1 4 | X1 2).
72. Los pasajeros llegan a una parada de autob s de acuerdo a un proceso de
u
Poisson {Xt } de parmetro = 2. Sea el momento en el que llega el primer
a
autob s. Suponga que es una variable aleatoria con distribucin unif(0, 1)
u
o
e independiente del proceso de Poisson. Calcule
a) E(X | = t).
b) E(X ).
2
c) E(X | = t).
d ) Var(X ).
73. Sea {Xt } un proceso de Poisson de parmetro = 2. Sea Wn el instante en
a
el que ocurre el n-simo evento. Calcule
e
a) E(X5 ).
b) E(X5 | X2 = 1).
c) E(W7 ).
d ) E(W7 | X2 = 3).
e) E(W7 | W5 = 4).
Cap
tulo 4. El proceso de Poisson
115
74. Sean T1 , T2 , . . . una sucesin de variables aleatorias independientes idnticao
e
mente distribuidas con distribucin exp(). Dena la variable aleatoria N de
o
la siguiente forma
N=
0
k
si T1 > 1,
si T1 + + Tk 1 < T1 + + Tk+1 .
Demuestre que N tiene distribucin Poisson(). Este resultado puede ser
o
usado para obtener valores al azar de la distribucin Poisson.
o
1
75. Demuestre que si X tiene distribucin unif(0, 1), entonces Y := ln(1
o
X) tiene distribucin exp(). Este resultado puede ser usado para generar
o
valores al azar de la distribucin exp() a partir de valores de la distribucin
o
o
unif(0, 1).
76. Sean T1 , . . . , Tn variables aleatorias independientes cada una con distribucin exp(). Demuestre que la suma Wn = T1 + + Tn tiene distribucin
o
o
gama(n, ) y que la correspondiente funcin de distribucin puede escribirse
o
o
de la siguiente forma: para cada t > 0,
P (Wn t) =
k=n
et
(t)k
.
k!
77. Sea {Xt } un proceso de Poisson de parmetro = 1, e independiente de
a
una variable aleatoria con distribucin exp() con = 1. Dena el proceso
o
Yt = Xt . Demuestre que
1
t n
(
) , para n = 0, 1, . . ..
1+t 1+t
n+m n m
1
b) P (Yt = n, Yt+s = n + m) =
t s ( 1+t+s )n+m+1 .
n
a) P (Yt = n) =
Concluya que las variables Yt y Yt+s Yt no son independientes.
78. Sea {Xt } un proceso de Poisson de parmetro . Demuestre los siguientes
a
resultados de manera sucesiva.
a) (W1 > t1 , W2 > t2 ) = (Xt1 = 0, Xt2 Xt1 = 0 1).
o
b) P (W1 > t1 , W2 > t2 ) = et1 (1 + (t2 t1 )) e(t2 t1 ) .
c) fW1 ,W2 (t1 , t2 ) = 2 et2 , para 0 < t1 < t2 .
116
4.4. Proceso de Poisson compuesto
d ) fW1 (t1 ) = et1 .
e) fW2 (t2 ) = 2 t1 et1 .
f ) Las variables T1 = W1 y T2 = W2 W1 son independientes.
79. Sea {Xt } proceso de Poisson de parmetro , y sean s y t dos tiempos tales
a
que 0 s < t. Demuestre que
a) P (Xs = 0, Xt = 1) = (t s)et .
b) P (Xs = Xt ) = e(ts) .
80. Para un proceso de Poisson de parmetro demuestre que
a
Cov(Xt , Xs ) = m
n{s, t}.
81. Las funciones seno y coseno hiperblico se denen de la siguiente forma:
o
senh(x) = (ex ex )/2, y cosh(x) = (ex + ex )/2. Para un proceso de
Poisson de parmetro demuestre que
a
a) P (Xt sea impar) = et senh(t).
b) P (Xt sea par) = et cosh(t).
82. Sea {Xt } un proceso de Poisson de parmetro , y sea s > 0 un tiempo jo.
a
Demuestre que el proceso Yt = Xt+s Xs tambin es un proceso de Poisson
e
de parmetro . En la Figura 4.6 se ilustra grcamente la denicin de este
a
a
o
nuevo proceso.
Xt
Yt
t
t
s
Figura 4.6:
83. Sea {Xt } un proceso de Poisson de parmetro . Demuestre que
a
Cap
tulo 4. El proceso de Poisson
a) fW1 ,W2 (w1 , w2 ) =
b) fW1 | W2 (w1 | w2 ) =
c) fW2 | W1 (w2 | w1 ) =
2 ew2
0
1/w2
0
117
si 0 < w1 < w2 ,
otro caso.
si w1 (0, w2 ),
otro caso.
e(w2 w1 )
0
si w2 (w1 , ),
otro caso.
84. Sea {Xt } un proceso de Poisson de parmetro . Sea T una variable aleatoria
a
con distribucin exp() e independiente del proceso de Poisson. Encuentre la
o
funcin de densidad de la variable XT .
o
85. Sea {Xt } un proceso de Poisson de parmetro . Sean r y n dos enteros tales
a
que 1 r n, y sea t > 0. Suponga que el evento (Xt = n) ocurre. Encuentre
la densidad condicional de Wr .
86. Sean X1 (t) y X2 (t) dos procesos de Poisson independientes con parmetros
a
1 y 2 respectivamente. Calcule la probabilidad de que
a) X1 (t) = 1 antes que X2 (t) = 1.
b) X1 (t) = 2 antes que X2 (t) = 2.
87. Suponga que un cierto aparato elctrico sufre desperfectos a lo largo del
e
tiempo de acuerdo a un proceso de Poisson de parmetro . Suponga que
a
cada vez que el aparato se descompone es enviado a reparacin y despus
o
e
es puesto en funcionamiento nuevamente. Suponga adems que el aparato se
a
reemplaza completamente por uno nuevo cuando el tiempo que transcurre
entre dos descomposturas sucesivas es menor o igual a una cierta constante
a > 0, incluyendo el tiempo antes de la primera reparacin. Encuentre la
o
funcin de densidad del
o
a) tiempo de vida util del equipo antes de ser reemplazado.
b) n mero de reparaciones antes de realizar el reemplazo.
u
88. Suponga que un cierto circuito recibe impulsos elctricos de acuerdo a un
e
proceso de Poisson de parmetro . Suponga adems que el circuito se desa
a
compone al recibir el k-simo impulso. Encuentre la funcin de densidad del
e
o
tiempo de vida del circuito.
118
4.4. Proceso de Poisson compuesto
89. Sean X1 (t), . . . , Xn (t) procesos de Poisson independientes, todos de parmea
tro . Encuentre la distribucin de probabilidad del primer momento en el
o
cual
a) ha ocurrido en cada uno de los procesos al menos un evento.
b) ocurre el primer evento en cualquiera de los procesos.
90. Sean {X1 (t)} y {X2 (t)} dos procesos de Poisson independientes con parmea
tros 1 y 2 , respectivamente. Sea n cualquier n mero natural, y dena el
u
tiempo aleatorio = {t 0 : X1 (t) = n}. Demuestre que X2 ( ) tiene
nf
distribucin binomial negativa, es decir, para k = 0, 1, . . .
o
P (X2 ( ) = k) =
n+k1
k
1
1 + 2
2
1 + 2
91. Sea {Xt } un proceso de Poisson de parmetro , y sea a > 0 una constante.
a
Demuestre que {Xat } es un proceso de Poisson de parmetro a.
a
92. Sea {Xt } un proceso de Poisson de parmetro . Demuestre que, condicionado
a
a que el proceso tiene exactamente un salto en el intervalo [s, s+t], el momento
en el que ese salto ocurre se distribuye de manera uniforme en dicho intervalo.
93. Sea {Xt } un proceso de Poisson de parmetro . Sunponga que cada evento
a
registrado es tipo 1 con probabilidad , o de tipo 2 con probabilidad 1
. Sea X1 (t) el n mero de eventos del tipo 1 al tiempo t, y sea X2 (t) lo
u
correspondiente a eventos del tipo 2.
a) Demuestre que {X1 (t)} y {X2 (t)} son procesos de Poisson de parmetro
a
y (1 ) respectivamente.
b) Demuestre que {X1 (t)} y {X2 (t)} son independientes.
94. Suponga que los mensajes llegan a una cierta cuenta de correo electrnico de
o
acuerdo a un proceso de Poisson de parmetro . Cada mensaje recibido es
a
de tipo basura con probabilidad y no basura con probabilidad 1 .
a) Dado que hasta el tiempo t ha llegado n mensajes, encuentre la distribucin del n mero de mensajes tipo basura que hasta ese momento
o
u
han llegado.
b) Suponiendo que se recibe un mensaje tipo basura en algn momento,
u
encuentre la distribucin del n mero total de mensajes recibidos hasta
o
u
la llegada del siguiente mensaje tipo basura.
Cap
tulo 4. El proceso de Poisson
119
c) Encuentre la probabilidad de que al tiempo t hayan llegado mas mensajes
tipo basura que no basura.
95. Sean T1 , T2 , . . . los tiempos de interarribo de un proceso de Poisson de parmea
tro , y sea c una constante positiva. Dena N = m
n{n 1 : Tn > c}.
Calcule E(WN 1 + c).
Distribuciones asociadas al proceso de Poisson
96. Sea t0 un tiempo positivo jo y suponga que hasta ese momento se ha observado un solo evento de un proceso de Poisson, es decir, Xt0 = 1. La pregunta
es cundo ocurri tal evento? Demuestre que la distribucin condicional del
a
o
o
momento en el que se ha registrado el evento, es decir T1 , es uniforme en el
intervalo [0, t0 ].
97. Sea {Xt } un proceso Poisson de tasa y sean dos tiempos 0 < s < t. Dena la
variable X(s,t] como el n mero de eventos del proceso de Poisson que ocurren
u
en el intervalo (s, t]. Demuestre que, condicionada a la ocurrencia del evento
(Xt = n), la variable X(s,t] tiene distribucin binomial(n, 1 s/t).
o
Proceso de Poisson no homogneo
e
98. Sea {Xt } un proceso Poisson no homogneo de intensidad (t), sean T1 , T2 , . . .
e
los tiempos de interarribo, y sean W1 , W2 , . . . los tiempos reales de ocurrencia.
Demuestre que para cualquier t > 0,
a) fT1 (t) = e(t) (t).
b)fT2 |T1 (t|s) = e(t+s)+(s) (t + s).
c) fT2 (t) =
e(t+s) (t + s) (s) ds.
d) fWn (t) = e(t)
[(t)]n1
(t).
(n 1)!
e) FTk |Wk1 (t|s) = 1 e(t+s)+(s) .
f) FTk (t) = 1
e(t+s)
[(s)]k2
(s) ds, k 2.
(k 2)!
120
4.4. Proceso de Poisson compuesto
Proceso de Poisson compuesto
99. Suponga que los sumandos Y de un proceso de Poisson compuesto {Xt }
de parmetro tienen distribucin exp(). Encuentre la distribucin de la
a
o
o
variable Xt .
100. Sea {Xt } un proceso de Poisson compuesto de parmetro . Suponga que
a
cada una de las variables Y de este proceso es constante igual a k N.
Encuentre la distribucin de Xt .
o
101. Suponga que los usuarios de cuentas de correo electrnico solicitan acceso
o
al servidor de acuerdo a un proceso de Poisson homogneo de parmetro
e
a
. Suponga adems que cada usuario se mantiene conectado al servidor un
a
tiempo aleatorio con funcin de distribucin F (x), e independiente uno del
o
o
otro. Sea Ct el n mero de usuarios conectados al servidor tiempo t. Demuestre
u
que para k = 0, 1, . . .
P (Ct = k) =
en donde (t) =
t
0 (1
F (x)) dx.
[(t)]k (t)
e
,
k!
Edited by Foxit Reader
Copyright(C) by Foxit Corporation,2005-2009
For Evaluation Only.
Cap
tulo 5
Cadenas de Markov
a tiempo continuo
Vamos a considerar ahora cadenas de Markov {Xt : t 0} en donde el tiempo
es continuo y las variables toman valores enteros. Varios de los conceptos que
mencionaremos para este tipo de procesos son anlogos al caso de tiempo discreto,
a
pero existen diferencias en el comportamiento y desarrollo matemtico entre los
a
dos modelos, y no pretendemos presentar y justicar la teor completa.
a
Usando la misma notacin que en el caso de tiempos discretos, recordemos que el
o
trmino p(xt ) signica P (Xt = xt ). La propiedad de Markov que consideraremos
e
tiene la siguiente forma: Para cualesquiera tiempos 0 t1 < t2 < < tn ,
p(xtn | xt1 , . . . , xtn1 ) = p(xtn | xtn1 ).
Observe que no estamos suponiendo que se conoce la historia del proceso en todo el
pasado a tiempo continuo, sino unicamente en una coleccin arbitraria pero nita de
o
tiempos pasados t1 , . . . , tn1 . Supondremos nuevamente que estas probabilidades
de transicin son estacionarias en el tiempo, esto signica que para cada s 0 y
o
t 0, la probabilidad P (Xt+s = j | Xs = i) es idntica a P (Xt = j | X0 = i), es
e
decir, no hay dependencia del valor de s. Esta probabilidad se escribe de manera
breve mediante la expresin pij (t), para i y j enteros no negativos. En particular
o
para t = 0 se dene nuevamente pij (0) como la funcin delta de Kronecker, es decir,
o
pij (0) = ij =
121
1
0
si i = j,
si i = j.
122
5.1. Procesos de saltos
Haciendo variar los
ndices i y j en el espacio de estados, se obtiene la matriz de
probabilidades de transicin al tiempo t:
o
p00 (t) p01 (t)
Pt = p10 (t) p11 (t) .
.
.
.
.
.
.
Plantearemos a continuacin el modelo general de cadena de Markov a tiempo
o
continuo, estudiaremos algunas de sus propiedades, y despus revisaremos algunos
e
modelos particulares.
5.1.
Procesos de saltos
Considere un proceso a tiemXt ()
po continuo {Xt : t 0} que
i4
inicia en el estado i1 al tiempo
i2
cero. El proceso permanece en
ese estado un tiempo aleatorio
i1
Ti1 , y despus salta a un nuevo
e
i3
estado i2 distinto del anterior.
El sistema permanece ahora en
t
el estado i2 un tiempo aleatoTi3
Ti1
Ti2
Ti4
rio Ti2 al cabo del cual brinca
a otro estado i3 distinto del inFigura 5.1:
mediato anterior, y as sucesi
vamente. Esta sucesin de salo
tos se muestra grcamente en la Figura 5.1. Los tiempos aleatorios T son los
a
tiempos en los que el proceso permanece constante en alguno de sus estados, y
se llaman tiempos de estancia (passage times). Los momentos en donde el proceso
tiene saltos son los tiempos Wn = Ti1 + + Tin , para n 1. El proceso puede
entonces escribirse de la forma siguiente:
i1 si 0 t < W1 ,
i2 si W1 t < W2 ,
Xt =
i3 si W2 t < W3 ,
.
.
Cap
tulo 5. Cadenas de Markov a tiempo continuo
123
Un proceso de estas caracter
sticas se llama proceso de saltos, y parece ser una
buena versin continua de las cadenas de Markov a tiempo discreto. Sin embargo
o
puede comprobarse que un proceso con estas caracter
sticas pudiera no estar denido para todo t 0, y tampoco hay garant de que se cumpla la propiedad de
a
Markov. A n de evitar situaciones demasiado complicadas, los procesos de saltos
que consideraremos estarn restringidos por las siguientes condiciones:
a
No explosin. Puede suceder que los tiempos de estancia T sean cada vez ms
o
a
peque os de tal forma que l n Wn < , es decir, existe la posibilidad de que
n
m
el proceso efect e un n mero innito de saltos durante un intervalo de tiempo
u
u
acotado. En tal situacin el proceso no estar bien denido para todo t 0, y se
o
a
dice que el proceso explota en un tiempo nito. Para evitar tal comportamiento
supondremos que l n Wn = , y por lo tanto, para cada t 0, el valor de Xt
m
es nito.
Probabilidades de transicin. Supondremos que el espacio de estados es {0, 1, . . .}
o
y que el tiempo de estancia asociado el estado i es la variable aleatoria Ti , la
cual supondremos positiva con funcin de distribucin Fi (t). Como en el caso de
o
o
cadenas a tiempos discreto, se denotar por pij a la probabilidad de que la cadena
a
salte del estado i al estado j. Adicionalmente impondremos la condicin pii = 0, y
o
con ello se inhibe, por ahora, que la cadena salte al mismo estado de partida. Las
probabilidades de transicin cumplen entonces las siguientes condiciones:
o
a) pij 0.
b) pii = 0.
c)
pij = 1.
Independencia. Supondremos que los tiempos de estancia Ti1 , Ti2 , . . . son independientes entre s y tambin son independientes del mecanismo mediante el cual se
,
e
escoge el estado j al cual la cadena brinca despus de estar en cualquier otro estado
e
i.
Estados absorbentes o no absorbentes. Supondremos que cada variable Ti es nita
con probabilidad uno, o bien es innita con probabilidad uno. En el primer caso
se dice que el estado i es no absorbente, y en el segundo caso que es absorbente.
El hecho de que Ti = se interpreta en el sentido de que el proceso deja de
saltar y permanece en el estado i el resto del tiempo, es decir, es absorbente.
Estamos entonces suponiendo que slo hay dos tipos de estados: absorbentes o no
o
124
5.1. Procesos de saltos
absorbentes, en otras palabras, con probabilidad uno el tiempo de estancia es nito
o con probabilidad uno es innito.
Propiedad de Markov. Puede demostrarse que el proceso de saltos descrito arriba
satisface la propiedad de Markov si, y slo si, los tiempos de estancia de estados
o
no absorbentes tienen distribucin exponencial. Este es un resultado importante
o
cuya demostracin omitiremos y que simplica el modelo general planteado. Suo
pondremos entonces que el tiempo de estancia en un estado no absorbente i tiene
distribucin exp(i ), con i > 0, es decir, Fi (t) = 1 ei t , para t 0. Cuando
o
Ti = puede considerarse que i = 0.
Denicin. A un proceso de saltos con las caracter
o
sticas arriba se aladas se
n
le llama cadena de Markov a tiempo continuo.
Observe que un proceso de Markov a tiempo continuo queda completamente especicado por los siguientes tres elementos: una distribucin de probabilidad inicial,
o
los parmetros i , y las probabilidades pij .
a
Ejemplo. (Cadena de primera ocurrencia). Sea Xt el estado de un sistema tal que
en cualquier instante se encuentra en alguno de los dos posibles estados: 0 y 1.
Suponga que X0 = 0 y que el proceso cambia al estado 1 despus de un tiempo
e
aleatorio con distribucin exp(), y permanece all el resto del tiempo. Una posible
o
trayectoria de este proceso se muestra en la Figura 5.2(a). Este proceso modela
la situacin de espera para la primera ocurrencia de un evento de inters. Las
o
e
probabilidades de transicin son
o
Pt =
p00 (t)
p10 (t)
p01 (t)
p11 (t)
et
0
1 et
1
Ejemplo. (Cadena de dos estados). Considere el proceso Xt con dos posibles estados:
0 y 1, denido por la siguiente dinmica: Cuando el proceso entra al estado 0
a
permanece en l un tiempo exp(), y luego va al estado 1, entonces permanece en
e
el estado 1 un tiempo exp() y despus regresa a 0, y as sucesivamente. Se postula
e
que los tiempos de estancia en cada estado son variables aleatorias independientes.
Una trayectoria de este proceso se muestra en la Figura 5.2(b). Puede demostrarse
125
Cap
tulo 5. Cadenas de Markov a tiempo continuo
Xt ()
Xt ()
1
t
(a)
(b)
Figura 5.2:
que las probabilidades de transicin son
o
Pt =
p00 (t)
p10 (t)
p01 (t)
p11 (t)
1
+
1
+
e(+)t .
Ejemplo. El proceso de Poisson es una cadena de Markov a tiempo continuo que
empieza en cero, los tiempos de estancia son exponenciales de parmetro , y las
a
probabilidades de transicin de un estado a otro son pi,i+1 = 1.
o
5.2.
Propiedades generales
Mencionaremos ahora algunos conceptos y propiedades generales de procesos de
Markov a tiempo continuo. Varios de estos resultados son similares a los desarrollados antes para el caso de tiempos discretos.
Cadena a tiempo discreto asociada. Toda cadena de Markov a tiempo continuo
{Xt : t 0} tiene asociada una cadena a tiempo discreto que denotaremos por el
mismo s
mbolo {Xn : n = 0, 1, . . .}, y que est dada por la primera pero observada
a
en los tiempos en donde se efect an los saltos. Algunas caracter
u
sticas de la cadena
a tiempo discreto se trasladan a su versin continua. Inversamente, a partir de
o
una cadena a tiempo discreto puede construirse su versin continua en el tiempo
o
tomando tiempos exponenciales independientes entre salto y salto.
126
5.2. Propiedades generales
Probabilidades de transicin. Para una cadena de Markov a tiempo continuo
o
las probabilidades de transicin son los n meros pij (t) = P (Xt = j | X0 = i), para
o
u
cualesquiera estados i y j, y para cualquier tiempo t 0. Cuando el espacio de
estados es nito, los elementos de cada rengln de esta matriz suman uno, pero
o
para espacios de estados innito esta suma puede ser estrictamente menor a uno,
es decir, en general, j pij (t) 1. Esta es una diferencia inesperada respecto del
modelo a tiempo discreto.
Intentar encontrar pij (t) para cada par de estados i y j, y para cada t 0, es un
problema demasiado general, y slo en algunos casos es posible encontrar expl
o
citamente tales probabilidades. El siguiente resultado nos permitir obtener algunas
a
conclusiones generales acerca de pij (t).
Proposicin. Sean i y j dos estados. Para cualquier t 0,
o
t
pij (t) = ij ei t + i ei t
ei s (
pik pkj (s) ) ds.
(5.1)
k=i
Demostracin. Si i es un estado absorbente, i.e. i = 0, entonces la frmula se
o
o
reduce a pij (t) = ij , lo cual es correcto. Si i es un estado no absorbente, entonces
pij (t) =
=
P (Xt = j | X0 = i)
P (Xt = j, Ti > t | X0 = i) + P (Xt = j, Ti t | X0 = i)
t
ij ei t +
fXt ,Ti | X0 (j, u | i) du
0
t
ij ei t +
0 k=i
fXt ,Xu ,Ti | X0 (j, k, u | i) du,
en donde por la propiedad de Markov y la independencia,
fXt ,Xu ,Ti | X0 (j, k, u | i) =
=
fXt | Xu ,Ti ,X0 (j | k, u, i) fXu | Ti ,X0 (k | u, i) fTi | X0 (u | i)
pkj (t u) pik i ei u .
Por lo tanto,
t
pij (t) = ij ei t +
0
i ei u (
k=i
pik pkj (t u) ) du.
Cap
tulo 5. Cadenas de Markov a tiempo continuo
127
Haciendo el cambio de variable s(u) = tu en la integral se obtiene el resultado.
Las probabilidades de transicin satisfacen tambin una versin continua de la
o
e
o
ecuacin de Chapman-Kolmogorov, y que en este caso se conoce como la propiedad
o
de semigrupo.
Proposicin. (Ecuacin de Chapman-Kolmogorov). Para cualquiera estados i
o
o
y j, y para todo t 0 y s 0,
pij (t + s) =
pik (t) pkj (s).
k
En notacin matricial, Pt+s = Pt Ps .
o
Demostracin. Por la propiedad de Markov,
o
pij (t + s) =
P (Xt+s = j | X0 = i)
=
k
=
k
P (Xt+s = j, Xt = k | X0 = i)
P (Xt+s = j | Xt = k) P (Xt = k | X0 = i)
pik (t) pkj (s).
La coleccin {Pt : t 0} constituye un semigrupo de matrices estocsticas, esto
o
a
quiere decir que cumple las siguientes propiedades:
a) P0 = I, en donde I es la matriz identidad.
b) Pt es una matriz estocstica.
a
c) Pt+s = Pt Ps , para cualesquiera t, s 0.
La ecuacin de Chapman-Kolmogorov es interesante pues permite expresar a la
o
probabilidad pij (t), para cualquier tiempo t > 0, en trminos de probabilidades
e
128
5.2. Propiedades generales
innitesimales, es decir, probabilidades de transicin en intervalos de tiempo de
o
longitud muy peque a. Por ejemplo, para cualquier n natural, tomando t = t/n,
n
pij (t) =
k1 ,...,kn1
pi,k1 (t) pk1 ,k2 (t) pkn1 ,j (t).
Esto quiere decir que es suciente conocer el comportamiento de pij (t) en tiempos
t peque os para conocer su comportamiento para cualquier t > 0. Especicaremos
n
con detalle este resultado ms adelante.
a
Parmetros innitesimales. De la frmula (5.1) es inmediato observar que las
a
o
probabilidades pij (t) son funciones continuas en t, y en particular el integrando
en (5.1) es una funcin continua. Esto implica que la integral es diferenciable y por
o
lo tanto tambin pij (t). Derivando entonces (5.1) se obtiene el siguiente resultado
e
conocido como el sistema de ecuaciones hacia atrs de Kolmogorov.
a
Proposicin. Para cualquier t > 0,
o
p (t) = i pij (t) + i
ij
pik pkj (t).
(5.2)
k=i
Observe que en particular la derivada p (t) es una funcin continua del tiempo.
o
ij
Tomando ahora el l
mite cuando t 0, se tiene que
p (0) =
ij
=
=
i ij + i
pik kj
k=i
i ij + i pij
i
i pij
si i = j,
si i = j.
Denicin. A las cantidades p (0) se les denota por gij , y se les conoce con el
o
ij
nombre de parmetros innitesimales del proceso. Es decir, estos parmetros
a
a
son
i
si i = j,
gij =
(5.3)
i pij si i = j.
Cap
tulo 5. Cadenas de Markov a tiempo continuo
129
Variando los
ndices i y j, estos nuevos parmetros se escriben en notacin matricial
a
o
de la forma siguiente:
G=
0
1 p10
2 p20
.
.
.
0 p01
1
2 p21
.
.
.
0 p02
1 p12
2
.
.
.
(5.4)
Esta matriz determina de manera unica el comportamiento de la cadena de Markov
a tiempo continuo, y es el concepto equivalente a la matriz de probabilidades de
transicin en un paso para cadenas a tiempo discreto. Se trata de una matriz con
o
las siguientes propiedades:
a) gii 0.
b) gij 0, si i = j.
c)
gij = 0.
j
Observe que gii = 0 cuando el estado i es absorbente, es decir, cuando i = 0.
Cuando i > 0 la ultima propiedad se obtiene a partir del hecho de que pii = 0
pues
gij = i +
i pij = i + i (1 pii ) = 0.
j
j=i
Proposicin. Los parmetros innitesimales determinan de manera unica a la
o
a
cadena de Markov a tiempo continuo.
Este resultado es consecuencia de (5.3) pues a partir de gij se obtiene
i
pij
gii ,
0
gij /gii
si i = j,
si i = j.
(5.5)
Probabilidades innitesimales. Un proceso de Markov a tiempo continuo puede
ser tambin denido a partir del comportamiento de las probabilidades de trane
sicin pij (t) cuando t 0. Tales probabilidades se llaman a veces probabilidades
o
130
5.2. Propiedades generales
innitesimales, y pueden expresarse en trminos de los parmetros innitesimales
e
a
como establece el siguiente resultado y del cual omitiremos su demostracin.
o
Proposicin. Cuando t 0,
o
1. pii (t) = 1 + gii t + o(t).
2. pij (t) = gij t + o(t),
para i = j.
Ecuaciones de Kolmogorov. En trminos de los parmetros innitesimales, la
e
a
ecuacin (5.2) puede escribirse en la forma
o
p (t) =
ij
gik pkj (t).
(5.6)
En trminos de matrices esta igualdad se escribe como P (t) = G P (t), es decir,
e
p00 (t)
p10 (t)
.
.
.
p01 (t)
p11 (t)
.
.
.
0
= 1 p10
.
.
.
0 p01
1
.
.
.
p00 (t)
p10 (t)
.
.
.
p01 (t)
p11 (t)
.
.
.
Como hemos mencionado antes, este sistema de ecuaciones se conoce como las
ecuaciones hacia atrs de Kolmogorov.
a
Comunicacin. Se dice que el estado j es accesible desde el estado i si pij (t) > 0
o
para alg n t 0, y se escribe i j. Se dice que los estados i y j se comunican
u
si i j y j i, y en tal caso se escribe i j. Nuevamente puede demostrarse
que la comunicacin es una relacin de equivalencia, y eso lleva a una particin del
o
o
o
espacio de estados en clases de comunicacin. Se dice que la cadena es irreducible
o
cuando todos los estados pertenecen a la misma clase de comunicacin.
o
Tiempos de primera visita. Para cualesquiera estados i y j, se dene
Tij = nf {t > W1 : Xt = j},
cuando X0 = i.
El tiempo medio de primera visita es entonces ij = E(Tij ). Cuando los estados i
y j coinciden se escribe Ti , y i = E(Ti ) respectivamente. A i se le llama tiempo
medio de recurrencia.
Cap
tulo 5. Cadenas de Markov a tiempo continuo
131
Recurrencia y transitoriedad. Se dice que el estado i es transitorio si, partiendo
de i, con probabilidad uno el conjunto de tiempos {t 0 : Xt = i} es acotado.
En cambio, se dice que es recurrente si, partiendo de i, con probabilidad uno el
conjunto {t 0 : Xt = i} es no acotado. Cuando E(Ti ) = se dice que el estado
i es recurrente nulo, y cuando E(Ti ) < se dice que es recurrente positivo.
Distribuciones estacionarias. Una distribucin de probabilidad = {0 , 1 , . . .}
o
sobre el espacio de estados {0, 1, . . .} es estacionaria para la cadena con matriz de
probabilidades de transicin Pt si para cualquier t 0,
o
i i pij (t) = j . En
notacin matricial, Pt = . Si X0 tiene como distribucin inicial una distribucin
o
o
o
estacionaria , entonces P (Xt = j) = i i pij (t) = j , es decir, la variable Xt
tiene la misma distribucin de probabilidad para cualquier valor de t.
o
5.3.
Procesos de nacimiento y muerte
Un proceso de nacimiento y muerte es una cadena de Markov a tiempo continuo
con espacio de estados {0, 1, . . .} tal que en cada salto la cadena unicamente puede
brincar una unidad hacia arriba o una unidad hacia abajo. Un salto hacia arriba se
interpreta como un nacimiento, mientras que un salto hacia abajo representa una
muerte. Estas probabilidades de saltos de un estado a otro son
+ si j = i + 1,
i
i
i
pij =
+ si j = i 1,
i
i
0
otro caso,
en donde 0 , 1 , . . . y 1 , 2 , . . . son constantes positivas conocidas como las tasas
instantneas de nacimiento y muerte, respectivamente. De acuerdo a las ecuacioa
nes (5.5), el tiempo de estancia en el estado i tiene distribucin exp(i +i ), en dono
de se dene 0 = 0. Siguiendo la frmula general del generador innitesimal (5.4)
o
para un proceso de saltos, tenemos que la matriz de parmetros innitesimales de
a
este proceso es de la siguiente forma
1
G= 0
.
.
.
0
(1 + 1 )
2
.
.
.
0
1
(2 + 2 )
.
.
.
0
0
2
132
5.3. Procesos de nacimiento y muerte
Una posible trayectoria de este proceso se muestra en la Figura 5.3 con
X0 = 0, los saltos son unitarios, hacia arriba o hacia abajo. La variable Xt puede interpretarse como el
n mero de individuos en una poblau
cin al tiempo t, en donde pueden
o
presentarse nacimientos y muertes de
individuos. Como 0 > 0 y 0 = 0, la
poblacin puede crecer cuando se eno
cuentre en el estado cero, pero nunca
decrecer por abajo de ese nivel.
Xt ()
3
2
1
t
Figura 5.3:
Se pueden tomar las siguientes probabilidades innitesimales como postulados para
denir a este proceso. Para cualquier t 0, y cuando h 0,
a) P (Xt+h Xt = 1 | Xt = k) = k h + o(h).
b) P (Xt+h Xt = 1 | Xt = k) = k h + o(h).
c) P (Xt+h Xt = 0 | Xt = k) = 1 (k + k ) h + o(h).
Para cualquier t 0 y h > 0 peque o consideremos el intervalo [0, t + h] visto
n
como [0, h] + (h, t + h]. Haciendo un anlisis sobre estos intervalos puede encona
trarse nuevamente que las probabilidades pij (t) satisfacen el sistema de ecuaciones
diferenciales hacia atrs de Kolmogorov:
a
p (t)
0j
p (t)
ij
=
=
0 p0j (t) + 0 p1j (t),
i pi1,j (t) (i + i ) pij (t) + i pi+1,j (t).
De manera anloga, considerando [0, t + h] = [0, t] + (t, t + h], es posible comprobar
a
que se cumple el sistema de ecuaciones diferenciales hacia adelante de Kolmogorov:
p (t) =
i0
p (t) =
ij
0 pi0 (t) + 1 pi1 (t),
j1 pi,j1 (t) (j + j ) pij (t) + j+1 pi,j+1 (t).
Ejemplo. Un proceso de Poisson es una cadena de nacimiento y muerte en donde
las tasas instantneas de muerte 0 , 1 , . . . son cero, y las tasas instantneas de
a
a
nacimiento 0 , 1 , . . . son todas ellas iguales a una constante > 0. La matriz de
parmetros innitesimales es entonces de la forma
a
Cap
tulo 5. Cadenas de Markov a tiempo continuo
0
G= 0
.
.
.
0
.
.
.
.
.
.
133
0
0
Ejemplo. Las ecuaciones hacia adelante de Kolmogorov del proceso de Poisson son
p (t) =
0
p (t)
n
p0 (t).
pn1 (t) pn (t),
para n 1,
en donde pn (t) = p0n (t). Usaremos estas ecuaciones para comprobar nuevamente
que Xt tiene distribucin Poisson(t). Usando la condicin inicial p0 (0) = 1, la
o
o
primera ecuacin tiene solucin p0 (t) = et . Deniendo qn (t) = et pn (t), la seo
o
gunda ecuacin se transforma en qn (t) = qn1 (t), con condiciones qn (0) = 0n
o
y q0 (t) = 1. Esta nueva ecuacin se resuelve iterativamente, primero para q1 (t),
o
despus para q2 (t), y as sucesivamente. En general, qn (t) = (t)n /n! para n 0.
e
De aqu se obtiene pn (t) = et (t)n /n!
Ejemplo. Esta es otra derivacin mas de la distribucin Poisson en el proceso de
o
o
Poisson, ahora usando las ecuaciones hacia adelante de Kolmogorov y la funcin geo
neradora de probabilidad. La variable aleatoria Xt puede tomar los valores 0, 1, . . .
de modo que su funcin generadora de probabilidad es
o
GXt (u) = E(uXt ) =
pn (t) un ,
n=0
para valores reales de u tales que |u| < 1, y en donde pn (t) = P (Xt = n). Consideraremos a esta funcin tambin como funcin del tiempo t y por comodidad
o
e
o
en los siguientes clculos la llamaremos G(t, u). Derivando respecto de t, para el
a
mismo radio de convergencia |u| < 1, y usando las ecuaciones hacia adelante de
134
5.3. Procesos de nacimiento y muerte
Kolmogorov para el proceso de Poisson se tiene que
G (t, u) =
=
p (t) un
n
n=0
(pn1 (t) pn (t))un
n=0
=
=
uG(t, u) G(t, u)
(u 1)G(u),
de donde se obtiene la ecuacin diferencial G /G = (u 1). Integrando de 0 a t y
o
usando la condicin G(0, u) = 1 se llega a
o
G(t, u) = G(0, u) e(u1)t = et etu =
n=0
et
(t)n n
u .
n!
Esta es la funcin generadora de probabilidad de la distribucin Poisson(t). Por la
o
o
propiedad de unicidad se obtiene que la variable Xt tiene distribucin Poisson(t).
o
135
Cap
tulo 5. Cadenas de Markov a tiempo continuo
5.4.
Proceso de nacimiento puro
0
0
0
0
Cuando en un proceso de na 0
1
1
0
cimiento y muerte los parmea
G= 0
0
2 2
tros 0 , 1 , . . . son todos ce.
.
.
.
.
.
ro, se obtiene un proceso de
.
.
.
nacimiento puro. La matriz
de parmetros innitesimales
a
Xt ()
tiene la forma que se muestra en la Figura 5.4, en don3
de, como antes, los parmea
2
tros 0 , 1 , . . . se conocen como las tasas instantneas de
a
1
nacimiento. En la Figura 5.4
se muestra una trayectoria de
t
este proceso cuando inicia en
exp(0 ) exp(1 )
exp(2 )
exp(3 )
el estado cero. Por construccin, el tiempo de estancia en
o
Figura 5.4:
el estado i tiene distribucin
o
exponencial con parmetro i .
a
Las probabilidades de saltos son evidentemente pij = 1 cuando j = i + 1, y cero en
caso contrario. Puede demostrarse que los incrementos de un proceso de nacimiento
puro son independientes pero no son necesariamente estacionarios.
Un proceso de nacimiento puro puede tambin denirse mediante las siguientes
e
probabilidades innitesimales: Cuando h 0,
a) P (Xt+h Xt = 1 | Xt = k) = k h + o(h).
b) P (Xt+h Xt = 0 | Xt = k) = 1 k h + o(h).
En general no es fcil encontrar una frmula para las probabilidades de transicin
a
o
o
pij (t), sin embargo cuando el estado inicial es el cero se conoce la siguiente frmula
o
recursiva.
136
5.4. Proceso de nacimiento puro
Proposicin. Para cualquier t 0 y cualquier entero n 1,
o
t
p0n (t) = n1 en t
en s p0,n1 (s) ds.
(5.7)
Demostracin. El sistema de ecuaciones diferenciales hacia adelante de Kolmogoo
rov para este proceso es
p (t) = j1 pi,j1 (t) j pij (t).
ij
En particular, partiendo de cero,
p00 (t) =
p0n (t) =
0 p00 (t),
n1 p0,n1 (t) n p0n (t),
n 1,
con las condiciones de frontera p00 (0) = 1 y p0n (0) = 0, para n 1. La primera
ecuacin tiene solucin p00 (t) = e0 t , mientras que para el caso n 1, multiplicano
o
do por el factor integrante en t y resolviendo se obtiene la frmula enunciada.
o
De manera anloga puede denirse un proceso de muerte como un proceso de
a
nacimiento y muerte en donde los parmetros de nacimiento 0 , 1 , . . . son todos
a
cero. El proceso puede iniciar con una poblacin de tama o k 1, y presentar
o
n
fallecimientos sucesivos hasta una posible extincin completa de la poblacin.
o
o
El proceso de Yule. Este es un tipo particular de proceso de nacimiento puro,
y para el cual es posible encontrar expl
citamente las probabilidades de transicin.
o
Este proceso puede denirse a travs de los siguientes postulados:
e
a. El estado inicial es X0 = k 1.
b. Si Xt = n, entonces cada uno de estos elementos puede dar nacimiento a un
nuevo elemento durante un periodo de longitud innitesimal h > 0 con probabilidad
h + o(h), en donde > 0, es decir,
P (Xt+h Xt = 1 | Xt = n) =
=
n
[ h + o(h)] [1 h + o(h)]n1
1
nh + o(h).
Cap
tulo 5. Cadenas de Markov a tiempo continuo
137
Es decir, las tasas instantneas de nacimiento son n = n, que crecen de manera
a
lineal conforme la poblacin crece. El tiempo de estancia en el estado n tiene
o
distribucin exp(n), en consecuencia el tiempo medio de estancia en ese estado es
o
1/(n), cada vez menor conforme n crece. El sistema de ecuaciones hacia adelante
para pkn (t), con n k, se reduce a
p (t) =
kk
p (t)
kn
k pkk (t),
(n 1) pk,n1 (t) n pkn (t),
n k + 1.
La frmula recursiva (5.7) es, para n k + 1,
o
t
pkn (t) = (n 1) ent
ens pk,n1 (s) ds.
(5.8)
Demostraremos a continuacin que el incremento Xt X0 tiene distribucin binoo
o
mial negativa de parmetros (r, p), con r = k y p = et .
a
Proposicin.
o
pkn (t) =
n 1 kt
e
(1 et )nk , para n k.
nk
Demostracin. Usaremos induccin sobre n. Para n = k se tiene la ecuacin dio
o
o
ferencial p (t) = k pkk (t), con condicin inicial pkk (0) = 1. Esto produce la
o
kk
solucin pkk (t) = ekt , que es de la forma enunciada. Para valores de n k + 1
o
138
5.4. Proceso de nacimiento puro
usaremos la frmula recursiva (5.8),
o
pkn (t) =
=
=
=
=
=
=
(n 1) ent
t
0
ens
n2
eks (1 es )n1k ds
n1k
n2
(n 1)
ent
n1k
(n 1)
(n 1)
n2
ent
n1k
n2
ent
n1k
(es )(nk) (1 es )n1k ds
0
t
0
t
0
(1 es )1 (es 1)nk ds
es (es 1)n1k ds
t
n2
1
d s
(n 1)
ent
(e 1)nk ds
n1k
(n k) ds
0
n1
n2
ent (et 1)nk
nk n1k
n 1 kt
e
(1 et )nk .
k1
Notas y referencias. Una exposicin ms completa del tema de cadenas de Maro
a
kov a tiempo continuo puede encontrarse en Basu [1], Karlin y Taylor [19], o Stirzaker [36].
Cap
tulo 5. Cadenas de Markov a tiempo continuo
139
Ejercicios
Ecuaciones de Kolmogorov
102. Sea {Nt } un proceso de Poisson de parmetro y sean Y1 , Y2 , . . . v.a.i.i.d.
a
con distribucin com n Bernoulli(p). Encuentre las ecuaciones de Kolmogorov
o
u
hacia atrs y hacia adelante del proceso
a
Nt
Xt =
Yj .
j=1
Resuelva cualquiera de estos sistemas de ecuaciones y demuestre que para
j i,
(pt)ji
pij (t) = ept
.
(j i)!
Procesos de nacimiento y muerte
103. Para la cadena de Markov a tiempo continuo de dos estados en donde la
estancia en el estado 0 tiene distribucin exp(), y la estancia en el estado 1
o
es exp(), demuestre que
a) p00 (t) =
1
+
( + e(+)t ).
b) p01 (t) =
1
+
( e(+)t ).
c) p10 (t) =
1
+
( e(+)t ).
d) p11 (t) =
1
+
( + e(+)t ).
104. Considere una cadena de Markov a tiempo continuo de dos estados en donde
el tiempo de estancia en cada uno de ellos tiene distribucin exp(). Dena
o
Nt como el n mero de veces que la cadena de Markov ha efectuado saltos
u
hasta un tiempo t 0 cualquiera. Demuestre que {Nt } es un proceso de
Poisson de parmetro .
a
140
5.4. Proceso de nacimiento puro
Procesos de nacimiento puro
105. Sea {Xt } un proceso de Yule con estado inicial X0 = k 1. Demuestre que
a) E(Xt ) = k et .
b) Var(Xt ) = k e2t (1 et ).