Procesos de Poisson y Distribuciones Exponenciales
Procesos de Poisson y Distribuciones Exponenciales
Procesos de Poisson
Sea I el ı́ndice (aleatorio) de la menor de las variables exponenciales, hemos demostrado que
λi
P (I = i) = .
λ1 + · · · + λn
λi P
= e−t( j λj ) = P (I = i)P (V > t).
λ1 + · · · + λn
Veamos a continuación cómo se distribuye una suma de exponenciales.
4.2. LA DISTRIBUCIÓN DE POISSON 111
(λt)n−1
fτn (t) = λe−λt para t ≥ 0
(n − 1)!
y 0 en otro caso.
Usamos ahora la distribución exponencial para el primer factor y la fórmula inductiva para el segundo
obtenemos
Z t Z t Z t
(λs)n−1 λn λn
(1 − e−λ(t−s) )λe−λs ds = e−λs sn−1 ds − e−λt sn−1 ds
0 (n − 1)! (n − 1)! 0 (n − 1)! 0
t Z t n
λn h 1 n −λs s −λs tn −λt i
= s e + λ e ds − e
(n − 1)! n
0 0 n n
Z t
(λs)n
= λe−λs ds.
0 n!
Como consecuencia del teorema anterior, teniendo en cuenta que la distribución Γ(n, λ) se obtiene
como suma de v.a.i.i.d. con distribución exponencial de parámetro λ, vemos que
n n
E[τn ] = , Var(τn ) = .
λ λ2
También es posible demostrar que la función de distribución de τn se puede escribir de la siguiente
manera:
n−1
X (λx)i ∞
X (λx)i −λx
P (τn ≤ x) = 1 − e−λx = e
i=0
i! i=n
i!
Observación 4.1 Tenemos los siguientes casos especiales de la distribución Gamma: Γ(1, λ) es la distri-
bución exponencial de parámetro λ mientras que Γ(k, 2) es la distribución Ji-cuadrado con 2k grados de
libertad, χ22k . Además, si X ∼ Γ(n, λ) entonces cX ∼ Γ(n, λ/c).
λk
P (X = k) = pk = e−λ .
k!
112 CAPÍTULO 4. PROCESOS DE POISSON
dφ
E[X] = = λeλ(s−1) = λ,
ds s=1
s=1
d2 φ
2 λ(s−1)
E[X(X − 1)] = = λ e = λ2 ,
ds2 s=1
s=1
Lema 4.2 Sea N ∼ Pois(λ) y condicional a N , M tiene distribución binomial con parámetros N y p.
Entonces la distribución (incondicional) de M es Poisson con parámetro λp.
M = X1 + · · · + XN
donde Xi , i ≥ 1 tiene distribución de Bernoulli con probabilidad de éxito p. La f.g.p. de una variable de
Bernoulli es
φX (s) = E[sX ] = q + sp
y ya hemos visto que la f.g.p. de N es φN (t) = eλ(s−1) . Por lo tanto, la f.g.p. de M es la composición de
estas dos:
φM (s) = φN (φX (s)) = eλ(q+sp−1) = eλ(sp−p) = eλp(s−1)
que es la f.g.p. de una v.a. de Poisson con parámetro λp.
Las variables Tn representan los intervalos de tiempo entre eventos sucesivos (llegadas de clientes a
una cola, de llamadas a una central telefónica, de pacientes a la emergencia de un hospital, etc.) y en
consecuencia τn = T1 + · · · + Tn es el instante en el que ocurre el n-ésimo evento y N (s) es el número de
eventos que han ocurrido hasta el instante s. Llamaremos tiempos de llegada del proceso a las variables
τn , n ≥ 1.
4.3. EL PROCESO DE POISSON 113
6
T1 T2 T T
-- 3 - ··· n-
-
τ0 = 0 τ1 τ2 τ3 ··· τn−1 τn τn+1
s
Figura 4.1
Para ver por qué N (s), s ≥ 0, recibe este nombre, calculemos su distribución: N (s) = n si y sólo
si τn ≤ s < τn+1 , es decir, el n-ésimo evento ocurre antes del instante s pero el (n + 1)-ésimo ocurre
después de s. Usando la ley de la probabilidad total, condicionando respecto al instante en el cual ocurre
τn , obtenemos
Z s
P (N (s) = n) = P (τn+1 > s > τn ) = P (τn+1 > s|τn = t)fτn (t)dt
0
Z s
= P (Tn+1 > s − t)fτn (t)dt.
0
Esto muestra que la distribución del tiempo de espera hasta el primer evento después de s es exponencial
de parámetro λ y es independiente de Ti , 1 ≤ i ≤ n. Por otro lado Tn+1 , Tn+2 , . . . son independientes
de Ti , 1 ≤ i ≤ n y por lo tanto también de τi , 1 ≤ i ≤ n. Esto muestra que los intervalos entre eventos
que ocurren después de s son v.a.i.i.d. con distribución exponencial de parámetro λ, y por lo tanto
N (t + s) − N (s) es un proceso de Poisson.
Como consecuencia de este resultado tenemos
Lema 4.5 N (t) tiene incrementos independientes: Si t0 < t1 < . . . < tn , entonces
son independientes.
114 CAPÍTULO 4. PROCESOS DE POISSON
Demostración. El lema 4.5 implica que N (tn ) − N (tn+1 ) es independiente de N (r), r ≤ tn−1 y en
consecuencia también de N (tn−1 ) − N (tn−2 ), . . . , N (t1 ) − N (t0 ). El resultado sigue por inducción.
Combinando los dos lemas anteriores tenemos la mitad del siguiente resultado, que es una caracteri-
zación fundamental del proceso de Poisson.
λk −λ
e
k!
que es la distribución de Poisson de parámetro λ. El mismo resultado es cierto si en lugar de tener np = λ
tenemos que p → 0 cuando n → ∞ de modo que np → λ.
En realidad la ley de eventos raros se cumple con mayor generalidad aún. Es posible suponer que los
ensayos de Bernoulli no tienen una probabilidad de éxito común, como lo muestra el siguiente teorema.
Primero enunciamos y demostramos un resultado auxiliar.
|P (S ∈ A) − P (T ∈ A)| ≤ P (S 6= T ).
Demostración.
P (S ∈ A) = P (S ∈ A, S = T ) + P (S ∈ A, S 6= T ) = P (T ∈ A, S = T ) + P (S ∈ A, S 6= T )
= P (T ∈ A, S = T ) + P (T ∈ A, S 6= T ) − P (T ∈ A, S 6= T ) + P (S ∈ A, S 6= T )
= P (T ∈ A) − P (T ∈ A, S 6= T ) + P (S ∈ A, S 6= T )
Por lo tanto
P (S ∈ A) − P (T ∈ A) = P (S ∈ A, S 6= T ) − P (T ∈ A, S 6= T ) ≤ P (S ∈ A, S 6= T ) ≤ P (S 6= T ),
y de manera similar
P (T ∈ A) − P (S ∈ A) ≤ P (S 6= T ),
de modo que
|P (T ∈ A) − P (S ∈ A)| ≤ P (S 6= T ),
116 CAPÍTULO 4. PROCESOS DE POISSON
P (Xm = 1) = pm , P (Xm = 0) = 1 − pm .
Sean
Sn = X1 + · · · + Xn , λn = E[Sn ] = p1 + · · · + pn .
Entonces, para cualquier conjunto A,
n
X λk X 2
P (Sn ∈ A) − e−λn n ≤ pm
k! m=1
k∈A
Demostración. Las variables Xm son independientes y tienen distribución de Bernoulli con parámetro
pm . Definimos variables independientes Ym ∼ Pois(pm ), y como la suma de variables Poisson indepen-
dientes es Poisson, tenemos que Zn = Y1 + · · · + Yn tiene distribución Pois(λn ) y
X λkn
P (Zn ∈ A) = e−λn .
k!
k∈A
Por lo tanto queremos comparar P (Sn ∈ A) y P (Zn ∈ A) para cualquier conjunto A de enteros positivos.
Por el lema 4.6
n
X n
X
|P (Sn ∈ A) − P (Zn ∈ A)| ≤ P (Sn 6= Zn ) = P Xm 6= Ym ,
m=1 m=1
pero si Sn y Zn difieren, al menos uno de los pares Xm y Ym deben diferir también. En consecuencia
n
X
|P (Sn ∈ A) − P (Zn ∈ A)| ≤ P (Xm 6= Ym )
m=1
y para completar la demostración hay que ver que P (Xm 6= Ym ) ≤ p2m . Para simplificar la notación sean
X ∼ Ber(p) y Y ∼ Pois(p) y veamos que P (X 6= Y ) ≤ p2 , o equivalentemente, que
1 − p2 ≤ P (X = Y ) = P (X = Y = 0) + P (X = Y = 1).
Este resultado no depende de la distribución conjunta entre X y Y pues no hemos supuesto ninguna
propiedad de independencia entre ellas. Lo importante es que las distribuciones marginales de X y Y
sigan siendo las mismas. Escogemos la distribución conjunta de (X, Y ) de la siguiente manera: Sea U una
variable con distribución uniforme en (0, 1] y sean
(
0 si 0 < U ≤ 1 − p
X=
1 si 1 − p < U ≤ 1.
Es sencillo verificar que X y Y tienen las distribuciones marginales adecuadas (esto no es más que el
método de la transformada inversa de generación de variables aleatorias, aplicado las distribuciones de
Bernpulli y de Poisson). Como 1 − p ≤ e−p tenemos que X = Y = 0 si y sólo si U ≤ 1 − p, de modo que
P (X = Y = 0) = 1 − p.
4.4. POSTULADOS PARA EL PROCESO DE POISSON 117
P (X = Y = 1) = pe−p .
Corolario 4.1 (Le Cam) Para cada n, sean Xn,m , 1 ≤ m ≤ n, n ≥ 1 variables aleatorias independien-
tes con
P (Xn,m = 1) = pn,m , P (Xn,m = 0) = 1 − pn,m .
Sean
Sn = Xn,1 + · · · + Xn,n , λn = E[Sn ] = pn,1 + · · · + pn,n ,
y Zn ∼ Pois(λn ). Entonces, para cualquier conjunto A,
n
X
|P (Sn ∈ A) − P (Zn ∈ A)| ≤ p2n,m
m=1
El teorema anterior nos da una cota para la diferencia entre la distribución de Sn y la distribución
de Poisson de parámetro λn = E[Sn ], que podemos usar para obtener una versión general del teorema de
convergencia de Poisson.
Corolario 4.2 Supongamos que en la situación del corolario anterior λn → λ < ∞ y máxk pn,k → 0,
cuando n → ∞, entonces
máx |P (Sn ∈ A) − P (Zn ∈ A)| → 0.
A
2. Para cualquier instante t y cualquier h > 0, la distribución de probabilidad de N ((t, t + h]) depende
sólo de la longitud del intervalo h y no del instante inicial t.
3. Hay una constante positiva λ para la cual la probabilidad de que ocurra al menos un evento en un
intervalo de longitud h es
(la notación o(h) indica una función general indeterminada que representa el resto y satisface
o(h)/h → 0 cuando h ↓ 0, es decir, que es de orden menor que h cuando h ↓ 0). El parámetro λ se
conoce como la intensidad del proceso.
El número de sucesos que ocurren en intervalos disjuntos son independientes por 1, y 2 afirma que
la distribución de N ((s, t]) es la misma que la de N ((0, t − s]). Por lo tanto, para describir la ley de
probabilidad del sistema basta determinar la distribución de probabilidad de N ((0, t]) para cualquier
valor de t. Llamemos N ((0, t]) = N (t). Mostraremos que los postulados anteriores implican que N (t)
tiene una distribución de Poisson:
(λt)k e−λt
P (N (t) = k) = , para k = 0, 1, . . . (4.3)
k!
Para demostrar (4.3) dividimos el intervalo (0, t] en n subintervalos de igual longitud h = t/n y definimos
las siguientes variables de Bernoulli: ξn,i = 1 si hay al menos un evento en el intervalo ((i − 1)t/n, it/n] y
ξn,i = 0 si no, para 1 ≤ i ≤ n. Sn = ξn,1 + · · · + ξn,n representa el número de subintervalos que contienen
al menos un evento y
λt t
pn,i = P (ξn,i = 1) = + o( )
n n
según el postulado 3. Sea
X n t
µn = pi,n = λt + no .
i=1
n
o(t/n) o(h)
no(t/n) = t =t
t/n h
µk e−µ
lim P (Sn = k) = , con µ = λt.
n→∞ k!
Para completar la demostración sólo falta ver que
pero Sn y N ((0, t]) son diferentes si al menos uno de los subintervalos contiene dos o más eventos, y el
postulado 4 impide esto porque
|P (N (t) = k) − P (Sn = k)| ≤ P (N (t) 6= Sn )
Xn (i − 1)t it
≤ P N , ≥2
i=1
n n
t
≤ no
n
→ 0 cuando n → 0.
Tomando n suficientemente grande tenemos que
(λt)k e−λt
P (N ((0, t]) = k) = , para k ≥ 0.
k!
Esto completa la demostración de (4.3).
El proceso N ((a, b]) se conoce como el Proceso Puntual de Poisson y sus valores, como hemos visto,
se pueden calcular a partir de los del proceso N (t):
N ((s, t]) = N (t) − N (s)
Recı́procamente, N (t) = N ((0, t]), de modo que ambos procesos son equivalentes, las diferencias son de
enfoque, pero en algunos casos resulta útil considerar al proceso de una u otra manera.
A continuación presentamos sin demostración otra caracterización de los procesos de Poisson que
resultará útil más adelante.
Teorema 4.5 Sea N (t), t ≥ 0 un proceso de Poisson de parámetro λ > 0. Para 0 < u < t y 0 ≤ k ≤ n,
n! u k u n−k
P (N (u) = k|N (t) = n) = 1− , (4.4)
k!(n − k)! t t
Es decir, condicional a que para el instante t han ocurrido n eventos, la distribución del número de
eventos que han ocurrido para el instante u < t es binomial con parámetros n y (u/t).
Demostración.
P (N (u) = k, N (t) = n)
P (N (u) = k|N (t) = n) =
P (N (t) = n)
P (N (u) = k, N (t) − N (u) = n − k)
=
P (N (t) = n)
[e−λu (λu)k /k!][e−λ(t−u) (λ(t − u))n−k /(n − k)!]
=
e−λt (λt)n /n!
n! uk (t − u)n−k
= .
k!(n − k)! tn
120 CAPÍTULO 4. PROCESOS DE POISSON
Ejemplo 4.3
Recordemos que la variable τn tiene distribución Γ(n, λ) y por la observación 1 sabemos que λτn /2 ∼
Γ(n, 2) = χ22n .
Si observamos un proceso de Poisson hasta que se registre un número prefijado m de eventos, el tiempo
necesario τm puede usarse para construir intervalos de confianza para la intensidad λ del proceso, usando
el hecho de que λτm /2 tiene distribución χ2 con 2m grados de libertad. Sean zα/2 y z1−α/2 valores tales
que si Z ∼ χ22m , entonces P (Z < zα/2 ) = P (Z > z1−α/2 ) = α/2. Tenemos
2zα/2 2z1−α/2
1 − α = P (zα/2 ≤ λτm /2 ≤ z1−α/2 ) = P ( ≤λ≤ ).
τm τm
Ejemplo 4.4
Sean N y M dos procesos de Poisson independientes con parámetros respectivos λ y µ. Sean n y m
enteros, τn el tiempo de espera hasta el n-ésimo evento en el proceso N y γm el tiempo de espera hasta el
m-ésimo evento en el proceso M . Las variables λτn /2 y µγm /2 son independientes y tienen distribuciones
χ2 con 2n y 2m grados de libertad, respectivamente. Por lo tanto, bajo la hipótesis de que λ = µ, la
variable mτn /nγm tiene distribución F con 2n y 2m grados de libertad, y podemos desarrollar una prueba
de hipótesis para λ = µ. N
S(t) = Y1 + · · · + YN (t)
donde ponemos S(t) = 0 si N (t) = 0. Ya hemos visto que para suma aleatorias, la media es el producto
de las medias de N e Y , mientras que la varianza está dada por
En nuestro caso, N (t) ∼ Pois(λt) y por lo tanto, E[N (t)] = Var(N (t)) = λt, de modo que la fórmula
anterior es
Var(S(t)) = λt(Var(Yi ) + (E[Yi ])2 ) = λt E[Yi2 ].
Ejemplo 4.5
El número de clientes de una tienda durante el dı́a tiene distribución de Poisson de media 30 y cada
cliente gasta un promedio de $150 con desviación tı́pica de $50. Por los cálculos anteriores sabemos que
el ingreso medio por dı́a es 30 · $150 = $4.500. La varianza del ingreso total es
La función de distribución para el proceso de Poisson compuesto S(t) puede representarse explı́cita-
mente si condicionamos por los valores de N (t). Recordemos que la distribución de una suma de variables
independientes es la convolución de las distribuciones: Si Y tiene f.d. G,
Z ∞
G(n) (y) = P (Y1 + · · · + Yn ≤ y) = G(n−1) (y − z)dG(z)
−∞
con (
(0) 1 para y ≥ 0,
G (y) =
0 para y < 0.
Ahora
N (t)
X
P (S(t) ≤ z) = P ( Yk ≤ z)
k=1
∞ N (t)
X X (λt)n e−λt
= P( Yk ≤ z|N (t) = n)
n=0
n!
k=1
∞
(λt)n e−λt (n)
X
= G (z). (4.5)
n=0
n!
Ejemplo 4.6
Sea N (t) el número de impactos que recibe un sistema mecánico hasta el instante t y sea Yk el daño o
desgaste que produce el k-ésimo impacto. Suponemos que los daños son positivos: P (Yk ≥ 0) = 1, y que
PN (t)
se acumulan aditivamente, de modo que S(t) = k=1 Yk representa el daño total hasta el instante t.
Supongamos que el sistema continua funcionando mientras el daño total sea menor que un valor crı́tico
a y en caso contrario falla. Sea T el tiempo transcurrido hasta que el sistema falla, entonces
Para obtener el tiempo promedio hasta que el sistema falle podemos integrar esta probabilidad:
∞ ∞ Z ∞
(λt)n e−λt (n)
Z X
E[T ] = P (T > t)dt = dt G (a)
0 n=0 0 n!
∞
X
= λ−1 G(n) (a),
n=0
donde hemos intercambiado series e integrales porque todos los términos son positivos. Esta expresión se
simplifica en el caso particular en el cual los daños tienen distribución exponencial de parámetro µ. En
este caso la suma τn = Y1 + · · · + Yn tiene distribución Γ(n, µ); sea M (t) el proceso de Poisson asociado
a estas variables i.i.d. exponenciales, entonces
y
∞ ∞ X∞ ∞ Xk
X X (µa)k e−µa X (µa)k e−µa
G(n) (a) = =
n=0 n=0
k! n=0
k!
k=n k=0
∞ k −µa
X (µa) e
= (k + 1) = 1 + µa.
k!
k=0
P (Yk = 1) = p, P (Yk = 0) = 1 − p,
para 0 < p < 1 fijo y k ≥ 1. Definimos ahora dos procesos, según el valor de las variables Yk sea 0 ó 1:
N (t)
X
N1 (t) = Yk , y N0 (t) = N (t) − N1 (t).
k=1
Los valores de N1 (t) sobre intervalos disjuntos son variables aleatorias independientes, N1 (0) = 0 y final-
mente, el lema 4.2 nos dice que N1 (t) tiene distribución de Poisson con media λpt. Un argumento similar
muestra que N0 (t) es un proceso de Poisson con parámetro λ(1 − p). Lo que resulta más sorprendente es
que N0 y N1 son procesos independientes. Para ver esto calculemos
para j, k = 0, 1, 2, . . .
Ejemplo 4.7
Los clientes entran a una tienda de acuerdo a un proceso de Poisson con intensidad de 10 por hora. De
manera independiente, cada cliente compra algo con probabilidad p = 0.3 o sale de la tienda sin comprar
nada con probabilidad q = 1−p = 0.7. ¿Cuál es la probabilidad de que durante la primera hora 9 personas
entren a la tienda y que tres de estas personas compren algo y las otras 6 no?
4.8. SUPERPOSICIÓN DE PROCESOS DE POISSON 123
Sea N1 = N1 (1) el número de clientes que hacen una compra durante la primera hora y N0 = N0 (1)
el número de clientes que entran pero no compran nada. Entonces N0 y N1 son v.a.i. de Poisson con
parámetros respectivos (0.7)(10) = 7 y (0.3)(10) = 3. Por lo tanto
76 e−7 33 e−3
P (N0 = 6) = = 0.149, P (N1 = 3) = = 0.224.
6! 3!
y
P (N0 = 6, N1 = 3) = P (N0 = 6)P (N1 = 3) = (0.149)(0.224) = 0.0334.
N
En el caso general las variables Yk toman valores sobre un conjunto numerable, por ejemplo sobre
{0, 1, 2, . . . }, y el resultado correspondiente es el siguiente teorema, que no demostraremos.
Teorema 4.6 Nj (t) son procesos de Poisson independientes con intensidad λP (Yi = j).
Teorema 4.7 Sean N1 (t), . . . , Nk (t) procesos de Poisson independientes con parámetros λ1 , . . . , λk , en-
tonces N1 (t) + · · · + Nk (t) es un proceso de Poisson con parámetro λ1 + · · · + λk .
Demostración. Haremos la demostración para el caso k = 2, el caso general se obtiene luego por induc-
ción. Es inmediato que la suma tiene incrementos independientes y que N1 (0) + N2 (0) = 0. Para verificar
que los incrementos tienen distribución de Poisson con parámetro igual a la suma de los parámetros
observamos que si Y = N1 (t + s) − N1 (s) ∼ Pois(λ1 t) y Z = N2 (t + s) − N2 (s) ∼ Pois(λ2 t), entonces
N (t + s) − N (s) = [N1 (t + s) − N1 (s)] + [N2 (t + s) − N2 (s)]
= Y + Z ∼ Pois((λ1 + λ2 )t).
Ejemplo 4.8
Consideremos dos procesos de Poisson, uno con parámetro λ, que representa las llegadas a la meta del
equipo rojo, y otro, independiente del anterior y con parámetro µ, que representa las llegadas del equipo
verde. ¿Cuál es la probabilidad de que haya 6 llegadas rojas antes que 4 verdes?
Observamos que el evento en cuestión equivale a tener al menos 6 rojos en los primeros 9. Si esto
ocurre, tenemos a lo sumo tres verdes antes de la llegada del sexto rojo. Por otro lado, si hay 5 o menos
rojos en los primeros 9, entonces tendremos al menos 4 verdes.
Podemos ahora ver el problema en el marco de un proceso de Poisson general que incluye rojos y
verdes, y tiene parámetro λ + µ. Para cada llegada escogemos al azar el color lanzando una moneda con
probabilidad p = λ/(λ + µ) para rojo. La probabilidad que nos interesa es
9
X 9 k
p (1 − p)9−k .
k
k=6
En el caso particular en el cual ambos procesos iniciales tienen la misma intensidad λ = µ, p = 1/2 y la
expresión anterior es
9
1 X 9 140
= = 0.273.
512 k 512
k=6
N
124 CAPÍTULO 4. PROCESOS DE POISSON
Definición 4.4 Decimos que (N (t), t ≥ 0) es un proceso de Poisson no homogéneo con tasa λ(s), s ≥ 0
si
1. N (0) = 0,
2. N (t) tiene incrementos independientes,
R s+t
3. N (s + t) − N (s) tiene distribución de Poisson con media s
λ(r) dr.
En este caso los intervalos de tiempo entre eventos sucesivos, Tn , n ≥ 1, ya no son independientes
ni tienen distribución exponencial. Esta es la razón por la cual no usamos nuestra R t definición inicial
para esta generalización. Veamos que esto es efectivamente cierto. Pongamos µ(t) = 0 λ(s) ds, entonces
N (t) ∼ Pois(µ(t)) y
P (T1 > t) = P (N (t) = 0) = e−µ(t) .
Derivando obtenemos la densidad
d Rt
fT1 (t) = − P (T1 > t) = λ(t)e− 0 λ(s) ds = λ(t)e−µ(t)
dt
para t ≥ 0. La relación anterior se puede generalizar de la siguiente manera
lo cual muestra que, en general, las variables Ti no son independientes ni tienen distribución exponencial.
Ejemplo 4.9
Los clientes llegan a una tienda de acuerdo a un proceso de Poisson no-homogéneo con intensidad
2t
para 0 ≤ t < 1,
λ(t) = 2 para 1 ≤ t < 2,
4 − t para 2 ≤ t ≤ 4,
donde t se mide en horas a partir de la apertura. ¿Cuál es la probabilidad de que dos clientes lleguen
durante las primeras dos horas y dos más durante las dos horas siguientes?
Como las llegadas durante intervalos disjuntos son independientes,
R 1 podemos
R 2 responder las dos pre-
guntas por separado. La media para las primeras dos horas es µ = 0 2t dt + 1 2 dt = 3 y por lo tanto
e−3 (3)2
P (N (2) = 2) = = 0.2240.
2!
R4
Para las siguientes dos horas, µ = 2
(4 − t) dt = 2 y
e−2 (2)2
P (N (4) − N (2) = 2) = = 0.2707.
2!
La probabilidad que nos piden es
N
4.9. PROCESOS NO HOMOGÉNEOS 125
(a) N (0) = 0.
Muestrear en el tiempo un proceso de Poisson ordinario a una tasa que depende del tiempo produce
un proceso de Poisson no-homogéneo. Esto es similar a lo que vimos para la descomposición de un proceso
de Poisson sólo que ahora la probabilidad de observar un evento del proceso original no es una constante
p como ocurrı́a antes, sino que depende del tiempo: p(t).
Sea {N (t), t ≥ 0} un proceso de Poisson con intensidad constante λ y supongamos que un evento
que ocurre en el instante t se observa con probabilidad p(t), independientemente de lo que haya ocurrido
antes. Llamemos M (t) al proceso de los eventos que hemos logrado contar hasta el instante t, entonces
{M (t), t ≥ 0} es un proceso de Poisson no-homogéneo con función de intensidad λ(t) = λp(t). Podemos
verificar esta afirmación comprobando que se satisfacen los axiomas anteriores.
(a) M (0) = 0.
(b) El número de eventos que contamos en el intervalo (t, t + h] depende únicamente de los eventos del
proceso de Poisson N que ocurren en (t, t + h], que es independiente de lo que haya ocurrido antes
de t. En consecuencia el número de eventos observados en (t, t + h] es independiente del proceso de
eventos observados hasta el tiempo t, y por lo tanto M tiene incrementos independientes.
P (M ((t, t + h]) = 1) = P (M ((t, t + h]) = 1|N ((t, t + h]) = 1)P (N ((t, t + h]) = 1)
+ P (M ((t, t + h]) = 1|N ((t, t + h]) ≥ 2)P (N ((t, t + h]) ≥ 2)
= P (M ((t, t + h]) = 1|N ((t, t + h]) = 1)λh + o(h)
= p(t)λh + o(h)
Hay un recı́proco (parcial) para este resultado: todo proceso no-homogéneo de Poisson con intensidad
acotada se puede obtener a partir de un proceso homogéneo muestreado en el tiempo. Para ver esto
necesitamos la siguiente proposición que enunciamos sin demostración
(a) {S(t), t ≥ 0} es un proceso de Poisson no-homogéneo con función de intensidad λ(t) = α(t) + β(t).
(b) Dado que un evento del proceso S ocurre en el instante t entonces, independientemente de lo que
haya ocurrido antes de t, el evento en t viene del proceso N con probabilidad α(t)/(α(t) + β(t)).
126 CAPÍTULO 4. PROCESOS DE POISSON
Demostración. Ver S.M. Ross, Introduction to Probability Models 10th. Ed. p. 340.
Supongamos ahora que {N (t), t ≥ 0} es un proceso de Poisson no-homogéneo con función de in-
tensidad acotada λ(t) tal que λ(t) ≤ λ para todo t. Sea {M (t), t ≥ 0} otro proceso de Poisson
no-homogéneo con intensidad µ(t) = λ − λ(t) e independiente de N (t). Por la proposición anterior
tenemos que {N (t), t ≥ 0} se puede considerar como el proceso que se obtiene a partir del proceso ho-
mogéneo {N (t) + M (t), t ≥ 0}, donde un evento que ocurre en el tiempo t es observado con probabilidad
p(t) = λ(t)/λ.
Teorema 4.8 Sea N un proceso de Poisson no homogéneo y sea M (t) = N (ν(t)), t ≥ 0. Entonces M
es un proceso de Poisson homogéneo con intensidad 1.
Demostración. Fijamos s, t y ponemos t0 = ν(t), t0 + s0 = ν(t + s), s0 = ν(t + s) − ν(t). Entonces
n!
fU(1) ,...,U(n) (u1 , . . . , un ) = para 0 < u1 < · · · < un ≤ t (4.6)
tn
Dada cualquier colección X1 , . . . , Xn de v.a.i.i.d. las variables X(1) , . . . , X(n) , que corresponden a los
valores de las variables originales pero ordenadas
se conocen como los estadı́sticos de orden. El próximo teorema nos muestra cómo se obtiene su distribución
en el caso general.
Teorema 4.9 Sean X(1) ≤ X(2) ≤ · · · ≤ X(n) los estadı́sticos de orden para una muestra aleatoria simple
de variables aleatorias continuas con densidad f (x). La densidad conjunta de los estadı́sticos de orden es
( Q
n
n! i=1 f (x(i) ), x(1) < · · · < x(n) ,
gn (x(1) , x(2) , . . . , x(n) ) = (4.7)
0, en otro caso.
Teorema 4.10 Sean τ1 , τ2 , . . . los instantes en los cuales ocurren los sucesivos eventos de un proceso
de Poisson de parámetro λ. Dado que N (t) = n, las variables τ1 , τ2 , . . . tienen la misma distribución
conjunta que los estadı́sticos de orden de n v.a.i. con distribución uniforme en [0, t].
P (t1 ≤ τ1 ≤ t1 + h1 , . . . , tn ≤ τn ≤ tn + hn |N (t) = n)
λh1 e−λh1 · · · λhn e−λhn e−λ(t−h1 −···−hn )
=
e−λt (λt)n /n!
n!
= n h1 · · · hn . (4.8)
t
Pero, por definición de la función de densidad, el lado izquierdo de (4.8) es, para valores pequeños de
hi , 1 ≤ i ≤ n, aproximadamente igual a
Esto es suficiente para demostrar que la densidad condicional de los tiempos τi dado que han ocurrido n
eventos en el intervalo [0, t] es igual a n!/tn .
Ejemplo 4.10
El teorema anterior nos da una manera de probar si un conjunto de observaciones es de Poisson. Su-
pongamos que hemos observado el proceso por un perı́odo de tiempo t durante el cual han ocurrido n
eventos. Sea τ1 , . . . , τn los instantes en los cuales han ocurrido los eventos y sea W1 , . . . , Wn una permu-
tación de los instantes escogida al azar. Si los eventos ocurrieron de acuerdo a un proceso de Poisson,
las variables Wi son independientes y tienen distribución uniforme sobre el intervalo [0, t]. Por lo tanto
podemos hacer un test sobre estas variables para ver si cumplen esta hipótesis, para lo cual podemos
hacer una prueba de Kolmogorov-Smirnov o de Cramér-von PnMises. También es posible usar el TCL ya
que para valores moderados o grandes de n, la suma Sn = 1 Ui es aproximadamente normal con media
E(Sn ) = n E(U1 ) = nt/2 y varianza Var(Sn ) = n Var(U1 ) = nt2 /12.
4.10. LA DISTRIBUCIÓN UNIFORME 129
aceptarı́amos la hipótesis de que los eventos provienen de un proceso de Poisson con un nivel de signifi-
cación de 95 %. N
Ejemplo 4.11
Consideremos una masa de material radioactivo que emite partı́culas alfa de acuerdo a un proceso de
Poisson de intensidad λ. Cada partı́cula existe por un perı́odo aleatorio de tiempo y luego desapare-
ce. Supongamos que los tiempos de vida sucesivos Y1 , Y2 , . . . de las diferentes partı́culas son v.a.i. con
distribución común G(y) = P (Yk ≤ y). Sea M (t) el número de partı́culas que existen en el instante t.
Queremos hallar la distribución de probabilidad de M (t) bajo la condición de que M (0) = 0.
Sea N (t) el número de partı́culas creadas hasta el tiempo t. Observamos que M (t) ≤ N (t). Dado que
N (t) = n sean τ1 , . . . , τn ≤ t los instantes en los cuales se crean las partı́culas. La partı́cula k existe en el
instante t si y sólo si τk + Yk ≥ t. Por lo tanto
n
X
P (M (t) = m|N (t) = n) = P 1{τk +Yk ≥t} = m|N (t) = n .
k=1
donde U1 , U2 , . . . , Un son v.a.i. con distribución uniforme en [0, t]. El lado derecho de (4.9) es una distri-
bución binomial con parámetros n y
1 t
Z
p = P (Uk + Yk ≥ t) = P (Yk ≥ t − u)du
t 0
1 t 1 t
Z Z
= [1 − G(t − u)]du = [1 − G(z)]dz. (4.10)
t 0 t 0
Escribiendo explı́citamente la distribución binomial tenemos
n m
P (M (t) = m|N (t) = n) = p (1 − p)n−m
m
con p dado por la ecuación (4.10). Finalmente
∞
X
P (M (t) = m) = P (M (t) = m|N (t) = n)P (N (t) = n)
n=m
∞
X n! (λt)n e−λt
= pm (1 − p)n−m
n=m
m!(n − m)! n!
∞
(λpt)m X (1 − p)n−m (λt)n−m
= e−λt . (4.11)
m! n=m (n − m)!
e−λpt (λpt)m
P (M (t) = m) = para m ≥ 0,
m!
es decir, el número de partı́culas que existen en el instante t tiene distribución de Poisson de media
Z t
λpt = λ (1 − G(y))dy. (4.12)
0
R∞
Veamos que ocurre cuando t → ∞. Sea µ = E[Yk ] = 0 (1 − G(y))dy la vida media de una partı́cula
alfa. Vemos a partir de (4.12) que cuando t → ∞, la distribución de M (t) converge a una distribución de
Poisson con parámetro λµ. Por lo tanto, asintóticamente, la distribución de probabilidad para el número
de partı́culas que existen depende únicamente de la vida media µ. N
Ejemplo 4.12
Un procedimiento común en estadı́stica es observar un número fijo n de v.a.i.i.d. X1 , . . . , Xn y usar su
media muestral
X1 + · · · + Xn
X̄n =
n
como estimador de la media de la población E[X1 ]. Consideremos en cambio la siguiente situación: Una
compañı́a nos pide estimar el tiempo medio de vida en servicio de cierto componente de una máquina.
La máquina ha estado funcionando por dos años y se observó que el componente original duró 7 meses,
el siguiente duró 5 meses y el tercero 9. No se observaron fallas en los tres meses restantes del perı́odo de
observación. La pregunta es si es correcto estimar la vida media en servicio por el promedio observado
(7 + 9 + 5)/3 = 7 meses.
Este ejemplo presenta una situación en la cual el tamaño de la muestra no está fijo de antemano
sino que se determina a través de una ’cuota’ prefijada t > 0: Observamos una sucesión de variables
i.i.d. X1 , X2 , . . . y continuamos el muestreo mientras la suma de observaciones sea menor que la cuota t.
Llamemos N (t) al tamaño de la muestra,
La media muestral es
X1 + · · · + XN (t)
X̄N (t) = .
N (t)
Puede suceder que X1 ≥ t, en este caso N (t) = 0 y no podemos definir la media muestral. Por lo
tanto tenemos que suponer que N (t) ≥ 1. Una pregunta importante en estadı́stica matemática es si este
estimador es insesgado. Es decir, ¿cómo se relaciona el valor esperado de este estimador con el valor
esperado de E[X1 ]?
En general, determinar el valor esperado de la media muestral en esta situación es muy difı́cil. Es
posible hacerlo, sin embargo, en el caso en el cual los sumandos tienen distribución exponencial de
parámetro común λ, de modo que N (t) es un proceso de Poisson. La clave es usar el teorema 4.10 para
evaluar la esperanza condicional
n
E[τN (t) |N (t) = n] = E[máx(U1 , . . . , Un )] = t ,
n+1
donde U1 , . . . , Un son independientes y tienen distribución uniforme sobre el intervalo [0, t]. Observamos
además que
(λt)n e−λt
P (N (t) = n|N (t) > 0) = .
n!(1 − e−λt )
4.11. PROCESOS ESPACIALES DE POISSON 131
Entonces,
hτ i X ∞ hτ i
N (t) N (t)
E N (t) > 0 = E N (t) = n P (N (t) = n|N (t) > 0)
N (t) n=1
n
∞
X n 1 (λt)n e−λt
= t
n=1
n + 1 n n!(1 − e−λt )
∞
1 1 X (λt)n+1
=
λ eλt − 1 n=1 (n + 1)!
1 1 λt
= (e − 1 − λt)
λ eλt − 1
1 λt
= 1 − λt .
λ e −1
Podemos ver el efecto de este tipo de muestreo si expresamos el resultado anterior en términos del cociente
del sesgo entre el verdadero valor de la esperanza E(X1 ) = 1/λ. Tenemos
Teorema 4.11 Sean U1 , U2 , . . . , Un v.a.i. con densidad g. Dado que N (t) = n, los tiempos de llegadas
τ1 , . . . , τn tienen la misma distribución que los estadı́sticos de orden correspondientes a las variables
U1 , . . . , Un .
La demostración es similar a la del caso homogéneo y queda como ejercicio.
Ejemplo 4.13
Una zona de Londres se dividió en N = 576 = 24 × 24 áreas de 1/4 de kilómetro cuadrado. Esta
área recibió 535 impactos de bomba durante la II Guerra Mundial, un promedio de 535/576 = 0.9288
por cuadrado. La siguiente tabla presenta Nk , el número de cuadrados que recibieron el impacto de
exactamente k bombas y lo compara con el valor esperado si los impactos tuviesen una distribución de
Poisson con esta media
k 0 1 2 3 4 ≥5
Nk 229 211 93 35 7 1
Poisson 226.74 211.39 98.54 30.62 7.14 1.57
El ajuste es muy bueno y puede ser verificado haciendo una prueba χ2 . N
Muchas de las propiedades que hemos estudiado para el caso unidimensional tienen una extensión
natural para el caso de dimensiones mayores. Veamos, como ejemplo, la propiedad de uniformidad de
la distribución de la ubicación de los puntos en una región dado que conocemos el número de puntos.
Consideremos inicialmente una región A de tamaño positivo |A| > 0 y supongamos que sabemos que A
contiene exactamente un punto: N (A) = 1. Entonces, la distribución de este punto es uniforme en el
siguiente sentido:
|B|
P (N (B) = 1|N (A) = 1) =
|A|
para cualquier B ⊂ A. Para ver esto escribimos A = B ∪ C donde C = A \ B y en consecuencia N (B) y
N (C) son v.a.i. de Poisson con medias respectivas λ|B| y λ|C|. Entonces
P (N (B) = 1, N (C) = 0)
P (N (B) = 1|N (A) = 1) =
P (N (A) = 1)
λ|B|e−λ|B| e−λ|C|
=
λ|A|e−λ|A|
|B|
= .
|A|
Para generalizar este resultado consideremos una región A de tamaño positivo |A| > 0 que contiene
N (A) = n ≥ 1 puntos. Entonces estos puntos son independientes y están distribuidos uniformemente en
A en el sentido de que para cualquier partición disjunta A1 , . . . , Am de A, donde A = A1 ∪ · · · ∪ Am y
para cualesquiera enteros positivos k1 , . . . , km con k1 + · · · + km = n, tenemos
n! |A | k1 |A | km
1 m
P (N (A1 ) = k1 , . . . , N (Am ) = km |N (A) = n) = ···
k1 ! · · · kn ! |A| |A|
es decir, dado que N (A) = n, la distribución de N (A1 ), . . . N (Am ) es multinomial.
4.11. PROCESOS ESPACIALES DE POISSON 133
Ejemplo 4.14
Consideremos un proceso de Poisson compuesto sobre la recta y supongamos que las variables asociadas
U1 , U2 , . . . tienen distribución uniforme U(0, 1). Esto nos da una sucesión de puntos sobre la banda
{(t, u) : 0 ≤ t < ∞, 0 < u < 1}. En este caso, como las Ui tienen distribución continua, el número de
puntos sobre una recta fija {(t, u) : u = x} es 0 con probabilidad uno.
Si en lugar de rectas consideramos bandas
y si 0 ≤ a0 < a1 < . . . < an ≤ 1, entonces los puntos en las bandas 1 ≤ m ≤ n son independientes.
Usando esta propiedad y la propiedad de incrementos independientes de los procesos de Poisson
unidimensionales obtenemos el siguiente resultado: Sean Rm = {(t, u) : am < t ≤ bm , cm < u ≤ dm }
rectángulos con am ≥ 0 y 0 ≤ cm < dm ≤ 1 y sea N (Rm ) el número de puntos (Ti , Ui ) que están en el
rectángulo Rm . Si los rectángulos Rm son disjuntos entonces las variables N (Rm ) son independientes y
tienen distribución de Poisson con media
Ejemplo 4.15
Sean τ1 , τ2 , . . . los instantes en los que ocurren eventos de un proceso de Poisson con intensidad λ.
Supongamos que si un evento ocurre en el instante s, lo registramos con probabilidad p(s). El proceso de
eventos registrados es un proceso de Poisson no-homogéneo de intensidad λp(s).
Para ver esto, asociamos a cada τi una v.a.i. con distribución uniforme sobre (0, 1), y aceptamos el
punto si Ui < p(τi ). El número de puntos τi aceptados en un intervalo (a, b) es igual al número de puntos
(τi , Ui ) que caen en la región
{(t, u) : a < t < b, 0 < u < p(t)}.
En consecuencia, este número es Poisson con media igual al producto de λ por el área del conjunto, es
Rb
decir λ a p(s)ds. Es claro que el número de eventos en intervalos disjuntos son independientes, de modo
que tenemos un proceso de Poisson no-homogéneo. Este resultado nos da una manera de construir un
proceso de Poisson no-homogéneo de intensidad dada. N