0% encontró este documento útil (0 votos)
547 vistas135 páginas

Métodos Estocásticos

Este documento introduce los conceptos básicos de los procesos estocásticos. Explica que un proceso estocástico describe señales aleatorias que dependen del tiempo y que pueden caracterizarse mediante funciones probabilísticas y estadísticas. Define un proceso estocástico como una familia de funciones del tiempo indexadas por un espacio muestral, y discute cómo un proceso puede representar funciones muestras, variables aleatorias o números reales dependiendo de si el tiempo y el espacio muestral son variables o constantes. Además,

Cargado por

yelsinsotelo
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
547 vistas135 páginas

Métodos Estocásticos

Este documento introduce los conceptos básicos de los procesos estocásticos. Explica que un proceso estocástico describe señales aleatorias que dependen del tiempo y que pueden caracterizarse mediante funciones probabilísticas y estadísticas. Define un proceso estocástico como una familia de funciones del tiempo indexadas por un espacio muestral, y discute cómo un proceso puede representar funciones muestras, variables aleatorias o números reales dependiendo de si el tiempo y el espacio muestral son variables o constantes. Además,

Cargado por

yelsinsotelo
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Curso: Procesos estocásticos (BMA22N)

Procesos estocásticos
Introducción
Los sistemas de comunicaciones trabajan con señales, señales que dependen del tiempo,
a veces es posible caracterizar estas señales de forma determinista y en otras ocasiones
será preciso tratarlas como señales aleatorias: los ejemplos más claros son el ruido térmico
en cualquier dispositivo, o las propias señales de información, son señales que toman
valores aleatorios en cualquier tiempo dado y debido a eso deben ser descritas en términos
de probabilidades y promedios estadísticos. El modelo probabilístico usado para describir
señales aleatorias se denomina proceso estocástico (o aleatorio).

Definición
Consideremos un experimento aleatorio con salidas λ y espacio muestral S, si asignamos
a cada salida λ , de acuerdo con algún tipo de regla, una función del tiempo: x(t; λ ) .
La familia de todas estas funciones, designada por X(t; λ ) , se denomina proceso
estocástico. Para simplificar la notación, es práctica común suprimir la variable λ y
simplemente escribir X(t) en lugar de X(t; λ ) para denotar un proceso estocástico.
Usaremos la notación abreviada x(t) para representar una forma de onda especifica de un
proceso estocástico, designado por X(t) .

Figura 1: Proceso estocástico (o aleatorio): colección de funciones del


tiempo o de variables aleatorias.

Página 1
Tomando como base la figura 1, debemos observar que:
a) Cuando t y λ son variables, X(t; λ ) representa una familia de funciones temporales, la
figura 1, ilustra unos pocos miembros de una familia. Cada función temporal miembro se
denomina función muestra o realización del proceso. La totalidad de todas las funciones
muestra es llamada un “ensemble” (colección, familia)

b) Cuando t es variable y λ se fija en un valor especifico (resultado), el proceso estocástico


representa una sola función temporal, es decir una función muestra o realización del
proceso.

c) Cuando se fija t y λ se considera variable, el proceso estocástico representa una variable


aleatoria.
Por ejemplo, la variable aleatoria X(t1; λ ) =X(t1) se obtiene del proceso cuando se congela
el tiempo en el t1. A menudo, usamos la notación X1 para indicar la variable aleatoria
asociada con el proceso X(t) en el instante t1, como se ilustra en la figura 1.

d) Cuando t y λ toman valores fijos, el proceso estocástico represente un número real. En


la figura 1 seleccionaríamos una función concreta xi (t) y observaríamos un instante
temporal concreto t = t1 .

Clasificación de procesos estocásticos


Es recomendable clasificar los procesos estocásticos según las características de t y la
variable aleatoria X = X(t) en el instante t.
a) Si X es continua y t puede tomar valores en el conjunto de números reales ( t ∈  ),
entonces se dice que X(t) es un proceso estocástico continuo.

Página 2
b) Si X toma valores discretos y t toma valores en el conjunto de números reales ( t ∈  ),
se dice que X(t) es un proceso aleatorio discreto.

c) Si X es continua y t solo toma valores discretos, se dice que X(t) es una secuencia
aleatoria continua

Página 3
d) Si X y t toman valores discretos, X(t) es una secuencia aleatoria discreta.

Un proceso aleatorio puede describirse por la forma de sus funciones muestra:


Procesos deterministas
Un proceso es determinista si pueden predecirse los valores futuros de cualquier función
muestra a partir de los valores anteriores.

Procesos no deterministas
Un proceso es no determinista, si el futuro valor de cualquier función muestra no puede
predecirse de forma exacta observando los valores anteriores.

Nota:
En un proceso estocástico { X(t),t ∈ T} , el conjunto de índices T es llamado el conjunto

parametral del proceso estocástico. Los valores asumidos por X(t) son llamados estados y
el conjunto de todos los posibles valores forma el espacio de estado E del proceso
estocástico.
Página 4
Descripción de un proceso estocástico
Un proceso estocástico se puede describir mediante dos tipos de descripciones:
a) Analítica
b) Estadística
La descripción analítica utiliza una expresión analítica compacta de la transformación,
donde por un lado aparece la dependencia temporal, y por otro la dependencia con un
conjunto de variables aleatorias θ :
= f(t, θ)
X(t)

El vector θ= {θ1 , θ2 , ... , θn} es un vector de variables aleatorias que modifica algún

parámetro de la función f( , ).
La descripción analítica incluye la expresión analítica involucrando índice temporal y
variables aleatorias, y la descripción estadística de las variables aleatorias involucradas
(variables incluidas en θ ).

Ejemplos
a)=
X(t) A cos(2πf0 t + θ) , siendo A y f0 dos valores constantes y θ una variable aleatoria
uniforme en [0,2π > . Esta es una descripción analítica de un proceso aleatorio en tiempo
continuo que podría por ejemplo utilizarse para modelar la salida de un oscilador en un
sistema de comunicaciones (asignando a A y a f0 los valores de amplitud de tensión y la

frecuencia del oscilador, respectivamente).


b) X [n]= Aθ , siendo A un valor constante y θ una v.a. de Bernoulli con p = 0,5. Esta es

una descripción analítica de un proceso aleatorio en tiempo discreto que puede por ejemplo
utilizarse para representar estadísticamente la transmisión de una secuencia de bits
(haciendo la constante A = 1) con unos y ceros equiprobables.

Descripción estadística completa


Una descripción estadística completa de un proceso aleatorio X(t) consiste en conocer para
cualquier conjunto de n instantes de tiempo {t1,t2 ,..,tn} , para cualquier valor de n, la

función densidad de probabilidad conjunta de las n variables aleatorias resultantes de


evaluar el proceso aleatorio en los n instantes de tiempo especificados,
{X(t1), X(t2 ),..., X(tn )} .
fX(t ), X(t ),..., X(t ) ( x1,x 2 ,...,xn )
1 2 n

Página 5
Expresiones probabilísticas
Funciones de distribución y densidad de primer orden
Sea X(t) un proceso aleatorio, para un tiempo particular t1 , X(t1) = X1 , es una variable

aleatoria y su función de distribución está definida por:


Fx (x1;t1) = P ( X(t1) ≤ x1) , x1 ∈ 

Fx (x1;t1) se denomina función de distribución de primer orden.


La función de densidad de primer orden correspondiente es:
∂Fx (x1;t1)
fx (x1;t1) =
∂x1
Funciones de distribución y densidad de segundo orden
Para dos variables aleatorias X(t1) = X1 y X(t 2 ) = X2 , la función de distribución conjunta de

segundo orden, está definida por: Fx (x1,x 2;t1,t 2 ) =P ( X(t1) ≤ x1, X(t 2 ) ≤ x 2 ) , x1,x 2 ∈ 

La función de densidad de segundo orden correspondiente es:

∂ 2Fx (x1,x 2 ;t1,t 2 )


fx (x1,x 2 ;t1,t 2 ) =
∂x1∂x 2
Función de distribución de orden N
=
Para n variables aleatorias =
Xi x(t i ),i 1,2,... ,N , la función de distribución conjunta de
orden N es:
P {X(t1) ≤ x1, ... , X(tN ) ≤ xN}
Fx (x1,...,xN ; t1,...,tN ) =

La correspondiente función de densidad de orden N es

∂NFx (x1, ... ,xN;t1, ... ,tN )


fx (x1,...,xN;t1,...,tN ) =
∂x1... ∂xN
Independencia estadística
Dos procesos X(t) e Y(t) son estadísticamente independientes si el grupo de variables
aleatorias X(t1) , X(t 2 ) , … , X(tN ) es independiente del grupo Y(t′1) , Y(t′2 ) , … , Y(t′M )

para cualquier elección de instantes de tiempo t1,t 2 ,...,tN , t′1,t′2 ,...,t′M . La independencia

requiere que la función de densidad conjunta pueda factorizarse por grupos:


=
fXY (x1,...,xN ,y1,...,yM ;t1,...,tN ,t′1,...,t′M ) fx (x1,...,xN ;t1,...,tN ) fY (y1,...,yM ;t′1,...,t′M )
Procesos estocásticos estacionarios
Un proceso estocástico se dice que es estacionario si todas sus propiedades estadísticas
no cambian con el tiempo.

Página 6
Procesos estacionarios de primer orden
Un proceso aleatorio es estacionario de orden uno si su función de densidad de primer
orden no cambia al desplazar el origen de tiempos.
(x;t) fX (x;t + ∆t) , ∀t , ∀∆t
fX=
La relación anterior implica que :
a) fX (x;t) es independiente de t: fX (x;t) = fX (x) , es decir sus funciones de probabilidad

Fdp y fdp de orden uno no dependen de t


b) El valor medio del proceso aleatorio es una constante

] X= constante
E [ X(t)=

Procesos estacionarios de segundo orden


Un proceso aleatorio es estacionario de segundo orden si su función de densidad de
segundo orden no cambia al desplazar el origen de tiempos.
,x 2 ;t1,t 2 ) fX (x1,x 2 ;t1 + ∆t,t 2 + ∆t) , ∀t , ∀∆t
fX (x1=

Si hacemos ∆t =−t1 y τ= t 2 − t1

fX (x1,x 2 ;t=
1,t 2 ) fX (x1,x 2 ;0,t 2=
− t1) fX (x1,x 2 ; τ)
La relación anterior implica que:
a) La fdp y Fdp de orden dos no depende de los tiempos absolutos t1 y t 2 sino solamente

de la diferencia τ= t 2 − t1 .

b) Un proceso estacionario de orden 2 es también es estacionario de orden uno.


c) La función de autocorrelación de un proceso estacionario de segundo orden es solo
una función de la diferencia de tiempos y no del tiempo absoluto, es decir :   t2  t1,

entonces: Rxx (t , t   )  E  X(t).X(t   )  Rxx (  )

Repaso de cálculo de la esperanza

Ejemplo
Calcular la media del proceso estocástico X(t)= A + t , si A  U[0 ; π]
Solución

E [ X(t)=
] E[A + =
t ] E [ A ] + E [=
t] E[A ] + t
Cálculo de E [ A ]

Se sabe: E [ X(t)] = ∫ x ⋅fX (x) ⋅ dx
−∞

Página 1
π π 1 1  π2 − 0  π
E[A] = ∫0 a ⋅fA (a) ⋅ da = ∫0 π
a ⋅ ⋅ da =  =
π  2  2

π
E [ X(t)=
] +t
2

Ejemplo
Calcular la media del proceso estocástico X(t) = At , si A  U[0 ; 2π]

Solución

E [=
X(t)] E= E [ t ] tE [ A ]
[ At ] E [ A ]=
Cálculo de E [ A ]


Se sabe: E [ X(t)] = ∫ x ⋅fX (x) ⋅ dx
−∞

2π 1 1  a2 
2π 1  4 π2 − 0 
E [ A ]= ∫ a ⋅fA (a) ⋅ da= ∫ a ⋅ ⋅ da=   =  = π
0 0 2π 2π  2  2π  2 
0

E [ X(t)] = πt

Ejemplo
Calcular la media del proceso estocástico X(t) = cos(At) , si A  U[0 ; π]

Solución
π π
1
E [=
X(t)] E [cos(At)
= ] ∫ cos(at) ⋅ fA (a)=
⋅ da ∫ cos(at) ⋅ ⋅ da
π
0 0

1 π 1
= [ sen(at)]0 = ⋅ sen( πt)
πt πt

1
E [ X(t)] = ⋅ sen( πt)
πt

Ejemplo
= at + Y , con Y  U[0 ; 1] , calcular
Sea X(t)
a) media b) autocorrelación c) autocovarianza d) varianza e) valor cuadrático medio

Página 2
Procesos estacionarios en sentido amplio (ESA o WSS = wide sense stationary)
En muchos problemas prácticos es deseable una forma más relajada de estacionariedad,
la forma más útil es el proceso estacionario en sentido amplio, definido como aquel que
cumple las dos condiciones siguientes:
a) E [ X(t)=
] X= constante
b) R XX (t1= ( τ) E [ X(t)X(t + τ)]
,t 2 ) R XX=

Nota:
1) Si hacemos t1 = t y t 2= t1 + τ , entonces: R XX=
(t1;t 2 ) R XX (t,t + τ) y como tiene que

R XX ( τ) E [ X(t)X(t + τ)] .
ser función solo de la diferencia de tiempos, escribimos:=

2) Todas las variables aleatorias producidas por un proceso estocástico estacionario en

sentido amplio tienen los mismos estadísticos de primer orden: E [ x ] , E  x 2  , σ2x .


 
3) Un proceso estacionario de orden 2 es estacionario en sentido amplio, sin embargo, la
afirmación inversa no necesariamente es cierta.

Ejemplo
Sea X(t) =+
(A 1)cos t + Bsent , donde A y B son variables aleatorias independientes para

[ A ] E=
las cuales E= [B] 0 , mostrar que X(t) no es wss.
Solución
Cálculo de E [ X(t)]

E [ X(t)] =E [(A + 1)cos t + Bsent ] =E [(A + 1)cos t ] + E [Bsent ]

= cos t ⋅ E [(A + 1)] + sent ⋅ E [B] = cos t(1) + cos t E [ A ] + sent ⋅ E [B]
 
0 0

E [ X(t)] = cos t

X(t) no es wss, porque E [ X(t)] depende de t.

Ejemplo
=
Demostrar que el proceso aleatorio X (t ) A cos(ω0t + θ ) es WSS, A y ω0 son constantes y

θ es una variable aleatoria uniformemente distribuida en el intervalo [ 0; 2π ] .


Solución
a) Calculo de la esperanza

Página 3

=
E 0 t + θ)] AE [cos( ω0 t + θ)] , se sabe E [G (θ ) ] = ∫
[ X(t)] E [ A cos(ω= −∞
g (θ ) fθ (θ ) dθ

2π 2π
1 1
E [cos(ω0 t=
+ θ )] ∫ cos(ω0 t + θ) ⋅ = ⋅ dθ ∫ cos(ω0 t + θ) ⋅ d(ω0 t + θ)
2π 2π
0 0

= [sen(ω0 t + θ)]02π= sen(ω0 t + 2π) − sen(ω0 t)= sen(ω0 t) − sen(ω0 t)= 0

E [ X(t)
= ] A(0)
= 0 , E [ X(t)] es constante

b) Calculo de la autocorrelación
=
R XX (t;t + τ) E [ X(t)X(t
= + τ)] E A cos(ω0 t + θ)A cos(ω0 (t + τ) + θ)

 
τ + θ) A 2E cos(ω0 t + θ)cos(ω0 t + ω0 τ + θ)
= E A cos(ω0 t + θ)A cos(ω0 t + ω0=

   
 β α 

1
Se sabe: cos α ⋅ =
cos β
2
[cos(α − β) + cos(α + β)] , α = ω0t + ω0τ + θ , β = ω0t + θ
 
A2   A2 A2
= E cos( ω0 τ) + cos(2ω0 t + ω0 τ +=
2θ) cos(ω0 τ) + E cos(2ω0 t + ω0 τ + 2θ)
2     2 2 
 α−β α+β 

Cálculo de E cos(2ω0 t + ω0 τ + 2θ)

2π 1
E cos(2ω0 t + ω0=
τ + 2θ) ∫0 cos(2ω0 t + ω0 τ + 2θ)

1 2π 1 2π
=
4π ∫0
cos(2ω0 t + ω0 τ + 2θ)d(2ω0 t + ω=
0 τ + 2θ)

sen(2ω0 t + ω0 τ + 2θ) 0

1
= sen(2ω0 t + ω0 τ + 4π) − sen(2ω0 t=
+ ω0 τ) 0
4π 

A2
=
Entonces R XX (t;t + τ) cos(ω0 τ) , solo depende de τ .
2
Por lo tanto, como E[X(t)] es constante y R xx solo depende de τ ,entonces X(t) es WSS.

Ejemplo
Y(t) X(t)cos(ω0 t + θ) , con ω0 constante y
Sea X(t) un proceso estocástico wss e=

θ  U [ −π ; π ] independiente de X(t). Demostrar que Y(t) es un proceso estocástico wss.

Solución
a) Calculo de la esperanza de Y(t)
[ Y(t)] E [ X(t)cos(ω0=
E= t + θ)] E [ X(t)] ⋅ E [cos(ω0 t + θ)]

 
cte

Página 4
Cálculo de E [cos(ω0 t + θ)]

π π
1 1
E [cos(ω0 t=
+ θ )] ∫ cos(ω0 t + θ) ⋅ = ⋅ dθ ∫ cos(ω0t + θ) ⋅ d(ω0t + θ)
2π 2π
−π −π

π
=[sen(ω0 t + θ)]−π =sen(ω0 t + π) − sen(ω0 t − π) =−sen(ω0 t) + sen(ω0 t) =0

[ Y(t)] E [ X(t)cos(ω0=
E= t + θ)] E [ X(t)=
] ⋅ (0) 0
La esperanza de Y(t) es constante
b) Calculo de la autocorrelacion
(t;t + τ) E [ Y(t)Y(t
R YY= = + τ)] E X(t)cos(ω0 t + θ)X(t + τ)cos(ω0 (t + τ) + θ)

 
(t;t + τ) E [ X(t)X(t + τ)]E cos(ω0 t + θ)cos(ω0 (t + τ) + θ)
R YY= 
 
    
R XX ( τ) 
 β α 

1
Se sabe: cos α ⋅ =
cos β
2
[cos(α − β) + cos(α + β)] , α = ω0t + ω0τ + θ , β = ω0t + θ
 
= R XX ( τ) ⋅ ⋅ E cos( ω0 τ) + cos(2ω0 t + ω0 τ + 2θ)
1 
2  
 α−β α+β 
R XX ( τ) R ( τ)
E cos(ω0 τ) + XX E cos(2ω0 t + ω0 τ + 2θ)
2 2
R XX ( τ) R ( τ)
= ⋅ cos(ω0 τ) + XX E cos(2ω0 t + ω0 τ + 2θ)
2 2
Calculo de E cos(2ω0 t + ω0 τ + 2θ)

2π 1
E cos(2ω0 t + ω0=
τ + 2θ) ∫0 cos(2ω0 t + ω0 τ + 2θ)

1 2π 1 2π
= ∫
4π 0
cos(2ω0 t + ω0 τ + 2θ)d(2ω0 t + ω=
0 τ + 2θ)

sen(2ω0 t + ω0 τ + 2θ) 0

1
= sen(2ω0 t + ω0 τ + 4π) − sen(2ω0 t=
+ ω0 τ) 0
4π 
1
Entonces R YY (t;t=
+ τ) cos(ω0 τ) ⋅ R XX ( τ)
2
R YY (t;t + τ) , solo depende de τ , entonces de (a) y (b) Y(t) es wss

Procesos aleatorios conjuntamente estacionarios


Dos procesos aleatorios X(t) e Y(t) se dice que son estacionarios conjuntamente en sentido
amplio, si:

Página 5
a) X(t) e Y(t) son estacionarios en sentido amplio por separado
b) La función de correlación cruzada es una función solo de la diferencia de tiempos
τ= t 2 − t1 y no del tiempo absoluto, es decir, si

+ τ) E [ X(t)Y(t +=
R XY (t;t = τ)] R XY ( τ)

Ejemplo
Dado el proceso aleatorio X(t)  Asen( 0 t   ) , donde A y 0 son constantes y  es una

variable aleatoria uniformemente distribuida en el intervalo  ,  . Definimos un nuevo

proceso aleatorio Y(t)  X2 (t) .


a) Calcular la función de autocorrelación de Y(t).
b) Hallar la función de correlación cruzada de X(t) e Y(t).
c)¿Son X(t) e Y(t) estacionarios en sentido amplio?
d) ¿ Son X(t) e Y(t) estacionarios conjuntamente en sentido amplio?
Solucion

Parte a
(t;t + τ) E [ Y(t)Y(t + τ)]
R YY=

=
R YY (t;t + τ) E  X2 (t)X
= 2 (t + τ) E  A 2sen2 (ω t + θ).A 2sen2 (ω t + ω τ + θ)
  0 0 0 

=
R YY (t;t + τ) A 4E sen2 (ω0 t + θ).sen2 (ω0 t + ω0 τ + θ)
 
1 cos(2 )
Se sabe sen2 
2

A4
R YY (t;t=
+ τ) E (1 − cos(2ω0 t + 2θ).(1 − cos(2ω0 t + 2ω0 τ + 2θ)
4 

A4
R YY (t;t=
+ τ) E 1 − cos(2ω0 t + 2ω0 τ + 2θ) − cos(2ω0 t + 2θ) + cos(2ω0 t + 2θ)cos(2ω0 t + 2ω0 τ + 2θ)
4 

A4
=
4
(1 − E cos(2ω0t + 2ω0τ + 2θ) − E cos(2ω0t + 2θ) + E cos(2ω0t + 2θ)cos(2ω0t + 2ω0τ + 2θ)
Por partes
 1
E cos(20 t  2 )   cos(20 t  2 ). d  0 , también E cos(2ω0 t + 2ω0 τ + 2θ) =0
 2

A4
R YY (t;t=
+ τ) E 1 + cos(2ω0 t + 2θ)cos(2ω0 t + 2ω0 τ + 2θ)
4 

Página 6
A4  1 1 
=
R YY (t;t + τ) E 1 + cos(2ω0 τ) + cos(4ω0 t + 2ω0 + 4θ)
4  2 2 

A4  1 
R YY (t;t =
+ τ) 1 + 2 cos(2ω0=
τ) R YY ( τ)
4  

Parte b

(t;t + τ) E [ X(t)Y(t + τ)]


R XY=

=
R XY (t;t + τ) E  Asen(ω0 t + θ)A 2sen2 (ω0 t + ω0 τ + θ)
 

A3 
 E sen( 0 t   )1 cos(20 t  20  
2  

A3 
2
  
E sen( 0 t   )  E sen( 0 t   )cos(20 t  20  )  0

Parte c
E  X(t)  E Asen( 0 t   )  0

RXX (t , t   )  E  Asen( 0 t   ).Asen( 0 t  0   )

A2   A2
RXX (t , t   )  E cos( 0 )  cos(20 t  0  2 )  cos( 0 )
2  2
X(t) es estacionario en sentido amplio

A2
Para Y(t): E  Y(t)  E  X2 (t)  RXX (0)   cte
  2
Y(t) estacionario en sentido amplio, como Rxy (t, t   ) depende solo de  ,X(t) e Y(t) son

también conjuntamente estacionarios en sentido amplio


Parte d
si

Estacionariedad de orden N
=
Para N variables aleatorias =
Xi X(t i ) , i 1,2...,N , decimos que un proceso aleatorio es
estacionario de orden N, si su función de densidad de orden N no varía al desplazar el
origen de tiempos.
=
fX (x1,...,xN ;t1,...,tN ) fX (x1,...,xN ;t1 + ∆ ,...,tN + ∆ ) , ∀t , ∀∆
La estacionariedad de orden N implica la estacionariedad de todos los órdenes k ≤ N .

Página 7
Proceso estocástico estacionario en sentido estricto
Un proceso estocástico es estacionario en sentido estricto, si es estacionario para todos los
órdenes N = 1,2,... .

Promedios temporales
En muchos casos, solo disponemos de una realización del proceso aleatorio y no con todas
las realizaciones(ensemble), por este motivo, tendremos que inferir ciertas propiedades
estadísticas del proceso aleatorio a partir de una única realización (es decir un único
miembro del ensemble).
El promedio temporal de una función muestra x(t) de un proceso aleatorio X(t), se define
1 T
como: =x =
x(t) lim ∫ x(t)dt
T →∞ 2T −T

El símbolo 〈 ⋅〉 se usa para indicar promedio temporal, de forma similar a E [ ⋅ ] para el valor

medio estadístico. La función temporal de autocorrelación de una función muestra x(t), se


define como:
1 T
R=
xx ( τ) =
x(t) x(t + τ) lim ∫ x(t) x(t + τ)dt
T →∞ 2T −T
Para una función muestra del proceso X(t), estas dos integrales simplemente generan dos
números (para un valor fijo de τ ). Sin embargo, cuando se consideran todas las funciones

muestra, vemos que x y R XX ( τ) son realmente variables aleatorias.


Nota

E  x(t)  = X , E R XX ( τ=
) R XX ( τ)

Procesos ergódicos
Un proceso aleatorio X(t) es ergódico si los promedios temporales x y R xx ( τ) son iguales

a los promedios estadísticos X y R XX ( τ) .

=
Es decir x =
x(t) X , R xx=
( τ) R XX ( τ)

En un proceso ergódico, todos los estadísticos pueden ser obtenidos observando una sola
= X(t; λ ) del proceso ( λ fijo).
función muestra x(t)

Procesos ergódicos respecto a la media


Un proceso X(t) con un valor medio constante X se dice que es un proceso ergodico
respecto a la media, si su promedio estadístico X es igual al promedio temporal x de
cualquier función muestra x(t) con probabilidad i, para todas las funciones muestra, es decir:

Página 1
E [ X(t)=
] X= x(t)= x

con probabilidad 1 para todo x(t)

Condiciones para que X(t) (WSS) sea ergódico respecto a la media


Teorema 1: Condición necesaria y suficiente
1 2T  τ 
lim ∫ 
T →∞ 2T −2T 
1−  C XX ( τ)dτ) =0
2T 

Teorema 2: Condición suficiente



∫−∞ CXX (τ) dτ < ∞
Teorema 3: Condición suficiente

C XX (0) < ∞ , lim C XX ( τ) =0


τ →∞

Procesos ergódicos respecto a la correlación


Un proceso estacionario continuo X(t) con una función de autocorrelación R XX ( τ) se dice

que es ergódico respecto a la correlación si y solo si , para todo τ .


1 T
lim ∫ X(t) X(t + τ=
T →∞ 2T −T
)dt R XX ( τ)

Nota
Dos procesos X(t) e Y(t) se dice que son ergódicos respecto a la correlación cruzada, si la
función de correlación cruzada temporal es igual a la función de correlación cruzada
estadística
Ejemplo
=
Dado el proceso aleatorio X (t ) A cos(ω0t + θ ) , donde A y ω0 son constantes y

θ  U [ −π ; π ] . Demostrar que X(t) es ergódico respecto a la media y a la autocorrelación.

Solución
1) X(t) es ergódico respecto a la media, si: E [ X (t )] =
〈 x (t )〉

Cálculo de 〈 x (t )〉
1 T 1 T
=〈 x (t )〉 lim = ∫
T →∞ 2T −T
x (t ) ⋅ dt lim ∫ A cos(ω0t + θ ) ⋅ dt
T →∞ 2T −T

A A
lim [sen(ω0t + θ )]−T
T T
lim ∫ cos(ω0t=
T →∞ 2ω0T −T
+ θ ) ⋅ d (ω0t + θ )
2ω0T T →∞

A 2π
lim [sen(ω0T + θ ) − sen( −ω0T + θ )] , se sabe T =
2ω0T T →∞ ω0

Página 2
A A
= lim [sen(2π + θ ) − sen( −2π=
+ θ )] [senθ − sen
= θ] 0
2π T →∞ 4π
2ω0 ⋅
ω0
〈 x (t )〉 =0

Cálculo de E [ X (t )]

=
E 0 t + θ)] AE [cos( ω0 t + θ)] , se sabe E [G (θ ) ] = ∫
[ X(t)] E [ A cos(ω= −∞
g (θ ) fθ (θ ) dθ

π π
1 1
E [cos(ω0 t=
+ θ )] ∫ cos(ω0 t + θ) ⋅ = ⋅ dθ ∫ cos(ω0t + θ) ⋅ d(ω0t + θ)
2π 2π
−π −π

π
=[sen(ω0 t + θ)]−π =sen(ω0 t + π) − sen(ω0 t − π) =−sen(ω0 t) + sen(ω0 t) =0
E [ X(t)
= ] A(0)
= 0 , como E [ X(t)] =
〈 x(t)〉 , X(t) es ergódico respecto de la media.

2) X(t) es ergódico respecto a la autocorrelación si: Rxx (τ ) =


〈Rxx (τ )〉
Cálculo de Rxx (τ )

(t + τ )] E [ A cos(ω0t + θ ) ⋅ A cos(ω0t + θ )]
Rxx (τ ) E [ X (t ) X=
=

=
R XX (t;t + τ) E [ X(t)X(t
= + τ)] E A cos(ω0 t + θ)A cos(ω0 (t + τ) + θ)

 
τ + θ) A 2E cos(ω0 t + θ)cos(ω0 t + ω0 τ + θ)
= E A cos(ω0 t + θ)A cos(ω0 t + ω0=

   
 β α 

1
Se sabe: cos α ⋅ =
cos β
2
[cos(α − β) + cos(α + β)] , α = ω0t + ω0τ + θ , β = ω0t + θ
 
A2  A2 A2
= 2θ)
E cos( ω0 τ) + cos(2ω0 t + ω0 τ += cos(ω0 τ) + E cos(2ω0 t + ω0 τ + 2θ)
2   2 2 
 α−β α+β 

Cálculo de E cos(2ω0 t + ω0 τ + 2θ)

2π 1
E cos(2ω0 t + ω0=
τ + 2θ) ∫0 cos(2ω0 t + ω0 τ + 2θ)

1 2π 1 2π
= ∫
4π 0
cos(2ω0 t + ω0 τ + 2θ)d(2ω0 t + ω=
0 τ + 2θ)

sen(2ω0 t + ω0 τ + 2θ) 0

1
= sen(2ω0 t + ω0 τ + 4π) − sen(2ω0 t=
+ ω0 τ) 0
4π 

A2
=
Entonces R XX (t;t + τ) cos(ω0 τ)
2

Página 3
Cálculo de 〈Rxx (τ )〉

1 T
〈Rxx (τ )〉 = 〈 x (t )x (t + τ )〉 = lim ∫ x(t )x(t + τ ).dt
T →∞ 2T −T

1 T 1 T
lim
T →∞ 2T
∫−T
A cos(ω0t + θ )A cos(
= ω0 (t + τ ) + θ )dt A2 lim ∫ cos(ω0t + θ )cos(ω0 (t + τ ) + θ )dt
T →∞ 2T −T

 
1 T 
2
A lim ∫ cos( ω0τ ) + cos(2ω0t + ω0τ + 2θ ) dt
T →∞ 4T −T    
 α −β α +β 

A2
lim  ∫ cos(ω0τ )dt + ∫ cos(2ω0t + ω0τ + 2θ )dt 
T T
4T T →∞  −T −T 

A2  1 T  2π
lim cos(ω0τ ) [t ]−T +
4T T →∞ 
T
2ω0
[ sen(2ω0t + ω0τ + 2θ ]−T  , T =
ω0

A2  1 
lim 2T cos(ω0τ ) +
4T T →∞  2ω0
[ sen(4π + ω0τ + 2θ ) − sen( −4π + ω0τ + 2θ )]

A2 A2
= lim [ 2T cos(ω0τ )] cos(ω0τ )
4T T →∞ 2
Como Rxx (τ ) =
〈Rxx (τ )〉 , X(t) es ergódico respecto de la autocorrelación

Función de autocorrelación
La función de autocorrelación de un proceso aleatorio X(t) es la correlación E X1X2  de dos

variables aleatorias X1 = X(t1) y X2 = X(t 2 ) definidas por el proceso en los instantes t1 y t 2

.Matemáticamente:
R XX (t1,t 2 ) = E [ X(t1)X(t 2 )]

Si hacemos t1 = t y t 2 = t1 + τ = t + τ , obtenemos.

(t,t + τ) E [ X(t)X(t + τ)]


R xx=

Si X(t) es al menos estacionario en sentido amplio, R xx (t,t + τ) tiene que ser función solo

de la diferencia de tiempos   t2  t1, entonces para procesos wss:

R xx ( τ) E [ X(t)X(t + τ)]
=

Para X(t) wss, se tiene las siguientes propiedades


1) R XX ( τ) ≤ R XX (0) (máximo en el origen)

2) R XX (=
−τ) R XX ( τ) (simetría par)

Página 4
3)=  X2 (t) X2 (potencia del proceso)
R XX (0) E=
 

4) Si E [ X(t)
= ] X(t) ≠ 0 y E [ X(t)
= ] X(t) + N(t) es al menos estacionario en sentido amplio
con componentes no periódicas y N(t) tiene valor medio cero con RNN ( τ) → 0 cuando

τ → ∞ , entonces

lim R XX (=
τ) (X)
=2
(E [ X(t)])2
τ →∞

5) Si X(t) tiene una componente periódica, entonces R XX ( τ) tendrá una componente

periódica con el mismo periodo.


6) Si X(t) es un proceso ergódico con valor medio igual a cero y no tiene componentes
periódicas, entonces:
lim R XX ( τ) =0
τ →∞

7) R XX ( τ) no puede tener una forma arbitraria

Ejemplo

Dada la función de autocorrelación de un proceso ergódico estacionario con componentes


no periódicas.
4
R XX ( τ)= 25 +
1 + 6 τ2

Podemos calcular el valor medio y la varianza del proceso X(t)

 4 
(E [=
X(t)])
2
=
lim R XX ( τ) lim  25 + 
τ →∞ τ →∞  1 + 6 τ2 

(E [ X(t)])2 =
25 → E [ X(t)] =
±5

σ2X E  X2 (t) − (E [ X(t)])2 , E  X2 (t) = R XX (0) = 26 + 4 = 29 , entonces


=
   

σ2X = 29 − 25 = 4

Página 5
Función de correlación cruzada y sus propiedades

La función de correlación cruzada de dos procesos aleatorios X(t) e Y(t) se define como:
R XY (t1 ,t 2 ) = E [ X(t1)Y(t 2 )]

Haciendo t1 = t y τ= t 2 − t1 , podemos escribir

(t,t + τ) E [ X(t)Y(t + τ)]


R XY=

Si X(t) e Y(t) son al menos conjuntamente estacionarios en sentido amplio, R XY (t,t + τ) es

independiente del tiempo absoluto y podemos escribir

R XY ( τ) E [ X(t)Y(t + τ)]
=

Procesos ortogonales
Si R XY (t,t + τ) =0 , entonces X(t) e Y(t) se dice que son procesos ortogonales. Si dos

procesos son estadísticamente independientes, la función de correlación cruzada es

=
R XY (t,t + τ) E [ X(t)] ⋅ E [ Y(t + τ)]

Si, además de ser independientes, X(t) e Y(t) son al menos estacionarios en sentido amplio,
podemos escribir:
=
R XY ( τ) E [ X(t)] ⋅ E [=
Y(t)] XY , que es una constante

Propiedades de la función correlación cruzada para procesos wss


a) R XY=
( −τ) R YX ( τ) (simetría)

b) R XY ( τ) ≤ R XX (0)R YY (0)

1
c) R XY ( τ) ≤
2
[R XX (0) + RYY (0)]

Nota
1
RXX (0)  RYY (0)  RXX (0)  RYY (0)
2

Funciones de covarianza
La covarianza de X e Y, se define como:
CXY  RXY  E X E Y 

La funcion de autocovarianza, se define como:

Página 6
CXX (t , t   )  E X(t)  E  X(t)   X(t   )  E  X(t   )
 
Que puede escribirse como:
CXX (t , t   )  RXX (t , t   )  E  X(t)  E  X(t   )

La función de covarianza cruzada de dos procesos X(t) e Y(t) se define como:

CXY (t , t   )  E X(t)  E  X(t)  Y(t   )  E  Y(t   )


 
O en forma alternativa
CXY (t , t   )  RXY (t , t   )  E  X(t)  E  Y(t   )

Para procesos que son como mínimo conjuntamente estacionarios en sentido amplio:

CXX (  )  RXX (  )  E  X2 
 
CXY (  )  RXY (  )  E X E Y 

Para procesos estacionarios en sentido amplio, la varianza no depende del tiempo y


está dada por:

2 E  X(t) − E X(t) 2=
( [ ])  = ( )
2
σ=
x Cxx ( τ) τ = R xx ( τ) τ 0 − X
=
 0

Procesos estocásticos incorrelados


Dos procesos aleatorios se dice que son incorrelados, si: C XY (t;t + τ) =0

Como Cxy (=
τ) R xy ( τ) − XY , para procesos conjuntamente estacionarios en sentido

amplio, si son incorrelados, esto implica que: R XY ( τ ) =XY o alternativamente

R xy (t,t + τ) E [ X(t)]E [ Y(t + τ)]


=

Nota
Los procesos independientes son incorrelados, el caso inverso no necesariamente es
cierto, aunque se cumple para procesos gaussianos conjuntos.

Página 7
Curso: Procesos estocásticos (BMA22N)
Características espectrales
Introducción
Una descripción espectral de un proceso aleatorio empleando un espectro de densidad de
tensión (transformada de Fourier) no es viable porque tal espectro puede no existir.
Si describimos la potencia del proceso aleatorio como una función de la frecuencia en lugar
de la tensión, esta función se denomina espectro de densidad de potencia del proceso
aleatorio

Espectro de densidad de potencia (Densidad espectral de potencia)


Para un proceso aleatorio X(t), se define x T (t) como la porción de una función muestra x(t)

que existe entre T y −T , es decir

 x(t) , − T < t < T


x T (t) = 
0 , otro caso

De esta forma, siempre que T sea finito y suponiendo que x T (t) presenta una variación limitada,

se verifica que

T
∫−T xT (t) dt < ∞
Y tendrá una transformada de Fourier que se denota mediante XT (ω) , dada por

T − j ωt T − j ωt
X=
T ( ω) ∫−T xT (t) ⋅ e =dt ∫ x(t) ⋅ e
−T
dt

Energía de x(t) en < −T ; T >


La energía contenida en x(t) en el intervalo < −T ; T > es
T T
∫= x (t)dt ∫ x
2 2
=E(T) (t)dt
−T T −T

Como x T (t) tiene transformada de Fourier, su energía tiene que estar relacionada con

XT (ω) , por el teorema de Parseval.

∞ 2 1 ∞ 2
∫−∞ x(t) dt =

⋅ ∫ X(ω) dω
−∞

Entonces

T 1 ∞ 2
E(T) = ∫ x 2 (t)dt = ⋅ ∫ XT (ω) dω
−T 2π −∞

Página 1
Potencia de x(t) en < −T ; T >

La potencia media P(T) en x(t) en el intervalo < −T ; T > , es

2
1 1 T 1 ∞ XT (ω)
P(T) = ⋅ E(T) = ∫ x 2 (t)dt = ∫ dω
2T 2T −T 2π −∞ 2T

Potencia media del proceso aleatorio X(t)

Como P(T) no representa la potencia de una función muestra completa, debemos hacer T
arbitrariamente grande para incluir toda la potencia en la función muestra.

Tomando el valor esperado de P(T), podemos obtener una potencia media Pxx para el proceso

aleatorio.

2
1 T  2  1 ∞ XT (ω)
=PXX lim ∫
= E
T →∞ 2T −T 
x (t)

dt
2π ∫−∞ 2T

1 T  2 
Pxx =lim ∫ < E  x 2 (t) >
E x (t) dt =
T →∞ 2T −T    

Para un proceso que sea al menos estacionario en sentido amplio, E  x 2 (t) = X2 , que es
 
2
una constante y P=
xx X= R XX (0)

Potencia media en el dominio de la frecuencia


Pxx puede obtenerse por medio de una integración en el dominio de la frecuencia, si

definimos el espectro de densidad de potencia para el proceso aleatorio mediante

E  XT (ω) 
2
 
S xx (ω) = lim
T →∞ 2T
Entonces:
1 ∞
2π ∫−∞
=Pxx S xx (ω)dω

Ejemplo
Dado el proceso aleatorio=
X(t) A 0 cos(ω0 t + θ) , donde A 0 y ω0 son constantes y

θ  U [0 ; π] .

Página 2
1 T  2 
a) Hallar la potencia de X(t) usando: PXX =lim < E  x 2 (t) >
∫ E x (t) dt =
T →∞ 2T −T   

E  XT (ω) 
2
 
b) Hallar el espectro de potencia de X(t), usando: S xx (ω) = lim , y calcular la
T →∞ 2T
1 ∞
2π ∫−∞
=
potencia media de x(t) a partir de: PXX S xx (ω)dω .

Solución
Parte a: Cálculo de E  x 2 (t)
 
1
E  x 2 (t) E  A 02 cos2 (ω0 t + θ) , se sabe cos2=
=
   
α (1 + cos 2α )
2

A 02 A 02 A 02
= E [1 + cos(2ω0 t + 2θ)=
] 2 + 2 E [cos(2ω0 t + 2θ)]
2

A 02 A 02 π 1 A 02 A 02 π
=
2
+
2 ∫0
cos(2ω0 t + 2θ ) ⋅
π
⋅ d θ
=
2
+

[ sen(2ω0 t + 2θ)]0

A 02 A 02 A 02
=
2
+

[ sen(2ω0 t + 2 π ) − sen(2ω0 ]
=
t)
2

A2
Entonces E  x 2 (t) = 0 , por lo tanto
  2

1 T  2  1 T A 02 A 02 1 T
PXX lim = ∫ E
T →∞ 2T −T 
x (t)

dt =
lim ∫
T →∞ 2T −T 2
dt
2 T →∞ 2T ∫−T
lim dt

A 02 1 A 02 1 A 02 1 A 02
=
lim
2 T →∞ 2T
[ t ]−T
T
lim =
2 T →∞ 2T
[ T − ( −T)] =
lim
2 T →∞ 2T
[ 2T ]
2

A 02
Entonces PXX =
2
Parte b: Cálculo de x T (ω)
T − j ωt T − j ωt T − j ωt T − j ωt
=XT (ω) ∫−T=
x T (t)e dt ∫ =
−T
x(t)e dt ∫ =
−T
x(t)e dt ∫ A 0 cos(ω0 t + θ)e
−T
dt

Sabemos que

e= cos α + jsenα , e− =

cos α − jsenα , e jα + e− jα = 2cos α , e jα − e− jα = 2jsenα

T  e j( ω0 t +θ) + e− j( ω0 t +θ)  − jωt


− j ωt T
XT (ω) ∫ A 0 cos(ω0 t +=
= θ)e dt ∫ A 0  e dt
−T −T
 2 

A 0 jθ T j( ω0 −ω)t A ekt
dt + 0 e− jθ ∫ e− j( ω0 +ω)t dt ,
T
e ∫ e ∫ e dt =
kt
2 −T 2 −T k

Página 3
T
T e j( ω0 −ω)t
j( ω0 −ω)t e j( ω0 −ω)T − e− j( ω0 −ω)T 2jsen((ω0 − ω)T)
∫−T=e dt =
j(ω0 − ω)
=
j(ω0 − ω) j(ω0 − ω)
−T
T
T e− j( ω0 +ω)t
− j( ω0 +ω)t e− j( ω0 +ω)T − e j( ω0 +ω)(T) 2jsen((ω0 + ω)T)
∫−T=e dt =
− j(ω0 + ω)
=
− j(ω0 + ω) j(ω0 + ω)
−T

A 0T jθ 2sen((ω − ω0 )T) A 0T − jθ 2sen((ω + ω0 )T) sen(α )


e + e , Sa(α ) =
2 (ω − ω0 )T 2 (ω + ω0 )T α

= A 0Te jθSa((ω − ω0 )T) + A 0Te− jθSa((ω + ω0 )T) → XT (ω)= XT (ω) ⋅ XT (ω)
2

( A0Te jθSa((ω − ω0 )T) + A0Te− jθSa((ω + ω0 )T)) ⋅ ( A0Te− jθSa((ω − ω0 )T) + A0Te jθSa((ω + ω0 )T))
A 02T 2 {Sa2 ((ω − ω0 )T) + Sa2 ((ω + ω0 )T) + 2Sa((ω − ω0 )T)Sa((ω + ω0 )T)cos(2θ)}
2
=
XT (ω)

Calculando la esperanza

E=
 T  0 0 ( 0 0 0)
 X (ω) 2  A 2T 2 Sa2 ((ω − ω )T) + Sa2 ((ω + ω )T) + A 2T 2 2Sa((ω − ω )T)Sa((ω + ω )T)E [cos(2θ)]
0

Cálculo de E [cos(2θ)]

π 1 1 π
E [cos(2
= θ )] ∫0 cos(2θ=
) dθ [ =
sen(2θ)]0 0 , entonces
π 2π

 T  0 (
 X (ω) 2  A 2T 2 Sa2 ((ω − ω )T) + Sa2 ((ω + ω )T)
E= 0 0 )
Se sabe lim
T
T →∞ π
(
Sa2 (αT) = δ(α ) )
E  XT (ω) 
2

=S xx (ω) lim
=
T →∞

2T

lim
1 2 2
T →∞ 2T
(
A 0 T Sa2 ((ω − ω0 )T) + Sa2 ((ω + ω0 )T) )
A 02 π  T 2 T 2  A 02 π
 lim Sa ((ω − ω0 )T) + lim Sa ((ω + ω0 )T  S xx=
(ω) {δ(ω − ω0 ) + δ(ω + ω0 )}
2 T →∞ π T →∞ π  2

Cálculo de la potencia

1 ∞ 1 ∞ A 02 π
{δ(ω − ω0 ) + δ(ω + ω0 )} dω
2π ∫−∞ 2π ∫−∞ 2
=PXX =
S xx ( ω)d ω

=
PXX
A 02
4 { ∞
∫−∞ {δ(ω − ω0 )} dω + ∫−∞ {δ(ω + ω0 )}=

A 02
4

{1=
+ 1}
2}
A 02

Página 4
Propiedades del espectro de densidad de potencia (Densidad espectral de potencia)
1) S xx (ω) ≥ 0

2) S xx ( −ω
= ) S xx (ω) , X(t) real

3) S xx (ω) es real

 X2 (t) > 1 ∞
2π ∫−∞
4) < E = S xx (ω)dω
 
 d
2
  ( ω) =ω S xx ( ω) , X =
5) S xx X(t)
dt
La propiedad (5) establece que el espectro de densidad de potencia de la derivada
 dX(t)
X(t)  , es 2 veces el espectro de potencia de X(t)
dt
Ejemplo
Establecer si cada una de las siguientes funciones puede ser o no un espectro de densidad
de potencia valido.
2
 e4 2 6  12  2
a) b) cos(3 )e  j2 c) d) 6 tan  
 e) cos2 (  )e8
1 j (12  2 )6 2
 1  
(j )( j )
f)
(3  j )2 (3  j )2
Solucion
Parte a
No es, porque no es una función real
Parte b
No es, porque no es una función real
Parte c
Si es, cumple las 3 condiciones
Parte d
No es, porque no es una función par
Parte e
Si es, cumple las 3 condiciones
Parte f

(j )( j ) 2 2
 
(3  j )2 (3  j )2 (9  ( j )2 )2 (9  2 )2
Si es, cumple las 3 condiciones

Página 5
Curso: Procesos estocásticos (BMA22N)
Características espectrales
Relaciones de Wiener-Khintchine
El espectro de densidad de potencia y el promedio temporal de la función de autocorrelación
forman un par de transformadas de Fourier
∞ − jωτ
S XX (ω
=) ∫−∞ < R XX (t,t + τ) > ⋅ e dτ

1 ∞
< R XX=
(t,t + τ) > ∫ S xx (ω) ⋅ e jωτdτ
2π −∞

< R XX (t,t + τ) > ↔ S XX (ω)

Si X(t) es al menos estacionario en sentido amplio, < R XX (t,t + τ=


) > R XX ( τ)
∞ − jωτ
S XX (ω
=) ∫−∞ < R XX (τ) > ⋅ e dτ

1 ∞
=
R XX ( τ) ∫ S xx (ω) ⋅ e jωτdω
2π −∞
R XX ( τ) ↔ S XX (ω)

Ancho de banda del espectro de densidad de potencia


SXX (  ) tiene características similares a una función de densidad de probabilidad (es no

negativa y real). Si dividimos SXX (  ) entre su área, se obtiene una nueva función de área

unidad que análoga a una función de densidad.


La desviación estándar es una medida de la dispersión de una función de densidad. La
magnitud análoga para el espectro de potencia normalizado es una medida de su
dispersión, que se denomina ancho de banda eficaz o rms y que se designa como
Wrms (rad / s) .

Como SXX (  ) es una función par para un proceso real, su valor medio es cero y su

desviación estándar es la raíz cuadrada de su momento de orden dos. Por tanto, después
de la normalización, el ancho de banda eficaz esta dado por:


 2SXX (  )d
2  
Wrms

 SXX ( )d

Página 1
Ejemplo
10
Dado el espectro de potencia S XX (ω) = , donde el ancho de banda a 6-dB es
2
 ω  2
1 +   
  10  

10 radianes por segundo, hallar Wrms

Solucion
 2S
2
Wrms
 
 
XX (  )d

 SXX ( )d
Cálculo del denominador
  10  1
 SXX (  )d   d  105  d
  2 2  
102  2 
2
1      
   
 10 

dx x 1 1( x )
Se sabe:  (a2  x2 )2  2a2 (a2  x2 )  2a3 tan a

dx x 1 x
Si a  10     tan1( )
(102  x2 )2 2(102 )(102  x2 ) 2(103 ) 10

 1     1  
105   d  105  


5
 10   1
tan ( )
2 2 2 2 3 10 
2 2  2(10) (10   )   2(10) 
10   

   
 105 


   105  1 tan1( )  1 tan1( )
  
 2(10)2 (102  2 ) 2(10)2 (102  2 )   2(10)3 2(10)3 

105    
0     50
2(103 )  2 2 
Cálculo del numerador

 2  2 10  2
  SXX (  )d   d  105  d
   2   2
  2  102  2 
1     
 10 

x2dx 1 1 1( x )
Se sabe:  (a2  x2 )2  2(a2  x2 )  2a tan a

Página 2

105
  
 2 1  1  
105   SXX (  )d  105  
  105  tan1( )    5000
 2 2  20 10  20
 2(10   ) 
 

2  5000
Wrms  100  Wrms  10rad / s
50
Aunque Wrms y el ancho de banda a 6-dB de SXX (  ) son iguales en este caso, en general

no lo son.
1) Ejemplo
Sean X(t) e Y(t) procesos aleatorios wss de media nula. Considere el proceso aleatorio
Z(t)  X(t)  Y(t) .
a) Determine el espectro de potencia de Z(t), si X(t) e Y(t) son conjuntamente wss
b) Repita la parte (a) si X(t) e Y(t) fueran ortogonales.
Solucion
Parte a
Autocorrelación de Z(t)
RZZ (t , t   )  E Z(t)Z(t   )  E (X(t)  y(t))(X(t   )  y(t   )

 E  X(t)X(t   )  E X(t)Y(t   )  E Y(t)X(t   )  E Y(t)Y(t   )

RZZ (  )  RXX (  )  RXY (  )  RYX (  )  RYY (  )


Tomando transformada de Fourier a los dos miembros
TF RZZ (  )  TF RXX (  )  TF RXY (  )  TF RYX (  )  TF RYY (  )

SZZ (  )  SXX (  )  SXY (  )  SYX (  )  SYY (  )


Parte b
Como X(t) e Y(t) son ortogonales, entonces RXY (  )  RYX (  )  0

RZZ (  )  RXX (  )  0  o  RYY (  )

SZZ (  )  SXX (  )  SYY (  )


2) Ejemplo
Una clase de señales aleatorias moduladas Y(t) está definida por Y(t)  AX(t)cos( c t   )

, donde X(t) es la señal de mensaje aleatoria y A cos( c t   ) es la portadora. La señal X(t)

es un proceso estacionario con media nula y autocorrelación RXX (  ) y espectro de potencia

SXX (  ) . La amplitud A de la portadora y su frecuencia c son constantes, la fase  es una

Página 3
variable aleatoria uniformemente distribuida sobre 0 ; 2 . Asumiendo que X(t) y  son

independientes, calcular el espectro de potencia de Y(t).


Solucion
Cálculo de E  Y(t)

E Y(t)  E AX(t)cos( c t   )  AE X(t) E cos( c t   )  0



0

Cálculo de RYY (t , t   )

RYY (t , t   )  E  Y(t)Y(t   )  E (AX(t)cos( c t   ))(AX(t   )cos( c t  c   )

RYY (t , t   )  A2E  X(t)X(t   )cos( c t   )cos( c t  c   )

RYY (t , t   )  A2E  X(t)X(t   ) E cos( c t   )cos( c t  c   )

 
 
RYY (t , t   )  A2R XX (  ).E cos(  c t   )cos( 
 c t  c   )

   

1
cos .cos   cos(   )  cos(  )
2

A2
 RXX (  )E cos(2c t  c  2 )  cos( c )
2

A2 A2
 RXX (  )cos( c )  RXX (  )E cos(2c t  c  2 )
2 2
2 1 1 2 1
E cos(  2 )   cos(  2 )   d   cos(  2 )   d(  2 )
0 2 2 0 2
2
 sen(  2 )  0
0

A2
RYY (t , t   )  RXX (  )cos( c )
2
Como E  Y(t) es constante y la autocorrelación depende solo de  , entonces Y(t) es wss.

Cálculo de SYY (  )

 2
  A2

SYY (  )  F RYY (  )  F  A 
RXX (  )cos( c )  F RXX (  )cos( c )

 2 
 2

 

Se sabe

Página 4
1
F RXX (  )cos( c )  F RXX (  )  F cos( c )
2

F RXX (  )  SXX (  )

F cos( c )  (  c )  (   c ) , entonces

A2 1
SYY (  )    SXX (  )  (  c )  (   c )
2 2
Se sabe f(t)  (t  k)  f(t  k)

A2 
SYY (  )   SXX (  c )  SXX (   c )
4 
3) Ejemplo
Un proceso aleatorio X(t) tiene una función de autocorrelación dada por:
 
RXX (  )  Ae cos( 0 ) , Calcular el espectro de potencia de X(t), donde A  0 ,   0 y

0 constantes reales.

Solucion

SXX (  )  F RXX (  )  F Ae  cos(0)  A F e  cos(0)


Se sabe

F e  cos(0)  21 F e   F cos(0)


F e    222 , F cos( c )  (  c )  (   c ) , entonces

A  2 
SXX (  )     (   c )   (    )
c 

2  2  2 
 1 1 
SXX (  )  A   (  c )   (   c )
2 2 2  2
   
Se sabe f(t)  (t  k)  f(t  k)
 1 1 
SXX (  )  A   

2
   (  c )2 2 2
  (   c ) 

 A A 

SXX (  )    
2 2 2 2 
   (  c )   (   c ) 

Página 5
Curso: Procesos estocásticos (BMA22N)
Características espectrales
4) El proceso estocástico Z(t) se define como Z(t)  X(t)cos( 0 t)  Y(t)sen( 0 t) ,donde

X(t)  U1; 1 , Y(t)  U0 ; 1 , además X(t) e Y(t) son independientes. Calcular el espectro

de potencia de Z(t).
Solucion
Cálculo de RZZ (t , t   )

RZZ (t , t   )  E Z(t)Z(t   )


 E X(t)cos( 0 t)  Y(t)sen( 0 t)X(t   )cos( 0 t  0 )  Y(t   )sen( 0 t  0 )
 
 E  X(t)X(t   )cos( 0 t)cos( 0 t  0 )  X(t)Y(t   )cos( 0 t)sen( 0 t  0 )  ...

...  Y(t)X(t   )sen( 0 t)cos( 0 t  0 )  Y(t)Y(t   )sen( 0 t)sen( 0 t  0 )]

 cos( 0 t)cos( 0 t  0 )E  X(t)X(t   )  cos( 0 t)sen( 0 t  0 )E X(t)Y(t   )
sen( 0 t)cos( 0 t  0 )E  Y(t)X(t   )  sen( 0 t)sen( 0 t  0 )E  Y(t)Y(t   )

 cos( 0 t)cos( 0 t  0 )E  X2 (t)  cos( 0 t)sen( 0 t  0 )E  X(t) E  Y(t)


 
sen( 0 t)cos( 0 t  0 )E  Y(t) E  X(t)  sen( 0 t)sen( 0 t  0 )E  Y2 (t)
 
1
 2  1 21 1  x3  1 1
E  X (t)   x dx     (1 1) 
  1 2 2 3  6 3
  1

1 1 1  x2  1 1
E  X(t)   x dx     (1 1)  0
1 2 2 2  4
  1

1  y2  1 1 1
E Y(t)   ydy     (1 0) 
0  2 0 2 2

1
E  X(t)Y(t)  E  X(t) E  Y(t)  0( )  0
2

1 2  y3  1 1 1
 2 
E  Y (t)   y dy     (1 0) 
  0  3 0 3 3

1 1
RZZ (t , t   )  cos( 
0 t)cos(  0 t
  0 )  0  0  sen( 
0 t)sen(  0 t
  0 )
3 3
   

Se sabe cos(  )  cos( )cos(  )  sen( )sen(  )

1
RZZ (t , t   )  cos( 0 )  RZZ (  )
3
Página 1
  1
SZZ (  )   RZZ (  )ejd   cos( 0 )ejd
  3
1
 F cos( 0 )   (  0 )   (   0 )
3 3 3


SZZ (  )  (  0 )  (   0 )
3

Espectro de densidad de potencia cruzada

E  XT (  )YT (  )


SXY (  )  lim  
T 2T
Potencia cruzada
1 
PXY  
2 
SXY (  )d

También

E  YT (  )XT (  ) 1 


SYX (  )  lim   , PYX  

SYX (  )d  PXY
T 2T 2 
La potencia cruzada total PXY  PYX puede interpretarse como la potencia adicional que

dos procesos son capaces de generar, sobre y por encima de sus potencias individuales,
debido al hecho que no son ortogonales.
Propiedades del espectro de densidad de potencia cruzada

1) SXY (  )  SYX ( )  SYX ( )

2) Re SXY (  ) y Re SYX (  ) son funciones pares de 

3) Im SXY (  ) e Im SYX (  ) son funciones impares de 

4) SXY (  )  0 y SYX (  )  0 , si X(t) e Y(t) son ortogonales

5) SI X(t) e Y(t) son incorrelados y tienen valores medios constantes X e Y


SXY (  )  SYX (  )  2XY(  )

6)  RXY (t , t   )  SXY (  ) ,  RYX (t , t   )  SYX (  )

Para procesos conjuntamente estacionarios en sentido amplio



a) SXY (  )   R (  )ejd
 XY

b) SYX (  )   RYX (  )ejd


Página 2
1 
c) RXY (  )   SXY (  )ejd
2 
1 
d) RYX (  )   SYX (  )ejd
2 

Ruido Blanco
Una función muestra n(t) de un proceso aleatorio de ruido estacionario en sentido amplio
N(t) se denomina ruido blanco si el espectro de densidad de potencia de N(t) es una
constante a todas las frecuencias.
N
SNN (  )  0
2
Para el ruido blanco, donde N0 es una constante real positiva, mediante la transformada

inversa de Fourier, se obtiene la función de autocorrelación de N(t), que es:


N
RNN (  )  0 (  )
2

Figura: a) Función de autocorrelación b) espectro de densidad de potencia del ruido blanco.


El ruido blanco debe su nombre a la analogia con la luz blanca, que contiene todas las
frecuencias del espectro visible. No es posible en la practica obtener ruido blanco, ya que
posee una potencia media infinita:
1 

2 
SNN (  )d(  )  

Hay un tipo de ruido del mundo real que se aproxima en extremo al ruido blanco, el ruido
térmico generado por la agitación térmica de los electrones en cualquier conductor eléctrico.
Tiene un espectro de potencia que es constante a muy altas frecuencias y luego decrece.

Página 3
Espectros de potencia de procesos complejos
Sea Z(t) un proceso aleatorio complejo, el espectro de densidad de potencia se define como
su transformada de Fourier:

SZZ (  )   RZZ (  )ejd

Si aplicamos transformada inversa
1 
RZZ (  )   SZZ (  )e jd
2 

Para dos procesos complejos conjuntamente estacionarios en sentido amplio Zm (t) y Zn (t)

, su espectro de densidad de potencia cruzada y su función de correlación cruzada son un


par de transformadas de Fourier:

SZ Z (  )   R (  )ejd
m n  ZmZn
1 
RZ Z (  )   SZ Z (  )e jd
m n 2  m n
En forma equivalente
RZ Z (  )  SZ Z (  )
m n m n

Página 4
UNIVERSIDAD NACIONAL DE INGENIERÍA Ciclo Académico: 2021-01
FACULTAD DE INGENIERÍA ELÉCTRICA Y ELECTRÓNICA Fecha: 27-05-2021
DEPARTAMENTOS ACADÉMICOS Duración: 2h
PROCESOS ESTOCASTICOS- SEMINARIO 04-05
22222222 ºººººººººººººººº1ººººººººººººººººººººººººººººººººººººº COD. CURSO:
CURSO: ________________________________________________________ BMA22N

1) si X(t) es un proceso estocástico wss, Hallar el espectro de potencia de


Y(t)  3  4X(t) en términos del espectro de potencia de X(t).
Solucion

RYY (t , t   )  E Y(t)Y(t   )  E (3  4X(t))(3  4X(t   ))

 E 9  12X(t   )  12X(t)  16X(t)x(t   )  9  12E X(t   )  12E X(t)  16E X(t)x(t   )

Como X(t) es wss, entonces E  X(t)  E X(t   )

RYY (t , t   )  9  24E X(t)  16RXX (  )

SYY (  )  F RYY (t , t   )  9 F 1 + 24E X(t) F 1 16 F RXX (  )

F 1  2(  )

SYY (  )  (9  24E X(t) )(2(  ))  16SXX

2) La función de autocorrelación de un proceso estocástico X(t) es:


2
RXX (  )  3  2e4 .

a) Hallar el espectro de potencia de X(t)


b) ¿Cuál es la potencia media de X(t)
Solucion
Parte a:
 2  2
F 3  2e4 
F 3  2 F e4 

SXX (  )   RXX (  )ejd    
    

F 3  6(  )

2 2
 2   2 
De tablas: F ek     e 4k , entonces F e4     e 16


 

 k   2

2

SXX (  )  6(  )  e 16

Parte b:
2
PXX  RXX (0)  3  2e4(0)  5
82
3) Un proceso estocástico X(t) tiene SXX (  )  , hallar la potencia media del
(1 2 )4
proceso.
Solucion

1  1  82 a a
PXX   S XX (  )d   d , si f(x) es par ∫ f(x)dx = 2∫ f(x)dx
2  2  (1 2 )4 −a 0

8  2
 0 (1 2 )4
PXX  d

De tablas:

x2dx x x x 1 x
 (a2  x2 )4     tan1 
6(a2  x2 )3 24a2 (a2  x2 )2 16a4 (a2  x2 ) 16a3  a 

Sea a  1 x  

2dx    1 1(  )
 (1 2 )4  6(1 2 )3  24(1 2 )2  16(1 2 )  16 tan

8     1 
PXX       1
tan (  )
2
  6(1  )3 2
24(1  )2 2
16(1  ) 16
  0

8   8 1
PXX  0  0  0   0  0  0  0  
  16(2)  32 4

4) Un proceso aleatorio tiene el siguiente espectro de densidad de potencia:

6ω2
S xx (ω) = , Hallar la potencia media del proceso.
1 + ω4

Solución

1 +∞
2π ∫−∞
Sabemos =
que Pxx S xx (ω)dω

1 +∞ 6ω2 6 +∞ ω2 +a a
=Pxx ∫ =
2π −∞ 1 + ω4
dω ∫
π 0 1 + ω4
dω , si f(x) es par ∫ f(x)dx = 2∫ f(x)dx
−a 0

de una tabla de integrales

 x 2 + ax 2 + a2 
x 2dx 1 1 −1  ax 2 
=∫ a4 + x 4 4a 2  x2 − ax 2 + a2  + 2a 2 tan  a2 − x2 
ln
   

6  1  ω2 + 2ω + 1  1 −1  2ω  

Pxx =  −   +  
2 
ln tan
π  4 2  ω2 − 2ω + 1  2 2 
    1 − ω 0

6 π  3
Pxx = 0 + =
π 2 2 2

5) Para un proceso aleatorio X(t), su función de autocorrelación es:

2
R xx (t , t + τ) =12e−4 τ cos2 (24t) , hallar el espectro de potencia de X(t).

Solución

+∞ − jωτdτ
Sabemos que: S xx (=
ω) ∫−∞ < Rxx (t , t + τ) > ⋅e
Cálculo de < R xx (t , t + τ) >

2
1 T − τ2 12e−4τ T
∫ 12e cos (24t)dt Tlim ∫−T cos
=
< R xx (t , t + τ) > =
lim 4 2 2 (24t)dt
T →∞ 2T −T →∞ 2T

2 2
3e−4τ T 6e−4τ
= lim ∫
−T
(1 + cos(48t))dt
= lim [T + sen(48T)]
T →∞ T T →∞ T

2 T + sen(48T) 2 2
= 6e−4τ ⋅ lim = 6e−4τ (1 +=
0) 6e−4τ
T →∞ T

+∞ −4 τ2 ⋅ e− jωτd=  2 −ω20 /16


S xx (ω=
) ∫−∞ 6e τ F 6e−4τ =
 3 π ⋅e
 

6) Un proceso aleatorio esta dado por Z(t)  AX(t)  BY(t) , donde A y B son constantes
reales positivas y X(t) e Y(t) son procesos conjuntamente estacionarios en sentido
amplio.
a) Halle el espectro de potencia SZZ (  )

b) Hallar SZZ (  ) si X(t) e Y(t) son incorrelados

c) Hallar los espectros de potencia cruzada SXZ (  ) y SYZ (  )

Solucion
Parte a

RZZ (t , t   )  E Z(t)Z(t   )  E (AX(t)  BY(t))(AX(t   )  BY(t   )

 E A2X(t)X(t   )  ABX(t)Y(t   )  BAY(t)X(t   )  B2Y(t)Y(t   )


 
 A2E  X(t)X(t   )  ABE X(t)Y(t   )  BAE Y(t)X(t   )  B2E Y(t)Y(t   )

RZZ (t , t   )  A2RXX (t , t   )  ABRXY (t , t   )  BARYX (t , t   )  B2RYY (t , t   )

RZZ (  )  A2RXX (  )  ABRXY (  )  BARYX (  )  B2RYY (  )


Aplicando transformada de Fourier a los dos lados

F RZZ (  )  A2 F RXX (  )  AB F RXY (  )  BA F RYX (  )  B2 F RYY(  )

SZZ (  )  A2SXX (  )  ABSXY (  )  BASYX (  )  B2SYY (  )


Parte b

Como X(t) e Y(t) son incorrelados, entonces RXY (  )  RYX (  )  E X(t) E Y(t)

RZZ (  )  A2RXX (  )  2ABRXY (  )  B2RYY (  )


Aplicando transformada de Fourier

F RZZ (  )  
A2 F RXX (  )  2 AB F E X(t)Y(t)  B2  F RYY(  )

F RZZ (  )  A2 F RXX (  )  2 ABE X(t)Y(t) F 1  B2 F RYY(  )

SZZ (  )  A2SXX (  )  4E  X(t) E  Y(t) AB(  )  B2SYY (  )

Parte c:

RXZ (t , t   )  E X(t)Z(t   )  E X(t)( AX(t   )  BY( t   ))

 AE (X(t))(X(t   )  BE (X(t))(Y(t   )

RZZ (t , t   )  ARXX (  )  BRXY (  )

Aplicando transformada de Fourier a los dos lados

F RZZ (  )  A F RXX (  )  B F RXY (  )

SXZ (  )  ASXX (  )  BSXY (  )

RYZ (t , t   )  E Y(t)Z(t   )  E Y(t)( AX(t   )  BY( t   ))

 AE (Y(t))(X(t   )  BE (Y(t))(Y(t   )

RYZ (t , t   )  ARYX (  )  BRYY (  )

Aplicando transformada de Fourier a los dos lados

F RYZ (  )  A F RYX (  )  B F RYY (  )

SYZ (  )  ASYX (  )  BSYY (  )


7) Para un proceso aleatorio X(t), su función de autocorrelación es:

2 2
R xx ( τ) =Pe−( τ /2a ) , donde P  0 y a  0 son constantes. hallar el espectro de

densidad de potencia de X(t).

Solución

+∞ +∞ −( τ2 /2a2 ) − jωτ  2 /2a2 ) 


=
S xx (ω) ∫ −∞
R XX ( τ) ⋅ e
= − jωτdτ

−∞
Pe ⋅e
= dτ P F e(  




 

2 a22
 2   2 2 
De tablas: F ek     e 4k , entonces F e /2a   a 2  e 2


 

 k 

 

a2ω2

S xx=
(ω) Pa 2π ⋅ e 2
Curso: Procesos estocásticos (BMA22-N)
Sistemas lineales con entradas aleatorias
Introducción
Un aspecto muy importante de las señales aleatorias es conocer como interactúan con los
sistemas lineales.

Fundamentos de los sistemas lineales


Analizaremos un sistema con una entrada y una salida o respuesta, como se ilustra en la
figura (1):

Figura (1): (a) Sistema lineal general con una sola entrada y una sola salida
(b) Sistema lineal similar invariante en el tiempo (LTI)

El sistema lineal general

En general, el sistema lineal (Fig 1-a) dará lugar a la respuesta y(t) que será diferente de
la señal de entrada x(t).
Pensamos en el sistema como en la operación sobre x(t) que da lugar a y(t) y escribimos:
Y(t) = L [ x(t)] … (1)
Aquí, L es un operador que representa la acción del sistema sobre x(t). Se dice que un
sistema es lineal si su respuesta a una suma de entradas de xn (t), n = 1,2,....,N , es igual
a la suma de respuestas tomadas por separado.
Por tanto, si xn (t) causa una respuesta yn (t), n = 1,2,....,N , entonces para un sistema lineal
debe cumplirse:
N  N N
y(t) = ∑ n [ n ] ∑ αn yn (t) …. (2)
L  ∑ αn xn (t) = α L x ( t ) =
= 
n 1 = 
 n 1 =n 1

Donde las αn son constantes arbitrarias y N puede ser infinito.

Usando la función impulso podemos escribir:


x(t)   x(  )(t  )d … (3)


Página 1
Sustituyendo (3) en (1) y notando que el operador afecta la función temporal

   
y(t)  L  x(t)  L   x(  )(t  )d   x(  )L (t  ) d …. (5)
   

Definimos una nueva función h(t ,  ) como la respuesta al impulso del sistema lineal, es
decir:

L (t  )  h(t ,  )

La ecuación (5) se convierte en:


y(t)   x(  )h( t ,  )d …. (6)


Lo que demuestra que la respuesta de un sistema lineal general esta completamente


determinada por su respuesta al impulso a través de (6).

Sistemas lineales invariantes en el tiempo (SLIT)


Un sistema lineal general se dice que es invariante en el tiempo, si la forma de su
respuesta al impulso h(t ,  ) no depende del instante en el que el impulso se aplica.

Por tanto, si un impulso (t) , que se produce en t  0 , da lugar a la respuesta h(t),

entonces un (t  ) , que se produce en t   , debe dar lugar a la respuesta h(t  ) si el


sistema es invariante en el tiempo. Esto significa que:

h(t ,  )  h(t  )

La ecuación (6) se convierte en :


y(t)   x(  )h(t  )d ... (7)


Esta ecuación se conoce como la integral de convolución de x(t) y h(t), se denota como:

y(t)
= x(t) ∗ h(t)

Mediante un cambio de variable la ecuación (7) puede expresarse como:


y(t)   h(  )x(t  )d


Función de transferencia de un sistema lineal invariante en el tiempo


Si X( ω) , Y( ω) , H( ω) son las respectivas transformadas de Fourier de X(t), y(t), h(t),
entonces:
∞ 
Y( ω) =∫ y(t)e− jωtdt , como y(t)  
x(  )h(t  )d , podemos escribir
−∞ 

Página 2
∞ ∞  − j ωt ∞  ∞ − jω(t −ξ )dt  e− jωξdξ
Y(
= ω) ∫−∞  ∫−∞ x(ξ)h(t − ξ)dξ e = dt ∫−∞ x(ξ)  ∫−∞ h(t − ξ)e 

∞ ∞
Y(=
ω) ∫ x( ξ )H( ω)e− jωtdξ= H( ω) ∫ x( ξ )e− jωξdξ →=
Y( ω) H( ω)X( ω)
−∞ −∞

La función H( ω) se denomina función de transferencia del sistema.

Para el cálculo real de una función de transferencia de una red dada, puede ser más
adecuado una definición alternativa basada en la respuesta del sistema a una señal

exponencial x(t) = e jωt , la salida es:

∞ ∞ )dξ e jωt ∞ h( ξ )e− jωξdξ


y(t)
= ∫ h( ξ )x(t − ξ=
)dξ ∫ h( ξ )e jω(t −ξ=  −∞ ∫
−∞ −∞
x(t)

y(t) L(e jωt )


y(t) x(t)H( ω) , entonces H( ω
= = ) =
x(t) e j ωt

Ejemplo

Calcular H(ω) , para el circuito mostrado

Solución

= e jωt → y(t)
Se sabe, si x(t) = x(t)H( ω
= ) e jωtH( ω)

Suponiendo una corriente i en sentido antihorario

di y(t) di 1 d(y(t))
x(t)  L  y(t) ...( ) , y( t )  iR  i   
dt R dt R dt

 1 d(y(t)) 
En ( ) : x(t)  L    y(t) ... (  )
 R dt 

Si x(t)  e jt es la entrada, la salida es y(t)  H(  )x(t)

Página 3
dy(t) dy(t)
Derivando  H(  )e jt ( j )   jH(  )x(t)
dt dt

L  
En (  ) : x(t )  j H(  )x(t)  H(  )x(t )  1 L  jH(  )  H(  )  1 H(  )  jL  1
R  R   R 

1
H(  ) 
L
1 j
R

Ejemplo

Calcular H(ω) , para el circuito mostra

Solución

= e jωt → y(t)
Se sabe, si x(t) = x(t)H( ω
= ) e jωtH( ω)

dy(t)
x(t)= iR + y(t) ... (1) , i = c ... (2)
dt

dy(t) d  dy(t)
= H( ω)e jωt  = H( ω)e jωt jω → = jωH( ω)x(t) , en la ecuación (1)
dt dt   dt

x(t)= c ( jωH( ω)x(t)) R + x(t)H( ω) → 1= c ( jωH( ω)) R + H( ω) → 1= [ jωcR + 1]H(ω)


1
H( ω) =
1+ jωRc

Página 4
Ejemplo

Calcular H(ω) , para el circuito mostrado

Solución

= e jωt → y(t)
Se sabe, si x(t) = x(t)H( ω
= ) e jωtH( ω)

Del grafico
i= i1 + i2 … (1)

d x(t) − y(t) d e jωt − H( ω)e jωt 


i= c = c   = c(1− H( ω))e jωt jω
dt dt

1 1 H( ω) jωt H( ω) jωt
i1 = ∫ y(t)dt = ∫ H( ω)e jωtdt = ∫ e dt = e
L L L j ωL

y(t) H( ω)e jωt


i2 =
=
R R

En (1)

H( ω) jωt H( ω)e jωt


))e jωt jω
c(1− H( ω= e +
j ωL R

H( ω) H( ω)  1 1
jωc(1− H( ω)) = + → jωc − jωcH( ω) = H( ω)  + 
j ωL R  j ωL R 

 1 1  1 1 
jωc = H( ω)  +  + jωcH( ω) → H( ω)  + + j ωc  = j ωc
 jωL R   jωL R 

j ωc
H( ω) =
1 1
+ + j ωc
j ωL R

Página 5
UNIVERSIDAD NACIONAL DE INGENIERÍA Ciclo Académico: 2020-02
FACULTAD DE INGENIERÍA ELÉCTRICA Y ELECTRÓNICA Fecha: 29-06-2021
DEPARTAMENTOS ACADÉMICOS Duración: 2h
PROCESOS ESTOCASTICOS-SEMINARIO 6-7
CURSO: ________________________________________________________ COD. CURSO: BM22-N

Seminario: Sistemas Lineales con entradas aleatorias

1) Calcular H(ω) , para el circuito mostrado

Solución

= e jωt → y(t)
Se sabe, si x(t) = x(t)H( ω
= ) e jωtH( ω)

Del gráfico, podemos escribir

i= i1 + i2 … (1)

dy(t) d H( ω)e jωt 


i =c2 =c2   =c H( ω)e jωt jω
2
dt dt

d x(t) − y(t) d e jωt − H( ω)e jωt 


i1= c1 = c1   = c (1− H( ω))e jωt jω
1
dt dt

x(t) − y(t) e jωt − H( ω)e jωt


=i2 =
R R

En (1)
e jωt − H( ω)e jωt
c2H( ω)e jωt=
jω c1(1− H( ω))e jωt jω +
R
1− H( ω)
c2H( ω)j=
ω c1(1− H( ω))jω +
R

Rc2H( ω)jω =Rc1(1− H( ω))jω + 1− H( ω) → Rc2H( ω)jω =ω


j Rc1 − jωRc1H( ω) + 1− H( ω)
Rc2H( ω)jω + jωRc1H( ω) + H( ω) = jωRc1 + 1
H( ω)(Rc2 jω + jωRc1 + 1) =
jωRc1 + 1

jωRc1 + 1
H( ω) =
jωR(c2 + c1) + 1

2) Calcular H(ω) , para el circuito mostrado

Solución

= e jωt → y(t)
Se sabe, si x(t) = x(t)H( ω
= ) e jωtH( ω)

Del grafico

i1 + i2 = i3 + i4 … (1)

d x(t) − y(t) 1 d e jωt − H( ω)e jωt  1


=i1 + i2 c1 += x(t) − y(t) c1   + e jωt − H( ω)e jωt 
dt R1 dt R1  

1
i1 + i2= c1 1− H( ω) e jωt jω + 1− H( ω) e jωt
R 1

1
i1 + i2= c1 1− H( ω) e jωt jω + 1− H( ω) e jωt
R 1

y(t) d  y(t) H( ω)e jωt d H( ω)e jωt  H( ω)e jωt


i=
3 + i4 + c2 = + c2  =  + c2H( ω)e jωt jω
R2 dt R2 dt R2
En (1)
1 H( ω)e jωt
c1 1− H( ω) e jωt jω + ) e jωt
1− H( ω= + c2H( ω)e jωt jω
R1 R2

1 H( ω)
c1 1− H( ω) jω + 1− H( ω
= ) + c2H( ω)jω
R1 R2

1 1 H( ω)
jωc1 − jωc1H( ω) + − H(=
ω) + c2H( ω)jω
R1 R1 R2

1 H( ω) 1
jωc1 += + c2H( ω)jω + jωc1H( ω) + H( ω)
R1 R2 R1

1  1 1
jωc1 + = H( ω)  + c2 jω + jωc1 + 
R1  R2 R1 

1
+ jωc1
R1 R2 + R1R2 jωc1
=H( ω) =
1 1 R1 + jω(c1 + c2 )R1R2 + R2
+ c2 jω + jωc1 +
R2 R1

X(t) Asen( ω0 t + θ) donde A y ω0 son constantes reales


3) Un proceso aleatorio =

positivas y θ  U[ −π , π] , se aplica a una red que tiene una respuesta al impulso

=h(t) ae −atu(t) , a > 0 . Hallar la respuesta Y(t) de la red.


Solución
y(t)
= X(t) ∗ h(t)
∞ ∞ − aλ
Se sabe Y(t)
= ∫−∞ h( λ )X(t − λ=
)dλ ∫−∞ ae u( λ )Asen( ω0 t − ω0λ + θ)dλ


=Y(t) aA ∫ e −aλu( λ )sen( ω0 t − ω0λ + θ)dλ
−∞

Se sabe:

eax 1 jα
ax
∫ e dx = a , sen(
= α)
2j
(
e − e − jα )
∞  e jω0t − jω0λ+ jθ e − jω0t + jω0λ− jθ 
aA ∫ e−aλ  −  ⋅ dλ
0
 2j 2j 

aA ∞  j( ω0t +θ ) −(a+ jω0 )λ


∫ e e − e− j( ω0t+θ )e−(a− jω0 )λ  ⋅ dλ
2j 0  

aA  j( ω0t +θ ) ∞ −(a+ jω0 )λ ∞


e ∫ e dλ − e− j( ω0t +θ ) ∫ e−(a− jω0 )λdλ 
2j  0 0 
 ∞ ∞
aA  j( ω0t +θ )  e−(a+ jω0 )λ   −(a− jω0 )λ  
− j( ω0t +θ ) e
e   −e   
2j   −(a + jω0 ) 0
  −(a − jω0 ) 0 

 

aA  j( ω0t +θ )  1  − j( ω0t +θ )  1  
= e 0 +  −e 0 + 
2j   a + jω0   a − jω0  

aA  j( ω0t +θ )  a − jω0  − j( ω0t +θ )  a + jω0  


e  2 2
−e  2 2 
2j   a + ω0  a + ω0  
aA e j( ω0t +θ ) (a − jω0 ) − e− j( ω0t +θ ) (a + jω0 )
Y(t) 2 
2
(2j)(a + ω0 ) 

aA a(e j( ω0t +θ ) − e− j( ω0t +θ ) ) − jω0 (e j( ω0t +θ ) + e− j( ω0t +θ ) )


Y(t) 2 
2
(2j)(a + ω0 ) 
jα jα
e= cos α + jsenα , e−= cos α − jsenα
aA
Y(t) a(2jsen( ω0 t + θ) − jω0 (2cos( ω0 t + θ))
(2j)(a2 + ω20 ) 
aA
=Y(t) asen( ω0 t + θ) − ω0 cos( ω0 t + θ)
a + ω20 
2

−τ
4) Un proceso aleatorio X(t) tiene una función de autocorrelación RXX ( τ )= A2 + Be

,donde A y B son constantes positivas. Hallar el valor medio de la respuesta de un SLIT

=
que tiene una respuesta al impulso h(t) te−btu(t) , b > 0 .
Solución

E  Y(t)  X  h(  )d  Y


( )
2
Si X(t) no tiene componentes periódicas: lim RXX ( τ ) = X
τ →∞

(X) (X)
−τ 2 2
lim A2 + Be = → A2= → X= A , A > 0
τ →∞

  ax  x 1
Y  X h(  )d  A  eb d , se sabe: ∫ xe
= ax
dx e −
 a a2 
 0


  λ 1   1  A
Y A e−bλ 
= − 2  = A o − ( − 2 ) → =
Y
  −b b  0  b  b2
5) Una señal X(t) = e−αtu(t) se aplica a una red que tiene una respuesta al impulso

=h(t) wu(t)e− wt , α,w ∈  + y u(t) es la función escalón unitario. Hallar


a) La respuesta del sistema usando =
y(t) ∫−∞ h(λ )X(t − λ )dλ .
b) Hallar el espectro Y(ω) de la respuesta del sistema

Solución

Parte a


=
y(t) λ , y(t)
∫−∞ h(λ )X(t − λ )d= 0, para t < 0

∞ − wλ e−α(t −λ )u(t −= ∞ − wλ e−α(t −λ )u(λ )u(t − λ )dλ


=
y(t) ∫−∞ wu(λ )e λ )dλ ∫−∞ we

u( λ )u(t − λ ) =1 en 0 < λ < t

t −αt −(w −α )λ we−αt ∫ e−(w −α )λ dλ


t
=y(t) ∫0 we
= e dλ
0

eax
ax
Se sabe que: ∫ e dx =
a

t
 e−(w −α )λ   e−(w −α )t 
= −α
y(t) we = t   we−αt  −
1

 −(w − α )   −(w − α ) −(w − α ) 
 0  

w w
y(t)
= (e− wt − e=
−αt
) (e−αt − e− wt )
α−w α−w

Para t > 0

w
=y(t) (e−αt − e− wt )u(t)
α−w
Parte b

Y(ω)
H(ω) = ⇒ Y(ω) = X(ω) ⋅ H(ω)
X(ω)
Cálculo de X(ω)
∞ −αt
X(t) e−αtu(t) ⇒=
= X(ω) ∫−∞ e u(t)e− jωt dt

∞ −( α+ jω)t ∞
1 e−( α+ jω)t  ⇒ X(ω) = 1
=X(ω) ∫0
=e dt 
−(α + jω)  
0 (α + jω)

Cálculo de H(ω)
∞ ∞
=h(t) wu(t)e− wt=
→ H(ω) ∫−∞ wu(t)e
− wt=
e− jωt dt ∫0 we− wt e− jωt dt

∞ w  −(w + jω)t  ∞
H(ω) =w ∫ e−(wt + jω)t dt =−
w w
0 
wt + jω 
e 
0
=−
w + jω
[ 0 − 1] =−
w + jω
( −1)

w 1 w w
H(ω) = , Como Y(ω) = X(ω) ⋅ H(ω) = ⋅ ⇒ Y(ω) =
w + jω α + jω wt + jω (α + jω)( wt + jω)

6) Un pulso rectangular de amplitud A y duración T, definido por


A , 0 < t < T
x(t) =  , se aplica a una red que tiene una respuesta al impulso
0 , otro caso

=h(t) wu(t)e− wt , w ∈  + , u(t) es la función escalón unitario. Hallar la respuesta del


sistema Y(t).
Solución
Podemos escribir x(t)= A(u(t) − u(t − T))= Au(t) − Au(t − T) ,

como =
y(t) ∫−∞ x(λ )h(t − λ )dλ
∞ − w(t −λ ) dλ
=
y(t) ∫−∞ ( Au(λ ) − Au(λ − T)) wu(t − λ )e
∞ − w(t −λ ) dλ + ∞ Au(λ − T)wu(t − λ )e− w(t −λ ) dλ
=
y(t) ∫−∞ Au(λ )wu(t − λ )e ∫−∞
∞ − w(t −λ ) u(λ )u(t − λ )dλ + ∞ Awe− w(t −λ )u(λ − T)u(t − λ )dλ
=y(t) ∫−∞ Awe ∫ −∞
u(λ )u(t
= − λ ) 1, en 0 < λ < t u(λ − T)u(t
= − λ ) 1, en T < λ < t

t − w(t −λ ) dλ + t Awe − w(t −λ )dλ Awe− wt t e wλ dλ + Awe− wt t e wλ dλ


=y(t) ∫0 Awe T
= ∫ 0 ∫ T ∫

y(t) Ae− wt ∫ e wλ d(wλ ) + Ae− wt ∫ e wλ d(wλ )


t t
=
0 T

t t
=y(t) Ae− wt e wλ  − Ae− wt e wλ 
 0  T

y(t) Ae− wt e wt − 1 u(t) − Ae− wt e wt − e wT  u(t − T)


=
   

La primera integral comienza desde t = 0 y la segunda desde t = T

y(t) = A 1 − e− wt  u(t) − A 1 − e− w(t − T)  u(t − T)


   

7) Un proceso aleatorio X(t) tiene una función de autocorrelación:

−t
) A 2 + Be
R xx ( τ= , donde A y B son constantes positivas. Hallar el valor medio de la

respuesta de un sistema que tiene una respuesta al impulso:

e−ω0 t , t > 0
h(t) = 
0 , t<0

Donde ω0 > 0 y X(t) es su entrada

Solución


Se sabe que: Y = X⋅∫ h(λ ) dλ
−∞

Si E [ X(t)] ≠ 0 y X(t) no tiene componentes periódicas, entonces:


(
lim Rxx = E [ X (t )]
τ →∞
2
)
−t
lim Rxx =lim A2 + Be A 2 → E [ X ( t )] =
= A ,A>0
τ →∞ τ →∞

∞ ∞
Y = A ∫ e−ω0 λ dλ = − e−ω0 λ  = − A [0 − 1] = A
A
0 ω0  0 ω0 ω0

Otra forma

{
H(ω) =F e−ω0 tu(t)= } 1
ω0 + jω
→ H(0)
=

∫−∞ h(t)dt=
1
ω0

∞ 1 A
Y= X ⋅ ∫ h(λ )dλ= A ⋅ =
−∞ ω0 ω0

3
8) Un proceso aleatorio X(t) wss con valor medio igual a 5 y S xx (ω=
) 50πδ(ω) +
2
 ω
1+  
2

−4 t
, se aplica a una red con respuesta al impulso h(t) = 4e . Calcular

a) H(ω) para la red

b) La DEP de la salida de la red.

Solución

Parte a

H(ω) =F {h(t)} = F {
4e
−4 t
} =4 F { },
e
−4 t

se sabe F=
e { }
−a t
=
2a 8
a2 + ω2 16 + ω2

32
H(ω) =
16 + ω2

Parte b

2
Se sabe S yy (=
ω) S xx (ω) ⋅ H(ω)
 
  2
 3   32 
S yy (=
ω) 50πδ(ω) + ⋅
 2   ω2 + 16 
  ω   
1+   
  2  

f(ω)δ(ω=
) f(0)δ(ω)

2 2
 32  3  32 
S yy (ω=
) 50π δ(ω)  +
ω2 + 16  2 ω2 + 16 


 1 +   ω   
f( ω)δ( ω)  
2

2 2
 32  3  32 
S yy (ω=
) 50πδ(ω)   +
 16  2 2 
 ω   ω + 16 
1+  
2

12(32)2
S yy (=
ω) 200πδ(ω) +
(ω2 + 4)(ω2 + 16)

−a τ
9) Un proceso aleatorio X(t) wss, con autocorrelación R xx ( τ) =Ae , donde A y a son

constantes reales positivas, es aplicado a la entrada de un SLIT con respuesta al impulso

h(t) = e−btu(t) , donde b es una constante real positiva. Determinar la autocorrelación de


la salida Y(t) del SLIT.
Solución

{ }
Se sabe S yy (ω) =F R yy → R yy ( τ) =F-1 S yy (ω) , también { }
ω) S xx (ω) ⋅ H(ω) , donde S xx (ω) =F {R xx ( τ)} =
S yy (=
2
F Ae { −a τ
} = A F {e }
−a τ

se sabe F e { } −a t
=
2a
a2 + ω2
→ S xx (ω) =
2aA
a2 + ω2
Cálculo de H(ω)

{
H(ω) =F e−btu(t) = } 1
b + jω
→ H(ω) = H(ω) ⋅ H∗ (ω)=
2 1

1
b + jω b − jω
2
→ H(ω) =
1
b2 + ω2
2aA 1 2aA
S=
yy ( ω) ⋅ → S yy (ω) =
2 2 2 2
a +ω b +ω (a + ω2 )(b2 + ω2 )
2

 
{ }
R yy ( τ) =F-1 S yy (ω) → R yy ( τ) =2aA F-1 
2 2
1
2 2 
 (a + ω )(b + ω ) 
 1  1 1 
= 2aA F-1  − 
2 2 2 2
a − b b + ω a + ω2  
2

2aA  1   1 
= [ F -1   + F-1  ]
a2 − b2  b2 + ω2   a2 + ω2 

2aA  1 −b t 1 −a t 
=R yy ( τ)  e − e 
a2 − b2  2b 2a 
aA −b t A −a t
=
R yy ( τ) e − e
2 2 2 2
b(a − b ) (a − b )
Sistemas ideales
Para simplificar el análisis de muchos sistemas complejos, a menudo es conveniente
aproximar la función de transferencia H(ω) por una función ideal

Sistemas causales
Un sistema lineal invariante en el tiempo es causal si no responde antes de la aplicación de
una señal de entrada. Matemáticamente, esto significa que y(t) = 0 para t < t0 si x(t) = 0
para t < t0 , donde t0 es cualquier constante real, esta condición requiere que:

=h(t) 0 para t < 0 …. (8)

Todas las redes pasivas lineales invariantes en el tiempo que pueden construirse verifican
(8). En consecuencia, un sistema que verifica (8) a menudo se dice que es físicamente
realizable

Sistemas estables
Un sistema lineal invariante en el tiempo es estable si su respuesta a cualquier entrada
acotada es acotada; es decir, si x(t) < M , donde M es alguna constante, entonces
y(t) < MΙ para un sistema estable en el que Ι es otra constante independiente de la
entrada.

Considerando y(t)   h(  )x(t  )d , demostrando que:


Ι h(t) dt  

Se asegurará que un sistema que tiene respuesta al impulso h(t) será estable.

Respuesta de los sistemas lineales a señales aleatorias

Vamos a determinar las características de la respuesta de un sistema lineal invariante en


el tiempo y estable como el de la figura:

Cuando la forma de onda aplicada es una función muestra x(t) de un proceso aleatorio X(t),
suponemos que la respuesta al impulso es una función real.

Respuesta del sistema: convolución

Cuando x(t) es una señal aleatoria, la respuesta de la red se obtiena mediante la integral
de convolución:

y(t)   x(  )h(t  )d …. (1)

o

Página 1

y(t)   h(  )x(t  )d …. (2)

donde h(t) es la respuesta al impulso de la red.
Podemos interpretar (2) como una operación sobre una función muestra x(t) del proceso
aleatorio X(t) que genera una función muestra de un nuevo proceso Y(t). Desde este punto
de vista, podemos pensar en (2) como la definición del proceso Y(t) en términos del proceso
X(t):

Y(t)   h(  )X(t  )d … (3)

Entonces, podemos imaginar que el sistema acepta el proceso aleatorio X(t) como entrada
y responde con el nuevo proceso Y(t) de acuerdo con (3).

Nota
a) X(t) wss a la entrada de un SLIT ⇒ Y(t) a la salida es wss
b) X(t) wss a la entrada de un SLIT ⇒ X(t) e Y(t) son conjuntamente wss

Media y valor cuadrático medio de la respuesta del sistema


Podemos aplicar (3) para hallar el valor medio de la respuesta del sistema suponiendo que
X(t) es estacionario en sentido amplio.
   
E  Y(t)  E   h(  )X(t  )d    h(  )E X(t  ) d
   


E  Y(t)  X  h(  )d  Y (constante)

Esta expresión indica que el valor medio de Y(t) es igual al valor medio de X(t) por el área
bajo la respuesta al impulso, si X(t) es estacionario en sentido amplio.
Para el valor cuadrático medio de Y(t), tenemos:

   
E Y2 (t)  E   h( 1)X(t 1)d1  h( 2 )X(t 2 )d2 
     

   
 E   E  X(t 1)  X(t 2 ) h( 1)h( 2 )d1d2  … (4)
   
Si suponemos que la entrada es estacionaria en sentido amplio, entonces

E  X(t 1)X(t 2 )  RXX ( 1 2 )

Y como E  Y2 (t) es independiente de t:


 

 
Y2  E  Y2 (t)  
  XX 1
R (  2 )h( 1)h( 2 )d1d2
 
El valor cuadrático medio es constante, proporciona la potencia de Y(t).

Página 2
Ejemplo
Un proceso X(t) wss es aplicado a la entrada de un SLIT cuya respuesta al impulso es

h(t)  3e2tu(t) . Determinar el valor medio de la salida Y(t) del sistema, si E  X(t)  2 .

Solución

E  Y(t)  X  h(  )d …. (1)

 
H(  )   h(t)ejtdt  H(0)  h(t)dt
 
3 3
 
H(  )  TF 3e2tu(t)  3TF e2tu(t)    j  2
 H(0) 
2
En (1)
 3
E Y(t)  X  h(  )d  (2)( )  3
 2

Función de autocorrelación de la respuesta del sistema


Sea X(t) wss, la función de autocorrelación de Y(t) es:
∞ ∞
RYY (t= + τ ) E  ∫ h( λ1)X(t − λ1)dλ1 ⋅ ∫ h( λ2 )X(t − λ2 )dλ2 
, t + τ ) E Y(t)Y(t=
 −∞ −∞ 
∞ ∞
∫−∞ ∫−∞ E X(t − λ1)X(t + τ − λ2 ) ⋅ h(λ1)h(λ2 )dλ1dλ2
∞ ∞
∴ RYY ( τ ) == ∫ ∫ RXX ( τ + λ1 − λ2 ) ⋅ h( λ1)h( λ2 )dλ1dλ2 …. (5)
−∞ −∞

También
RYY (=
τ) RXX ( τ ) ∗ h( −τ ) ∗ h( τ )
Correlación cruzada de entrada y salida
La función de correlación cruzada de X(t) e Y(t) es:

RXY=
(t , t + τ) E X(t)Y(t
= + τ) E X(t)∫ h( λ )X(t + τ − λ )dλ 
 −∞ 

∫−∞ E X(t)X(t + τ − λ ) ⋅ h(λ )dλ …. (6)

Si X(t) es wss, la ecuación (6) se reduce a:



R=
XY ( τ ) ∫−∞ RXX ( τ − λ )h(λ )d(λ ) …. (7)

Que es la convolución de RXX ( τ ) con h( τ )

RXY (=
τ) RXX ( τ ) ∗ h( τ )
Un análisis similar demuestra que

Página 3

RYX=
( τ) ∫−∞ RXX ( τ − λ )h( −λ )d(λ ) …. (8)

O RYX=
( τ ) RXX ( τ ) ∗ h( −τ )
Las funciones de correlación cruzada dependen de τ y no del tiempo absoluto t , como
consecuencia de este hecho X(t) e Y(t) son conjuntamente wss.
Reemplazando la ecuación (7) en la (5) vemos que la función de autocorrelación y las
funciones de correlación cruzada se relacionan mediante:

R
= YY ( τ ) ∫−∞ RXY ( τ + λ )h(λ )dλ o RYY ( τ ) = ( τ ) ∗ h( −τ )

De manera similar (8) en (5)



R=
YY ( τ ) ∫−∞ RYX ( τ − λ2 )h(λ2 )dλ2 o RYX ( τ) = ( τ) ∗ h( τ)
Características espectrales de la respuesta del sistema
Espectro de densidad de potencia de la salida de un SLIT
Sabemos que:
TF {RXX ( τ) ∗ h( −τ) ∗ h( τ)}
SYY ( ω) = TF {RYY ( τ)} =

Como convolución en el tiempo es multiplicación en la frecuencia


SYY
= ( ω) TF {RXX ( τ )} ⋅ TF {h( −τ )} ⋅ TF {h( τ )}

SYY ( ω
= ) SXX ( ω) ⋅ H( ω) ⋅ H∗ ( ω)
2
SYY ( ω
= ) SXX ( ω) ⋅ H( ω)

La potencia media PYY en la salida del SLIT es:

1 ∞ 2
PYY
= ∫
2π −∞
SXX ( ω) H( ω) dω

Espectros de densidad de potencia cruzada de entrada y salida del sistema


SXY ( ω
= ) SXX ( ω) ⋅ H( ω)
SYX (=
ω) SXX ( ω) ⋅ H( −ω)

Ejemplo
−a τ
Un proceso aleatorio X(t) wss con autocorrelación RXX ( τ ) =Ae , donde A y a son

constantes reales positivas, es aplicado a la entrada de un SLIT con respuesta al impulso

h(t) = e−btu(t) , donde b es una constante real positiva. Determinar la autocorrelación de la


salida Y(t) del sistema.
Solución
Página 4
Se sabe S= {
YY ( ω) TF RYY ( τ ) → R
= }
YY ( τ ) TF
−1
SYY ( τ) { }
2
SYY ( ω
= ) SXX ( ω) ⋅ H( ω) …. (1)

a) Calculo de SXX ( ω)

XX ( ω) TF {R=
S= XX ( τ )} TF Ae {
= ATF =
e
−a τ
} { }−a τ 2aA
a + ω2
2

b) Calculo de H( ω)

1 1
H(
= {
ω) TF e−btu(t)
= } jω + b
→ H(=
ω)
2

ω2 + b2
En (1)
2aA 1
SYY
= ( ω) ⋅
a2 + ω2 ω2 + b2
 2aA 1 
RYY ( τ ) TF −1{=
= SYY ( τ )} TF −1  2 ⋅ 2 
 a + ω ω + b2 
2

2aA 1 aA  2b  A  2a 
2
=
2
⋅ 2 2 2  2 2
− 2 2 2 
a +ω ω +b (a − b )  ω + b  a − b  ω + a2 
2

aA −b τ A −a τ
RYY ( τ )
= 22
e − 2 2
e
(a − b ) (a − b )
Ruido blanco en la entrada
N0
Sabemos que SNN ( ω) = , la salida de un SLIT con ruido blanco a la entrada es:
2
2 N0 2
SYY ( ω
= ) SNN ( ω) ⋅ H( ω) → SYY ( ω
= ) ⋅ H( ω)
2
Potencia media a la salida del SLIT
1 ∞ 2
PYY
= ∫
2π −∞
SNN ( ω) H( ω) dω , el integrando es par

1 ∞ 2
PYY
= 2 ∫ SNN ( ω) H( ω) dω
2π 0
N0 ∞ 2

2π ∫0
PYY
= H( ω ) dω

Página 5
UNIVERSIDAD NACIONAL DE INGENIERÍA Ciclo Académico: 2020-02
FACULTAD DE INGENIERÍA ELÉCTRICA Y ELECTRÓNICA Fecha: 27-01-2021
DEPARTAMENTOS ACADÉMICOS Duración: 2h
PROCESOS ESTOCASTICOS
CURSO: ________________________________________________________ COD. CURSO: MBA12M

Seminario: Sistemas Lineales con entradas aleatorias

1) Calcular H(ω) , para el circuito mostrado

Solución

Se puede escribir

di
x(t) =
L + y(t) ...... (α )
dt

dy di di 1 dy
Como y(t) = iR → =R ⇒ = , en (α )
dt dt dt R dt

L dy(t)
x(t) = + y(t) ...... (β)
R dt

Hacemos que la entrada sea x(t) = e jωt , entonces debemos obtener una salida

y(t) =H(ω)x(t) → y(t) =H(ω)e jωt , derivamos y(t)

= H(ω)e jωt ⋅ ( jω) →


dy(t) dy(t)
= H(ω)x(t) ⋅ ( jω)
dt dt

Reemplazamos en (β)

L L
=
x(t) [H(ω)x(t) ⋅ ( jω)] + H(ω)x(t) →=1 [H(ω) ⋅ ( jω)] + H(ω)
R R

 j ωL  1
1= H(ω)  + 1 → H(ω) =
 R  j ωL
1+
R
2) Hallar la función de transferencia de la red de la figura

Solución

= iR + y(t) …. (1)
x(t)
dy(t)
i=c ….. (2)
dt
dy(t)
H(ω)e jωt →
Si x(t) = e jωt , entonces Y(t) = jωe jωtH(ω) ,
=
dt
En (1)

dy(t)
x(t) = RC + y(t) → e jωt = RCjωe jωtH(ω) + H(ω)e jωt → 1 = jωRCH(ω) + H(ω)
dt

1
1 = (1 + jωRC)H(ω) → H(ω) =
1 + jωRC

3) Hallar la función de transferencia de la red de la figura

Solución

Si x(t) =e jωt → y(t) =H(ω)x(t) → y(t) =H(ω)e jωt


Del gráfico: i= i1 + i2 ….. (1)

d H(ω)e jωt 
= c2   = c H(ω)e jωt jω
dy(t)
a) i = c 2 2
dt dt

dy(t) d [ x(t) − y(t)] d


b) i1= c1 = c1 = c1 e jωt − H(ω)e jωt = c1(1 − H(ω))e jωt jω
dt dt dt  

x(t) − y(t) e jωt − H(ω)e jωt


=c) i2 =
R R

Reemplazando en (1)

j ωt j ωt e jωt − H(ω)e jωt


c 2H(ω)e =
jω c1(1 − H(ω))e jω +
R

1 − H(ω)
c 2H(ω)j=
ω c1(1 − H(ω))jω +
R

1 − H(ω)
c 2H(ω)jω= c1jω − c1H(ω)jω +
R

H(ω) 1
c 2H(ω)jω + c1H(ω)jω + = c1jω +
R R

Rc 2H(ω)jω + c1RH(ω)jω + H(=


ω) Rc1jω + 1

H(ω) [Rc 2 jω + c1Rjω +=


1] Rc1jω + 1

1 + Rc1jω
H(ω) =
1 + Rc 2 jω + Rc1jω

4) Una señal X(t) = e−αtu(t) se aplica a una red que tiene una respuesta al impulso

=h(t) wu(t)e− wt , α,w ∈  + y u(t) es la función escalón unitario. Hallar


a) La respuesta del sistema usando =
y(t) ∫−∞ h(λ)X(t − λ)dλ .
b) Hallar el espectro Y(ω) de la respuesta del sistema

Solución

Parte a


=
y(t) ∫−∞ h(λ)X(t − λ)dλ , y(t)
= 0,t<0
∞ − wλ e−α(t −λ )u(t − λ )dλ
=
y(t) ∫−∞ wu(λ )e
∞ − wλ e−αλ eλα e−αtu(λ )u(t − λ )dλ
y(t) ∫−∞ we
∞ −αt e−(w −α )λu(λ )u(t − λ )dλ
=y(t) ∫−∞ we

u(λ ) ⋅ u(t
= − λ ) 1 , en 0 < λ < t , la integral solo existe en 0 < λ < t

t −αt e−(w −α )λ dλ we−α t t e−(w −α )λ dλ we−αt t −(w −α )λ


=y(t) ∫
0
=
we =
0 ∫ −(w − α ) 0
e ∫ d( −(w − α )λ )

we−αt  −(w −α )λ  t we−αt  −(w −α )t 


= e 0 −(w − α ) e − 1
−(w − α )  

we−αt  −(w)t αt  w  −αt


= e =
e − 1 e − e− wt 
−(w − α )   (w − α )  

w  −αt
=y(t) e − e− wt 
(w − α )  
Para t > 0
w  −αt
=
y(t)  e − e− wt  ⋅ u(t)
(w − α )  
Parte b
Y(ω)
H(ω) = ⇒ Y(ω) = X(ω) ⋅ H(ω)
X(ω)
Cálculo de X(ω)
∞ −αt
X(t) e−αtu(t) ⇒=
= X(ω) ∫−∞ e u(t)e− jωt dt

∞ −( α+ jω)t ∞
1 e−( α+ jω=
)t  ⇒ X(ω) 1
=X(ω) ∫
0
=e dt 
−(α + jω)  
0 (α + jω)
Cálculo de H(ω)
∞ ∞
=h(t) wu(t)e− wt=
→ H(ω) wu(t)e− wt=
∫ e− jωt dt we− wt e− jωt dt

−∞ 0
∞ w  −(w + jω)t  ∞
H(ω) =w e−(wt + jω)t dt =−
w w
∫  e  =− [ 0 − 1] =− ( −1)
0 wt + jω  0 w + jω w + jω
w 1 w w
H(ω) = , Como Y(ω) = X(ω) ⋅ H(ω) = ⋅ ⇒ Y(ω) =
w + jω α + jω wt + jω (α + jω)(wt + jω)

4) Un pulso rectangular de amplitud A y duración T, definido por


A , 0 < t < T
x(t) =  , se aplica a una red que tiene una respuesta al impulso
0 , otro caso

=h(t) wu(t)e− wt , w ∈  + , u(t) es la función escalón unitario. Hallar la respuesta del


sistema Y(t).
Solución

Podemos escribir x(t) = Au(t) − Au(t − T) , como =
y(t) ∫−∞ x(λ )h(t − λ )dλ
∞ − w(t −λ ) dλ
=
y(t) ∫−∞ ( Au(λ ) − Au(λ − T)) wu(t − λ )e
∞ ∞
=
y(t) ∫ Au(λ )wu(t − λ )e− w(t −λ ) dλ + ∫Au(λ − T)wu(t − λ )e− w(t −λ ) dλ
−∞ −∞
∞ − w(t −λ ) u(λ )u(t − λ )dλ + ∞ Awe− w(t −λ )u(λ − T)u(t − λ )dλ
=y(t) ∫−∞ Awe ∫ −∞

u(λ )u(t
= − λ ) 1, en 0 < λ < t u(λ − T)u(t
= − λ ) 1, en T < λ < t

t − w(t −λ ) dλ + t Awe − w(t −λ )dλ Awe− wt t e wλ dλ + Awe− wt t e wλ dλ


=y(t) ∫0 Awe ∫ T
=
0 ∫ T ∫

y(t) Ae− wt ∫ e wλ d(wλ ) + Ae− wt ∫ e wλ d(wλ )


t t
=
0 T
t t
=y(t) Ae− wt e wλ  − Ae− wt e wλ 
 0  T

y(t) Ae− wt e wt − 1 u(t) − Ae− wt e wt − e wT  u(t − T)


=
   

y(t) = A 1 − e− wt  u(t) − A 1 − e− w(t − T)  u(t − T)


   

5) Un proceso aleatorio X(t) wss, es aplicado a la entrada de un SLIT cuya respuesta al

impulso es h(t) = 3e−2tu(t) . Determinar el valor medio de la salida Y(t) del sistema, si

E [ X(t)] = 2 .

Solución


Y = X ⋅∫ h(λ )dλ
−∞


Cálculo de ∫−∞
h(λ )dλ

=H(ω)

∫−∞=
h(t)e − j ωt
dt ∫ 3e
−∞
∞ −=
2tu(t)e− jωt dt F {3e−2t u(t )} = 3 F {e−2t u(t )}
Se sabe F {e−at=
u(t )}
1
a + jω
→ H(ω) = 3 ⋅
1
2 + jω
→ H(ω) =
3
2 + jω

∞ − jωt dt = ∞ ∞ 3
=
H(ω) ∫−∞ h(t)e → H(0) ∫−∞ h(t)dt ⇒ ∫−∞=
h(t)dt
2
∞ 3
y = x∫ h(t)dt = 2 ⋅ = 3
−∞ 2

6) Un proceso aleatorio X(t) tiene una función de autocorrelación:

−t
) A 2 + Be
R xx ( τ= , donde A y B son constantes positivas. Hallar el valor medio de la

respuesta de un sistema que tiene una respuesta al impulso:

e−ω0 t , t > 0
h(t) = 
0 , t<0

Donde ω0 > 0 y X(t) es su entrada


Solución


Se sabe que: Y = X⋅∫ h(λ ) dλ
−∞

Si E [ X(t)] ≠ 0 y X(t) no tiene componentes periódicas, entonces:

(
lim Rxx = E [ X (t )]
τ →∞
2
)
−t
lim Rxx =lim A2 + Be A 2 → E [ X ( t )] =
= A ,A>0
τ →∞ τ →∞

∞ ∞
Y = A ∫ e−ω0 λ dλ = − e−ω0 λ  = − A [0 − 1] = A
A
0 ω0  0 ω0 ω0

Otra forma

{
H(ω) =F e−ω0 tu(t)= } 1
ω0 + jω
→ H(0)
=

∫−∞ h(t)dt=
1
ω0

∞ 1 A
Y= X ⋅ ∫ h(λ )dλ= A ⋅ =
−∞ ω0 ω0

3
7) Un proceso aleatorio X(t) wss con valor medio igual a 5 y S xx (ω=
) 50πδ(ω) +
2
 ω
1+  
2

−4 t
, se aplica a una red con respuesta al impulso h(t) = 4e . Calcular

a) H(ω) para la red

b) La DEP de la salida de la red.

Solución

Parte a

H(ω) =- {h(t)} = F {
4e
−4 t
} =4 F { },
e
−4 t

se sabe F=
e { }
−a t
=
2a 8
a2 + ω2 16 + ω2

32
H(ω) =
16 + ω2
Parte b

2
Se sabe S yy (=
ω) S xx (ω) ⋅ H(ω)

 
  2
 3   32 
S yy (=
ω) 50πδ(ω) + ⋅
 2   ω2 + 16 
 ω
   
1+   
  2  

f(ω)δ(ω=
) f(0)δ(ω)

2 2
 32  3  32 
S yy (ω=
) 50π δ(ω)   +  2 
ω2 + 2 ω +

 1 + 16   ω   16 
f( ω)δ( ω)  
2

2 2
 32  3  32 
S yy (ω=
) 50πδ(ω)   +
 16  2  ω2 + 16 
 ω  
1+  
2

12(32)2
S yy (=
ω) 200πδ(ω) +
(ω2 + 4)(ω2 + 16)

8) Un proceso aleatorio X(t) wss, con autocorrelación c6f, donde A y a son constantes
reales positivas, es aplicado a la entrada de un SLIT con respuesta al impulso

h(t) = e−btu(t) , donde b es una constante real positiva. Determinar la autocorrelación de


la salida Y(t) del SLIT.
Solución

{ } { }
Se sabe S yy (ω) =F R yy → R yy ( τ) =F-1 S yy (ω) , también

ω) S xx (ω) ⋅ H(ω) , donde S xx (ω) =F {R xx ( τ)} =


S yy (=
2
F Ae { −a τ
} = A F {e }
−a τ

=
se sabe F e { }
−a t 2a
a2 + ω2
→ S=
xx (ω)
2aA
a2 + ω2
Cálculo de H(ω)

{
H(ω) =F e−btu(t)
= } 1
b + jω
2
→ H(ω)=
1
b2 + ω2
2aA 1 2aA
S=
yy ( ω) ⋅ → S=
yy ( ω)
a2 + ω2 b2 + ω2 (a2 + ω2 )(b2 + ω2 )

 
{ }
R yy ( τ) =F-1 S yy (ω) → R yy ( τ) =2aA F-1 
2 2
1
2 2 
 (a + ω )(b + ω ) 

 1  1 1 
= 2aA F-1   − 
2 2 2 2
a − b b + ω a2 + ω2  
2aA  1 
 1 
= + F-1 
2 [F  2 2 ]
-1
2
a −b b + ω   a2 + ω2 

2aA  1 −b t 1 −a t 
=R yy ( τ) e − e
2 2  2b 

a −b 2a

aA −b t A −a t
=
R yy ( τ) e − e
b(a2 − b2 ) (a2 − b2 )
Cadenas de Márkov en tiempo discreto (CMTD)
Definiciones preliminares
Proceso estocástico
Un proceso estocástico es una colección de variables aleatorias { Xt / t ∈ T} , parametrizada por
un conjunto T llamado espacio parametral, en donde las variables aleatorias toman valores en
un conjunto S llamado espacio de estados.
Nota

a) Xt : estado del proceso en el instante t

b) Espacio de estados del proceso es el conjunto de todos los valores posibles que puede

tomar la variable aleatoria Xt .

Ejemplo
Determine el espacio de estado y el espacio parametral de un proceso estocástico, el cual es el
marcador durante un encuentro de futbol.
Solución

Xt = marcador de un partido de futbol en el instante t

El espacio de estado S es el conjunto de posibles valores que el marcador puede tomar

=S {=
(x,y) / x,y 0,1,2,....} ., x = goles del equipo 1 , y = goles del equipo 2

Si medimos el tiempo t en minutos, entonces el espacio parametral es [0 , 90] . El proceso


empieza en el estado (0 , 0) y las transiciones toman lugar entre los estados de S, cuando un
gol es anotado.
Un gol incrementa x o y en uno, tal que el marcador (x , y) cambiara a (x + 1 , y) o (x,y + 1)

Ejemplo
Determine el espacio de estado y el espacio parametral de un proceso estocástico, el cual es el
numero de asaltos realizados en la ciudad durante el mes de diciembre.

Solución

Xt = numero de asaltos realizados en la ciudad durante el mes de diciembre.

S = {0 , 1 , 2 , ... , n} , es el número de asaltos

T = {1 , 2 , 3 , ... , 31} , es el número de días

Ejemplo del clima


El clima en el pueblo de Centerville puede cambiar con rapidez de un día a otro. Sin embargo,
las posibilidades de tener clima seco (sin lluvia) mañana es de alguna forma mayor si hoy está

Página 1
seco, es decir, si no llueve. En particular, la probabilidad de que mañana esté seco es de 0.8 si
hoy está seco, pero es de sólo 0.6 si hoy llueve. Estas probabilidades no cambian si se considera
la información acerca del clima en los días anteriores a hoy.

La evolución del clima día tras día en Centerville es un proceso estocástico. Si se comienza en
algún día inicial (etiquetado como día 0), el clima se observa cada día t, para t = 0 , 1, 2 , ....

El estado del sistema en el día t puede ser


Estado 0 = El día t es seco o bien Estado 1 = El día t es lluvioso

Así, para t = 0 , 1, 2 , .... , la variable aleatoria Xt toma los valores,

0 si dia t es seco
Xt = 
1 si dia t es lluvioso

El proceso estocástico { Xt } = { X0 , X1 , X2 , .....} proporciona una representación matemática

de la forma en que evoluciona el clima en Centerville a través del tiempo.


Cadena de Márkov
Una cadena de Márkov en tiempo discreto es un proceso estocástico en tiempo discreto
{ X n , n = 0,1, 2,...} con espacio de estado discreto S = {0,1, 2,...} , que satisface la:

Propiedad de Márkov:

Para cada n y =
x j ∈ S , j 0,1, 2,..., (n + 1) , se verifica:

=
P( X n +1 x=
n +1 X n xn=
,..., X=
0 x0 ) =
P( X n +1 x=
n +1 X n xn )

La propiedad de Márkov establece que la probabilidad condicional de cualquier evento futuro,


dados cualquier evento pasado y el estado actual X n = xn , es independiente de los eventos

pasados y solo depende del estado actual del proceso.

Probabilidad de transición en un paso


A la probabilidad condicional
pij=
(n) P( X=
n +1 j=
X n i ) , i, j ∈ S

Se le denomina probabilidad de transición en un paso del estado i en el tiempo n al estado j en


el tiempo n+1. La CMTD se denomina homogénea ( o estacionaria) si pij (n) no depende de n,

en tales casos escribiremos pij en lugar de pij (n) . A partir de ahora trabajaremos únicamente

con cadenas de Márkov homogéneas.

Página 2
Matriz de probabilidades de transición en un paso
La matriz formada por las probabilidades de transición en un paso para una cadena de Márkov
homogénea se denomina matriz de transición o matriz de probabilidades de transición y toma la
forma.

0 1 2 ….
0  p00 p01 p02 
 
P=
1
 p10 p11 p12 
2  p20 p21 p22 
 
     

Donde pij=
(n) P( X=
n +1 j=
X n i)
Propiedades
a) 0 ≤ pij ≤ 1
b) ∑ j pij = 1 , para cada i ∈ S (las filas suman 1).
Toda matriz cuadrada que cumpla (a) y (b) se le denomina matriz estocástica.

Diagrama de transición

Gráficamente, una CMTD con espacio de estados finito se puede representar mediante un
diagrama de transición, es decir, mediante un grafo dirigido finito, donde cada nodo representa
un estado de la cadena, los arcos representan las posibles transiciones entre estados y sobre
los arcos se indican las probabilidades de transición entre los estados representados por los
nodos unidos por cada arco.

Ejemplo
Una máquina se puede encontrar funcionando (estado E1) o fuera de servicio (estado E2). Se
sabe que, si en un día determinado la máquina está funcionando, la probabilidad de que el día
siguiente también se encuentre funcionando es del 50%, mientras que, si está fuera de servicio,
la probabilidad de que al día siguiente la máquina vuelva a funcionar es del 25%. Luego, la
representación gráfica y la matriz de transición de un paso se indican a continuación:

Página 3
P=

Ejemplo

Un proceso físico puede adoptar solamente tres estados (0, 1 y 2). Si el proceso se encuentra
en el estado 0, la probabilidad de mantenerse en el estado 0 es de 0,5, la probabilidad de pasar
al estado 1 es de 0,3 y de pasar al estado 2, de 0,2. Por su parte, si el proceso se halla en el
estado 1, la probabilidad de pasar al estado 0 es de 0,1, la de mantenerse en el mismo estado 1
es de 0,6, y la de pasar al estado 2 es de 0,3. Finalmente si el sistema se encuentra en el estado
2, la probabilidad de pasar al estado 0 es de 0,2, de pasar al estado 1 es de 0,4 y de mantenerse
en el mismo estado 2 es de 0,4.

La matriz de transición es

y la representación gráfica correspondiente:

Ejemplo

De la matriz de transición, representar el diagrama de transición

Página 4
Solución

p11 0=
= , p12 1,=
p13 0=
, p14 0

Distribución de probabilidad inicial


π i0 P=
La distribución de probabilidad de X 0 es π 0 = (π 00 , π10 , π 20 ,...) , con= ( X 0 i ) , se denomina
distribución de probabilidad inicial. Una cadena de Márkov queda determinada si se conocen las
probabilidades de transición, pij , y la distribución de probabilidad inicial, π 0 .

Probabilidad de transición en n pasos

Las probabilidades de transición en n pasos son las probabilidades de transición del estado i al
estado j en n pasos y se denotan como:

pij( n)= P ( X n= j X 0= i )= P ( X n + m= j X m= i )

También pij(1) = pij .

Matriz de transición en n pasos


Haciendo variar i y j se obtiene la matriz de probabilidades de transición en n pasos que
denotaremos por P ( n) .

0 1 2 ….
0 p ( n ) ( n )
p01 p02 ( n)

1  00 
P ( n) =  ( n) ( n) ( n) 
2  p10 p11 p12  
 ( n) ( n) ( n) 
  p20 p21 p22  
 
    

Cuando n = 1 , el superíndice n no se escribe y se hace referencia a esta como la matriz de


transición.

Ecuaciones de Chapman-Kolmogorov
La ecuación de Chapman-Kolmogorov, proporcionan una forma recurrente para calcular las
probabilidades de transición de n pasos: pij( n)
M
( m) ( n − m)
pij( n) =∑ pik pkj i, j =0,1,..., M ; m =0,1,..., (n − 1) ; n =m + 1, m + 2,...,
k =0

Página 5
Estas ecuaciones señalan que al ir del estado i al estado j en n pasos. El proceso estará en algún
estado k después de exactamente m pasos (m< n).
( m) ( n − m)
De esta forma, pik pkj es sólo la probabilidad condicional que, si comienza en el estado i, el
proceso vaya al estado k después de m pasos y después al estado j en (n −m) pasos. En
consecuencia, al resumir estas probabilidades condicionadas sobre todos los estados posibles k
se debe obtener pij( n) .
Los casos especiales de m = 1 y m= n − 1 , para todos los estados i y j, conducen a las
expresiones:

M M
( n −1) ( n −1)
pij( n) = ∑ pik pkj , pij( n) = ∑ pik pkj
k =0 k =0

M
Para n = 2 , para todos los estados i y j, estas expresiones se convierten en pij(2) = ∑ pik pkj ,
k =0
donde las pij(2) son los elementos de la matriz p 2 .
Denotar que estos elementos también se obtienen al multiplicar la matriz de transición de un
paso por sí misma, es decir: p (2) = p 2
Si denotamos P(n) la matriz de transición de n pasos, lo que están diciendo las ecuaciones de
Chapman-Kolmogorov es que:
P(n+m) = P(n)P(m)
Por lo tanto
P (2)
= P (1) P (1)
= PP= P2
P (3) P=
= (2) P P3

P ( n) = P n
Por tanto, la matriz de probabilidades de transición de n pasos P n se puede obtener
al calcular la n‐ésima potencia de la matriz de transición de un paso P.

Distribución marginal del paso n-esimo


Una vez conocidas las probabilidades de transición en n pasos calculemos la distribución
marginal del paso n-ésimo.
P( X n= j )= ∑ P( X n= j X 0= i )= ∑ pij(n)π i0
i i

La distribución de probabilidad inicial de X 0 es:


π i0 P=
π 0 = (π 00 , π10 ,..., π i0 ,...) con= ( X 0 i)
La distribución de probabilidad en n pasos será:
π in P=
π n = (π 0n , π1n , π 2n ,...) con= ( X n i)
la forma matricial de la expresión anterior es:
π n = π 0 Pn

Página 6
Estado esperado
a) Estado esperado en el instante n suponiendo que se parte del estado i:
∞ ∞
P(Xn |X0= i)= ∑ jP(Xn= j|X0= i)= ∑ jPij(n)
=j 0=j 0
b) Estado esperado en el instante n:
∞ ∞
P(Xn= j)= ∑ jP(Xn= j =) ∑ j∑ Pij(n)πi0
=j 0=j 0 i

Estado estable
Las cadenas de Márkov poseen una propiedad notable en cuanto a que tienden a aproximarse
a lo que se llama estado estable.
En una cadena ergódica, las probabilidades de estado estable se definen como

=π j lim
= a(n)
j , j 0,1,2,....
n→∞

Estas probabilidades, las cuales son independientes de ( a(0)


j ) , se determinan resolviendo la
M
ecuación π = πP , añadiendo la ecuación ∑ π j =1
j =0
(Una de las ecuaciones de π = πP es redundante). Lo que π = πP dice es que las probabilidades
π permanecen sin cambiar después de una transición adicional y por esta razón representa la
distribución de estado estable.
Un subproducto directo de las probabilidades de estado estable es la determinación del número
esperado de transición antes que el sistema regrese a su estado j por primera vez. Esto se
conoce como tiempo medio del primer retorno o tiempo medio de recurrencia y se calcula en una
cadena de Márkov de n estados como

1
uij
= = , j 1, 2 , ..... , n
πj

Cálculo de Pn en forma eficiente

Supongamos que P es una matriz de orden s × s , es decir, hay s estados y tiene s autovalores
distintos λ1 , λ2 , ... , λ s , entonces: P = HDH−1 , con D una matriz diagonal de autovalores.

 λ1 0  0 
 
 0 λ2   
D= y H es la matriz de autovectores. Entonces Pn = HDnH−1.
   0
 
 0  0 λs 

Página 7
Recordemos que los autovalores se calculan resolviendo la ecuación P − λΙ = 0 y los
autovectores se calculan resolviendo (P − λΙ )x = 0 , donde x es el autovector.

 0.7 0.3   λ 0  2
P − λΙ=  − = 0 → 0.5 − 1.5λ + λ = 0 , =
λ1 0.5 , =
λ2 1
 0.2 0.8   0 λ 

Calculamos los autovectores

 0.2 0.3   x1   0   −0.3 0.3   x1   0 


(P − λ1Ι )x  =
=  x  0 = , (P − λ2Ι )x  =    
 0.2 0.3   2     0.2 −0.2   x2   0 

Las soluciones son

 x1   0.3   x1   1 −1  0.3 1 0.5 0  2 −2 


 x  =  −0.2  y =
 x   1 , =
entonces P HDH
=    
 2    2    −0.2 1 0 1 0.4 0.6 

4 −1  0.4375 0.5625 
=P4 HD
= H  
 0.375 0.625 

Ejemplo (Fiabilidad de un sistema)

Se sabe que un sistema fallará o no dependiendo de si ha fallado o no el día anterior. La


probabilidad de que falle un día sabiendo que ha fallado el día anterior es de 0.7, pero si no ha
fallado el día anterior es de 0.2.

1) ¿Cuál es la probabilidad de que el sistema falle dentro de cuatro días sabiendo que hoy no ha
fallado?

2) ¿Cuál es la probabilidad de que el sistema falle el cuarto día sabiendo que inicialmente la
probabilidad de fallar es de 0?4 y la de no fallar es de 0.6?

3) ¿Cuál es el estado esperado dentro de 4 dias sabiendo que hoy no ha fallado?

4) ¿Cuál es el estado esperado para el cuarto dia sabiendo que la distribución de probabilidad
inicial es π 0 = (0.4 0.6) ?

5) Determine la distribución de probabilidad de estado estable

Solución

Página 8
Sea Xn , n = 0 , 1, 2 , .... una CMTD, donde X=n i= , i 0 , 1, representa si el sistema falla o no
falla respectivamente, el dia n-esimo, ya que el estado del sistema el dia n+1 tan solo depende
del estado en el dia n.

Su matriz y diagrama de transición son:

Parte 1
(4)
P10
Nos esta pidiendo el valor de = P(X
= 4 0=
| X0 1) , para calcular este valor tenemos que
calcular la matriz de transición de 4 pasos, P4

 0.7 0.3  0.7 0.3   0.55 0.45 


P2 =    
 0.2 0.8  0.2 0.8   0.3 0.7 

 0.55 0.45  0.55 0.45   0.4375 0.5625 


P4 =    
 0.3 0.7  0.3 0.7   0.375 0.625 
(4)
Obtenemos P10 = P(X4= 0 | X0= 1)= 0.375

Parte 2

La distribucion inicial es π 0 = (0.4 0.6) , sabemos que π n = π 0 P n , entonces

0 P 4 (0.4 0.6)  0.4375 0.5625


π 4 π=
= =

  (0.4 0.6)
 0.375 0.625 

Parte 3
1
E(X4 |X0 = ∑ jp1j(4) =
1) = (4)
(0)p10 (4)
+ (1)p11 (0)(0.375) + (1)(0.625) =
= 0.625
j=0

Parte 4
1
E(X
= 4) ∑ j∑ pij(4)
= πi0 (4) 0
(0)(p00 (4) 0
π0 + p10 (4) 0
π1 ) + (1)(p01 (4) 0
π1 + p11 π1 )
j=0 i

E(X=
4 ) (0)(0.4375(0.4) + 0.375(0.6)) + (1)(0.5625(0.4) + 0.625(0.6))

= (0)(0.4) + (1)(0.6) = 0.6

Parte 5

Sea π = ( π0 π1 ) , entonces

Página 9
 0.6 0.4  0.6x + 0.4y =x
πP = π → (x , y)   = (x , y) →  , además x + y =
1
 0.4 0.6  0.4x + 0.6y =y
=
Resolviendo x 0.5 = , y 0.5 , π = (0.5 , 0.5) = ( π0 , π1)

Cálculo eficiente de Pn

Supongamos que P es una matriz de orden s × s , es decir, hay s estados y tiene s autovalores
distintos λ1 , λ2 , ... , λ s , entonces: P = HDH−1 , con D una matriz diagonal de autovalores.

 λ1 0  0 
 
 0 λ2   
D= y H es la matriz de autovectores. Entonces Pn = HDnH−1.
   0
 
 0  0 λs 

Recordemos que los autovalores se calculan resolviendo la ecuación P − λΙ = 0 y los


autovectores se calculan resolviendo (P − λΙ )x = 0 , donde x es el autovector.

 0.7 0.3   λ 0  2
P − λΙ=  − = 0 → 0.5 − 1.5λ + λ = 0 , =
λ1 0.5 , =
λ2 1
 0.2 0.8   0 λ 

Calculamos los autovectores

 0.2 0.3   x1   0   −0.3 0.3   x1   0 


(P − λ1Ι )x  =
=  x  0 = , (P − λ2Ι )x  =    
 0.2 0.3   2     0.2 −0.2   x2   0 

Las soluciones son

 x1   0.3   x1   1 −1  0.3 1 0.5 0  2 −2 


 x  =  −0.2  y  x  =  1 , entonces
= P HDH
=    
 2    2    −0.2 1 0 1 0.4 0.6 

4 −1  0.4375 0.5625 
=P4 HD
= H  
 0.375 0.625 

Clasificación de los estados en una cadena de Márkov

Los estados de una cadena de Márkov se clasifican con base en la probabilidad de transición pij
de P.

1) Un estado j es absorbente si está seguro de regresar a si mismo en una transición, es decir,


pij = 1

2) Un estado j es transitorio si puede llegar a otro estado, pero no puede regresar desde otro
estado. Matemáticamente, esto sucederá si lim Pij(n) = 0 , para todas las i.
n→∞

Página 10
3)Un estado j es recurrente si la probabilidad de ser revisitado desde otros estados es 1. Esto
puede suceder si y solo si, el estado no es transitorio.

4) Un estado j es periódico con periodo t > 1 si es posible un retorno solo en t ,2t ,3t ,.... pasos.
Esto significa que Pij(n) = 0 cuando n no es divisible entre t.

Se dice que una cadena de Márkov es ergódica si todos los estados son recurrentes y aperiódica.
En este caso las probabilidades absolutas después de n transiciones, a(n) = a(0)Pn , siempre
convergen de forma única a una distribución limitante (estado estable) que es independiente de
las probabilidades iniciales.

Página 11
UNIVERSIDAD NACIONAL DE INGENIERÍA Ciclo Académico: 2021-01
FACULTAD DE INGENIERÍA ELÉCTRICA Y ELECTRÓNICA Fecha: 06-07-2021
DEPARTAMENTOS ACADÉMICOS Duración: 2h
PROCESOS ESTOCASTICOS- SEMINARIO 08
CURSO: ________________________________________________________ COD. CURSO: BMA22N

1) En un pueblo el clima puede ser soleado (S) o nublado (N), suponiendo que
las condiciones climáticas en días sucesivos forman una cadena de Márkov con
probabilidades estacionarias, siendo la matriz de transición:

S N
P= S  0.7 0.3 
 
N  0.6 0.4 

a) Si el martes está nublado, ¿cuál es la probabilidad que esté nublado el miércoles?


b) Si el martes está nublado, ¿cuál es la probabilidad de que el jueves haga sol?
c) Suponiendo que la probabilidad de que el martes haga sol es 0,2 y la
probabilidad de que esté nublado es 0,8. Calcular:
c1) Probabilidad de que esté nublado el miércoles.
c2 ) Probabilidad de que esté nublado el jueves
c3 ) Probabilidad de que esté nublado el viernes.

Solución
La evolución del clima día tras día en el pueblo es un proceso estocástico, si se comienza
en algún día inicial (etiquetado como día 1), el clima se observa cada día t, para
t = 1, 2 , ... . El estado del sistema en el día t puede ser

Estado 1 : El día t es soleado


Estado 2 : El día t es nublado

Así, para t = 1, 2 , 3 , ... , la variable aleatoria Xt toma los valores

1, si el dia t es soleado


Xt = 
2 , si el dia t es nublado

Matriz de transición

1 2
1  P11 P12 
   0.7 0.3 
P= 2  P21 P22  → P=
 
 0.6 0.4 
Diagrama de transición

Parte a:
Si el martes está nublado, la probabilidad de que esté nublado el miércoles es
pij p=
= 22 0.4

Parte b:
Si el martes está nublado para calcular la probabilidad de que el jueves haga sol se
necesita calcular la matriz de transición en 2 pasos, necesitamos P21en la matriz de
(2)
dos pasos ( P21 ).

 0.7 0.3   0.7 0.3   0.67 0.33 


P2 =  ⋅ =  , la probabilidad de jueves con sol es
 0.6 0.4   0.6 0.4   0.66 0.34 
(2)
P21 = 0.66

Parte c1:

Si el martes la probabilidad de sol es 0,2 y la probabilidad nublada 0,8, esto es,

π 0 = (0.2 , 0.8) , entonces π = π 0 P

 0.7 0.3   
π (=
0.2 0.8 )    0.62
 
0.38 
 0.6 0.4   S N 

probabilidad = 0,38 miércoles nublado

Parte c2

probabilidad de que el jueves esté nublado:

π 2 = π 0 P2

 0.67 0.33 
P2 =  
 0.66 0.34 

 0.67 0.33   
π2 (=
0.2 0.8 )    0.662
  0.338 
 0.66 0.34   S N 

La probabilidad del jueves nublado es 0,338


Parte c3

Para calcular la probabilidad de que el viernes esté nublado:

2P  0.67 0.33  0.7 0.3


P3 P=
= =
  0.667 0.333 
    
 0.66 0.34  0.6 0.4   0.666 0.334 
π 3 = π 0 P3

 0.667 0.333   
π3 (=
0.2 0.8 )    0.6662
  
0.3338
 0.666 0.334   S N 

La probabilidad del viernes nublado es 0,3338

2) Un viajante opera en tres ciudades: Madrid, Segovia y Toledo. Con tal de evitar
desplazamientos innecesarios pasa todo el día en la misma ciudad y al día siguiente, si
no tiene suficiente trabajo, se desplaza a otra ciudad. Después de trabajar un día en
Toledo, la probabilidad de tener que continuar allí al día siguiente es 0,4, la de tener que
viajar a Segovia es 0,4, y la de tener que ir a Madrid es 0,2. Si el viajante duerme un día
en Segovia, con probabilidad 0,2, tendrá que seguir trabajando en la misma ciudad al día
siguiente, en el 60% de los casos viajará a Toledo, mientras que irá a Madrid con
probabilidad 0,2. Si el viajante trabaja todo un día en Madrid, permanecerá en la ciudad
al día siguiente con probabilidad 0,1, irá a Segovia con probabilidad 0,3, y a Toledo con
probabilidad 0,6.
a) Si el viajante se encuentra hoy en Toledo, ¿cuál es la probabilidad de que tenga que
trabajar en la misma ciudad al cabo de cuatro días?
b) ¿Cuáles son los porcentajes de días en los que el viajante está en cada una de las
tres ciudades.
Solución

 0.1 0.3 0.6  0.1 0.3 0.6   0.19 0.33 0.48 


    
P2 =0.2 0.2 0.6  0.2 0.2 0.6   0.18 0.34 0.48 
 0.2 0.4 0.4  0.2 0.4 0.4   0.18 0.30 0.0.52 
    
 0.19 0.33 0.48  0.19 0.33 0.48   0.1819 0.3189 0.4992 
4     
P =0.18 0.34 0.48  0.18 0.34 0.48   0.1818 0.3190 0.4992 
 0.18 0.30 0.52  0.18 0.30 0.52   0.1818 0.3174 0.5008 
    

En Toledo se encuentra a los cuatro días con probabilidad p(4)


33 = 0.5008

b) Para calcular las probabilidades estacionarias hacemos lo sgte: π = πP

 0.1 0.3 0.6 


 
(x , y , z) = ( x y z )  0.2 0.2 0.6  , además x + y + z =
1
 0.2 0.4 0.4 
 
x =0.1x + 0.2y + 0.2z 10x =x + 2y + 2z 9x − 2y − 2z =0
  
y = 0.3x + 0.2y + 0.4z → 10y = 3x + 2y + 4z → 8y − 3x − 4z = 0 , x + y + z =
1
z = 0.6x + 0.6y + 0.4z 10z = 6x + 6y + 4z 6z − 6x − 6y = 0
  
9x − 2y − 2z =
0

z − x − y =0 → 2z =→
1 z =0.5 → 9x − 2(y + z) =0 → 9x − 2(1− x) =0
x + y + z =1

2
9x − 2 + 2x = 0 → 11x = 2 → x = = 0.1818
11
y =1− (x + z) =1− (0.1818 + 0.5) → y =0.3182
(x y z ) = ( 0.1818 0.3182 0.5 )
El porcentaje de días que el viajante se encuentra encada ciudad es :
Madrid el 18%, Segovia el 32% y Toledo el 50%

3) Un edifico consta de sótano y dos pisos. El ascensor del edificio realiza viajes de uno
a otro piso, se conoce que el piso en el que finaliza el n‐ésimo viaje del ascensor sigue
una cadena de Márkov, y que la mitad de los viajes que parten del sótano se dirigen a
cada uno de los otros dos pisos, mientras que, si un viaje comienza en el primer piso,
sólo el 25% de las veces finaliza en el segundo. Finalmente, si un trayecto comienza en
el segundo piso, siempre finaliza en el sótano.
a) Calcular la matriz de probabilidades de transición de la cadena
b) ¿Cuál es la probabilidad que a largo plazo el ascensor se encuentre en cada
uno de los tres pisos?
Solución
a) Los estados de la cadena se denotan por S = {0,1,2} , haciendo corresponder el 0 al

sótano y el 1 y 2 al primer y segundo piso respectivamente.


La matriz de probabilidades de transición es:

p00 = 0 es la probabilidad de que el ascensor se encuentre en el sótano si en la


etapa anterior estaba en el sótano, evidentemente es 0 porque se supone que
de etapa a etapa el ascensor se mueve.
p01 = 0.5 es la probabilidad de que el ascensor se encuentre en la primera planta si
en la etapa anterior estaba en el sótano.
Así, sucesivamente, se van obteniendo las probabilidades de transición.
b) El estado estable, se determina resolviendo: π = πP , añadiendo x + y + z =
1

 0 0.5 0.5 
 
(x , y , z) = ( x y z )  0.75 0 0.25  , además x + y + z =
1
 1 0 0 

x 0.75y + z
= x + y +
= z 1
 
y =0.5x → y =0.5x → x =1− (y + z) → x =1− (x + 0.25(0.5x))
z =  0.5x + 0.25y
 0.5x + 0.25y z =
=x 1− x − 0.125x → 2.125x
= 1=→ x 0.4705 =
→ y 0.2352 =
→ z 0.2941
4) Una importante marca comercial de cervezas (G), preocupados en especial por su
mayor competidor (H), ha contratado a un analista de operaciones para analizar su
posición en el mercado. El analista piensa que el cambio de marca se puede modelar
como una cadena de Márkov incluyendo tres estados, los estados G y H que representan
a los clientes que beben cerveza producidas por las mencionadas marcas y el estado I
que representa a todas las demás marcas.
Con los datos históricos recogidos cada mes, el analista ha construido la siguiente matriz
de transición:

¿Cuáles son los porcentajes de mercado en el estado estable para los dos grandes
marcas de cerveza?
Solución:
Sea v = (x, y, z) , detonando por x la probabilidad de que el consumidor compre G, y
de que el consumidor compre H y z la del que consumidor compre I.
El estado estable se determina resolviendo la ecuación π = πP , añadiendo la ecuación
x+y+z=1
El sistema resultante es:
 0.7 0.2 0.1 
 
(x , y , z) = ( x y z )  0.2 0.75 0.05  , además x + y + z =
1
 0.1 0.1 0.8 
 
Teoría de colas
Introducción
La Teoría de Colas es el estudio matemático del comportamiento de las colas o líneas de espera,
las Colas son un desequilibrio temporal cuando la demanda de un servicio es superior a la
capacidad del sistema. En la formación de colas se habla de clientes. Esta teoría estudia factores
como el tiempo de espera medio en las colas o la capacidad de trabajo en el sistema sin que se
llegue a colapsar. Se encuentran en una amplia variedad de situaciones: comercio, computación,
industria, informática, ingenierías, internet, logística, negocios, telefonía, transporte,
telecomunicaciones. La Teoría de Colas proporciona información para la toma de decisiones de
capacidad óptima y diseño de sistemas.

Teoría de Colas

Una Cola se presenta con frecuencia cuando se solicita un servicio por parte de una serie de
clientes y tanto el servicio como los clientes son de tipo probabilístico. La primera aplicación de
teoría de Colas se debe al matemático danés Erlang sobre conversaciones telefónicas en 1909
para el cálculo de tamaño de las centralitas. La Teoría de Colas es una disciplina de Investigación
Operativa que se encarga de proponer modelos para el manejo eficiente de Líneas de Espera.

Una Línea de Espera es una hilera formada por uno o varios clientes que aguardan para recibir
un servicio. Los clientes pueden ser personas, objetos, máquinas que requieren un
mantenimiento, contenedores de mercancías para ser embarcados, elementos de inventario para
ser utilizados, etc. Una Línea de Espera se forma por un desequilibrio temporal entre la demanda
de un servicio y la capacidad del sistema para gestionarlo.

Los Modelos de Líneas de Espera son muy útiles para determinar cómo operar un sistema de
colas de la manera más eficaz, permiten encontrar un balance adecuado entre el costo de
servicio y la cantidad de espera: Proporcionar demasiada capacidad de servicio para operar el
sistema implica costos excesivos. De otra parte, si no se cuenta con suficiente capacidad de
servicio surgen esperas excesivas con desafortunadas consecuencias.

Estructura básica de un modelo de colas

En la figura se muestra un sistema de colas simple.

Página 1
1) Fuente de entrada (Población de clientes potenciales)

Una característica de la fuente de entrada es su tamaño. El tamaño es el número total de clientes


que pueden requerir servicio en determinado momento. es decir, el número total de clientes
potenciales. La fuente de entrada se dice que es limitada o ilimitada según si su tamaño es finito
o infinito. Usualmente se asume que es ilimitada (el caso finito es más difícil analíticamente).

También se debe especificar el patrón estadístico mediante el cual se generan los clientes en el
tiempo. El supuesto normal es que el número de clientes que llegan hasta un momento especifico
tiene una distribución de Poisson, con tasa media fija y sin importar cuantos clientes ya están en
el sistema.

Una suposición equivalente es que la distribución de probabilidad del tiempo que transcurre entre
dos llegadas consecutivas es exponencial. (tiempo entre llegadas).

También debe especificarse cualquier otro supuesto no usual sobre el comportamiento de los
clientes. Un ejemplo, seria cuando se pierde un cliente porque desiste o se rehúsa a entrar al
sistema porque la cola es demasiado larga.

2) Cola
La cola es donde los clientes esperan antes de recibir el servicio. Una cola se caracteriza por el
numero máximo permisible de clientes que puede admitir. Las colas pueden ser finitas o infinitas,
según si dicho número es finito o infinito. El supuesto de una cola infinita es el estándar de la
mayoría de los modelos, incluso en situaciones en las que en realidad existe una cota superior
(relativamente grande) sobre el número permitido de clientes, puesto que manejar una cota así
puede ser un factor que complique el análisis. En los sistemas de colas en los que la cota superior
es tan pequeña que se llega a ella con cierta frecuencia, es necesario suponer una cola finita.

3) Disciplina de la cola
La disciplina de la cola se refiere al orden en el que sus miembros se seleccionan para recibir el
servicio.

Por ejemplo, puede ser:

La disciplina FIFO (first in first out), también llamada FCFS (first come first served): según la cual
se atiende primero al cliente que antes haya llegado. En los modelos básicos de colas se supone
como normal a la disciplina de primero en entrar, primero en salir, a menos que se establezca de
otra manera.

La disciplina LIFO (last in first out), también conocida como LCFS (last come first served) o pila:
que consiste en atender primero al cliente que ha llegado el último.

La RSS (random selection of service), o SIRO (service in random order), que selecciona a los
clientes de forma aleatoria.

4) Mecanismo de servicio

El mecanismo de servicio consiste en una o más estaciones de servicio, cada una de ellas con
uno o más canales de servicio paralelos, llamados servidores. Si existe más de una estación de
Página 2
servicio, el cliente puede recibirlo de una secuencia de ellas (canales de servicio en serie). En
una estación dada, el cliente entra en uno de estos canales y el servidor le presta el servicio
completo. Los modelos de colas deben especificar el arreglo de las estaciones y el número de
servidores (canales paralelos) en cada una de ellas. Los modelos más elementales suponen una
estación, ya sea con un servidor o con un número finito de servidores.
El tiempo que transcurre desde el inicio del servicio para un cliente hasta su terminación en una
estación se llama tiempo de servicio (o duración del servicio).

Un modelo de un sistema de colas determinado debe especificar la distribución de probabilidad


de los tiempos de servicio de cada servidor (y tal vez de los distintos tipos de clientes), aunque
es común suponer la misma distribución para todos los servidores.

La distribución del tiempo de servicio que más se usa en la práctica (por ser más manejable que
cualquier otra) es la distribución exponencial.

Otras distribuciones de tiempos de servicio importantes son la distribución degenerada (tiempos


de servicio constantes) y la distribución Erlang (gamma).

Tipos de sistemas de colas

1) Una cola un servidor

2) Una cola múltiples servidores

3) Varias colas y múltiples servidores

4) Una cola y servidores secuenciales

Página 3
Notación de Kendall-Lee:
A/B/X/Y/Z/V
Esta notación es aplicable a servidores en paralelo y fue propuesta en 1951 por Kendall y
mejorada en 1953 por el trabajo de Kendall-Lee. La cual es utilizada para identificar las
características de una línea de espera por medio de iniciales.
A) Distribución de tiempo entre llegadas
M: distribución exponencial (markoviana).
D: distribución degenerada (tiempos constantes).

Ek : distribución Erlang de orden k.

G: distribución general (permite cualquier distribución arbitraria),


B) Distribución de tiempo de servicio
Puede tomar los mismos valores de (A)
X) Numero de servidores en paralelo
Indica el número de servidores disponibles, se denota por s.
Y) Disciplina de la cola
Indica la disciplina de la cola, es la regla con que se elegirá al próximo cliente que recibirá
servicio, puede ser:
FIFO
LIFO
SIRO (Selección aleatoria de clientes), en este sistema cada cliente tiene la misma probabilidad
de ser elegido.
PRI (Servicio por prioridad).
Se puede omitir el parámetro en caso de ser FIFO.
Z) Número máximo de clientes en el sistema
Indica la capacidad del sistema, que es el numero máximo de clientes permitidos en el sistema.
Cuando se trata de una cola infinita, se puede omitir
V) Tamaño de la fuente de entrada
En caso de ser infinita, se puede omitir
Por ejemplo, un sistema de colas M / M / 2 (M significa Markov) es uno con llegadas de Poisson
(o distribución exponencial de tiempo entre llegadas), distribución exponencial de tiempo de
servicio, y 2 servidores. Un sistema de colas M / G / 1 tiene llegadas de Poisson, distribución
general de tiempo de servicio y un único servidor. Un caso especial es el sistema de colas M / D
/ 1, donde D representa el tiempo de servicio constante (determinístico).

Formulas útiles

Algunas cantidades básicas de sistemas de colas son:


L: el número medio de clientes en el sistema
Lq : el número promedio de clientes esperando en la cola.
Ls : El número medio de clientes en servicio.

Página 4
W: la cantidad promedio de tiempo que un cliente pasa en el sistema.
Wq : la cantidad promedio de tiempo que un cliente pasa esperando en la cola.
Ws : la cantidad promedio de tiempo que un cliente pasa en servicio.

Se pueden obtener muchas relaciones útiles entre lo anterior y otras cantidades de interés
utilizando la siguiente identidad de costo básico.

Suponga que los clientes que ingresan deben pagar una tarifa de entrada (de acuerdo con alguna
regla) al sistema. Entonces nosotros tenemos:

Velocidad promedio a la que el sistema gana = λa × monto promedio que paga un cliente entrante
…. (1)

Donde λa es la tasa promedio de llegada de clientes ingresados.

X (t )
λa = lim
t →∞ t

X(t) denota el numero de llegadas de clientes en el tiempo t.

Si asumimos que cada cliente paga $ 1 por unidad de tiempo mientras está en el sistema, la
ecuación (1) se escribe:

L = λaW … (2)

La ecuación (2) se conoce como fórmula de Little.

De manera similar, si asumimos que cada cliente paga $ 1 por unidad de tiempo mientras está
en la cola, la ecuación. (1) se escribe como:

Lq = λaWq … (3)
Si asumimos que cada cliente paga $ 1 por unidad de tiempo mientras está en servicio, la
ecuación. (1) se escribe como:

Ls = λaWs … (4)

Tenga en cuenta que las ecuaciones. (2),(3) y (4) son válidas para casi todos los sistemas de
colas, independientemente del proceso de llegada, el número de servidores, o disciplina de la
cola.

Procesos de nacimiento y muerte

En la mayor parte de los modelos elementales de colas es común que las entradas y salidas del
sistema ocurran según un proceso de nacimiento y muerte. El proceso explica cómo varía el
estado del sistema N(t) al aumentar t. En este contexto,

N(t) estado del sistema en tiempo t ≡ Número de cliente en el sistema

Nacimiento ≡ Llegada de clientes al sistema


Página 5
Muerte ≡ Salida de clientes una vez servidos

La distribución del tiempo que falta para la llegada es exponencial Exp (λn ) con n = 0, 1, 2, ... ,
siendo λn la tasa de llegada de clientes al sistema.

La distribución del tiempo que falta para la salida es exponencial Exp ( µn ) con n = 0, 1, 2, ... ,
siendo µn la tasa de salida de clientes del sistema.

Hay independencia entre el tiempo hasta próxima llegada y tiempo hasta próxima salida.

Tomando estos supuestos, el proceso es un tipo especial de cadena de Márkov de tiempo


continuo.

Ecuaciones del balance o de equilibrio

Página 6
Estos resultados son de estado estable pues al aplicar el límite cuando t tiende a infinito hay el
mayor alejamiento del momento inicial y se desarrollan bajo el supuesto de que los parámetros
λn y µn tienen valores con los cuales el proceso puede alcanzar la condición de estado estable

Ejemplo

En un puesto del mercado se compran y venden papas, los clientes entran según un proceso de
Poisson de tasa 4 clientes/minuto y la permanencia en el puesto es un tiempo exponencial con
un tiempo medio de 10 minutos. Suponiendo que la capacidad del puesto es infinita para recibir
a clientes, se solicita:

a) Probabilidades de equilibrio

Página 7
b) Número medio de clientes en el puesto del mercado

Solución

Página 8
Sistema de cola M / M / 1

Supuestos

1) Las llegadas son aleatorias (distribución de Poisson)

2) Población infinita(clientes)

3) Cola infinita

4) Primero en llegar primero en ser atendido

5) Un solo servidor con tiempo aleatorio (distribución exponencial)

El sistema de espera se caracteriza porque los tiempos de llegadas y los tiempos de servicio se
distribuyen de manera exponencial y tienen un único servidor. Según sus características la
disciplina de la cola es FIFO y el tamaño de la población de entrada es infinito, es decir, el número
de clientes en el sistema no afecta a la tasa de llegadas.

En el modelo M/M/1 se verifica:


El tiempo de llegadas se distribuye según Exp(λ)
El tiempo de servicio se distribuye según Exp(μ)

Página 9
Un único servidor s = 1

Formulario Sistema de cola M / M / 1


λ = promedio de llegadas(clientes/tiempo)
µ = promedio de atención del servidor (clientes/tiempo).
1
= tiempo entre llegadas
λ
1
= tiempo entre servicios
µ
L = número de clientes en el sistema
λ
L=
µ −λ
Lq : el número promedio de clientes esperando en la cola.

λ2
Lq =
µ (µ − λ )

Ls : El número medio de clientes en servicio.

Ls= L − Lq

W: la cantidad promedio de tiempo que un cliente pasa en el sistema.


1
W=
µ −λ

Wq : la cantidad promedio de tiempo que un cliente pasa esperando en la cola.


λ
Wq =
µ (µ − λ )
Ws : la cantidad promedio de tiempo que un cliente pasa en servicio.
1
Ws =
µ

ρ = intensidad de tráfico del sistema.

λ
ρ=
µ
λ λ
= Wq + Ws , P0 = 1 − ρ , Pn= (1 − )( )
,W
n
P ( L > n) = e− µ (1− ρ )t
ρ n +1 , P(W > t ) =
µ µ
ρ e− µ (1− ρ )t
P(W > t ) =
q t ≥ 0 , ρ <1

Ejemplo

A una cafetería llegan en promedio 9 clientes por hora y se pueden atender en promedio un
cliente cada 5 minutos, entonces:
λ = promedio o velocidad de llegadas(clientes/tiempo)

Página 10
λ = 9 clientes / hora
µ = promedio de atención del servidor (clientes/tiempo).
1
µ = clientes / minuto 12 clientes / hora
5

Lq : el número promedio de clientes esperando en la cola.

λ2 92 81
Lq = → Lq = = = 2.25 clientes  2 clientes
µ (µ − λ ) 12(12 − 9) 36

Wq : la cantidad promedio de tiempo que un cliente pasa esperando en la cola.

λ 9
=
Wq →=
Wq = 0.25 horas
= 15 minutos
µ (µ − λ ) 12(12 − 9)

L = número de clientes en el sistema

λ 9
=
L →=
L = 3 clientes
µ −λ 12 − 9

W: la cantidad promedio de tiempo que un cliente pasa en el sistema.

1 1
W= → W= = 0.33 horas
= 20 minutos
µ −λ 12 − 9

ρ = intensidad de tráfico del sistema (factor de uso del sistema).

λ 9 clientes / hora
ρ= →ρ= = 0.75 = 75%
µ 12 clientes / hora

P0 = Probabilidad que el sistema este vacio

P0 =1 − ρ → P0 =1 − 0.75 =0.25 =25%

Pn es la probabilidad en estado estable que el sistema contenga exactamente n clientes


λ λ
Pn= (1 − )( )n
µ µ

Probabilidad que el sistema tenga 2 clientes

2
 9  9 
P2 =
1 −   = 0.140625 =
14.06%
 12  12 

Página 11
Ejemplo

Los clientes llegan a un taller de reparación de relojes de acuerdo con un proceso de Poisson a
una tasa de uno por cada 10 minutos, y el tiempo de servicio es una variable aleatoria
exponencial. con una media de 8 minutos.

a) Encuentre el número promedio de clientes L, el tiempo promedio que un cliente pasa en la


tienda W, y el tiempo promedio que un cliente pasa esperando el servicio Wq.

b) Suponga que la tasa de llegada de clientes aumenta un 10 por ciento. Encuentra los cambios
correspondientes en L, W y Wq.

Solución

Parte a:

El servicio de taller de reparación de relojes se puede modelar como un sistema de colas M / M


/ 1 con:
λ = promedio o velocidad de llegadas(clientes/tiempo)
1
λ= clientes / minuto
10
µ = promedio de atención del servidor (clientes/tiempo).
1
µ = clientes / minuto
8

Entonces

1
λ 10= 4 clientes
=
L →=
L
µ −λ 1 1

8 10

1 1
W= → W= = 40 minutos
µ −λ 1 1

8 10

1
λ 10= 32 minutos
=
Wq →=
Wq
µ (µ − λ ) 1 1 1
( − )
8 8 10

Parte b:

1 1
Ahora λ = clientes / minuto , µ = clientes / min uto
9 8

1
λ 1 1
=
L →=
L 9= 8 clientes W= → W= = 72 minutos
µ −λ 1 1

µ −λ 1 1

8 9 8 9

Página 12
1
λ 9= 64 minutos
=
Wq →=
Wq
µ (µ − λ ) 1 1 1
( − )
8 8 9

Se puede ver que un aumento del 10 por ciento en la tasa de llegada de clientes duplica el
número promedio de clientes en el sistema. El tiempo medio que un cliente pasa en la cola
también se duplica.

Ejemplo

Solucion

Parte a:

El número promedio de automóviles en la cola

1
λ = 20 autos / hora µ= autos / minuto=30 autos/hora
2

L=valor esperado del numero de clientes en elsistema

λ 20
=
L →=
L = 2 clientes
µ −λ 30 − 20

Parte b:

El tiempo promedio que un automóvil pasa en el sistema de servicio

Página 13
1 1 1
W= →W = = = 0.1 horas
µ −λ 30 − 20 10

Parte c:

La probabilidad que no haya automóviles en el sistema

λ 20 1
1 ρ → P0 =−
P0 =− 1 → P0 =−
1 = =33.33%
µ 30 3

Ejemplo

El dueño de un taller automotriz está preocupado por el desempeño de su negocio. Para ver qué
puede hacer para resolver el problema, le pide ayuda a un experto en teoría de colas. Después
de una primera toma de tiempos se obtiene la siguiente información:

• Las llegadas al taller se producen de forma aleatoria, según una distribución Poisson de
media 4 llegadas al día (1 día = 8 horas de jornada laboral).
• La tasa de atención a clientes es 1,75 clientes por hora.
• Se cuenta con un solo equipo para reparar los automóviles.
• Además del vehículo que está reparando, sólo caben 3 más en el taller. Si llegan más,
debe estacionarlos en la vía pública, con el consiguiente deterioro en la calidad de servicio.
• Los vehículos se retiran del taller inmediatamente después de ser reparados.

Con estos datos, se solicita un análisis inicial de la situación.

a) ¿Qué fracción de tiempo estará el taller en funcionamiento?


λ 0,5
La fracción de tiempo en funcionamiento es:= = 28,57% .
µ 1,75

b) ¿Cuál es el número promedio de clientes en espera de reparación de su vehículo?


Número de clientes en cola:
λ2 (0,5) 2
=Lq = = 0,1142
µ ( µ − λ ) 1, 75(1.75 − 0,5)

c) ¿Cuál es el número promedio de vehículos esperando a ser reparados (incluye el que está
siendo atendido)?
Número de clientes en el sistema:
λ 0,5 0,5
=L = = = 0, 4
µ − λ 1, 75 − 0,5 1, 25

d) ¿Cuál es la probabilidad de que deban estacionarse vehículos en la calle?


Es la probabilidad de que haya cuatro o más clientes en el sistema.
P( X > 4) =1 − P0 − P1 − P2 − P3 − P4
0.5
P0 =1 − ρ =1 − =1 − 0, 2857 =0,7143
1,75
Pn= (1 − ρ ) ρ n
1 P0 − P0 ρ − P0 ρ 2 − P0 ρ 3 − P0 ρ 4
P( X > 4) =−

Página 14
1− ρ5
=1 − P0 (1 + ρ + ρ 2 + ρ 3 + ρ 4 ) =1 − P0 ( )
1− ρ
P( X > 4) = ρ 5 = (0, 2857)5 = 0,001903

e) ¿Cuánto tiempo transcurrirá, por término medio, desde que el vehículo llega al taller hasta que
se acaba la reparación?
Tiempo promedio en el sistema:
1 1
=
W = = 0,8
µ − λ 1, 75 − 0,5

f) ¿Cuánto tiempo transcurrirá, en promedio, desde que el vehículo llega al taller hasta que
comienza la reparación?
Tiempo promedio en cola:
Lq 0,11428
W=q = = 0, 229
λ 0,5
Ejemplo
Un lavadero de autos puede atender un auto cada 5 minutos y la tasa media de llegadas es de
9 autos por hora. Obtenga las medidas de desempeño de acuerdo con el modelo M/M/1. Además,
la probabilidad de tener 0 clientes en el sistema, la probabilidad de tener una cola de más de 3
clientes y la probabilidad de esperar más de 30 min. en la cola y en el sistema.

Solución
λ 9
λ =9 , µ = 12 , ρ= = = 0,75
µ 12
λ 9
=L = = 3 clientes
µ − λ 12 − 9
λ2 (9) 2
=Lq = = 2, 25 clientes
µ ( µ − λ ) 12(12 − 9)
1 1
=
W = = 0,33 horas
µ − λ 12 − 9
Lq 2, 25
W=
q = = 0, 25 horas
λ 9

P0 =1 − ρ =1 − 0, 75 =0, 25

P( L > 3)= ρ 3+=


1 0,3164

P(W > 30 / 60)= e− µ (1− ρ )=t e−12(1−0,75)30= 0,2231

Página 15
ρ e− µ (1− ρ )t
P (Wq > 30 / 60) =

=
0,75e−12(1−0,75)30/60 0,167348

Sistema de cola M/M/s


El modelo supone que los tiempos entre llegadas y los tiempos de servicio son variables
aleatorias distribuidas exponencialmente, la disciplina es FIFO y la población es infinita.
Se diferencia respecto al modelo M/M/1 en que el número de servidores s puede ser cualquier
número natural tal que s ≥ 1 .
en la tasa de servicio µn hay que distinguir dos casos:

El siguiente diagrama de tasas (cadena de Márkov del modelo M/M/s) representa los
posibles estados del sistema y las transiciones entre ellos.

En este caso, la tasa de llegadas no se encuentra afectada por el estado en que se encuentre el
sistema, pero sí la tasa media de servicio, pudiendo ser tal múltiplo de la tasa media de servicio
por servidor como servidores en activo haya.

Página 16
Bajo condiciones de estabilidad (factor de utilización ρ < 1), al igual que en el modelo
M/M/1, se pueden aplicar fórmulas para obtener los principales parámetros del
sistema.

MEDIDAS DE RENDIMIENTO:

Página 17
Numero promedio de clientes en cola
s
(λ / µ ) s 1λ ρ
Lq = P0   P0
( s − 1)!( s µ − λ )2 s !  µ  (1 − ρ )2
Numero promedio de clientes en el sistema
λ
=
L Lq +
µ
Tiempo promedio de espera en cola
Lq
Wq =
λ
Tiempo promedio de estancia en el sistema
1
= Wq +
W
µ
A medida que se añaden servidores al sistema las fórmulas van siendo más complicadas, en
especial para el cálculo de probabilidades. Se asume que la probabilidad de la función de tiempos
de servicio es una exponencial negativa de parámetro µn .

Ejemplo
Un terminal de facturación dispone de dos operarios que atienden a los clientes que llegan según
una distribución de Poisson de media 80 clientes por hora, que esperan en una única cola hasta
que alguno de los operarios esté libre. El tiempo requerido para atender a un cliente se distribuye
exponencialmente con medía 1,2 minutos. Se pide:
a) ¿Cuál es el número esperado de clientes en el terminal de facturación?

b) ¿Cuál es el tiempo medio que un cliente pasa en el terminal de facturación?

c) ¿Qué porcentaje de tiempo está libre un determinado operario?

Página 18
Solución
Es un modelo de cola M/M/s con s = 2 servidores
Parte a:
Tasa de llegadas
λ = 80 clientes / hora
Tasa de servicio por operario
1 60
µ clientes=/ min uto → µ =
clientes / hora → µ 50 clientes / hora
1.2 1.2
Factor de utilización o congestión del sistema
λ 80
ρ =
= = 0.8 = 80%
s µ 2(50)

Numero promedio de clientes en el sistema (terminal de facturación)

λ 80
L = Lq + → L = 2.84 + = 4.4444 clientes
µ 50

Parte b:

Tiempo medio de espera en cola

Lq 2.84
Wq = → Wq = = 0.0356
λ 80

Tiempo medio de estancia en el sistema (terminal de facturación)

1 1
W = Wq + → W = 0.0355 + = 0.03.33 minutos
µ 50

Página 19
Es decir, el tiempo en el sistema es igual al tiempo en la cola (Wq ) mas el tiempo en el servicio
1
( ).
µ

Parte c:

El porcentaje de tiempo que determinado operario este libre

(λ / µ ) n
Pn = P0
n!

Ejemplo
En un laboratorio de Hematología, la tasa de llegada de clientes es de 2 clientes cada 10 minutos
según el comportamiento de la distribución de Poisson, el tiempo medio de atención de los
técnicos laboratoristas es de 8 minutos según la distribución exponencial y que el centro de
hematología cuenta con 2 técnicos.
Calcular L , Lq , W , Wq
Solución
Tasa de llegadas
2
λ = 0.2 clientes / minuto
=
10
Tasa de servicio por técnico
λ 0.2
µ
1
/ min uto → µ 0.125 clientes / min uto
clientes= , s=2 =
, = 1.6
8 µ 0.125
Cálculo de P0

Página 20
Ejemplo

En un ambulatorio con tres médicos, los pacientes llegan de forma aleatoria (tiempos de llegada
exponenciales) a razón de 12 por hora. Estos son atendidos en orden de llegada por el primer
médico que esté libre. Cada médico tarda una media de 13 minutos en atender a cada paciente
(tiempos de atención exponenciales).
Se pide:

a) Calcular la proporción de tiempo que está cada médico atendiendo a pacientes.

b) Calcular el número promedio de pacientes que están en la sala de espera.

Calcular el tiempo promedio total de espera de un paciente.

c) ¿Qué ocurriría en el ambulatorio si uno de los tres médicos se ausenta?

Solución

Página 21
Tiempo promedio de estancia en el sistema

1 1
W = Wq + → W = 0.39 + = 0.60 horas
µ 4.615
Ejemplo
El gerente de una multinacional quiere analizar el coste total por hora del sistema de descargas
de su terminal (mano de obra y camiones ociosos). La terminal de carga funciona con cuatro
plataformas de descarga, cada una de éstas con un equipo de dos empleados que descargan
un semirremolque en una hora, con tiempos de servicios exponenciales, y un coste de 40
euros/hora. El tiempo de llegadas de camiones es de tres/hora siguiendo una distribución de
Poisson, con un coste estimado de 60 euros/hora por camión ocioso.

Solución

Es un modelo de cola M/M/4 con s = 4 servidores


Para calcular el coste total de mano de obra y de los camiones ociosos hay que saber el
tiempo promedio de espera en el sistema de descarga y el número promedio de camiones en el
mismo.

Tasa de llegadas: λ = 3 camiones/hora

Página 22
Tiempo promedio de espera de camiones en cola
Lq 1.5284
Wq = → Wq = = 0.5094
λ 3
Tiempo promedio de estancia de camiones en el sistema:
1 1
W = Wq + → W = 0.5094 + = 1.5094 horas
µ 1
Numero promedio de camiones en el sistema
λ
L = Lq + → L = 1.5284 + 3 = 4.5284 camiones
µ

Sistema de cola M/M/s con fuente de entrada finita

Es una variación del modelo M/M/s consistente en que la fuente de variación de entrada es
limitada, esto es, el tamaño de la población de posibles clientes es finita. Sea N el tamaño de la
población, cuando en el sistema se encuentran n clientes, quedan (N− n) posibles clientes en la
fuente de entrada. En el modelo con población finita los clientes alternan entre estar dentro y
fuera del sistema. Por analogía con el modelo M/M/s se supone que el tiempo que pasa cada

cliente fuera del sistema es una variable aleatoria exponencial exp(λ) . Cuando n clientes están
dentro, (N− n) clientes están fuera, y por tanto la distribución de probabilidad del tiempo que falta
para la próxima llegada al sistema es el mínimo de (N− n) variables exponenciales
independientes de parámetro λ(N− n) . De este modo,

Página 23
La aplicación más importante de este modelo es la reparación de máquinas, donde se asigna a
uno o más técnicos la responsabilidad de tener operativas un grupo de N máquinas.

Cuando las máquinas se estropean acuden al sistema de mantenimiento en espera de ser


reparadas, y cuando están operativas quedan fuera del sistema.

Utilización promedio del servidor

P = 1 − P0

Numero promedio de clientes en el sistema

µ
L =N − (1 − P0 )
λ

Tiempo promedio de estancia en el sistema, incluido el servicio

L
W=
λ ( N − L)

Tiempo promedio de espera en la cola

Lq  1
W=
q W= Wq + 
λ ( N − L)  µ

Ejemplo

En la terminal de un aeropuerto se han incorporado diez robots para incrementar el servicio al


cliente, surgiendo el problema que no se aplica un mantenimiento preventivo a los robots y
presentan una gran variabilidad en la distribución de averías. Cada robot sigue una distribución
exponencial de averías (o distribución entre llegadas) con un tiempo promedio de 200 horas entre
una y otra avería, y un coste de 30 euros/hora. Para afrontar la situación se encarga a una
persona para el mantenimiento, que necesita un promedio de diez horas para reparar un robot,
con tiempos de reparación distribuidos exponencialmente, y un coste de 10 euros/hora,
dedicándose a otras actividades cuando no hay robots que reparar. ¿Cuál es el coste diario que
origina el tiempo ocioso de la mano de obra y los robots?

Página 24
Solución

Para calcular el coste diario del tiempo ocioso de la mano de obra y los robots se necesita estimar
la utilización promedio del empleado de mantenimiento (p) y el número promedio de robots
incluidos en el mantenimiento.

Número promedio de robots que están en el sistema (en la cola y en proceso de

reparación):

µ 0.1
L = N − (1 − P0 ) → L = 10 − (0.462037) = 0.7593 robots
λ 0.005

Página 25
Tiempo promedio de estancia de los robots en el sistema (en la cola y en proceso de

reparación):

L 0.7593
=
W =
→W = 16.4330 horas
λ ( N − L) 0.005(10 − 0.7593)

Página 26
Cadenas de Markov. Ejercicios resueltos Página 1

EJERCICIOS RESUELTOS DE CADENAS DE MARKOV

1) En un pueblo, al 90% de los días soleados le siguen días soleados, y al 80% de


los días nublados le siguen días nublados. Con esta información modelar el
clima del pueblo como una cadena de Markov.

SOLUCIÓN:

Se trata de una cadena de Markov con dos estados {Soleado, Nublado} que para
abreviar representaremos por {S, N}, siendo la matríz de probabilidades de
 0,9 0,1 
transición: P =  
 0,2 0,8 

2) El ascensor de un edificio con bajo y dos pisos realiza viajes de uno a otro piso.
El piso en el que finaliza el viaje n-ésimo del ascensor sigue una cadena de Markov.
Se sabe que la mitad de los viajes que parten del bajo se dirigen a cada uno de los
otros dos pisos, mientras que si un viaje comienza en el primer piso, sólo el 25% de
las veces finaliza en el segundo. Por último, si un trayecto comienza en el segundo
piso, siempre finaliza en el bajo. Se pide:

a) Calcular la matriz de probabilidades de transición de la cadena


b) Dibujar el grafo asociado
c) ¿Cuál es la probabilidad de que, a largo plazo, el ascensor se encuentre
en cada uno de los tres pisos.

SOLUCIÓN:
a) Los estados de la cadena los denotaremos por { 0, 1 , 2} haciendo
corresponder el 0 al bajo y 1 y 2 al primer y segundo piso respectivamente.

Las probabilidades de transición son:


p00 = P(Rn=0 / Rn-1=0), esto es la probabilidad de que el ascensor se encuentre en
la planta baja si en la etapa anterior estaba en la planta baja. Obviamente es 0,
porque se supone que de etapa a etapa el ascensor se mueve.
p01 = P(Rn=1 / Rn-1=0), esto es la probabilidad de que el ascensor se encuentre en
la planta primera si en la etapa anterior estaba en la planta baja. Obviamente es
½. Basta leer el enunciado.
Y así sucesivamente vamos obteniendo las distintas probabilidades de transición
cuya matriz es:
 p 00 p 01 p 02   0 12 12 
   
P =  p 10 p 11 p 12  =  34 0 14 
 p 20
 p 21 p 22   1 0 0 

b)
0 1

2
Cadenas de Markov. Ejercicios resueltos Página 2

c)
r r
q.P = q , siendo q = (x,y,z) los valores de las probabilidades pedidas, añadiendo
la ecuación x+y+z = 1

 0 12 12 
 
( x, y.z ). 34 0 14  = ( x, y, x) , añadiendo x+y+z = 1. produce el siguiente sistema:
1 0 0
 

 4x − 3 y − 4z = 0
 x − 2y = 0

 cuyas soluciones son: x=8/17; y = 4/17; z= 5/17
 2x + y − 4z = 0
 x + y + z =1

3º) Un agente comercial realiza su trabajo en tres ciudades A, B y C. Para evitar


desplazamientos innecesarios está todo el día en la misma ciudad y allí pernocta,
desplazándose a otra ciudad al día siguiente, si no tiene suficiente trabajo. Despues de
estar trabajando un día en C, la probabilidad de tener que seguir trabajando en ella al día
siguiente es 0,4, la de tener que viajar a B es 0,4 y la de tener que ier a A es 0,2. Si el
viajante duerme un día en B, con probabilidad de un 20% tendrá que seguir trabajando
en la misma ciudad al día siguiente, en el 60% de los casos viajará a C, mientras que irá
a A con probabilidad 0,2. Por último si el agente comercial trabaja todo un día en A,
permanecerá en esa misma ciudad, al día siguiente, con una probabilidad 0,1, irá a B
con una probabilidad de 0,3 y a C con una probabilidad de 0,6.
a) Si hoy el viajante está en C, ¿cuál es la probabilidad de que también tenga que
trabajar en C al cabo de cuatro días?
b) ¿Cuales son los porcentajes de días en los que el agente comercial está en cada
una de las tres ciudades?

SOLUCIÓN:

La matriz de transición P es la siguiente para el orden A,B,C


 0,1 0,3 0,6 
 
P =  0,2 0,2 0,6  ; El apartado a) consiste en averiguar el término p433, es decir el
 0,2 0,4 0,4 
 
término que ocupa la fila 3 y la columna 3 de la matriz P4. lo cual se obtiene con la fila
3 y la columna 3 de P2, cuyos valores son:

 − − 0,48 
 
P = −
2
− 0,48  , por tanto el término buscado es:
 0,18 0,30 0,52 
 
0,18.0,48+0,30.0,48+0,52.0,52= 0,5008
Cadenas de Markov. Ejercicios resueltos Página 3

c) Nos piden las probabilidades estacionarias. Para ello hay que resolver el
siguiente sistema:

 0,1 0,3 0,6 


 
( x, y, z ). 0,2 0,2 0,6  = ( x, y, z ) ; x + y + z = 1
 0,2 0,4 0,4 
 

Desarrollando resulta el sistema de ecuaciones lineales:

− 9 x + 2 y + 2 z = 0
 3x − 8 y + 4 z = 0

 elimino y en las dos primeras: -33x+12z = 0, y elimino y en las
 6 x + 6 y − 6 z = 0
 x + y + z = 1
dos últimas : 12z=6 ; de ambas se deduce que x =2/11=0,1818 y = 7/22=0.3181
z = 0,5. En porcentajes serían el 18,18% para la ciudad A, el 31,81 para B y el 50% para
la ciudad C.

4º) Suponga que toda la industria de refresco produce dos colas: Coca Cola y Pepsi
Cola. Cuando una persona ha comprado Coca Cola hay una probabilidad de 90% de que
siga comprándola la vez siguiente. Si una persona compró Pepsi, hay 80% de que repita
la vez siguiente. Se pide:
a) Si una persona actualmente es comprador de Pepsi. ¿Cuál es la probabilidad de
que compre Coca Cola pasadas dos compras a partir de hoy?
b) Si en la actualidad una persona es comprador de Coca Cola. ¿Cuál es la
probabilidad de que compre Coca Cola pasadas tres compras a partir de ahora?
c) Supongamos que el 60% de toda la gente toma hoy Coca Cola y el 40% Pepsi. A
tres compras a partir de ahora, ¿Qué fracción de los compradores estará tomando
Coca Cola.
d) Determinar el estado estable.

SOLUCIÓN: La situación se puede modelar como una cadena de Markov con dos
estados {Coca-Cola, Pepsi-Cola}= {C,P}
La matriz de transición para el orden C,P, es:

 0,9 0,1 
P =  
 0,2 0,8 

a) Se pide la probabilidad de transición en dos pasos, es decir que se pide el valor


en fila 2, columna 1 para la matriz P2, obteníendose que este es : 0,2.0,9+0,8.0,2
= 0,34
b) Al igual que en el apartado anterior se pide el valor de probabilidad de transición
1  781 219 
en fila 1 y columna 1 para la matriz P3. La matriz es P 3 =  ;
1000  438 562 
esto quiere decir que la solución al problema es 0,781
Cadenas de Markov. Ejercicios resueltos Página 4

c) El vector de probabilidad inicial es (0’6, 0’4), por tanto la probabilidad de


consumir ambos estados a partir de tres etapas es:

1  83 17 
(0,6 0,4).P 3 . Calculamos primero P2, resultando que P 2 =  ,
100  34 66 
1  781 219 
Por tanto P3 =  , entonces el resultado solicitado es
1000  438 562 
1
(6438 3562) = (0’6438 , 0’3562) ; esto es que al cabo de tres compras el
10000
64’38% comprará Coca Cola y el 35’62% comprará Pepsi Cola.

d) El estado estable se determina resolviendo el sistema de ecuaciones:

 0,9 0,1 
( x, y )  = ( x, y ) añadiendo la ecuación x+y = 1, siendo x la probabilidad de
 0,2 0,8 
que una persona compre Coca Cola a largo plazo e y lo mismo de que compre Pepsi
Cola.
− x + 2 y = 0

El sistema resultante es:  x − 2 y = 0 , obsérvese que las dos primeras ecuaciones son
 x + y =1

la misma por tanto quedémonos con las dos últimas, obteniendo como solución:
x = 2/3 ; y = 1/3.

5º) La cervecería más importante del mundo (Guiness) ha contratado a un analista de


investigación de operaciones para analizar su posición en el mercado. Están
preocupados en especial por su mayor competidor (Heineken). El analista piensa que el
cambio de marca se puede modelar como una cadena de Markov incluyendo tres
estados, los estados G y H representan a los clientes que beben cerveza producida por
las mencionadas cervecerías y el estado I representa todas las demás marcas. Los datos
se toman cada mes y el analista ha construido la siguiente matriz de transición de los
datos históricos.

G H I
G 0,7 0,2 0,1
H 0,2 0,75 0,05
I 0,1 0,1 0,8

¿Cuáles son los porcentajes de mercado en el estado estable para las dos
cervecerías grandes.?
Cadenas de Markov. Ejercicios resueltos Página 5

SOLUCIÓN:

Tres estados {G, H, I}


El problema consiste en resolver el sistema formado por las ecuaciones
siguientes:

( x, y, z ).P = ( x, y, z ); x + y + z = 1 , siendo x la probabilidad de que el consumidor


compre G, y de que el consumidor compre H y z la del que consumidor compre I.
De ambas expresiones se obtiene el siguiente sistema:

 − 3x + 2 y + z = 0
20 x − 25 y + 10 z = 0

 cuya solución es x = 9/26; y=10/26 z = 7/26
 10 x + 5 y − 20 z = 0
 x+ y + z =1

6º) En una comunidad hay 3 supermercados (S1, S2, S3) existe la movilidad de un
cliente de uno a otro. El 1 de septiembre, ¼ de los clientes va al S1, 1/3 al S2 y 5/12
al S3 de un total de 10.000 personas. Cada mes esl S1 retiene el 90% de sus clientes
y pierde el 10% que se va al S2. Se averiguó que el S2 solo retiene el 5% y pierde el
85% que va a S1 y el resto se va a S3, el S3 retiene solo el 40%, pierde el 50% que
va al S1 y el 10% va al S2.

a) Establecer la matriz de transición


b) ¿Cuál es la proporción de clientes para los supermercados el 1 de
noviembre?
c) Hallar el vector de probabilidad estable.

SOLUCIÓN:

a) La matriz de transición para el orden S1, S2, S3 es:

 0,9 0,1 0 
 
P =  0,85 0,05 0,10 
 0,5 0,1 0,4 
 

b) Para el mes de noviembre (han transcurrido 2 meses desde 1 de septiembre), la


proporción de clientes es
 0,895 0,095 0,01 
 1 1 5  2  1 1 5  
 P =   0,8575 0,0975 0,045  = (0,8158 0,0958 0,0883)
 4 3 12   4 3 12  
 0,735 0,095 0,17 
La proporción es del 81,58% para S1, 9,58% para S2 y 8,83% para S3

c) El vector de probabilidad estable se obtiene resolviendo:

( x, y, z ).P = ( x, y, z ); x + y + z = 1
Cadenas de Markov. Ejercicios resueltos Página 6

El sistema resultante es:


− 10 x + 85 y + 50 z = 0
 10 x − 95 y + 10 z = 0

 de donde y = 2/31, z =1/93; x = 86/93
 y − 6 z = 0
 x + y + z =1

7º) Los consumidores de café en el área de Pontevedra usan tres marcas A, B, C. En


marzo de 1995 se hizo una encuesta en lo que entrevistó a las 8450 personas que
compran café y los resultados fueron:

Compra en el siguiente mes TOTALES


Compra actual Marca A Marca B Marca C
Marca A = 1690 507 845 338 1690
Marca B = 3380 676 2028 676 3380
Marca C = 3380 845 845 1690 3380
TOTALES 2028 3718 2704 8450

a) Si las compras se hacen mensualmente, ¿cuál será la distribución del mercado de


café en Pontevedra en el mes de junio?
b) A la larga, ¿cómo se distribuirán los clientes de café?
c) En junio, cual es la proporción de clientes leales a sus marcas de café?

SOLUCIÓN:

a) A la vista de las frecuencias anteriores, las probabilidades de transición, conservando


el mismo orden que la tabla (A,B,C) es:
 0,3 0,5 0,2 
 
P =  0,2 0,6 0.2  ; De marzo a Junio hay 4 etapas por lo que nos piden las
 0,25 0,25 0,5 
 
probabilidades de transición al cabo de 4 meses, las que vendrán dada por los
coeficientes de P4

 24 50 26   2376 4790 2834 


1   1  
P =
2
 23 51 26  P = 4
 2375 4791 2834  =
100  10000 
 25 40 35  
 2395 4690 2915 
 0,2376 0,4790 0,2834 
 
 0,2375 0,4791 0,2834 
 0,2395 0,469 0,2915 

b) A la larga se trata de la situación estable:

 0,3 0,5 0,2 


 
(x y z ) 0,2 0,6 0,2  = ( x y z) ; x + y + z =1
 0.25 0,25 0,5 
 
Cadenas de Markov. Ejercicios resueltos Página 7

− 7 x + 2 y + 2,5 z = 0
 5 x − 4 y + 2,5 z = 0

 , resolviendo se obtiene: x = 5/21; y = 10/21; z = 2/7
 2x + 2 y − 5z = 0
 x + y + z =1

c) En Marzo la proporción de clientes de A es: 2028/8450 = 0,24 ; para B es


3718/8450 = 0,44 y para C es 2704/8450 = 0,32.

En el mes de junio la proporción es:

 0,3 0,5 0,2 


 
(0,24 0,44 0,32) 0,2 0,6 0.2  = (0,24 0,464 0,296) , es decir 24% para A,
 0,25 0,25 0,5 
 
46,4% para B y 29,6% para C.
PROBLEMAS RESUELTOS DE CADENAS DE MARKOV
TEMA: CADENAS DE MARKOV
Prof.: MSc. Julio Rito Vargas Avilés

I. El departamento de estudios de mercado de una fábrica estima que el 20% de


la gente que compra un producto un mes, no lo comprará el mes siguiente.
Además, el 30% de quienes no lo compren un mes lo adquirirá al mes siguiente.
En una población de 1000 individuos, 100 compraron el producto el primer
mes. ¿Cuántos lo comprarán al mes próximo? ¿Y dentro de dos meses?

Solución:
Para resolver este tipo de problemas, lo primero es hacer un esquema.
A la vista del esquema podemos pasar a construir la matriz de probabilidades de
transición:

Del 100% de clientes que compra en un mes un producto el


20% no compra el mes siguiente, o sea el 80% lo sigue
comprando el siguiente mes.

Del 100% de clientes que quienes no lo compran en un mes,


solo el 30% lo adquieren el mes siguiente. O sea el 70% no lo
compran el siguiente mes.

Cálculo: con esa información construimos la matriz 2x2. P(0) representa la situación
 0.8 0.2 
P ( 0)   
 0.3 0.7 
inicial.

 0.8 0.2 
(C , N)  100 900   (350,650)
 0.3 0.7 
El primer mes comprarán C=350 y no comprarán N=650

 0.8 0.2  0.8 0.2   0.7 0.3 


P ( 2)       
 0.3 0.7  0.3 0.7   0.45 0.55 

 0.7 0.3 
(C , N)  100 900   (475,525)
 0.45 0.55 
El segundo mes comprarán C=475 y no comprarán N= 525

PEOBLEMAS RESUELTO DE CADENAS DE MARKOV JULIO RITO VARGAS


II. En una población de 10,000 habitantes, 5000 no fuman, 2500 fuman uno o
menos de un paquete diario y 2500 fuman más de un paquete diario. En un
mes hay un 5% de probabilidad de que un no fumador comience a fumar un
paquete diario, o menos, y un 2% de que un no fumador pase a fumar más de
un paquete diario. Para los que fuman un paquete, o menos, hay un 10% de
probabilidad de que dejen el tabaco, y un 10% de que pasen a fumar más de un
paquete diario. Entre los que fuman más de un paquete, hay un 5% de
probabilidad de que dejen el tabaco y un 10% de que pasen a fumar un
paquete, o menos. ¿Cuántos individuos habrá de cada clase el próximo mes?

Solución:

0 1 2
0 0.93 0.05 0.02

P (1)  1 0.10 0.80 0.10

2 0.05 0.10 0.85

PEOBLEMAS RESUELTO DE CADENAS DE MARKOV JULIO RITO VARGAS


NF= No fuman
FC= fuman uno o menos de un paquete diarios
FCC= fuman más de un paquete diario.

 0.93 0.05 0.02 


 
( NF , FC , FCC)  5000 2500 2500 0.10 0.80 0.10   (5025,2500,2475)
 0.05 0.10 0.80 
 

Después de un mes habrán NF=5025, FC=2500, FCC=2475

III. Una urna contiene dos bolas sin pintar. Se selecciona una bola al azar y se lanza
una moneda. Si la bola elegida no está pintada y la moneda produce cara,
pintamos la bola de rojo; si la moneda produce cruz, la pintamos de negro. Si la
bola ya está pintada, entonces cambiamos el color de la bola de rojo a negro o
de negro a rojo, independientemente de si la moneda produce cara o cruz.
a) Modele el problema como una cadena de Markov y encuentre la matriz
de probabilidades de transición.

Solución:

a) Identificando estados:
Vamos a utilizar vectores con el siguiente formato: [S R N] donde S es el número de
bolas sin pintar, R el número de bolas rojas y N el número de bolas negras que hay en
la urna.

E0: [0 1 1] Una bola roja y una negra.


E1: [0 2 0] Dos bolas rojas.
E2: [0 0 2] Dos bolas negras.
E3: [2 0 0] Inicialmente, cuando las dos bolas están sin pintar.
E4: [1 1 0] Una bola pintada de rojo.
E5: [1 0 1] Una bola pintada de negro.

Probabilidades de transición:
Como el estado de la urna después del siguiente lanzamiento de la moneda depende
solo del pasado del proceso hasta el estado de la urna después del lanzamiento actual,
se trata de una cadena de Markov. Como las reglas no varían a través del tiempo,
tenemos una cadena estacionaria de Markov. La matriz de transición es la siguiente:

PEOBLEMAS RESUELTO DE CADENAS DE MARKOV JULIO RITO VARGAS


Cálculos de las probabilidades de transición si el estado actual es ( 1 1 0 ):

EVENTO PROBABILIDAD ESTADO NUEVO

Sacar cara en el lanzamiento y ¼ ( 0 2 0 )


escoger una bola sin pintar

Escoger bola roja ½ ( 1 0 1 )

Sacar cruz en el lanzamiento y ¼ ( 0 1 1 )


escoger una bola sin pintar

Para ver cómo se forma la matriz de transición, determinamos la fila ( 1 1 0 )


Si el estado actual (1 1 0), entonces debe suceder uno de los eventos que aparecen en
la tabla anterior. Así, el siguiente estado será ( 1 0 1) con la probabilidad ½; ( 0 2 0 )
con probabilidad ¼ y ( 0 1 1 ) con probabilidad ¼. En la siguiente imagen se da la
representación gráfica de esta matriz de transición.

E1 E4

E2

E5

[ ]

PEOBLEMAS RESUELTO DE CADENAS DE MARKOV JULIO RITO VARGAS


IV. En un pueblo, al 90% de los días soleados le siguen días soleados, y al 80% de
los días nublados le siguen días nublados. Con esta información modelar el
clima del pueblo como una cadena de Markov.

SOLUCIÓN:
Se trata de una cadena de Markov con dos estados {Soleado, Nublado} que para
abreviar representaremos por {S, N}, siendo la matriz de probabilidades de
transición

( )

V. El ascensor de un edificio con bajo y dos pisos realiza viajes de uno a otro piso.
El piso en el que finaliza el viaje n-ésimo del ascensor sigue una cadena de
Markov. Se sabe que la mitad de los viajes que parten del bajo se dirigen a cada
uno de los otros dos pisos, mientras que si un viaje comienza en el primer piso,
sólo el 25% de las veces finaliza en el segundo. Por último, si un trayecto
comienza en el segundo piso, siempre finaliza en el bajo. Se pide:
a) Calcular la matriz de probabilidades de transición de la cadena
b) Dibujar el gráfico asociado.
c) ¿Cuál es la probabilidad de que, a largo plazo, el ascensor se encuentre
en cada uno de los tres pisos.
SOLUCIÓN:
a) Los estados de la cadena los denotaremos por {0, 1, 2} haciendo corresponder el 0 al bajo y
1 y 2 al primer y segundo piso respectivamente. Las probabilidades de transición son:
P00= P(Rn=0 / Rn-1=0), esto es la probabilidad de que el ascensor se encuentre en la
planta baja si en la etapa anterior estaba en la planta baja. Obviamente es 0, porque se
supone que de etapa a etapa el ascensor se mueve.
P01= P(Rn=1 / Rn-1=0), esto es la probabilidad de que el ascensor se encuentre en la
planta primera si en la etapa anterior estaba en la planta baja. Obviamente es ½. Basta
leer el enunciado .Y así sucesivamente vamos obteniendo las distintas probabilidades
de transición cuya matriz es:

PEOBLEMAS RESUELTO DE CADENAS DE MARKOV JULIO RITO VARGAS


b)
0 1

b) 𝑞⃗⃗⃗ ∙ ⃗⃗⃗ siendo q = (x,y,z) los valores de las probabilidades pedidas, añadiendo
𝑞
la ecuación x+ y+ z = 1

(𝑥 𝑦 𝑧) ( ) (𝑥 𝑦 𝑧), añadiendo x + y + z = 1. Produce el siguiente

sistema:

𝑥 − 3𝑦 − 𝑧
𝑥− 𝑦
{ Cuyas soluciones son x=8/17 ; y=4/17; z=5/17
𝑥+𝑦− 𝑧
𝑥+𝑦+𝑧

VI. Un agente comercial realiza su trabajo en tres ciudades A, B y C. Para evitar


desplazamientos innecesarios está todo el día en la misma ciudad y allí
pernocta, desplazándose a otra ciudad al día siguiente, si no tiene suficiente
trabajo. Después de estar trabajando un día en C, la probabilidad de tener que
seguir trabajando en ella al día siguiente es 0.4, la de tener que viajar a B es 0.4
y la de tener que ir a A es 0.2. Si el viajante duerme un día en B, con
probabilidad de un 20% tendrá que seguir trabajando en la misma ciudad al día
siguiente, en el 60% de los casos viajará a C, mientras que irá a A con
probabilidad 0.2. Por último si el agente comercial trabaja todo un día en A,
permanecerá en esa misma ciudad, al día siguiente, con una probabilidad 0.1,
irá a B con una probabilidad de 0.3 y a C con una probabilidad de 0.6.

a) Si hoy el viajante está en C, ¿cuál es la probabilidad de que también


tenga que trabajar en C al cabo de cuatro días?

b) ¿Cuáles son los porcentajes de días en los que el agente comercial está
en cada una de las tres ciudades?

SOLUCIÓN:
a) La matriz de transición P es la siguiente para el orden A, B, C.

PEOBLEMAS RESUELTO DE CADENAS DE MARKOV JULIO RITO VARGAS


3 6
( 6) El inciso a) consiste en averiguar el término , es decir el

término que ocupa la tercera fila y la tercer columna de la matriz , lo cual se obtiene
con la fila 3 y columna 3 de , cuyos valores son.

P2 = =

P4=P2*P2=

P4= 9/50 * 12/25 + 3/10*12/25 + 13/25*13/25 =0.0864+0.1440+0.2704=0.5008

b) Nos piden las probabilidades estacionarias. Para ello hay que resolver el
Siguiente sistema:

3 6
(𝑥 𝑦 𝑧) ( 6) (𝑥 𝑦 𝑧); x + y + z = 1

Desarrollando resulta el sistema de ecuaciones lineales:

− 𝑥+ 𝑦+ 𝑧
3𝑥 − 𝑦 + 𝑧
{ Elimino y en las dos primeras: -33x+12z = 0, y elimino y
6𝑥 + 6𝑦 − 6𝑧
𝑥+𝑦+𝑧

PEOBLEMAS RESUELTO DE CADENAS DE MARKOV JULIO RITO VARGAS


en las dos últimas: 12z=6 ; de ambas se deduce que: x =2/11=0.1818; y = 7/22
=0.3181; z = 0.5. En porcentajes serían el 18.18% para la ciudad A, el 31.81 para B y el
50% para la ciudad C.

VII. Suponga que toda la industria de refresco produce dos colas: Coca Cola y Pepsi
Cola. Cuando una persona ha comprado Coca Cola hay una probabilidad de
90% de que siga comprándola la vez siguiente. Si una persona compró Pepsi,
hay 80% de que repita la vez siguiente. Se pide:

a) Si una persona actualmente es comprador de Pepsi. ¿Cuál es la


probabilidad de que compre Coca Cola pasadas dos compras a partir de
hoy?
b) Si en la actualidad una persona es comprador de Coca Cola. ¿Cuál es la
probabilidad de que compre Coca Cola pasadas tres compras a partir de
ahora?
c) Supongamos que el 60% de toda la gente toma hoy Coca Cola y el 40%
Pepsi. A tres compras a partir de ahora, ¿Qué fracción de los compradores
estará tomando Coca Cola?.

SOLUCIÓN:
La situación se puede modelar como una cadena de Markov con dos estados {Coca-
Cola, Pepsi-Cola}= {C, P}. La matriz de transición para el orden C,P, es:

 0.9 0.1
P ( 0)   
 0.2 0.8 

a) Se pide la probabilidad de transición en dos pasos, es decir que se pide el valor


en fila 2, columna 1 para la matriz P2, obteniéndose que este es : 0.2.0.9 +
0.8.0.2 =0.34

 0.9 0.1 0.9 0.1  0.83 0.17 


P ( 2)       
 0.2 0.8  0.2 0.8   0.34 0.66 

b) Al igual que en el apartado anterior se pide el valor de probabilidad de


transición en fila 1 y columna 1 para la matriz P3. La matriz es:

 0.9 0.1 0.83 0.17   0.781 0.219 


P (3)       
 0.2 0.8  0.34 0.66   0.438 0.562 
La solución 0.781 de que una persona que consume Coca cola pasada tres
compra consuma Coca cola.

c) El vector de probabilidad inicial es (0.6, 0.4), por tanto la probabilidad de

PEOBLEMAS RESUELTO DE CADENAS DE MARKOV JULIO RITO VARGAS


consumir ambos estados a partir de tres etapas es:

 0.781 0.219 
0.6 0.4P (3)  0.6 0.4   0.6438 0.3562
 0.438 0.562 

esto es que al cabo de tres compras el 64.38% comprará Coca Cola y el 35.62%
comprará Pepsi Cola.

d) El estado estable se determina resolviendo el sistema de ecuaciones:

 0.9 0.1
x y    x y  Añadiendo la ecuación x + y =1 siendo x la probabilidad
 0.2 0.8 
de que una persona compre Coca Cola a largo plazo y lo mismo de que compre Pepsi
Cola.

−𝑥 + 𝑦
{ 𝑥− 𝑦 Observe que las dos primeras ecuaciones son iguales, por lo
𝑥+𝑦
que trabaremos con las dos últimas, resultando x=2/3; y= 1/3

VIII. La cervecería más importante del mundo (Guiness) ha contratado a un analista


de investigación de operaciones para analizar su posición en el mercado. Están
preocupados en especial por su mayor competidor (Heineken). El analista
piensa que el cambio de marca se puede modelar como una cadena de Markov
incluyendo tres estados, los estados G y H representan a los clientes que beben
cerveza producida por las mencionadas cervecerías y el estado I representa
todas las demás marcas. Los datos se toman cada mes y el analista ha
construido la siguiente matriz de transición de los datos históricos.

G H I
𝐺 7
𝐻 ( 75 5)
𝐼

¿Cuáles son los porcentajes de mercado en el estado estable para las dos
cervecerías grandes?

SOLUCIÓN:
Tres estados {G, H, I}. El problema consiste en resolver el sistema formado por las
ecuaciones siguientes:
(x, y, z).P = (x, y, z); x + y + z = 1, siendo x la probabilidad de que el consumidor
compre G, y de que el consumidor compre H y z la del que consumidor compre I.
De ambas expresiones se obtiene el siguiente sistema:

7
(𝑥 𝑦 𝑧) ( 75 5) (𝑥 𝑦 𝑧) ; x + y + z =1

PEOBLEMAS RESUELTO DE CADENAS DE MARKOV JULIO RITO VARGAS


Resolviendo la matriz resulta:
−3𝑥 + 𝑦 + 𝑧
𝑥 − 5𝑦 + 𝑧
{ Cuya solución es: x=9/16; y=10/26; z=7/26
𝑥 + 5𝑦 − 𝑧
𝑥+𝑦+𝑧

IX. En una comunidad hay 3 supermercados (S1, S2, S3) existe la movilidad de un
cliente de uno a otro. El 1 de septiembre, ¼ de los clientes va al S1, 1/3 al S2 y
5/12 al S3 de un total de 10.000 personas. Cada mes el S1 retiene el 90% de
sus clientes y pierde el 10% que se va al S2. Se averiguó que el S2 solo retiene el
5% y pierde el 85% que va a S1 y el resto se va a S3, el S3 retiene solo el 40%,
pierde el 50% que va al S1 y el 10% va al S2.

a. Establecer la matriz de transición


b. ¿Cuál es la proporción de clientes para los supermercados el 1 de
noviembre?
c. Hallar el vector de probabilidad estable.

Solución:
a) La matriz de transición para el orden S1, S2, S3 es:

( 5 5 )
5

b) Para el mes de noviembre (han transcurrido 2 meses desde 1 de


septiembre), la proporción de clientes es

5 5
( 5 5 )( 5 5 ) ( 575 75 5)
5 5 735 5 7

5 5 5 5
( ) ( )( 575 75 5) ( 6 6 )
3 3 735 5 7

La proporción es del 81.6% para S1, 9.6% para S2 y 8.8% para S3

c) El vector de probabilidad estable se obtiene resolviendo:


(x, y, z).P = (x, y, z); x + y + z = 1
El sistema resultante es:

(𝑥 𝑦 𝑧) ( 5 5 ) ( 𝑥 𝑦 𝑧)
5
PEOBLEMAS RESUELTO DE CADENAS DE MARKOV JULIO RITO VARGAS
− 𝑥 + 5𝑦 + 5 𝑧
𝑥 − 5𝑦 + 𝑧
{ de donde y = 2/31, z =1/93; x = 86/93
𝑦 − 6𝑧
𝑥+𝑦+𝑧

X. Consumidores de café en el área de Pontevedra usan tres marcas A, B, C. En


marzo de 1995 se hizo una encuesta en la que se entrevistó a las 8450 personas
que compran café y los resultados fueron:
Compra en el siguiente mes
Compra actual Marca A Marca B Marca C TOTALES

Marca A = 1690 507 845 338 1690

Marca B = 3380 676 2028 676 3380

Marca C = 3380 845 845 1690 3380

TOTALES 2028 3718 2704 8450

a) Si las compras se hacen mensualmente, ¿cuál será la distribución del


mercado de café en Pontevedra en el mes de junio?
b) A la larga, ¿cómo se distribuirán los clientes de café?
c) En junio, cual es la proporción de clientes leales a sus marcas de café?

SOLUCIÓN:
a) Con las frecuencias anteriores calculamos las probabilidades de transición,
conservando el mismo orden que la tabla (A,B,C) es:

3
5
( 6 ) De marzo a junio hay 4 meses, por lo que debemos
5 5 5
obtener la matriz de transición P4.

3 5 3 5 5 6
P2=( 6 )( 6 ) ( 3 5 7)
5 5 5 5 5 5 5 35

5 6 5 6 376 7 3
P4=( 3 5 7) ( 3 5 7) ( 375 7 3 )  Junio
5 35 5 35 3 5 6 5

b) A la larga se trata de la situación estable:

PEOBLEMAS RESUELTO DE CADENAS DE MARKOV JULIO RITO VARGAS


3 5
(𝑥 𝑦 𝑧) ( 6 ) (𝑥 𝑦 𝑧); x + y + z = 1
5 5 5

−7𝑥 + 𝑦 + 5𝑧
5𝑥 − 𝑦 + 5𝑧
{ Resolviendo el sistema se obtiene x = 5/21,
𝑥 + 𝑦 − 5𝑧
𝑥+𝑦+𝑧
y=10/21, z =6/21.

c) En Marzo la proporción de clientes de A es: 2028/8450 = 0.24; para B es


3718/8450 = 0.44 y para C es 2704/8450 = 0.32. En el mes de junio la
proporción es:

3 5
( 3 3 )( 6 ) ( 6 6)
5 5 5

Es decir 24% para A, 46.4% para B y 29.6% para C.

PEOBLEMAS RESUELTO DE CADENAS DE MARKOV JULIO RITO VARGAS


Seminario de Cadenas de Márkov en tiempo discreto (CMTD)
1) En un pueblo el clima puede cambiar de un día para otro, consideramos solo dos estados del
tiempo: clima seco o húmedo.
La probabilidad de tener un clima seco al día siguiente es de 0.8 si el día actual es seco, pero si
el clima es húmedo, la probabilidad de tener un clima seco es de 0.6. Asumir que dichos valores
no cambian en el tiempo, se pide calcular:
a) la matriz de transición
b) El diagrama de transición
c) Calcular la matriz de 5 pasos
d) Probabilidad de estado estable del sistema
Solución
La evolución del clima día tras día en el pueblo es un proceso estocástico, si se comienza en
algún día inicial (etiquetado como día 0), el clima se observa cada día t, para t = 0 , 1, 2 , ... . El
estado del sistema en el día t puede ser
Estado 0 : El día t es seco
Estado 1 : El día t es lluvioso

Así, para t = 0 , 1, 2 , ... , la variable aleatoria Xt toma los valores

0 , si el dia t es seco
Xt = 
1 , si el dia t es humedo

a) Matriz de transición

=
P =
ij (t) P(X t +1 j=
| Xt i)

P ( Xt +=
1 0| X= ) 0.8
t 0= P ( Xt +=
1 1| X= ) 0.2 (1 − 0.8)
t 0=

P ( Xt +1= 0| X= ) 0.6
t 1= P ( Xt +1= 1| X= ) 0.4 (1 − 0.6)
t 1=

Estado actual Xt Estado siguiente Xt +1


0 1
0 P00 = 0.8 P01 = 0.2
1 P10 = 0.6 P11 = 0.4

Entonces

0 1  0.8 0.2 
→P =
 
0  P00 P01   0.6 0.4 
1  
 P10 P11 

Página 1
b) Diagrama de transición

c) Matriz de transición de 5 pasos


2
P(2)
= P.P 2  0.8 0.2 =  0.76 0.24 
= P=    
 0.6 0.4   0.72 0.28 

( )
2
2  0.76 0.24   0.75 0.25 
P(4)
= 2 4
P = P=  =  
 0.72 0.28   0.749 0.251

4P  0.75
(5) P=
P=
0.25   0.8 0.2   0.75 0.25 
=
    
 0.749 0.251  0.6 0.4   0.75 0.25 

d) Probabilidades de estado estable


Se sabe
M
a) π j= ∑ πiPij , =j 0 , 1 , 2 , ... , M
i=0

M
b) ∑ π j =1
j=0

Sea π0 =probabilidad de llegar a un día seco, π1 =probabilidad de llegar a un día lluvioso

1
π0 = ∑ πiPi0 → π0 = P00 π0 + P10 π1
i=0

1
π1 =∑ πiPi1 → π1 =π0P01 + π1P11
i=0

1
∑ πj = 1 → π0 + π1 = 1
j=0

π0 = 0.8π0 + 0.6π1



π1= 0.2π0 + 0.4π1 → π0= 0.75 , π1= 0.25
π + π =1
 0 1

Página 2
2) En una región el clima solo puede ser soleado (S) o nublado (N), suponiendo que las
condiciones climáticas en días sucesivos forman una cadena de Márkov con probabilidades
estacionarias, siendo la matriz de transición:
S N
S  0.7 0.3 
 
N  0.6 0.4 

a) Si el martes está nublado, ¿cuál es la probabilidad de que esté nublado el miércoles?


b) Si el martes está nublado, ¿cuál es la probabilidad de que el jueves haga sol?
c) Suponiendo que la probabilidad de que el martes haga sol es 0,2 y la probabilidad de que
esté nublado es 0,8. Calcular:
• Probabilidad de que esté nublado el miércoles.
• Probabilidad de que esté nublado el jueves.
• Probabilidad de que esté nublado el viernes.

Solución

 P11 P12   0.7 0.3 


 =  , Estado 1 : El día t es soleado , Estado 2 : El día t es nublado
 21 22 
P P  0.6 0.4 

1, si el dia t es soleado


Xt = 
2 , si el dia t es nublado
Parte a:
Si el martes está nublado, la probabilidad de que esté nublado el miércoles es P22 ,como es
transición de un solo paso, entonces P22 = 0.4
Parte b:
Si el martes está nublado para calcular la probabilidad de que el jueves haga sol se necesita
(2)
calcular la matriz de transición en 2 pasos, necesitamos P21en la matriz de dos pasos ( P21 ).

 0.7 0.3   0.7 0.3   0.67 0.33  (2)


P2 =  ⋅ =  , la probabilidad de jueves con sol es P21 = 0.66
 0.6 0.4   0.6 0.4   0.66 0.34 

Parte c:
Si el martes la probabilidad de soleado es 0,2 y la probabilidad nublado 0,8, esto es,
π = (0,2, 0,8); el miércoles está nublado (después del 1 paso):
 0.7 0.3 
πP (0.2 = , 0.8)   (0.62  , probabilidad = 0,38 miércoles nublado
 , 0.38)
 0.6 0.4  S N
Para calcular la probabilidad de que el jueves esté nublado:
 0.67 0.33 
πP2 (0.2 = , 0.8)   (0.662
 , 0.338)

 0.66 0.34  S N
La probabilidad del jueves nublado es 0,338

Para calcular la probabilidad de que el viernes esté nublado:

Página 3
2P  0.67 0.33   0.7 0.3
P3 P=
= =
  0.667 0.333 
    
 0.66 0.34   0.6 0.4   0.666 0.334 
 0.667 0.333 
πP3 (0.2 =
= , 0.8)  =  (0.6662

  , 0.3338)

 0.666 0.334  S N
La probabilidad del viernes nublado es 0,3338

3) Se sabe que un sistema de comunicaciones falla o no dependiendo si ha fallado


o no el día anterior. La probabilidad de que falle un día sabiendo que ha fallado el
día anterior es de 0,6, pero si no ha fallado el día anterior es de 0,4.
a) ¿Cuál es la probabilidad de que el sistema falle dentro de cuatro días sabiendo
que hoy no ha fallado?
b) ¿Cuál es la probabilidad de que el sistema falle el cuarto día sabiendo que
inicialmente la probabilidad de fallar es de 0,3 y la de no fallar es de 0,7?
c) ¿Cuál es el vector de probabilidades de largo plazo?

Solución
a) Sean los estados E = {0 ≡ falla, 1 ≡ no falla}

(4)
La probabilidad pedida es =
P10 =
P(X 4 0=
| X0 1)

b) La distribución de probabilidad inicial es π0 =(0.3 , 0.7) y la distribución de probabilidad en


4 pasos será π4 =π0P4

Página 4
c) El estado estable se determina resolviendo la ecuación πP = π, añadiendo la ecuación
M
∑ π j =1
j=0

 0.6 0.4  0.6x + 0.4y =x


πP = π → (x , y)   = (x , y) →  , además x + y =
1
 0.4 0.6  0.4x + 0.6y =y
=
Resolviendo x 0.5 = , y 0.5 , π = (0.5 , 0.5) = ( π0 , π1)

Página 5

También podría gustarte