0% encontró este documento útil (0 votos)
80 vistas65 páginas

Procesos Estocásticos en Telecomunicación

Este documento introduce el concepto de proceso estocástico y cómo se puede usar para modelar señales que contienen información y ruido. Explica que un proceso estocástico es una colección de variables aleatorias indexadas por el tiempo o algún otro índice. Luego describe cómo se pueden caracterizar procesos estocásticos usando funciones de primer orden, segundo orden y de orden superior. Finalmente, introduce los conceptos de estacionariedad en sentido estricto y amplio, y cómo los procesos gaussianos cumplen propiedades adicional

Cargado por

cesar javier
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
80 vistas65 páginas

Procesos Estocásticos en Telecomunicación

Este documento introduce el concepto de proceso estocástico y cómo se puede usar para modelar señales que contienen información y ruido. Explica que un proceso estocástico es una colección de variables aleatorias indexadas por el tiempo o algún otro índice. Luego describe cómo se pueden caracterizar procesos estocásticos usando funciones de primer orden, segundo orden y de orden superior. Finalmente, introduce los conceptos de estacionariedad en sentido estricto y amplio, y cómo los procesos gaussianos cumplen propiedades adicional

Cargado por

cesar javier
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Tema 5: PROCESOS

ESTOCÁSTICOS
Carlos Alberola López
Lab. Procesado de Imagen, ETSI Telecomunicación
Despacho 2D014
[email protected], [email protected],
http://www.lpi.tel.uva.es/sar
Proceso estocástico (PE)
• Término sinónimo de “señal aleatoria”
• En este tema conectaremos los conceptos de Teoría de la
Probabilidad con conceptos de Tratamiento de Señal (mediante
Sistemas Lineales).
• Las señales útiles en Telecomunicación precisan de herramientas
de modelado probabilístico:
• A) Toda señal que transporta información tiene algún grado
de aleatoriedad.
• B) Sobre toda señal deseada se superpone de forma natural
algún tipo de señal perturbadora
• Se pretende disponer de alguna herramienta que caracterice las
señales del mismo “tipo” con independencia de su contenido
concreto.
• Y tener herramientas que permitan minimizar el efecto del ruido.
Concepto de VA

X
(X, Y )
Y

Extensión a
composición de N
experimentos ε i
X = (X1 , X 2 ,L, X N )
Concepto de Proceso Estocástico

X (t, a )

a = a1 a = a2
INTERPRETACIÓN 1
Colección de
funciones
determinísticas del
tiempo (cada una de
ellas se denomina
realización del
proceso)

INTERPRETACIÓN 2

X (t0 , a )

Colección de VAs
indexadas por
índice t
Concepto de Proceso Estocástico
• Sea el proceso estocástico: X (t , a ) = A cos(ω0t + Θ )
con Θ ~ U (- π , π )
• Como hicimos en temas anteriores, daremos por supuesta la
dependencia con el resultado del experimento aleatorio.
Escribiremos
X (t ) = A cos(ω0t + Θ )
⎛ π⎞
• Si Θ = π / 4 tenemos X (t ) = A cos⎜ ω0t + ⎟ : función
determinística del tiempo ⎝ 4⎠
• Si t = t0 tenemos X (t0 ) = A cos(ω0t0 + Θ ) que es una
variable aleatoria, la cual podemos denotar por Y, Z, …
⎛ π⎞
• Si Θ = π / 4 y t = t0 tenemos: X (t0 ) = A cos⎜ ω0t0 + ⎟
que es un número real. ⎝ 4⎠
Una posible clasificación
• En función del índice temporal
• Proceso estocástico (PE): X (t )
• Secuencia aleatoria (SA): X[n ]
• En función de que cada VA sea continua o discreta
• PE continuo X (t ) ~ N (0, σ (t ))
• PE discreto X (t ) ~ B(N (t ), p (t ))
• SA continua X[n ] ~ N (0, σ [n ])
• SA discreta X[n ] ~ B(N [n ], p[n ])
• Predecible/no predecible
• Predecible: X (t ) = A cos(ω0t + Θ )
• No predecible: sin expresión analítica asociada
Caracterización de PEs
• Funciones de primer orden: caracterización de las VAs del
proceso por separado. Se requiere un único índice temporal.
• Función de distribución:

• Función de densidad:

• Funciones de segundo orden: caracterización de pares de VAs


del proceso. Hacen falta dos índices para indicar sobre qué dos
VAs se definen las funciones:

I
Caracterización de PEs
• Eliminación de dependencias: se lleva a cabo siguiendo las
reglas vistas en los temas anteriores. Por ejemplo:

• Funciones de orden N: caracterización de VAs N-dimensionales


extraídas del proceso. Hacen falta N índices para indicar sobre
qué N VAs se definen las funciones:
X (t )

X (t , a2 )

X (t , a1 )
t
X (t , a3 )

Aproximación muestral al t = t0
cálculo de:
2
FX ( x; t0 ) = P (X (t0 ) ≤ x ) ≈
3
X (t )

X (t , a3 )

x1
X (t , a1 ) x2

t
X (t , a2 )

Aproximación muestral al t = t1 t = t2
cálculo de:
1
FX ( x1 , x2 ; t1 , t2 ) = P (X (t1 ) ≤ x1 I X (t2 ) ≤ x2 ) ≈
3
Caracterización de 2 PEs
• Si tuviésemos dos procesos estocásticos, su caracterización
vendría dada por la función de densidad conjunta de órdenes N y
M, es decir:

• En la práctica, salvo para procesos gaussianos, es impensable


poder disponer de esta información. Por ello, lo normal es trabajar
con parámetros de caracterización parcial de los PEs.
Caracterización parcial de PEs
• Media

• VCM

• Varianza
Caracterización parcial de PEs
• Correlación (Autocorrelación)

• Covarianza (Autocovarianza)

• Coeficiente de correlación
Caracterización parcial de PEs
• Procesos complejos:

• Secuencias aleatorias: reemplazar t por n


• Procesos de variables discretas: operadores discretos
Caracterización parcial de PEs
• Proceso de ruido blanco (definición):
• Ruido blanco en sentido amplio: proceso constituido por VAs
incorreladas:

• Si fuese una secuencia aleatoria:

• Ruido blanco en sentido estricto: proceso constituido por VAs


independientes ( ∀N )
Caracterización parcial de dos PEs
• Correlación cruzada

• Covarianza cruzada
Caracterización parcial de dos PEs
• Procesos incorrelados

• Procesos ortogonales

• Procesos independientes
Concepto de estacionariedad
• La estacionariedad hace referencia al mantenimiento de las
propiedades del proceso a lo largo del tiempo.
• Se distinguen dos sentidos:
• Sentido estricto (SSS, de strict sense stationary): las
propiedades de las que hablaremos se definen sobre la
función de densidad del proceso.
• Sentido amplio (WSS, de wide sense stationary): en este
caso las propiedades se definen sobre momentos de la
función de densidad.
• Empezaremos por SSS.
Estacionariedad en sent. estricto
SSS: equidistribución de los dos grupos
de VAs.

t1 t2 t3 t4 L tN t1 + c t3 + c L tN + c
t2 + c t4 + c
Estacionariedad en sent. estricto
• Por tanto un proceso es SSS si se verifica que

∀N y para todo valor de la constante c.


• Si esta propiedad se verifica sólo hasta un cierto valor de N (y no
se verifica para valores de N mayores) el proceso se denominaría
estacionario de orden N.
• Dos casos particulares de la expresión anterior son
Estacionariedad en sent. amplio
• Un proceso estocástico es WSS si se verifica que

• Evidentemente si un proceso es SSS (o estacionario al menos de


orden 2) también es WSS. Esto se debe a que

• El recíproco, en general, no es cierto.


Caso de procesos gaussianos
• Un proceso estocástico es gaussiano si la función de densidad
conjunta de orden N es conjuntamente gaussiana.
• En particular, un proceso gaussiano tiene una función de
densidad de orden 2 del tipo:

f X (x1 , x 2 ; t1 , t 2 ) =
1
×
σ X (t1 )σ X (t 2 )2π 1 − ρ (t1 , t 2 ) 2
X

⎛ ( x1 −η X ( t1 ))2 ( −η ( ) ) ( −η ( ) ) ( −η ( ) )2 ⎞
− 2 ρ ( t1 , t 2 )
1 1 ⎜ x X t x X t x X t ⎟
− 1 1 2 2
+ 2 2
2 1− ρ 2 ( t1 , t 2 )⎜⎝ σ X2 ( t1 ) X σ X ( t1 )σ X ( t 2 ) σ X2 ( t 2 ) ⎟

e X
Caso de procesos gaussianos
• Si un proceso gaussiano es WSS se verifica que:

f X (x1 , x 2 ; t1 , t 2 ) =
1
×
σ X (t1 )σ X (t 2 )2π 1 − ρ (t1 , t 2 ) 2
X

⎛ ( x1 −η X ( t1 ))2 ( −η ( ) )( −η ( ) ) ( −η ( ) )2 ⎞
− 2 ρ ( t1 , t 2 )
1 1 ⎜ x X t x X t x X t ⎟
− 1 1 2 2
+ 2 2
2 1− ρ 2 ( t1 , t 2 )⎜⎝ σ X2 ( t1 ) X σ X ( t1 )σ X ( t 2 ) σ X2 ( t 2 ) ⎟

e X

f X (x1 , x 2 ; t1 , t 2 ) =
1
×
σ Xσ X 2π 1 − ρ (t1 − t 2 ) 2
X

⎛ ( x1 −η X )2 ( x1 −η X )( x 2 −η X ) ( x 2 −η X )2 ⎞
− 2 ρ ( t1 − t 2 )
1 1 ⎜ ⎟
− +
2 1− ρ 2 ( t1 − t 2 )⎜⎝
= f X (x1 , x 2 ; t1 − t 2 )
σ 2 X σ σ σ X2 ⎟
X X X ⎠
e X

• Sucede igual para la función de orden N: por ello es SSS


Estacionariedad conjunta
• Dos procesos son conjuntamente estacionarios si lo son cada uno
de ellos por separado y, además, se verifica que:

• Si se trata de sentido amplio, cada proceso debe ser WSS y debe


cumplirse, adicionalmente, que

• Aceptemos como convenio que:


Propiedades de procesos WSS
Propiedades de procesos WSS
• Solución: recordando la linealidad del operador esperanza:

independencia
→incorrelación

(media constante)
Propiedades de procesos WSS
• Respecto de la autocorrelación:

R X (t1 , t 2 ) = E{X (t1 )X * (t 2 )}


⎧K j(pω0 t1 + Θ p )
K
∗ − j(qω0 t 2 + Θq )

= E ⎨∑ A pe ∑ A qe ⎬
⎩ p=1 q =1 ⎭
⎧K K ∗ j(pω0 t1 + Θ p ) − j(qω0 t 2 + Θq )

= E ⎨∑∑ A p A q e e ⎬
⎩ p=1 q =1 ⎭
incorrelación
{ }
K K
= ∑∑ e j(pω0 t1 −qω0 t 2 )E A p A ∗q e
jΘ p − j Θ q
e
p =1 q =1

= ∑∑ e j(pω0 t1 −qω0 t 2 )E{A p A ∗q }E e { }


K K
jΘ p − jΘ q
e
p =1 q =1
Propiedades de procesos WSS
R X (t1 , t 2 ) = E{X (t1 )X * (t 2 )}
E{A A }E{e }
K K
= ∑∑ e j( pω0 t1 − qω0 t 2 ) ∗ jΘ p − jΘ q
p q e
p =1 q =1

• Si p≠q
{
Ee
jΘ p − jΘ q
e }= E{e }E{e }= 0 × 0 = 0
jΘ p − jΘ q

E{e }= E{e }= 1
• Si p=q jΘ p − jΘ p j0
e

• Por ello, tenemos


K
R X (t1 , t 2 ) = ∑ e
p =1
jpω0 ( t1 − t 2 )
E { Ap
2
}=∑ e E{
K

p =1
jpω0τ
Ap
2
}=R X (τ )
Propiedades de procesos WSS
• La autocorrelación presenta un máximo en el cero:

R X (τ ) ≤ R X (0)

R X (τ ) =
K

∑e
p =1
jpω0τ
{ } ≤ ∑ e E{
E Ap
2
K

p =1
jpω0τ
Ap
2
} = ∑ E{
K

p =1
Ap
2
}= R X (0)
• La autocorrelación es una función con simetría conjugada:
R X (− τ ) = R ∗X (τ )

R X (− τ ) = ∑ e
K

p =1
− jpω0τ
E { Ap
2
}= R ∗
X (τ )
• Si el proceso es periódico, su autocorrelación también lo es (y del
mismo periodo)
K
X (t ) = ∑ A pe
p =1
(
j pω0 t + Θ p )
R X (τ ) = ∑ E
K

p =1
{ 2
}
A p e jpω0τ
Propiedades de procesos WSS
• El ruido blanco WSS tiene una función de covarianza del tipo:

C X (τ ) = qδ (τ )

• Nótese que la covarianza de un proceso WSS es

C X (τ ) = C X (t1 − t 2 )

• Luego la covarianza en el cero es

C X (τ = 0) = C X (t1 − t1 ) = σ X2

• Por ello, un ruido blanco tiene varianza infinita


Ergodicidad de un PE
X (t )
X (t , a3 )

X (t , a1 )

t
X (t , a2 )

Aproximación muestral al t = t0
cálculo de:
∞ 1 N
ηX (t 0 ) = ∫ xf X (x; t 0 )dx ≈ lim ∑ X (t 0 , a i )
−∞ N →∞ N i =1
Ergodicidad de un PE
X (t )
X (t , a3 )

X (t , a1 ) ηX

t
X (t , a2 )

t = t1 t = t2 t = t0
Si el proceso fuese (al menos) WSS ηX (t 0 ) = ηX
Ergodicidad de un PE
X (t )
M T [X (t )] = X (t )dt
1 T
2T ∫− T

ηX

En la práctica se observa una única realización. La pregunta es:


¿se puede hallar el valor medio de un proceso WSS únicamente
observando una realización y aplicando un operador temporal ?
Ergodicidad de un PE
• Se dice que un proceso WSS es ergódico con respecto a la
media si se verifica que:

ηX = lim M T [X (t )] = lim X (t )dt


1 T
T →∞ T → ∞ 2T ∫− T

• Si dice que un proceso WSS es ergódico respecto de la


autocorrelación si se verifica que:

T →∞
[ ∗
]
R X (τ ) = lim M T X (t + τ )X (t ) = lim
1 T

T → ∞ 2T − T
X (t + τ )X ∗
(t )dt

= lim A T [X (t )]
T →∞
Algunas consecuencias de la ergodicidad
• Si un proceso es ergódico de media cero, una realización típica
fluctuará con respecto a ese valor de forma más o menos
simétrica alrededor del mismo.
Algunas consecuencias de la ergodicidad
• Justificación del máximo de la correlación en cero:

X (t )
R X (τ ) = lim ( ) (t )dt
1 T
∫ τ ∗
X t + X
T → ∞ 2T − T

τ
Algunas consecuencias de la ergodicidad
• Justificación del periodicidad en autocorrelación para PE periódico

X (t )
R X (τ ) = lim ( ) (t )dt
1 T
∫ τ ∗
X t + X
T → ∞ 2T − T

τ
Algunas consecuencias de la ergodicidad
• La posición relativa de las curvas se mantiene constante

X (t )

τ +T
Densidad espectral de potencia de un PE

• Vamos a definir una función que caracterice a un proceso


estocástico en el dominio de la frecuencia.
• Bien es cierto que, dado que un proceso estocástico es una
colección de funciones del tiempo, nos podríamos limitar a calcular
una colección de Transformadas de Fourier.
• Esto sería poco práctico. Se trata de definir una única función que
caracterice a todas las realizaciones del proceso de forma
conjunta.
• A tal función se le denomina densidad espectral de potencia.
Densidad espectral de potencia de un PE

• Con el objetivo de garantizar convergencia de la integral de


Fourier partimos del proceso enventanado:

X (t )

2T

X T (t )
Densidad espectral de potencia de un PE

• Por ser una señal de duración finita, es de cuadrado integrable:

y resulta en energía disipada finita sobre una resistencia de 1 Ω.

• El Teorema de Parseval permite escribir de forma alternativa


Densidad espectral de potencia de un PE

• De energía pasamos a potencia dividiendo por el tiempo de


integración:

• Calculamos la potencia media mediante el operador esperanza y


extraemos el límite para considerar todo el proceso:
Densidad espectral de potencia de un PE

• Por ello, se define la densidad espectral de potencia de la forma :

es decir, la función que integrada en todo el eje de frecuencias da


lugar a la potencia media desarrollada por el proceso.
Densidad espectral para procesos WSS

• Para el caso en el que los procesos sean (al menos) WSS las
expresiones anteriores particularizan a resultados mucho más
sencillos (y recordables). En efecto:
Densidad espectral para procesos WSS
• Respecto de la densidad espectral:

• El cambio natural de variables es:


Densidad espectral para procesos WSS
• El resultado anterior:

expresado en las nuevas variables:


Densidad espectral para procesos WSS

• Calculando ahora el límite tenemos:

• Por tanto

Expresiones conocidas como relaciones de Wiener-Khinchin.


Propiedades de la dens. espectral

• Es una función real y no negativa:

• Para un proceso real y WSS, la densidad espectral es una función


par:

• El área bajo ella coincide con el VCM para un proceso WSS


Densidad espectral cruzada
• Se define, por conveniencia, como la transformada de Fourier de
la correlación cruzada entre dos procesos WSS:

• Surge de forma natural en el caso de suma de procesos. Por


ejemplo, si Z(t ) = X (t ) + Y (t ) , entonces
Sistemas lineales con
entradas estocásticas

X (t ) Y (t )
h (t )


Y (t ) = ∫ X (t − τ )h (τ )dτ
−∞

• Se trata de obtener los parámetros de caracterización (parcial) del


proceso de salida como función de estos parámetros del proceso
de entrada y de la respuesta al impulso del sistema lineal e
invariante.
SLs con entradas estocásticas
• Empecemos con el valor medio:

• Si el proceso de entrada es (al menos) WSS

DC
SLs con entradas estocásticas
• VCM:

• Si el proceso de entrada es WSS


SLs con entradas estocásticas
• Caso particular de interés: X (t ) ruido blanco de media nula y
función de autocorrelación R (τ ) = N 0 δ (τ )
X
2
SLs con entradas estocásticas
• Correlación cruzada:

WSS

R X (τ + α ) R X (α )
h∗ (α ) ≡ h∗ (− α )

α α
−τ τ
SLs con entradas estocásticas
• Autocorrelación de salida:

• Que con el resultado anterior da lugar a


SLs con entradas estocásticas
• Densidad cruzada

• Densidad espectral de potencia de salida:


• A partir de

obtenemos
Sep 97, núm. 3
Sep 97, núm. 2

También podría gustarte