Diseño de Receptores en Comunicación Digital
Diseño de Receptores en Comunicación Digital
1.1 Introducción 3
1.1.1 Transmisor 4
1.1.2 Canal 5
1.1.3 Receptor 5
1.2 Perspectiva histórica 5
1.3 El modelo OSI 7
1.4 Resumen 10
3 Diseño del receptor para el AWGN de tiempo continuo canal: (Segunda capa) 30
3.1 Introducción 30
3.1.1 Comunicación a través del canal AWGN de tiempo continuo. 31
3.1.2 Ejemplos y Formulas 31
3.1.4 Restricciones sobre alfabeto de Wi(t) 32
3.1.5 Abstracción del canal de forma de onda. 33
3.1.8 Formalismo 33
3.2 Ruido Blanco Gaussiano 34
3.2.1 Definición de ruido Gaussiano Blanco N(t) 35
3.3 Estadísticas suficientes y Observables 36
3.4 Arquitectura de transmisor y receptor 40
3.4.1 Ejemplo 3.7 (Señales Ortogonales) 41
3.4.2 Ejemplo 3.8 (Single-shot PAM) 44
3.4.3 Ejemplo 3.9 (Single-shot PSK) 44
3.4.4 Ejemplo 3.10 (QAM de disparo único) 45
3.5 Generalización y estructuras receptoras alternativas. 47
3.6 Canales de tiempo continuo revisitados 53
Preguntas CAPITULO 3 56
Procesos Estocásticos 60
Procesos Estacionarios 60
1
2
1 Libro “introducción y objetivos”
1.1 Introducción
● La comunicación digital es un campo en el que las ideas teóricas han tenido un
impacto inusualmente poderoso en el diseño y la práctica del sistema. La base de la
teorı́a fue desarrollada en 1948 por Claude Shannon, y se llama teorı́a de la
información.
● Un sistema de comunicación transmite información desde su origen a un destino a
través de una distancia determinada. Hay tantas aplicaciones diferentes de los
sistemas de comunicación que no podemos intentar cubrir todos los tipos, ni
tampoco podemos discutir en detalle todas las partes individuales que componen un
sistema especı́fico.
● Incluye numerosos componentes que funcionan en toda la gama del campo de la
ingenierı́a electrónica - electrónica, electromagnetismo, procesamiento de señales,
microprocesadores y redes de comunicación, para nombrar algunos de los
relevantes. Además, un tratamiento pieza por pieza oscurece el punto esencial de lo
que es un sistema de comunicación, un todo integrado que realmente excede la
suma de sus partes.
● En general, un sistema de comunicación puede ser representado por el diagrama de
bloques funcionales como el siguiente:
3
1.1.1 Transmisor
4
1.1.2 Canal
● El canal de comunicación es: el medio fı́sico que se utiliza para enviar la señal del
transmisor al receptor. En la transmisión inalámbrica, el canal puede ser la atmósfera
(espacio libre); en cambio, los canales telefónicos suelen emplear una variedad de
medios fı́sicos, incluyendo lı́neas de alambre, cables de fibra óptica e inalámbricos
(radio de microondas).
● Cualquiera que sea el medio fı́sico utilizado para la transmisión de la información, la
caracterı́stica esencial es que la señal transmitida se corrompe de manera
aleatoria por una variedad de mecanismos posibles, tales como el ruido térmico
aditivo generado por los dispositivos electrónicos; el ruido artificial e.g., el ruido de la
ignición del automóvil; y el ruido atmosférico, e.g., las descargas eléctricas de rayos
durante las tormentas eléctricas.
1.1.3 Receptor
5
sı́mbolos. Formuló un modelo de un sistema telegráfico en el que una señal
transmitida tiene la forma general:
6
términos estadı́sticos, utilizando modelos probabilı́sticos para las fuentes de
información y los canales de comunicación.
● Sobre la base de esa formulación estadı́stica, adoptó una medida logarı́tmica para el
contenido de información de una fuente. También demostró que el efecto de una
limitación de potencia del transmisor, una limitación de anchura de banda y ruido
aditivo puede asociarse con el canal e incorporarse a un único parámetro,
denominado capacidad del canal. Por ejemplo, en el caso de un aditivo blanco
(espectralmente plano) de interferencia de ruido gaussiano, un canal ideal de ancho
de banda W con banda limitada tiene una capacidad C dada por:
7
tan fácil y confiablemente como lo hacemos nosotros hacer. Esto difı́cilmente serı́a
posible sin la estratificación y la estandarización.
● La Open System Interconnection (OSI) - Sistema Abierto de Interconexión -
describe un marco de trabajo para la definición de protocolos de flujo de datos. En
esta sección utilizamos el modelo OSI para transmitir la idea básica de cómo las
redes de comunicación modernas tratan con la clave los desafı́os, en particular el
encaminamiento, el control de los flujos, la fiabilidad, la privacidad y la autenticidad.
8
● La capa de aplicación se reserva para programas (también llamados procesos) que
implementan protocolos relacionados con las aplicaciones a la hora de realizarse
una comunicación. En términos de tráfico de datos, el protocolo establece una
cabecera llamada cabecera de la aplicación (AH) delante de los bits producidos por
la aplicación.
● La capa de presentación se encarga de la encriptación, compresión y la traducción
desde/hacia un idioma universal. El protocolo es implementado mediante el
encabezado de presentación (PH).
● La capa de sesión establece, manteniene y finaliza la comunicación entre los
dispositivos fı́sicos, también gestiona los derechos de [Link] protocolo es
implementado mediante el encabezado de sesión (SH).
● La capa de transporte hace que el enlace parezca fiable, por medio de bits de
control de paridad, comprueba que la comunicación está libre de errores y si no lo
está, solicita retransmisión.
También proporciona control de flujo mediante la formación de colas datos si la red
está congestionada o si el extremo receptor no puede absorberlos suficientemente
rápido. La capa de transporte utiliza la cabecera de transporte (TH) para
comunicarse. La cabecera de transporte seguida de los datos transmitidos por la
sesión se llama segmento.
● La capa de red proporciona el servicio de enrutamiento. A diferencia de las capas
anteriores, que funcionan de extremo a extremo, la capa de red y las capas
inferiores tienen un proceso también en los nodos intermedios. El protocolo de la
capa de red se implementa en la cabecera de red (NH).
La red contiene, entre otras cosas, la dirección de origen y de destino. La cabecera
del grafo seguida del segmento (del layer de transporte) se llama un paquete.
● La capa de enlace de datos (DL) pone un encabezado al principio y un trailer al
final de cada paquete entregado por la capa de red. El resultado se denomina frame.
Algunos de los bits de sobrecarga son bits de comprobación de paridad destinados a
determinar si se han producido errores en el enlace entre nodos. Si el DL detecta
errores, podrı́a pedir que se retransmitiera o se dejara caer la imagen.
● La capa fı́sica “el tema de este curso “ es la capa inferior del OSI stack. La capa
fı́sica crea un ”tubo de bits”más o menos fiable a partir del canal fı́sico entre dos
nodos. Lo hace por medio de un transmisor/receptor llamado módem (modulator
and demodulator).
Cabe aclarar que cada capa se comunica con una capa igual, i.e. la capa de sesión
del transmisor con la capa de sesión del receptor.
9
1.4 Resumen
● La representación del espacio de señal (o vector) de las señales es una herramienta
muy eficaz y útil en el análisis de señales moduladas digitalmente. Cualquier
conjunto de señales es equivalente a un conjunto de vectores, las señales tienen las
mismas propiedades básicas de los vectores. El conjunto correspondiente de
vectores se denomina representación del espacio de señales, o constelación.
● Dijimos que hay m n distintas secuencias de n-longitud que pueden ser formadas
con sı́mbolos tomados de un alfabeto de tamaño m. Ahora supongamos que
queremos comunicar una secuencia de bits k. Existen 2 k secuencias distintas y
cada una de ellas debe ser en una secuencia de sı́mbolos distinta. Esto implica 2 k ≤
m n , i.e. se pueden usar menos sı́mbolos para transmitir la secuencia de bits.
● La distancia entre los sı́mbolos debe cumplir que sea mayor o a lo sumo igual a 2∆,
lo cual implica que el tamaño del alfabeto debe ser como máximo
● La mayor velocidad posible en bits por segundo que se puede conseguir de forma
fiable con ancho de banda B, amplitudes de los sı́mbolos dentro de ±A, y precisión
del receptor ± ∆.
10
2 Diseño de receptor para observaciones en tiempo discreto:
(Primera capa)
2.1 Introducción
● El enfoque de este y el próximo capítulo es el diseño del receptor, La tarea del
receptor puede apreciarse considerando un canal muy ruidoso.
El "canal GPS" es un buen ejemplo. Deje que la entrada del canal sea la señal
eléctrica aplicada a la antena transmisora de un satélite GPS en órbita a una altitud
de 20 200 km, y dejar que la salida del canal sea la señal en la salida de la antena
de un receptor GPS al nivel del mar.
● La señal de interés en la salida de la antena receptora es muy débil.
● Si tuviéramos que observar la salida de la antena receptora con un instrumento de
propósito general, como un osciloscopio o un analizador de espectro, no podríamos
distinguir la señal del ruido.
● Sin embargo, la mayoría de las veces el receptor maneja para reproducir la
secuencia de bits transmitida por el satélite. Este es el resultado de operaciones
sofisticadas realizadas por el receptor.
● Como un caso especial prominente, consideraremos el canal de ruido blanco
gaussiano aditivo de tiempo discreto (AWGN).
11
2.1.2 Transmisor:
● Matemáticamente, el transmisor es un mapeo desde el mensaje
al conjunto de señales (también llamado constelación de
señales), donde ∈ Cargando… para algunos n.
● Desde un punto de ingeniería, el transmisor es necesario porque las señales que
representan el mensaje no son adecuados para excitar el canal. Desde este punto
de vista, el transmisor es una especia de conector sofisticado.
● Los elementos del conjunto de señales C son elegidos de tal manera que un
receptor bien diseñado que observe la salida del canal puede decir (con alta
probabilidad) qué señal de C ha excitado la entrada de canal
2.1.3 Canal:
● El diseñador del sistema necesita poder hacer frente a una amplia clase de Modelos
de canales.
● Una forma bastante general de describir un canal es especificando su Alfabeto de
entrada X (el conjunto de señales que son físicamente compatibles con la entrada
de canal), el alfabeto de salida de canal (Y), y una descripción estadística de la
salida dada la entrada.
● A menos que se especifique lo contrario, en este capítulo el alfabeto de salida Y es
un subconjunto de Cargando….
12
● Para cada letra x ∈ X que aplicamos a la entrada del canal, el canal genera la
realización de una variable aleatoria Y ∈ Y de estadística que depende de x.
● Si Y es una variable aleatoria discreta, describimos la probabilidad distribución
(también llamada función de masa de probabilidad, abreviada a PMF) de Y
dado x, denotado por .
● Si Y es una variable aleatoria continua, describimos la función de densidad de
probabilidad (PDF) de Y dada x, denotada por .
● En una aplicación típica, necesitamos conocer la estadística de una secuencia
de salidas de canal, , dada una secuencia de entradas
de canal , pero nuestro canal típico no tiene memoria, lo que significa que:
2.1.4 Receptor:
● La tarea del receptor es "adivinar" la realización de la hipótesis H desde la
realización de la secuencia de salida del canal.
● Usamos ı̂ para representar lo que adivino el receptor. Al igual que el mensaje, la
suposición del mensaje es el resultado de un experimento aleatorio.
● La correspondiente variable aleatoria se denota por Ĥ ∈ H.
● A menos que se especifique lo contrario, el receptor siempre será diseñado para
minimizar la probabilidad de error, denotado (definido como la probabilidad de
que Ĥ difiera de H.)
● Adivinar el valor de una variable discreta aleatoria H a partir de la realización de otra
variable aleatoria (o vector aleatorio) se llama un problema de prueba de hipótesis.
13
● El receptor adivina la realización de basándose en la realización de . A menos
que se indique de lo contrario.
● Se supone para todo i ∈ H, el diseñador del sistema conoce (PROB. de
cada mensaje) y (FUNC. de densidad de probabilidad de Y dada H)
● La decisión del receptor será denotada por y la variable aleatoria correspondiente
es ∈ H. Si pudiéramos, nos aseguraremos de que = H, pero esto
generalmente no es posible. ( es la variable aleatoria del receptor)
● El objetivo es diseñar una estrategia de decisión que maximice la probabilidad
de que la decisión es correcta.
● Un objetivo equivalente es minimizar la probabilidad de error
14
Cuando Cargando…. Tenemos lo siguiente: “cuando Cargando…, se observa Y con una
distribución de Poisson con intensidad Cargando…. cuando 1, tenemos Y con una
distribución de Poisson con intensidad Cargando…”. Nuevamente el problema es decidir el
valor de H a partir del Y observable es un problema estándar de prueba de hipótesis.
Desde Cargando… y Cargando… por la regla de Bayes obtenemos
(2.2)
Hay un caso especial importante, es decir, cuando H está distribuido uniformemente.
En este caso, Cargando…, en función de i, es proporcional a Cargando…. Por lo tanto, el
argumento que maximiza Cargando… también maximiza Cargando…. Entonces la regla de
decisión MAP es equivalente a la decisión
15
llamado la regla de decisión de máxima verosimilitud (ML). El nombre se deriva del
hecho que Cargando…, en función de i, se llama función de verosimilitud.
Tenga en cuenta que la regla de decisión de ML se define incluso si no conocemos
Cargando…. Por lo tanto es la solución de elección cuando no se conoce lo anterior. (Las
reglas de decisión MAP y el ML son equivalentes solo cuando lo anterior es uniforme).
El caso especial en el que tenemos que tomar una decisión binaria, es decir, H = {0, 1}, es
tanto instructivo como de relevancia prá[Link]ón en la siguiente sección, Hay
dos alternativas, MAP y ML test
[Link] MAP TEST
Como solo hay dos alternativas para probar, la prueba MAP ahora puede ser escrita como
La notación anterior significa que la prueba MAP decide para Cargando… = 1 cuando la
izquierda está más grande o igual a la derecha, y decide para Cargando…= 0 de lo
contrario. Observa eso
el denominador es irrelevante porque Cargando…(y) es una constante positiva, por lo tanto,
no afectará la decisión. Por lo tanto, una regla de decisión equivalente es:
16
La prueba anterior es perspicaz, ya que muestra que estamos comparando posteriores
después de re escalarlos cancelando el número positivo Cargando…(y) del denominador.
Sin embargo, hay formas alternativas del test que, dependiendo de los detalles, pueden ser
computacionalmente más conveniente. Se obtiene una prueba equivalente dividiendo
ambos lados con la cantidad no negativa Cargando…. Esto da como resultado siguiente test
de MAP binario:
(2.4)
El lado izquierdo de la prueba anterior se llama razón de probabilidad, denotada por Λ(y),
mientras que el lado derecho es el umbral η. Tenga en cuenta que si Cargando…(0)
aumenta, también lo hace el umbral. A su vez, como es de esperar, la región {y:
Cargando…(y) = 0} se convierte más grande.
Cuando Cargando…(0) = Cargando…(1) = 1/2 el umbral η es la unidad y la prueba MAP se
convierte en
una prueba binaria de ML:
o, equivalentemente:
17
Expresiones similares se mantienen para la probabilidad de error condicionada a H = 1,
denotado por Pe (1). Usando la ley de probabilidad total, obtenemos el (incondicional)
probabilidad de error:
18
2.2.2 Prueba de hipótesis m-ary
19
Tenga en cuenta que la función de decisión (o decodificación) asigna un Cargando… a
cada Cargando…. Como ya se mencionó, puede describirse por las regiones de decisión (o
decodificación) Ri,Cargando…, donde Ri consiste en aquellas Cargando… para las cuales
. Es conveniente pensar que Cargando… está dividido por regiones de
decodificación como se muestra en la Figura 2.3. Utilizamos las regiones de decodificación
para expresar la probabilidad de error Pe o, de manera equivalente, la probabilidad Pc = 1 −
Pe de decidir correctamente. Condicionado en H = i tenemos
2.3 La función Q
La función Q juega un papel muy importante en la comunicación. Saldrá frecuentemente a
lo largo de este texto. Se define como
● Donde el símbolo := significa que el lado izquierdo está definido por la expresión en
el Derecha.
● Por lo tanto, si Z es una variable aleatoria de unidad media distribuida normalmente
● Pero
Propiedades de la función Q
20
2.4 Diseño del receptor para el canal AWGN de tiempo discreto
El problema de prueba de hipótesis discutido en esta sección es clave en la comunicación
digital. Es el realizado por la capa superior de la Figura 1.7.
21
2.4.1 Decisión binaria para observaciones escalares
Deje que el mensaje H ∈ {0, 1} sea equiprobable y suponga que el transmisor asigna
H = 0 en c0 ∈ R y H = 1 en c1 ∈ R. La estadística de salida para las distintas hipótesis son
las siguientes:
El umbral es
El progreso consiste en el hecho de que el receptor ya no calcula una función exponencial
de la observación. Tiene que calcular ln (η), pero esto se hace una vez
y para todos. Sin pérdida de generalidad esencial, suponga c1> c0. Entonces podemos
dividir ambos lados por Cargando… (que es positivo) sin cambiar el resultado de la
comparación anterior. Podemos simplificar aún más moviendo las constantes a la derecha.
Los
22
resultado es la prueba simple
Donde:
Esta es la probabilidad de que una variable aleatoria gaussiana con media Cargando…
y varianza Cargando… exceda el umbral θ. De nuestra revisión sobre la función Q
sabemos inmediatamente que Pe (0) = Q(Cargando…).Del mismo modo, Pe (1) = Q(
Cargando…).
Finalmente, Pe = PH (0) Q(Cargando…) + PH (1) Q(Cargando…).
El caso más común es cuando PH (0) = PH (1) = 1/2. Entonces Cargando…= Cargando… =
Cargando…= Cargando… donde d es la distancia entre c0 y c1. En este caso, Pe (0) = Pe
(1) = Pe, donde
Este resultado se puede obtener directamente sin cálculos secundarios. Como se muestra
23
en la Figura 2.6, el umbral es el punto medio entre c0 y c1 y Pe = Pe (0) = Q (Cargando…).
Este resultado debe conocerse de memoria.
2.4.2 Decisión binaria para observaciones de n-tuplas
Como en la subsección anterior, suponemos que H toma valores en {0,1}. Lo nuevo es que
las señales ahora son n-tuplas para n ≥ 1. Entonces, cuando H = 0, el transmisor envía
algunos Cargando… y cuando H = 1, envía Cargando…. El ruido agregado por el canal es
Cargando…e independiente de H.
De aquí en adelante, suponemos que el lector está familiarizado con las definiciones y los
resultados básicos relacionados con los vectores aleatorios gaussianos. (Consulte el
Apéndice 2.10 para una revisión.) También asumimos que estamos familiarizados con las
nociones de producto interno, norma y plano. (Ver Apéndice 2.12 para una revisión.) El
producto interno entre los vectores Cargando…se denotará por Cargando…, mientras que
Cargando… denota la norma de u. Haremos un uso extensivo de estas notaciones.
Aunque por ahora el espacio vectorial está sobre los reales, en el Capítulo 7 nos
encontraremos con espacios vectoriales complejos. Ya sea que el espacio vectorial esté
sobre R o sobre C, la notación es casi idéntica. Por ejemplo, si a y b son n-tuplas (columna)
en Cargando…, entonces Cargando…, donde † denota la transposición del conjugado.
La igualdad se mantiene incluso si a y b están en Cargando…, pero en este caso la
conjugación es intrascendente y podríamos escribir Cargando…, donde T denota
transposición. Por defecto, utilizaremos la notación más general para espacios vectoriales
complejos. Una igualdad que usaremos con frecuencia, por lo tanto, debe ser memorizada,
es
donde Cargando… denota la parte real del número complejo encerrado. Por supuesto,
podemos soltar el {·} para elementos de un espacio vectorial real. Como se hizo
anteriormente, para derivar una regla de decisión MAP, comenzamos escribiendo la
estadística de salida para cada hipótesis
O equivalente,
24
Tomando el logaritmo en ambos lados y usando (2.8), obtenemos
Observe la similitud con la expresión correspondiente del caso escalar. En cuanto al caso
escalar, movemos las constantes a la derecha y normalizamos para obtener
Donde
Por definición, estamos asignando los puntos de delimitación de un plano afín a Cargando…
, pero esta es una decisión arbitraria que no tiene ningún efecto en la probabilidad de error
porque la probabilidad de que Y esté en un plano afín dado es cero.
Obtenemos información geométrica adicional al considerar aquellos y para los
cuales (2.9) es constante. La situación se muestra en la Figura 2.7, donde la distancia
25
firmada p es positiva si la delimitación de un plano afín se encuentra en la dirección
apuntada por ψ con respecto a Cargando… y Cargando… es positiva si el plano afín se
encuentra en la dirección apuntada por −ψ con respecto a Cargando…. (En la figura,
ambos Cargando… son positivos.) Según el teorema de Pitágoras aplicado a los dos
triángulos rectángulos con borde común, para todos y en el plano afín, Cargando… es igual
a Cargando….
Tenga en cuenta que Cargando… están relacionados con η, Cargando…y Cargando… via
26
menos de la observación y más de lo anterior cuando la observación se vuelve
más ruidosa.
● Observe la similitud de (2.9) y (2.10) con (2.7). Esto sugiere una estrecha relación
entre el caso escalar y el vector. Podemos obtener información adicional colocando
el origen de un nuevo sistema de coordenadas en Cargando… y dejando que la
primera coordenada esté en la dirección de Cargando…, donde nuevamente
Cargando…. En este nuevo sistema de coordenadas, H = 0 se asigna al vector
y H = 1 se asigna a . Si
es la salida del canal en este nuevo sistema de coordenadas, . Esto
muestra que para una decisión binaria, el caso del vector es esencialmente el caso
escalar incrustado en un espacio n-dimensional.
27
2.4.3 m-ary para observaciones de n-tuplas
Cuando H = i, i ∈ H = {0, 1,. . ., m - 1}, la entrada del canal es ci ∈ Cargando…. Por ahora
nosotros
hacer la suposición simplificadora de que Cargando…(i) = Cargando…, que es una
suposición común
en comunicación. Más adelante veremos que generalizar es sencillo.
Cuando Y = y ∈ Cargando… la regla de decisión de ML es
Por lo tanto, una regla de decisión ML para el canal AWGN es una regla de decisión de
distancia mínima como se muestra en la Figura 2.8. Cargando… corresponde a la región de
Voronoi de Cargando…, definido como el conjunto de puntos en Cargando… que son al
menos tan cercanos a Cargando… como a cualquier otro Cargando….
Ejemplo 2.5 (m-PAM) La figura 2.9 muestra el conjunto de señales {c0, c1,. . . , c5} ⊂ R
para 6-ary PAM (modulación de amplitud de pulso). La figura también muestra las regiones
de decodificación de un Decodificador ML, suponiendo que el canal es AWGN. Los puntos
de señal son elementos de R, y el decodificador ML elige de acuerdo con la regla de
distancia mínima. Cuando la hipótesis es H = 0, el receptor toma la decisión equivocada si
la observación y ∈ R queda fuera de la región de decodificación Cargando… . Este es el
caso si el ruido Z ∈ R es mayor que Cargando…, donde d = Cargando… - Cargando…, i =
1,. . . , 5. Así
Por simetría, Pe(5) = Pe (0). Para i ∈ {1, 2, 3, 4}, la probabilidad de error cuando H = i es la
probabilidad de que el evento {Z ≥ Cargando…} ∪ {Z < -Cargando…} ocurre. Este evento
es la unión de eventos disjuntos. Su probabilidad es la suma de las probabilidades de la
eventos individuales Por lo tanto
28
Ejemplo 2.6 (m-QAM) F igura 2.10 muestra el set de señal Cargando… para 4-ary
modulación por amplitud de cuadratura (QAM). Consideramos las señales como puntos en
Cargando…. (Podríamos elegir considerar las señales como puntos en C, pero tenemos
que posponer esta vista hasta que sepamos cómo lidiar con el ruido de valor complejo). El
ruido es Cargando…, y el observable cuando H = i , es Y = ci + Z. Suponemos que el
receptor implementa una regla de decisión ML, que para el canal AWGN significa
decodificación de distancia mínima. La región de decodificación para Cargando… es el
primer cuadrante, para Cargando… el segundo cuadrante, etc. Cuando H = 0, el
decodificador toma la decisión correcta siCargando…Cargando…, donde es el mínimo
distancia entre puntos de señal. Esta es la intersección de eventos independientes. Por lo
tanto, la probabilidad de la intersección es el producto de la probabilidad de cada evento, es
decir
29
m-QAM se define para todos los m de la forma Cargando…, para j = 1, 2, .... Un ejemplo de
16-QAM se da más adelante en la Figura 2.22.
Ejemplo 2.7 En el ejemplo 2.6 hemos calculado Cargando… a través de Cargando…, pero
podríamos haber optado por calcular Pe (0) directamente. Aquí es cómo:
30
● Además del modelo de canal, los supuestos y el objetivo son los mismos: nosotros
supongamos que la estadística fuente, el transmisor y el canal s e dan a nosotros y
buscamos entender qué tiene que hacer el receptor para minimizar el error
probabilidad
● También estamos interesados en la probabilidad de error resultante.
3.1.1 Comunicación a través del canal AWGN de tiempo continuo.
figure 3.1
● El canal tenemos el aspecto más importante de todo el mundo real:
○ La presencia de ruido gaussiano (additive noise).
● Cada señal se mapea con una forma de onda Wi(t) continua
● Aunque nuestro enfoque principal está en el receptor, en este capítulo también
ganamos información valiosa sobre la estructura del transmisor. Primero
necesitamos introducir la noción de la energía de la señal y especificar dos
restricciones técnicas leves que imponemos en el conjunto de señales
W = {w0 (t),. . . , wm − 1 (t)}.
3.1.2 Ejemplos y Formulas
1. Ejemplo 3.1 Un cable es un buen ejemplo de un canal que puede ser modelado por
el canal AWGN de tiempo continuo. Si la respuesta de frecuencia del cable no puede
ser considerada como constante sobre el ancho de banda de la señal. Luego
considerar el efecto de filtrado del cable, que debe tenerse en cuenta. Discutimos
esto en la Sección 3.6.
Otro buen ejemplo es el canal entre la antena de un satélite geoestacionario y la
antena de la estación terrena correspondiente. Para la comunicación en cualquiera
dirección podemos considerar el modelo de la figura 3.1.
2. Ejemplo 3.2 Suponga que Wi(t) es el voltaje que alimenta la antena de un
transmisor cuando H = i. Una antena tiene una impedancia interna Z. Un valor
típico para Z es de 50 ohmios.
Suponiendo que Z es puramente resistiva,
● La corriente en el punto de alimentación es : Wi(t)/Z
31
● La energía es:
Concluimos que si una función continua tiene una vanishing norm, entonces la
función se desvanece en todas partes.
Todas las señales que representan señales de comunicación del mundo real son de energía
finita y continuo. Por lo tanto, el espacio vectorial que abarcan siempre es un espacio
interno del producto.
Este es un buen lugar para mencionar las diversas razones por las que estamos
interesados en energía de la señal o, de manera algo equivalente, en la potencia de la
señal, que es la energía por segundo.
Primero, para la seguridad y para la reutilización del espectro, existen regulaciones que
limitan el poder de una señal transmitida.
En segundo lugar, para dispositivos móviles, la energía de la señal transmitida proviene de
la batería: una carga de batería dura más si se disminuye la potencia de la señal.
En tercer lugar, sin limitación de la potencia de la señal, podemos transmitir a través de un
canal AWGN de tiempo continuo a cualquier velocidad deseada, independientemente del
ancho de banda disponible y de la probabilidad de error objetivo.
Por lo tanto, sería injusto para comparar métodos de señalización que no utilizan la misma
[Link] ahora, suponemos que W nos es dada. El problema de elegir un adecuado
conjunto W de señales se estudiará en capítulos posteriores.
32
3.1.5 Abstracción del canal de forma de onda.
FIGURA 3.2
Lo más destacado del capítulo es el poder de la abstracción. El diseño del receptor para el
canal AWGN de tiempo discreto se basó en ideas geométricas que se pueden formular
siempre que estemos en un espacio interno de productos. Usaremos las mismas ideas para
el canal AWGN de tiempo continuo.
El resultado principal es una descomposición del remitente y el receptor en el bloques de
construcción que se muestran en la Figura 3.2. Veremos que, sin pérdida de generalidad,
podemos (y deberíamos) pensar en el transmisor como un codificador que mapea el
mensaje i ∈ H en una n-tupla ci, como en el capítulo anterior, seguido por una forma de
onda anterior que mapea ci en una forma de onda wi (t). Del mismo modo, veremos que
el receptor puede consistir en un formador de n-tuplas que toma la salida del canal y
produce una n-tupla Y. El comportamiento de la entrada de forma de onda anterior a la
salida del formador de n-tuplas es la del canal AWGN de tiempo discreto considerado en el
capítulo previo.
Por lo tanto, ya sabemos lo que el decodificador de la Figura 3.2 debería hacer con la
salida del formador de n-tuplas.
3.1.8 Formalismo
33
3.2 Ruido Blanco Gaussiano
● El propósito de esta sección es presentar los conceptos básicos del ruido blanco
gaussiano N (t).
● El enfoque estándar es dar una descripción matemática de N(t), pero esto requiere
una teoría de la medida,si se hace rigurosamente.
● La buena noticia es que un modelo matemático N (t) no es necesario porque N (t) no
es observable a través de experimentos físicos (La razón se aclara en breve.)
● Nuestro enfoque es modelar lo que realmente podemos medir Asumimos un
conocimiento práctico vectores aleatorios de Gauss (revisados en el Apéndice 2.10).
● Un receptor es un instrumento eléctrico que se conecta a la salida del canal a través
de un cable. Por ejemplo, en la comunicación inalámbrica, podríamos considerar el
canal salida para ser la salida de la antena receptora; en cuyo caso, el cable es el
que conecta la antena al receptor.
● Un cable es un filtro lineal invariante en el tiempo. Por lo tanto, podemos suponer
que todas las observaciones realizadas por el receptor son a través de un filtro lineal
invariante en el tiempo.
● Entonces, si N(t) representa el ruido introducido por el canal, el receptor ve, en
mejor, una versión filtrada Z(t) de N(t).
● Modelamos Z(t) como un proceso estocástico y, como tal, se describe por la
estadística de Z(t1), Z (t2),. . . , Z (tk) para cualquier positivo entero k y cualquier
colección finita de tiempos de muestreo t1, t2,. . . tk.
● Si la respuesta al impulso del filtro es h(t), la teoría del sistema lineal sugiere que
y (3.1)
● pero la validez de estas expresiones debe justificarse, porque N(t) no es una señal
determinista.
● Es posible definir N(t) como un proceso estocástico y probar que la integral
(Lebesgue) en (3.1) está bien definida; pero evitamos este camino.
● "Z (ti) es la variable aleatoria que modela la salida en el momento ti de un filtro lineal
de respuesta al impulso invariante en el tiempo h (t) alimentado con blanco Ruido
gaussiano N (t) "
● Tenga en cuenta que h (ti −α) es una función de α que podemos renombrar
como gi (α). Ahora estamos en condiciones de definir el ruido gaussiano blanco.
34
3.2.1 Definición de ruido Gaussiano Blanco N(t)
N(t) es ruido blanco gaussiano de densidad espectral de potencia si, para cualquier
❏ Aclaraciones de (3.3):
● Si Zi y Zj son independientes covarianza = 0
● Covarianza es la esperanza de Zi, Zj
● Si i = j, entonces covarianza = (No/2)
● Zi y Zj son variables aleatorias discretas
● gi(t) es continua
● (No/2) Densidad de potencia de Ruido. Potencia en un ancho de banda
infinitesimal
Ejemplo 3.6: Considere dos filtros pasa banda que tienen respuesta a frecuencia no
superpuesta, pero son idénticas, es decir, si traducimos la frecuencia, la respuesta
en frecuencia de un filtro por la cantidad adecuada obtenemos la respuesta de
frecuencia del otro filtro. Por la relación de Parseval, las respuestas de impulso
correspondientes son ortogonales el uno al otro. Si alimentamos los dos filtros con
ruido blanco gaussiano y mostramos su salida (incluso en diferentes momentos),
obtenemos dos variables aleatorias Gaussianas iid. Podríamos extender el
35
experimento (de manera obvia) a n filtros de no superposición de respuestas de
frecuencia, y obtendrían n variables aleatorias que son iid - por lo tanto de la misma
varianza. Esto explica por qué el ruido se llama blanco: como para la luz blanca, el
ruido gaussiano blanco tiene su poder distribuido equitativamente entre todos
frecuencias
➢ ¿Hay otros tipos de ruido? Si. Por ejemplo, hay naturales y ruidos
electromagnéticos artificiales. El ruido producido por motores eléctricos y el
producido por líneas eléctricas son ejemplos de ruido artificial. El ruido artificial es
típicamente ni blanco ni gaussiano.
36
lo indica el teorema de muestreo, a partir de estas muestras podemos reconstruir la salida
del ltro. Si Cargando… consiste en una señal más ruido, y la señal está limitada en banda
a menos de B Hz, entonces a partir de las muestras podemos reconstruir la señal más la
parte del ruido que tiene componentes de frecuencia en Cargando….
Sea Cargando… el espacio interno del producto abarcado por los elementos del conjunto de
señales Cargando… y sea Cargando… una base ortonormal arbitraria para Cargando….
Afirmamos que la Cargando… Cargando…T con componenteCargando…
Debe quedar claro que podemos recuperar Cargando… de Cargando… y Cargando…. Esto
es así porque, a partir de las proyecciones sobre una base, podemos obtener la proyección
sobre cualquier forma de onda en el lapso de la base. Matemáticamente,
37
aleatoria se obtiene al "proyectar" el ruido en el elemento Cargando… de la base ortonormal
elegida para Cargando…. Usando la notación tupla, obtenemos la siguiente estadística
38
39
3.4 Arquitectura de transmisor y receptor
Los resultados de la sección anterior nos dicen que un receptor MAP para la forma de onda
del canal AWGN puede estructurarse como se muestra en la Figura 3.4.
● Vemos que el extremo frontal del receptor calcula a partir de R(t) en un
bloque que llamamos formador de n-tuplas. (el nombre no es estándar.) Por lo tanto,
el formador de n-tuplas realiza una gran reducción de datos desde la salida del canal
R(t) hasta la estadística suficiente Y
● El problema de la prueba de hipótesis basado en el observable Y es
40
● En realidad, el canal visto por el par codificador / decodificador es el resultado del
"servicio" proporcionado por el formador de forma de onda y el formador de n-tuplas.
● La descomposición anterior es útil para la concepción del sistema, para el
rendimiento análisis, así como para la implementación del sistema; pero claro,
siempre tiene la opción de implementar el transmisor como un mapa directo desde
conjunto de mensajes H al conjunto de formas de onda W sin pasar por el libro de
códigos C.
● Aunque un mapa tan recto es una posibilidad y tiene sentido para relativamente
sistemas poco sofisticados, la descomposición en un codificador y una forma de
onda anterior es estándar para diseños modernos. De hecho, la teoría de la
información, así como la teoría de la codificación, dedica mucha atención al estudio
de los pares codificador / decodificador.
El siguiente ejemplo pretende hacer dos puntos importantes que se aplican cuando nos
comunicamos a través del canal AWGN de tiempo continuo y hacemos una decisión ML
● Primero, los conjuntos de señales de tiempo continuo pueden "verse" muy
diferentes pero pueden compartir el mismo libro de códigos (CODEBOOK), que es
suficiente para garantizar que la probabilidad de error sea la misma
● Segundo, para las constelaciones binarias, lo que importa para La probabilidad de
error es la distancia entre las dos señales y nada más.
41
OPCIÓN 1:MODULACIÓN DE PULSO RECTANGULAR POR POSICIÓN
--->
-->
● Donde hemos usado la función indicadora 1 {t ∈ [a, b]} para denotar un pulso
rectangular que es 1 en el intervalo [a, b] y 0 en otro lugar.
● Los pulsos rectangulares pueden ser fácilmente generado, ej-> por un
interruptor(switch). Se utilizan, por ejemplo, para comunicar un binario. símbolo
dentro de un circuito eléctrico.
● Como veremos, en el dominio de frecuencia estos pulsos tienen lóbulos laterales
que se descomponen relativamente lento, lo que no es deseable para velocidad de
datos en un canal para el cual el ancho de banda es muy importante.
trigonométrica
OPCIÓN 3: MODULACIÓN POR PULSO DE POSICIÓN
● Una ventaja de los pulsos sinc es que tienen un soporte finito en el dominio de
frecuencia.
42
● Al tomar su transformación de Fourier, rápidamente vemos que son ortogonales el
uno al otro. Consulte el Apéndice 5.10 para más detalles.
computada como
43
3.4.2 Ejemplo 3.8 (Single-shot PAM)
● Sea ψ(t) un pulso de energía unitaria(ε=1). Hablamos de modulación de amplitud de
donde:
44
● En el ejemplo 2.15, ya hemos estudiado esta constelación para el Canal de tiempo
discreto AWGN.
● (Ya hemos establecido en el ejemplo 3.9 que ψ1 (t) y ψ2 (t) son ortogonales
entre sí y tienen una norma unitaria.) Si los componentes de Cargando…,
i = 0,. . . , m2 - 1, tome valores en algún subconjunto discreto de la forma {± a, ± 3a,
± 5a,. . . ,± (m - 1) a} para algunos positivos a, entonces
45
46
3.5 Generalización y estructuras receptoras alternativas.
● Es interesante explorar un refinamiento y una variación de la estructura del receptor
que se muestra en la figura 3.4. También generalizamos a una distribución de
mensajes arbitraria. Nosotros aprovechamos la oportunidad de revisar lo que
tenemos hasta ahora.
● La fuente produce H = i con probabilidad PH (i), i ∈ H. Cuando H = i, la salida del
canal es R(t) = wi(t) + N(t), donde wi(t) ∈ W = {Cargando…} es la constelación de
señales compuesta de señales de energía finita (conocida por el receptor) y N(t) es
ruido blanco gaussiano.
● A lo largo de este texto, hacemos el supuesto natural de que el espacio vectorial V
atravesado por W forma un espacio de producto interno (con el producto interno
estándar). Esto está garantizado si la señal cero es la única señal que tiene una
norma que desaparece, que siempre es el caso en situaciones del mundo real.
● Deje {ψ1 (t),. . . , ψn (t)} sea una base ortonormal para V. Podemos usar el
Procedimiento de Gram-Schmidt para encontrar una base ortonormal, pero a veces
podemos elegir uno más conveniente "a mano".
● En el receptor, obtenemos una estadística suficiente tomando el producto interno
de la señal recibida R(t) con cada elemento de la base ortonormal. El resultado es
47
● donde Cargando… .
● Un receptor MAP que observa Y = y decide Cargando… para uno de los i ∈ H que
maximizan Cargando… o cualquier función monotónica de los mismos. Ya que
Cargando… es una función exponencial de y, simplificamos la prueba tomando el
logaritmo natural. También eliminamos términos que no dependen de i y reescalar,
manteniendo en cuenta que si escalamos con un número negativo, tenemos que
cambiar la maximización en minimización.
● Si elegimos Cargando… negativo como factor de escala, obtenemos el primero de
las siguientes pruebas de MAP equivalentes:
(b)
Figura 3.6. Dos formas de implementar Cargando…, es decir, a través de un
correlacionador (a) y mediante un filtro coincidente (b) con la salida muestreada en el
tiempo T.
● Una vez que soltamos el operador Cargando…{·} (los vectores tienen un valor real),
elimine la constante Cargando…, escale por −1/2, obtenemos (ii).
● Las reglas (ii) y (iii) son equivalentes ya que:
● Las reglas MAP (i) - (iii) requieren realizar operaciones del tipo
(3.6)
48
● donde b (t) es alguna función (ψj (t) o wj (t)). Hay dos formas de implementar (3.6) La
forma obvia, que se muestra en la Figura 3.6a, es mediante el llamado
correlacionador.
● Un correlacionador es un dispositivo que multiplica e integra dos señales de entrada.
● La forma de implementar (3.6) es a través del llamado filtro combinado. Este es un
filtro que toma r(t) como entrada y tiene h(t) =Cargando… como respuesta al
impulso (Figura 3.6b), donde T es un parámetro de diseño arbitrario seleccionado de
tal manera que la respuesta al impulso h(t) sea causal.
● La salida del filtro adaptado y(t) es entonces:
49
Es instructivo trazar la salida del filtro adaptado como lo hacemos en el siguiente ejemplo.
Ejemplo 3.12 Suponga que las señales son Cargando… y Cargando…, donde Cargando…
es un número positivo y
50
La Figura 3.9 muestra los diagramas de bloques para la implementación de las tres reglas
MAP (i) - (iii). En cada caso, el extremo frontal se implementó mediante el uso de filtros
compatibles, pero también se podrían usar correlacionadores, como en la Figura 3.4. El uso
de filtros o correlacionadores compatibles depende de la tecnología y de las formas de
onda. Implementar un correlacionador en tecnología analógica es costoso. Pero, si el
procesamiento lo realiza un microprocesador que tiene suficiente potencia computacional,
entonces se puede hacer una correlación sin costo adicional de hardware. Nos
inclinaríamos por utilizar filtros adaptados si hubiera filtros fáciles de implementar de la
respuesta al impulso deseada. En el ejercicio 3.10 de este capítulo, damos un ejemplo en el
que los filtros coincidentes se pueden implementar con componentes pasivos.
51
Observe que la implementación inferior de la Figura 3.9 no requiere una base ortonormal ni
un conocimiento del libro de códigos, pero sí requiere Cargando… en lugar de Cargando…
filtros (o correlacionadores) coincidentes. Sabemos que m ≥ n, y a menudo Cargando… es
mucho más grande que Cargando…. Observe también que esta implementación no encaja
en la descomposición de la Figura 3.2. De hecho, el receptor evita la necesidad de la
Cargando…. Como subproducto, esto prueba que el rendimiento del receptor no se ve
afectado por la elección de una base ortonormal. En un sistema de comunicación típico,
Cargando… son muy grandes. Tan grande que no es realista tener Cargando… filtros
coincidentes (o correlacionadores). Incluso si no tenemos en cuenta el costo de los filtros
coincidentes, el número de operaciones requeridas por un decodificador que realiza una
búsqueda de "fuerza bruta" para encontrar el índice de minimización de distancia (o índice
de maximización del producto interno) es típicamente exorbitante. Veremos que las
elecciones de diseño inteligentes pueden reducir drásticamente la complejidad de un
receptor MAP. La equivalencia de las dos operaciones de la figura 3.6 es muy importante.
Debe ser conocido de memoria.
52
3.6 Canales de tiempo continuo revisitados
Cada canal agrega ruido y esto es lo que hace que el problema de comunicación
sea desafiante e interesante. De hecho, el ruido es la única razón por la cual hay una
limitación fundamental en la velocidad máxima a la que podemos comunicarnos de manera
confiable a través de un cable, una fibra óptica y la mayoría de los otros canales de interés
práctico. Sin ruido, podríamos transmitir de manera confiable tantos bits por segundo como
queramos, utilizando la menor cantidad de energía deseada, incluso en presencia de las
otras imperfecciones del canal que describimos a continuación.
Atenuación y amplificación, ya sea cableada o inalámbrica, un canal pasivo
siempre atenúa la señal. Para un canal inalámbrico, la atenuación puede ser de varios
órdenes de magnitud. Gran parte de la atenuación se compensa con una cascada de
amplificadores en la primera etapa del receptor, pero un amplificador escala tanto la señal
que transporta la información como el ruido, y agrega algo de ruido propio.
El hecho de que el extremo frontal del receptor incorpore una cascada de
amplificadores necesita alguna explicación. ¿Por qué debería amplificarse la señal si el
ruido se amplifica por el mismo factor? La primera respuesta a esta pregunta es que los
dispositivos electrónicos, como un formador de n-tuplas, están diseñados para procesar
señales eléctricas que se encuentran en un cierto rango de amplitudes. Por ejemplo, la
amplitud de la señal debe ser grande en comparación con el ruido agregado por el circuito.
Esto explica por qué la primera etapa de amplificación la realiza un denominado
amplificador de bajo ruido. Si la antena receptora está conectada al receptor a través de un
cable relativamente largo, como sería el caso de una antena exterior, entonces el
amplificador de bajo ruido generalmente se coloca entre la antena y el cable.
El amplificador de bajo ruido (o la etapa que lo sigue) contiene un filtro de reducción
de ruido que elimina el ruido fuera de banda. Con circuitos electrónicos perfectos, dicho filtro
es superfluo porque el ruido fuera de banda es eliminado por el formador de n-tuplas.
Pero el ruido fuera de banda aumenta la posibilidad de que los circuitos electrónicos,
hasta e incluyendo el formador de n-tuplas, se saturen, es decir, que la amplitud del ruido
exceda el rango que los circuitos pueden tolerar.
La siguiente etapa típica es el llamado amplificador de control automático de
ganancia (AGC), diseñado para llevar la amplitud de la señal al rango deseado. Por lo
tanto, el amplificador AGC introduce un factor de escala que depende de la intensidad de la
señal de entrada.
Para el resto de este texto, ignoramos las imperfecciones del hardware. Por lo tanto,
también podemos ignorar la presencia del amplificador de bajo ruido, del filtro de reducción
de ruido y del amplificador de control automático de ganancia. Si el canal escala la señal en
un factor Cargando…, el extremo frontal del receptor puede compensar escalando la señal
recibida enCargando…, pero el ruido también se escala en el mismo factor. Esto explica por
qué, al evaluar la probabilidad de error asociada a un esquema de señalización, a menudo
consideramos modelos de canal que solo agregan ruido. En tales casos, el factor de escala
Cargando… se explica implícitamente en el parámetro de ruido Cargando…. Un ejemplo de
cómo determinar Cargando… se da en el Apéndice 3.11, donde elaboramos un estudio de
caso basado en la comunicación satelital.
Retraso de propagación y desalineación del reloj. El retraso de propagación se
refiere al tiempo que tarda una señal en llegar a un receptor. Si el conjunto de señales es
53
Cargando…y el retardo de propagación es τ, entonces para el receptor es como si el
conjunto de señales fuera Cargando…. La suposición común es que el receptor no conoce
Cargando… cuando comienza la comunicación. Por ejemplo, en la comunicación
inalámbrica, un receptor no tiene forma de saber que el retraso de propagación ha
cambiado porque el transmisor se movió mientras estaba apagado. Es responsabilidad del
receptor adaptarse al retraso de propagación. Llegamos a la misma conclusión cuando
consideramos el hecho de que los relojes de diferentes dispositivos a menudo no están
sincronizados. Si el reloj del receptor lee Cargando… cuando el del transmisor lee
Cargando…, entonces, una vez más, para el receptor, el conjunto de señales es
Cargando… para algún desconocido Cargando…. La contabilidad de la Cargando…
desconocida en el receptor va bajo el nombre general de sincronización de reloj. Por
razones que quedarán claras, el problema de sincronización del reloj se descompone en la
sincronización de símbolos y en los problemas de sincronización de fase, discutidos en las
Secciones 5.7 y 7.5. Hasta entonces y, a menos que se especifique lo contrario, suponemos
que no hay retraso de propagación y que todos los relojes están sincronizados.
Filtrado en la comunicación inalámbrica, debido a los reflejos y las diámetros en
los obstáculos, la señal electromagnética emitida por el transmisor llega al receptor a través
de múltiples caminos. Cada camino tiene su propio retraso y atenuación. Si se transmite
Cargando…, la salida de la antena del receptor tiene la forma Cargando… más ruido, donde
Cargando… y Cargando… son el retardo y la atenuación a lo largo de la Cargando… ruta. A
diferencia de un espejo, la superficie rugosa de ciertos objetos crea una gran cantidad de
pequeños reflejos que se explican mejor por la forma integral Cargando…más ruido. Esto es
lo mismo que decir que el canal contiene un filtro de respuesta de impulso Cargando…. Por
una razón diferente, el mismo modelo de canal se aplica a la comunicación por cable. De
hecho, debido a la dispersión, la salida del canal a un pulso de energía unitaria aplicado a la
entrada en el tiempo Cargando… es un impulso respuesta Cargando…. Debido a la
linealidad del canal, la salida debida a Cargando…. en la entrada es, una vez más,
Cargando… dτ más ruido.
Las posibilidades que tenemos para hacer frente al filtrado de canales dependen de
si la respuesta de impulso del canal es conocida solo por el receptor, tanto por el transmisor
como por el receptor, o por ninguno de los dos. A menudo es realista suponer que el
receptor puede medir la respuesta al impulso del canal. El receptor puede comunicarlo al
transmisor a través del enlace de comunicación invertido (si existe). Por lo tanto, no es el
caso que solo el transmisor conozca la respuesta al impulso del canal.
Si el transmisor usa el conjunto de señales Cargando… y el receptor conoce
Cargando…, desde el punto de vista del receptor, el conjunto de señales es ˜ Cargando…
con su señal y el canal solo agrega ruido gaussiano blanco. Este es el caso
familiar. Siendo realistas, el receptor conoce en el mejor de los casos una estimación
de Cargando… y la usa como la respuesta de impulso del canal real.
La situación más difícil ocurre cuando el receptor no sabe y no puede estimar h (t).
Esta es una suposición realista en la comunicación en ráfagas, cuando una ráfaga es
demasiado corta para que el receptor pueda estimar h (t) y la respuesta al impulso cambia
de una ráfaga a la siguiente.
La situación más favorable ocurre cuando tanto el receptor como el transmisor
conocen h (t) o una estimación del mismo. Típicamente, es el receptor el que estima la
54
respuesta al impulso del canal y la comunica al transmisor. Esto requiere comunicación
bidireccional, que normalmente está disponible. En este caso, el transmisor puede adaptar
la constelación de señal a la característica del canal. Podría decirse que la mejor estrategia
es el llamado llenado de agua (véase, por ejemplo, [19]) que se puede implementar a través
de la multiplexación por división de frecuencia ortogonal (OFDM).
Asumimos que la respuesta al impulso del canal caracteriza el filtrado del canal
durante la transmisión. Si el transmisor y / o el receptor se mueven, lo que suele ser el caso
en la comunicación móvil, entonces el canal sigue siendo lineal pero varía en el tiempo. Los
excelentes libros de texto para graduados que discuten este tipo de canal son [2] y [17].
Ruido gaussiano coloreado, Podemos pensar en el ruido coloreado como ruido
blanco filtrado. Es seguro asumir que, sobre el rango de frecuencia de interés, es decir, el
rango de frecuencia ocupado por las señales portadoras de información, no hay un intervalo
de longitud positiva sobre el cual no haya ruido. (Un intervalo de frecuencia sin ruido es
físicamente injustificable y, si insistimos en un modelo de canal de este tipo, ya no tenemos
un problema de comunicación interesante porque podemos transmitir infinitamente muchos
bits sin errores al señalar dónde no hay ruido). Por lo tanto, suponemos que la respuesta de
frecuencia del filtro de conformación de ruido no puede desaparecer en un intervalo de
longitud positiva en el rango de frecuencia de interés. En este caso, podemos modificar el
filtro de reducción de ruido mencionado de tal manera que, en el rango de frecuencia de
interés, tenga la respuesta de frecuencia inversa del filtro de conformación de ruido.
El ruido a la salida del filtro de reducción de ruido modificado, llamado filtro de
blanqueamiento, es de media cero, gaussiano y blanco (en el rango de frecuencia de
interés). La probabilidad mínima de error con el filtro de blanqueamiento no puede ser
mayor que sin él, porque el filtro es invertible en el rango de frecuencia de interés. Lo que
ganamos con el filtro de blanqueamiento de ruido es que volvemos a la situación familiar.
[Link]
55
Preguntas CAPITULO 3
56
V, V , F, F ,F
1. Seleccione la/s opciones correctas
a. Si N(t) representa el ruido introducido por el canal, el receptor ve en el peor
de los casos una versión filtrada Z(t) de N(t) (ve siempre eso) FALSO
b. Un receptor MAP que observa Y = y decide H^ = i para uno de los i ∊ H que
minimizan PH(i) | H(y|i) o cualquier funcion monotonica de los mismo FALSO
c. Para las constelaciones binarias, lo que importa para la probabilidad de error
es la distancia entre las dos señales y nada más. VERDADERO PAG 103
d. Cargando…es la variable aleatoria que modela la salida en el tiempo ti de un
Filtro lineal de respuesta al impulso invariante en el tiempo h(t) alimentado
con ruido gaussiano blanco Cargando… VERDADERO
57
La figura 3.9 del libro de Bixio Rimoldi (pág. 110) corresponde a un receptor MAP.
Ambas implementaciones no son utilizadas en la realidad, esto se debe a que (Elija la/s
correcta):
1)Como el valor de n y m son valores muy grandes en la realidad se necesitaría un
número muy grande de correladores o filtros apareados para su implantación.
2)No es posible determinar si el ruido a la entrada es blanco.
3)La consigna es incorrecta debido a que si es posible implementar en la realidad
con filtros apareados y muestreadores.
4)Ninguna es de las anteriores es correcta.
Respuesta correcta 1. Pag 111 Bixio Rimoldi: "In a typical communication system, n
and m are very large. So large that it is not realistic to have n or m matched filters (or
correlators)".
58
59
Defina ruido gaussiano blanco y cual es su densidad espectral de potencia:
Procesos Estocásticos
Procesos Estacionarios
● una definición simple de proceso estocástico estacionario, es cuando la
distribución de probabilidad conjunta de cualquier parte de la secuencia de
variables aleatorias es invariante en el tiempo.
F(Zt,Zt+1,....,Zt+k ) = F(Zt+tau,Zt+1+tau,....,Zt+k+tau)
Proceso estocástico no estacionario
60
● Un proceso estocástico no estacionario es aquel cuya distribución de
probabilidad varía de forma no constante. Tanto la variabilidad, como la media,
cambian a lo largo del tiempo.
5 Símbolo por símbolo en un tren de pulsos (revisión de la segunda
capa).
5.1 Introducción.
ejemplo 5.1 (señalización PAM) La señalización PAM (PAM para abreviar) es, de hecho,
símbolo por símbolo en un tren de pulsos, con los símbolos tomando valor en un alfabeto
PAM como se describe en la Figura 2.9. Depende del codificador si se permiten o no todas
las secuencias con símbolos que toman valor en el alfabeto PAM dado. Como veremos en
el Capítulo 6, podemos disminuir la probabilidad de error permitiendo solo un subconjunto
de las secuencias.
Hemos visto el acrónimo PAM en tres contextos que están relacionados pero que no
deben confundirse. Vamos a revisarlos.
61
(i) Alfabeto PAM como la constelación de puntos de la figura 2.9.
(ii) PAM de disparo único como en el ejemplo 3.8. Hemos visto que este método de
señalización no es apropiado para transmitir muchos bits. Por lo tanto, no lo discutiremos
más.
(iii) Señalización PAM como en el Ejemplo 5.1. Este es símbolo por símbolo en un
tren de pulsos con símbolos que toman valor en un alfabeto PAM. Comentarios similares se
aplican a QAM y PSK, siempre que veamos sus alfabetos como subconjuntos de C en lugar
de R2. La razón por la cual es conveniente hacerlo quedará claro en el Capítulo 7.
Como ya se mencionó, la mayoría de los sistemas de comunicación modernos
dependen de la señalización PAM, QAM o PSK. En este capítulo aprendemos la
herramienta principal para diseñar el pulso Cargando….
El capítulo está organizado de la siguiente manera. En la Sección 5.2, desarrollamos
un caso especial instructivo donde el canal está estrictamente limitado en banda y
re-descubrimos símbolo por símbolo en un tren de pulsos como una técnica de señalización
natural para esa situación. Esto también forma la base para la radio definida por software.
En la Sección 5.3 derivamos la expresión para la densidad espectral de potencia de la señal
transmitida para un pulso arbitrario cuando la secuencia de símbolos constituye un proceso
estacionario de sentido amplio de tiempo discreto. Como vista previa, descubrimos que
cuando los símbolos no están correlacionados, lo que es frecuente, el espectro es
proporcional a Cargando…. En la Sección 5.4, derivamos la condición necesaria y suficiente
en Cargando… para que Cargando… sea un conjunto ortonormal cuando Cargando…. (La
condición es que Cargando… cumple el llamado criterio de Nyquist).
62
Teorema 5.2 (Teorema de muestreo). Sea Cargando… una función Cargando…
continua (posiblemente de valor complejo) y deje que su transformada de Fourier
Cargando…) desaparezca para Cargando…. Entonces Cargando… puede reconstruirse a
partir de la secuencia de muestras espaciadas en T, Cargando… con n ∈ Z, siempre que
Cargando…. Específicamente,
63
muestreo, es puesta a cero en todos los puntos de muestreo. Una vez más, la transformada
de Fourier de la señal modificada es idéntica a la de la señal original. Sin embargo, cuando
muestreamos la señal modificada y utilizamos las muestras en la "fórmula de
reconstrucción", obtenemos la señal de todo cero.
El pulso sinc utilizado en la declaración del teorema de muestreo no está
normalizado a unidad de energía. Si lo normalizamos, definimos específicamente
Cargando…, entonces Cargando… forma un conjunto ortonormal. (Esto está implícito en el
Teorema 5.6. El lector impaciente puede verificarlo mediante un cálculo directo, utilizando la
relación de Parseval. Los hechos útiles sobre la función sinc y su transformación de Fourier
se encuentran en el Apéndice 5.10.) Por lo tanto (5.2) puede reescribirse como
donde Cargando…. Por lo tanto, una señal Cargando… que cumple las condiciones
del teorema de muestreo es una que vive en el espacio interno del producto abarcado por
Cargando…. Cuando muestreamos dicha señal, obtenemos (hasta un factor de escala) los
coeficientes de su expansión ortonormal con respecto a la base ortonormal Cargando….
Ahora volvamos a nuestro problema de comunicación. Acabamos de ver que
cualquier señal física (continua y Cargando…) Cargando… que no tenga energía fuera del
rango de frecuencia [−B, B] puede sintetizarse como Cargando…. Esta señal tiene
exactamente la forma de símbolo por símbolo en un tren de pulsos. Para implementar este
método de señalización, dejamos que la salida del codificador Cargando… seaCargando…,
y que el formador de formas de onda sea definida por el pulso Cargando…. El formador de
onda, el canal y el formador de n-tuplas se muestran en la Figura 5.2.
Es interesante observar que usamos el teorema de muestreo algo al revés, en el
siguiente sentido. En una aplicación típica del teorema de muestreo, el primer paso consiste
en muestrear la señal fuente, luego las muestras se almacenan o transmiten, y finalmente la
señal original se reconstruye a partir de las muestras. Por el contrario, en el diagrama de la
Figura 5.2, el transmisor realiza la (re) construcción como primer paso, se transmite la señal
(re)construida y finalmente el receptor realiza el muestreo.
Observe también que Cargando…(la función sinc es par y de valor real) y su
transformación de Fourier es
64
(El apéndice 5.10 explica un método sin esfuerzo para relacionar el rectángulo y el
sinc como pares de Fourier). Por lo tanto, el matched filter en el receptor es un filtro de paso
bajo. Hace exactamente lo que parece ser lo correcto: eliminar el ruido fuera de banda.
donde:
65
● es una función arbitraria de (no necesariamente normalizada u ortogonal
su tiempo espaciado en T se traduce), y Cargando…es un dither aleatorio (o
retraso) independiente de y distribuido uniformemente en el intervalo
[0, T). (Ver Apéndice 5.13 para una breve revisión de los procesos estocásticos).
La inserción del dither aleatorio Cargando…, no considerado hasta ahora en el
modelo de nuestra señal, necesita ser justificado.
Esté Modela el hecho de que un transmisor está encendido a la vez que es desconocido
para un observador interesado en medir la PSD de la señal. Por esta razón y debido al
retraso de propagación, el observador no tiene información sobre la posición relativa de la
señal con respecto a su propio eje de tiempo. El dither modela esta incertidumbre. Hasta
ahora, no hemos insertado el tramado porque lo hicimos no quiero hacer que el modelo de
la señal sea más complicado de lo necesario. Después de tiempo de observación
suficientemente largo, el receptor previsto puede estimar el tramado y compensarlo (ver
Sección 5.7).
Desde un punto de vista matemático, el dither hace que X (t) sea un proceso WSS, lo que
simplifica enormemente nuestra derivación del densidad espectral de potencia.
66
donde en (a) usamos el hecho de que son variables aleatorias
independientes, en (b) hacemos el cambio de la variable k = i - j, y en (c) usamos el hecho
de que para una función arbitraria un número arbitrario y un positivo
(longitud del intervalo) b
(Si (5.6) no está claro para usted, la imagen se integra de a a a + 2b integrando primero de
a a a + b, luego de a + b a a + 2b, y sumando los resultados. Este es el lado derecho. Ahora
considere integrar ambos tiempos de a a + b, pero antes realiza la segunda integración,
desplaza la función a la izquierda con b. Esto es el lado izquierdo)
67
Esto se desprende de Parseval relación,
La expresión anterior está en una forma que nos conviene. En muchas situaciones, el
infinito sum solo tiene un pequeño número de términos distintos de cero. Tenga en cuenta
Sería bueno tener una caracterización de con el que es fácil trabajar y que
68
La forma del lado izquierdo sugiere usar la relación de Parseval. Haciéndolo rendimientos
donde en (a) usamos nuevamente (5.6) (pero en la otra dirección), en (b) usamos el hecho
Observe que g (f) es una función periódica del período 1 / T y el lado derecho de (c) es
1 / T veces el enésimo coeficiente de la serie de Fourier A n de la función periódica g (f).
(UNA La revisión de las series de Fourier se da en el Apéndice 5.11.) Porque A 0 = T y A k
= 0 para k = 0, la serie de Fourier de g (f) es la constante T. Hasta un tecnicismo discutido a
continuación, esto prueba el siguiente resultado.
69
Teorema 5.6 (criterio de Nyquist para pulsos ortonormales)
período 1 / T. Por lo tanto, para verificar que cumple el criterio de Nyquist con
el parámetro T, es suficiente para verificar que (5.13) se mantiene durante un intervalo de
longitud 1 / T
ejemplo 5.7
Las siguientes funciones satisfacen el criterio de Nyquist con parámetro T.
70
Los siguientes comentarios están en orden.
(a) (Constante pero no T) ψ (t) es ortogonal a su tiempo espaciado en T se traduce
incluso cuando el lado izquierdo de (5.13) es L2 equivalente a una constante distinta
de T, pero en este caso Este es un problema menor, solo tenemos
que escalar el pulso para hacerlo unidad-norma.
con Nyquist es
Cuales son las dos características de los pulsos continuos que hemos analizado?
● la densidad espectral de potencia debe ser: E |ψF(f)|^2 /T
● Deben ser ortogonales a sus tiempos traducidos de espacio T.
Se X variable aleatoria que toma valores en un alfabeto {x1, x2} con probabilidades
p(x1) y p(x2) Como se calcula su potencia?
727
72
77
77
77
77
71
77
7 ψ F (1 -) 7 + 7 ψ F (1 +) 7 = T,
77
77
77
77
2T
2T
1
.
∈ 0,
2T
1
Esto significa que | ψ F (2T
) | 2 = T 2 y la cantidad por la cual la función
1
1
2
a f = 2T
- es compensado por
| ψ F (f) | varía cuando pasamos de f = 2T
1
1
+. Por ejemplo
la variación de la función al pasar de f = 2T a f = 2T
de tal simetría de borde de banda, ver Figura 5.3, Figura 5.6a y las funciones
1
a veces se llama
(b) y (c) en el ejemplo 5.7. El ancho de banda B N = 2T
Ancho de banda de Nyquist.
73
Codificación convolucional y decodificación de Viterbi: Primera
capa revisitada
Introducción
En este capítulo cambiamos el foco al par codificador / decodificador. La configuración
general es el de la Figura 6.1, donde N (t) es ruido gaussiano blanco de densidad
espectral de potencia N0 / 2. Los detalles del formador de forma de onda y el formador de
n-tuplas son irrelevantes para este capitulo El hecho importante es que el modelo de canal
del codificador la salida a la entrada del decodificador es el canal AWGN discreto de
variación de ruido σ2 = N0 / 2.
El estudio de los métodos de codificación / decodificación ha sido un área de investigación
activa. desde la segunda mitad del siglo XX. Se llama teoría de la codificación. Allí
Hay muchas técnicas de codificación, y una introducción general a la codificación puede
fácilmente ocupar un curso de posgrado de un semestre.
Aquí solo consideraremos un ejemplo de una técnica llamada codificación convolucional.
Al considerar un ejemplo específico, Podemos simplificar considerablemente la notación.
Como se ve en los ejercicios, aplicar Las técnicas aprendidas en este capítulo para otros
codificadores convolucionales son bastante sencillo. Elegimos la codificación convolucional
por dos razones: (i) está bien adecuado junto con el canal AWGN de tiempo discreto; (ii)
nos permite Introducir varias herramientas instructivas y útiles, en particular el algoritmo de
Viterbi para hacer decodificación de máxima probabilidad y generar funciones para el límite
superior del probabilidad de error de bit
El Codificador - Encoder
El codificador es el dispositivo que toma el mensaje y produce la palabra de código. En En
este capítulo, el mensaje consiste en una secuencia (b1, b2,..., bk) de fuente binaria
símbolos Para comparar bit por bit en un tren de pulsos, dejamos que las palabras de
código consisten en símbolos que tienen valor en
74
Para simplificar la descripción de la codificador, dejamos que los símbolos fuente tomen
valor en {± 1} (en lugar de en {0, 1}). por la misma razón, factorizamos de la salida del
codificador. Por eso declaramos la salida del codificador será la secuencia (x1, x2,..., xn)
Para producir x1 y x2, el codificador necesita b−1 y b0, que se supone que son 1 por
defecto.
El circuito que implementa el codificador convolucional se muestra en la Figura 6.2, donde
"×" denota la multiplicación en R. Un registro de desplazamiento almacena las dos últimas
entradas. Como implican los índices de x2j − 1, x2j, las dos salidas del codificador
producidas durante una época se transmiten secuencialmente.
Observe que la salida del codificador tiene una longitud n = 2k. El siguiente es un ejemplo
de una secuencia fuente de longitud k = 5 y la secuencia de salida del codificador
correspondiente de longitud n = 10.
75
Debido a que los símbolos de salida del codificador n = 2k están determinados por la
entrada k bits, solo 2k de las 2n secuencias de son palabras clave. Por lo tanto,
usamos solo uno fracción 2k / 2n = 2 - k de todas las posibles secuencias de entrada de
canal de longitud n. Comparado con poco a poco en un tren de pulsos, estamos
renunciando a un factor dos en la tasa de bits para hacer que el espacio de la señal sea
mucho menos concurrido, con la esperanza de que esto reduzca significativamente la
probabilidad de error.
Ya hemos visto dos formas de describir el codificador (el mapa de codificación y El circuito
de codificación). Una tercera forma, útil para determinar la probabilidad de error, es El
diagrama de estado en la Figura 6.3. El diagrama describe una máquina de estados finitos.
la El estado del codificador convolucional es lo que el codificador necesita saber sobre el
pasado. entradas para estado y entrada actual para determinar la salida actual. por
el codificador convolucional en la figura 6.2, el estado en el tiempo j se puede definir como
(bj - 1, bj - 2). Por lo tanto tenemos cuatro estados.
Como muestra el diagrama, hay dos posibles transiciones para cada estado. el símbolo de
entrada bj decide cuál de las dos transiciones se toma durante la época j.
Las transiciones están etiquetadas por bj | x2j - 1, x2j. Para ser coherente con el valor
predeterminado b - 1 = b0 = 1, el estado es (1, 1) cuando b1 ingresa al codificador.
La opción de dejar que los símbolos de entrada y salida del codificador sean los elementos
de {± 1} no es estándar. La mayoría de los autores eligen el alfabeto de entrada / salida
para ser {0, 1} y use el módulo de suma 2 en lugar de la multiplicación sobre R. En este
caso, un
El mapeo sin memoria en la salida del codificador transforma el alfabeto símbolo de
{0, 1} a {± √Es}. La notación es diferente pero el resultado final es el mismo. los La elección
que hemos hecho es más adecuada para el canal AWGN. El inconveniente de Esta opción
es que es menos evidente que el codificador es lineal. En el ejercicio 6.12 nosotros
establecer el vínculo entre los dos puntos de vista y en el ejercicio 6.5 probamos de
primeros principios de que el codificador es de hecho lineal. En cada época, el codificador
convolucional que hemos elegido tiene k0 = 1 símbolo entrando y n0 = 2 símbolos saliendo
del codificador. En general, un convolucional el codificador se especifica mediante (i) el
número k0 de símbolos fuente que ingresan al codificador en cada época (ii) el número n0
de símbolos producidos por el codificador en cada época, donde n0> k0; (iii) la longitud de
restricción m0 definida como el número de entrada k0-tuplas utilizadas para determinar una
salida n0-tupla; y (iv) la función de codificación, especificado, por ejemplo, por una matriz k0
× m0 de 1s y 0s para cada componente de la salida n0-tupla. La matriz asociada a un
componente de salida especifica qué las entradas se multiplican para obtener esa salida. En
nuestro ejemplo, k0 = 1, n0 = 2, m0 = 3, y la función de codificación se especifica mediante
[1, 0, 1] (para el primer componente de la salida) y [1, 1, 1] (para el segundo componente).
(Ver las conexiones que determine la salida superior e inferior en la Figura 6.2.) En nuestro
caso, los elementos de las tuplas de salida n0 se serializan en una sola secuencia que
consideramos la salida real del codificador, pero hay otras posibilidades. Por ejemplo,
podríamos tomar el par x2j − 1, x2j y mapearlo en un elemento de una constelación 4-PAM.
76
The decoder
Un decodificador de máxima verosimilitud (ML) para el canal AWGN de tiempo discreto
decide para (una de) la secuencia de salida del codificador x que maximiza
Para encontrar una x que maximice x, y, en principio podríamos calcular x, y para todos los
2k secuencias que puede producir el codificador. Este enfoque de fuerza bruta
Ser bastante poco práctico. Como ya se mencionó, si k = 100 (que es relativamente
modesto valor para k), 2k = (210) 10, que es aproximadamente (103) 10 = 1030. Un chip
VLSI que hace 109 productos internos por segundo, toma 1021 segundos para verificar
todas las posibilidades. Esto es aproximadamente 4 × 1013 años. ¡El universo tiene "solo"
aproximadamente 2 × 1010 años!
Deseamos un método que encuentre una x de maximización con varias operaciones
que crece linealmente (en lugar de exponencialmente) en k. Veremos que el llamado
El algoritmo de Viterbi logra esto.
Para describir el algoritmo de Viterbi (VA), presentamos una cuarta forma de describir un
codificador convolucional, a saber, el enrejado. El enrejado es una transición desplegada
diagrama que realiza un seguimiento del paso del tiempo. Para nuestro ejemplo, si
suponemos que comenzamos en el estado (1, 1), que la secuencia fuente es b1, b2,. . . ,
b5, y que completamos la transmisión alimentando el codificador con dos "bits ficticios"
b6 = b7 = 1 que hacen que el codificador se detenga en el estado inicial, obtenemos el
enrejado descripción que se muestra en la parte superior de la Figura 6.4, donde un borde
(transición) de un estado en profundidad j a un estado en profundidad j + 1 está etiquetado
con la salida del codificador correspondiente x2j − 1, x2j. La entrada del codificador que
corresponde a un borde es el primer componente del próximo estado.
Existe una correspondencia uno a uno entre la secuencia de entrada del codificador b, un
secuencia de salida del codificador x, y una ruta (o secuencia de estado) que comienza en
la inicial estado (1, 1) (estado izquierdo) y termina en el estado final (1, 1) (estado derecho)
del enrejado
77
Por lo tanto, podemos referirnos a una ruta por medio de una secuencia de entrada, una
secuencia de salida o una secuencia de estados.
Para decodificar usando el algoritmo de Viterbi, reemplazamos la etiqueta de cada borde
con la métrica de borde (también llamada métrica de rama) calculada de la siguiente
manera. El borde con
x2j − 1 = a y x2j = b, donde a, b ∈ {± 1}, se le asigna la métrica de borde ay2j − 1 + by2j.
Ahora, si sumamos todas las métricas de borde a lo largo de una ruta, obtenemos la métrica
de ruta
x, y.
ejemplo
DEFINICIONES VITERBI
METRICA DE RAMA: Es asignada a cada transición o rama teniendo en cuenta las salidas
producidas (X2j-1 y X2j) que pueden ser 1 o -1 y la entrada del decodificador ( y ) para ese
instante j. Entonces a la rama con X2j-1 = a y x2j=b se le asigna la métrica → a y2j-1 + b
y2j
METRICA DE CAMINO: Es la suma de todas las métricas de rama a lo largo de un camino
específico en el diagrama de trellis.
DETH O PROFUNDIDAD: Se refiere al instante de tiempo o índice discreto del estado j,
indica que tanto se avanzó en la secuencia
TRACEBACK: Es la operación de recuperar volviendo hacia atrás desde el ultimo j (máxima
profundidad ), el camino original decodificado (x), Consiste en elegir el estado anterior con
la mayor métrica de rama y seguir hasta el primer estado.
CAMINO SOBREVIVIENTE
78