0% encontró este documento útil (0 votos)
25 vistas79 páginas

Diseño de Receptores en Comunicación Digital

Cargado por

Franco Rodriguez
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
25 vistas79 páginas

Diseño de Receptores en Comunicación Digital

Cargado por

Franco Rodriguez
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

​1​ Libro “introducción y objetivos” 3

​1.1​ Introducción 3
​1.1.1​ Transmisor 4
​1.1.2​ Canal 5
​1.1.3​ Receptor 5
​1.2​ Perspectiva histórica 5
​1.3​ El modelo OSI 7
​1.4​ Resumen 10

​2​ Diseño de receptor para observaciones en tiempo discreto: (Primera capa) 11


​2.1​ Introducción 11
​2.1.1​ Fuente: 11
​2.1.2​ Transmisor: 12
​2.1.3​ Canal: 12
​2.1.4​ Receptor: 13
​2.2​ Prueba de Hipótesis 13
​2.2.1​ Test de Hipótesis Binario 16
​[Link]​ MAP TEST 16
​2.2.2​ Prueba de hipótesis m-ary 19
​2.3​ La función Q 20
​2.4​ Diseño del receptor para el canal AWGN de tiempo discreto 21
​2.4.1​ Decisión binaria para observaciones escalares 22
​2.4.2​ Decisión binaria para observaciones de n-tuplas 24
​2.4.3​ m-ary para observaciones de n-tuplas 28
PREGUNTAS UNIDAD 2 30

​3​ Diseño del receptor para el AWGN de tiempo continuo canal: (Segunda capa) 30
​3.1​ Introducción 30
​3.1.1​ Comunicación a través del canal AWGN de tiempo continuo. 31
​3.1.2​ Ejemplos y Formulas 31
​3.1.4​ Restricciones sobre alfabeto de Wi(t) 32
​3.1.5​ Abstracción del canal de forma de onda. 33
​3.1.8​ Formalismo 33
​3.2​ Ruido Blanco Gaussiano 34
​3.2.1​ Definición de ruido Gaussiano Blanco N(t) 35
​3.3​ Estadísticas suficientes y Observables 36
​3.4​ Arquitectura de transmisor y receptor 40
​3.4.1​ Ejemplo 3.7 (Señales Ortogonales) 41
​3.4.2​ Ejemplo 3.8 (Single-shot PAM) 44
​3.4.3​ Ejemplo 3.9 (Single-shot PSK) 44
​3.4.4​ Ejemplo 3.10 (QAM de disparo único) 45
​3.5​ Generalización y estructuras receptoras alternativas. 47
​3.6​ Canales de tiempo continuo revisitados 53

Preguntas CAPITULO 3 56

Procesos Estocásticos 60
Procesos Estacionarios 60

​5​ Símbolo por símbolo en un tren de pulsos (revisión de la segunda capa). 61


​5.1​ Introducción. 61
​5.2​ El caso del filtro pasabajo ideal. 62
​5.3​ Densidad espectral de potencia (PSD) 65
Criterio de Nyquist para bases ortonormales 68
PREGUNTAS UNIDAD 5 71

Codificación convolucional y decodificación de Viterbi: Primera capa revisitada 74


Introducción 74
El Codificador - Encoder 74
The decoder 77

1
2
​1​ Libro “introducción y objetivos”
​1.1​ Introducción
● La comunicación digital es un campo en el que las ideas teóricas han tenido un
impacto inusualmente poderoso en el diseño y la práctica del sistema. La base de la
teorı́a fue desarrollada en 1948 por ​Claude Shannon​, y se llama teorı́a de la
información.
● Un sistema de comunicación transmite información desde su origen a un destino a
través de una distancia determinada. Hay tantas aplicaciones diferentes de los
sistemas de comunicación que no podemos intentar cubrir todos los tipos, ni
tampoco podemos discutir en detalle todas las partes individuales que componen un
sistema especı́fico.
● Incluye numerosos componentes que funcionan en toda la gama del campo de la
ingenierı́a electrónica - electrónica, electromagnetismo, procesamiento de señales,
microprocesadores y redes de comunicación, para nombrar algunos de los
relevantes. Además, un tratamiento pieza por pieza oscurece el punto esencial de lo
que es un sistema de comunicación, un todo integrado que realmente excede la
suma de sus partes.
● En general, un sistema de comunicación puede ser representado por el diagrama de
bloques funcionales como el siguiente:

El corazón del sistema de comunicación consta de tres partes básicas: el ​transmisor​, el


canal y el ​receptor​. Las funciones desempeñadas por estos tres se describen a
continuación:
● La salida de la fuente de información puede ser una señal analógica, como una
señal de audio o vı́deo, o una señal digital, como la salida de una computadora, que
sea discreta en el tiempo y tiene un número finito de caracteres de salida. En un
sistema de comunicación digital, los ​mensajes producidos por la fuente se
convierten en una secuencia de dı́gitos binarios.
● Idealmente, nos gustarı́a representar la salida de la fuente (mensaje) por unos pocos
dı́gitos binarios, tantos como sea posible. En otras palabras, buscamos una
representación eficiente de la salida de la fuente que resulte en poca o ninguna
redundancia. El proceso de conversión eficiente de la salida de una fuente analógica
o digital en una secuencia de dı́gitos binarios se llama ​codificación de la fuente o
compresión de datos.

3
​1.1.1​ Transmisor

Codificador de fuente y codificador de canal


● La ​Secuencia de dígitos binarios del ​codificador de fuente, que llamamos
secuencia de información​, se pasa al ​codificador de canal​.
● El propósito del codificador de canal es: Introducir, de forma controlada, cierta
redundancia en la información binaria que puede utilizarse en el receptor para
superar los efectos del ruido y la interferencia encontrados en la transmisión de la
señal a través del canal.
● Ası́, la redundancia añadida sirve para aumentar la fiabilidad de los datos recibidos y
mejora la fidelidad de la señal recibida.
● En efecto, la r​edundancia en la secuencia de información: ​ayuda al receptor a
decodificar la secuencia de información deseada.
Por ejemplo, una forma (trivial) de codificación de la secuencia de información
binaria es simplemente repetir cada binario m veces, donde m es un número entero
positivo.
● De otro lado, una codificación más sofisticada (no trivial) implica tomar k bits de
información a la vez y mapear cada secuencia de k-bit en una secuencia única de
n-bit, llamada ​palabra clave ​o ​code word.
Modulador digital
● La ​secuencia binaria a la salida del codificador de canal se pasa al modulador
digital, que sirve de interfaz al canal de comunicación. Dado que casi todos los
canales de comunicación que se encuentran en la práctica son capaces de transmitir
señales eléctricas (formas de onda - waveforms),
● El propósito principal del modulador digital es: mapear la secuencia de
información binaria en formas de onda de señal.
● Para desarrollar este punto, supongamos que la secuencia de información codificada
debe transmitir bit a bit a la vez a una velocidad uniforme de R bits por segundo
(bits/s). El modulador digital puede simplemente mapear el dı́gito binario 0 en una
forma de onda s 0 (t) y el dı́gito binario 1 en una forma de onda s 1 (t). De esta
manera, cada bit del codificador de canal se transmite por separado, lo que
llamamos​ modulación binaria.
● Alternativamente, el modulador puede transmitir b bits de información codificados al
mismo tiempo utilizando M = 2 b formas de onda distintas s i (t), i = 0, 1, .....M − 1,
una forma de onda para cada una de las 2 b posibles secuencias b-bit. A esto lo
llamamos modulación M-aria (M > 2).
● Tengamos en cuenta que una nueva secuencia b-bit entra en el modulador cada b/R
segundos. Por lo tanto, cuando la velocidad binaria del canal R es fija, la cantidad de
tiempo disponible para transmitir una de las señales M las formas de onda
correspondientes a una secuencia de bits b son b veces el perı́odo de tiempo en un
sistema que usa modulación binaria.

4
​1.1.2​ Canal
● El ​canal de comunicación es: el medio fı́sico que se utiliza para enviar la señal del
transmisor al receptor. En la transmisión inalámbrica, el canal puede ser la atmósfera
(espacio libre); en cambio, los canales telefónicos suelen emplear una variedad de
medios fı́sicos, incluyendo lı́neas de alambre, cables de fibra óptica e inalámbricos
(radio de microondas).
● Cualquiera que sea el medio fı́sico utilizado para la transmisión de la información, la
caracterı́stica esencial es que la señal transmitida se ​corrompe de manera
aleatoria ​por una variedad de mecanismos posibles, tales como el ruido térmico
aditivo generado por los dispositivos electrónicos; el ruido artificial e.g., el ruido de la
ignición del automóvil; y el ruido atmosférico, e.g., las descargas eléctricas de rayos
durante las tormentas eléctricas.
​1.1.3​ Receptor

● En el extremo receptor de un sistema de comunicación digital, el ​demodulador


digital ​procesa la forma de onda transmitida en un canal corrompido y reduce las
formas de onda a una secuencia de números que representan estimaciones de los
sı́mbolos de datos transmitidos (binarios o M-ario).
● Esta secuencia de números se pasa al decodificador de canal​, que intenta para
reconstruir la secuencia de información original a partir del conocimiento del código
utilizado por el codificador de canal y la redundancia contenida en los datos
recibidos.
● Una medida de lo bien que funcionan el demodulador y el decodificador es la
frecuencia con la que se producen los errores en la secuencia decodificada. Más
concretamente, la probabilidad media de un error de bits en la salida del
decodificador es una medida del rendimiento de la combinación
demodulador-decodificador. En general, la probabilidad de error está en función de
las caracterı́sticas del código, los tipos de formas de onda utilizadas para transmitir
la información a través de la red, el canal, la potencia del transmisor, las
caracterı́sticas del canal (i.e., la cantidad de de ruido, la naturaleza de la
interferencia) y el método de demodulación y decodificación.

​1.2​ Perspectiva histórica


● Aunque Samuel Morse (1844) es responsable del desarrollo del primer sistem de
comunicación eléctrica digital (telegrafı́a), los inicios de lo que ahora consideramos
comunicaciones digitales modernas provienen de la obra de Nyquist (1924), quien
investigó el problema de determinar la velocidad máxima de señalización que puede
utilizarse en un canal telegráfico de un ancho de banda dado sin interferencia de

5
sı́mbolos. Formuló un modelo de un sistema telegráfico en el que una señal
transmitida tiene la forma general:

● donde g (t) representa una forma de pulso básica y a n es la secuencia de datos


binaria de ±1 transmitido a una velocidad de 1/T bits/segundo. Nyquist se dispuso a
determinar la forma de pulso óptima que se limitaba a W [Hz] y maximizaba la
velocidad de bits 1/T por debajo de la restricción de que el pulso no cause
interferencia entre sı́mbolos en los tiempos de muestreo ​k/T , k = 0, ±1, ±2, .... Sus
estudios le llevaron a la conclusión de que la tasa máxima del pulso 1/T es de
2Wpulsos/seg .​ Esta tasa se denomina ahora ​tasa de Nyquist.
● Además, esta frecuencia del pulso se puede lograr usando los pulsos:

● Este pulso permite la recuperación de los datos sin interferencias de sı́mbolos en el


muestreo instantes. El resultado de Nyquist es equivalente a una versión del
teorema de muestreo para señales de banda limitada, que más tarde fue establecido
precisamente por ​Shannon (1948). El muestreo establece que una señal s(t) de
ancho de banda W puede ser reconstruida a partir de muestras tomadas a la
velocidad de Nyquist de​ 2W /segundo​ utilizando la fórmula de interpolación.
● A la luz del trabajo de Nyquist, ​Hartley (1928) consideró la cuestión de la cantidad
de datos que pueden transmitirse de forma fiable a través de un canal de banda
limitada cuando se utilizan niveles de amplitud múltiples. Debido a la presencia de
ruido y otras interferencias, Hartley postuló que el receptor puede estimar con
fiabilidad la amplitud de la señal recibida con cierta precisión, denominada ∆
● Esta investigación llevó a Hartley a la conclusión de que existe una velocidad
máxima de datos que puede comunicarse de forma fiable a través de un canal con
banda limitada, cuando la amplitud máxima de la señal se limita a ±A (restricción de
potencia fija) y la resolución de la amplitud es ∆.
● Otro avance significativo en el desarrollo de las comunicaciones fue el trabajo de
Wiener (1942) que consideró el problema de estimar una forma de onda de señal
deseada s(t) en presencia de ruido aditivo n(t), basado en la observación de la señal
recibida r (t) = s(t) + n(t). Este problema surge en la demodulación de la señal.
Wiener determinó el filtro lineal cuya salida es la mejor aproximación
media-cuadrada a la señal deseada s(t). El filtro resultante se denomina filtro lineal
óptimo (Wiener)
● Los resultados de Hartley y Nyquist sobre la velocidad máxima de transmisión de la
información digital fueron precursores del trabajo de Shannon (1948a,b), quien
estableció las bases matemáticas de la teorı́a de la información y derivó los lı́mites
fundamentales de los sistemas de comunicación digital. En su trabajo pionero,
Shannon formuló el problema básico de la transmisión fiable de información en

6
términos estadı́sticos, utilizando modelos probabilı́sticos para las fuentes de
información y los canales de comunicación.
● Sobre la base de esa formulación estadı́stica, adoptó una medida logarı́tmica para el
contenido de información de una fuente. También demostró que el efecto de una
limitación de potencia del transmisor, una limitación de anchura de banda y ruido
aditivo puede asociarse con el canal e incorporarse a un único parámetro,
denominado capacidad del canal. Por ejemplo, en el caso de un aditivo blanco
(espectralmente plano) de interferencia de ruido gaussiano, un canal ideal de ancho
de banda W con banda limitada tiene una capacidad C dada por:

● Donde P es la potencia media transmitida y N 0 es la densidad espectral de potencia


del ruido aditivo. La importancia de la capacidad del canal es la siguiente: Si la
velocidad de información R de la fuente es inferior a C (R < C ), entonces es
teóricamente posible lograr una transmisión fiable a través del canal mediante la
codificación apropiada. Por otro lado, si R > C ,no es posible una transmisión fiable,
independientemente de la cantidad de procesamiento de la señal realizada en el
transmisor y el receptor.
● Ası́, Shannon estableció lı́mites básicos en la comunicación de la información y dio
origen a un nuevo campo que ahora se llama ​teorı́a de la información. Inicialmente,
el trabajo fundamental de Shannon tuvo un impacto relativamente pequeño en el
diseño y desarrollo de nuevos sistemas de comunicaciones digitales. En parte, esto
se debió a la escasa demanda de transmisión de información digital durante la
década de 1950. Otra razón era la ​complejidad relativamente grande y, por lo
tanto, el ​alto costo del hardware digital requerido para lograr la alta eficiencia y la
alta confiabilidad predicha por la teorı́a de Shannon.
● Otra contribución importante al campo de las comunicaciones digitales es el trabajo
de ​Kotelnikov (1947), que proporcionó un análisis coherente de los diversos
sistemas de comunicación digital basado en un enfoque geométrico. El enfoque de
Kotelnikov fue ampliado más tarde por Wozencraft y Jacobs (1965)​. El aumento de
la demanda de transmisión de datos durante las últimas tres décadas, junto con el
desarrollo de circuitos integrados más sofisticados, ha llevado al desarrollo de
sistemas de comunicaciones digitales muy eficientes y más fiables.
● Siguiendo las publicaciones de Shannon vino el trabajo clásico de ​Hamming ​(1950)
sobre detección de errores y códigos de corrección de errores para combatir los
efectos perjudiciales del ruido de canal. El trabajo de Hamming estimuló a muchos
investigadores en los años siguientes y se descubrieron una variedad de códigos
nuevos y poderosos, muchos de los cuales se utilizan hoy en dı́a en la
implementación de sistemas de comunicación modernos.
​1.3​ El modelo OSI
● Cuando nos comunicamos utilizando dispositivos electrónicos, producimos flujos de
bits que normalmente pasan a través de varias redes y son procesados por
dispositivos de una variedad de de los fabricantes. El sistema es muy complejo y hay
una serie de cosas que puede salir mal. Es asombroso que podamos comunicarnos

7
tan fácil y confiablemente como lo hacemos nosotros hacer. Esto difı́cilmente serı́a
posible sin la estratificación y la estandarización.
● La Open System Interconnection (OSI) - Sistema Abierto de Interconexión -
describe un marco de trabajo para la definición de protocolos de flujo de datos. En
esta sección utilizamos el modelo OSI para transmitir la idea básica de cómo las
redes de comunicación modernas tratan con la clave los desafı́os, en particular el
encaminamiento, el control de los flujos, la fiabilidad, la privacidad y la autenticidad.

8
● La capa de aplicación ​se reserva para programas (también llamados procesos) que
implementan protocolos relacionados con las aplicaciones a la hora de realizarse
una comunicación. En términos de tráfico de datos, el protocolo establece una
cabecera llamada cabecera de la aplicación (AH) delante de los bits producidos por
la aplicación.
● La capa de presentación se encarga de la encriptación, compresión y la traducción
desde/hacia un idioma universal. El protocolo es implementado mediante el
encabezado de presentación (PH).
● La capa de sesión establece, manteniene y finaliza la comunicación entre los
dispositivos fı́sicos, también gestiona los derechos de [Link] protocolo es
implementado mediante el encabezado de sesión (SH).
● La capa de transporte hace que el enlace parezca fiable, por medio de bits de
control de paridad, comprueba que la comunicación está libre de errores y si no lo
está, solicita retransmisión.
También proporciona control de flujo mediante la formación de colas datos si la red
está congestionada o si el extremo receptor no puede absorberlos suficientemente
rápido. La capa de transporte utiliza la cabecera de transporte (TH) para
comunicarse. La cabecera de transporte seguida de los datos transmitidos por la
sesión se llama ​segmento​.
● La capa de red ​proporciona el servicio de enrutamiento. A diferencia de las capas
anteriores, que funcionan de extremo a extremo, la capa de red y las capas
inferiores tienen un proceso también en los nodos intermedios. El protocolo de la
capa de red se implementa en la cabecera de red (NH).
La red contiene, entre otras cosas, la dirección de origen y de destino. La cabecera
del grafo seguida del segmento (del layer de transporte) se llama un ​paquete​.
● La capa de enlace de datos (DL) pone un encabezado al principio y un trailer al
final de cada paquete entregado por la capa de red. El resultado se denomina frame.
Algunos de los bits de sobrecarga son bits de comprobación de paridad destinados a
determinar si se han producido errores en el enlace entre nodos. Si el DL detecta
errores, podrı́a pedir que se retransmitiera o se dejara caer la imagen.
● La capa fı́sica ​“el tema de este curso “​ es la capa inferior del OSI stack. La capa
fı́sica crea un ”tubo de bits”más o menos fiable a partir del canal fı́sico entre dos
nodos. Lo hace por medio de un transmisor/receptor llamado módem (​modulator
and ​demodulator​).
Cabe aclarar que cada capa se comunica con una capa igual, i.e. la capa de sesión
del transmisor con la capa de sesión del receptor.

9
​1.4​ Resumen
● La representación del espacio de señal (o vector) de las señales es una herramienta
muy eficaz y útil en el análisis de señales moduladas digitalmente. Cualquier
conjunto de señales es equivalente a un conjunto de vectores, las señales tienen las
mismas propiedades básicas de los vectores. El conjunto correspondiente de
vectores se denomina representación del espacio de señales, o ​constelación​.
● Dijimos que hay m n distintas secuencias de n-longitud que pueden ser formadas
con sı́mbolos tomados de un alfabeto de tamaño m. Ahora supongamos que
queremos comunicar una secuencia de bits k. Existen 2 k secuencias distintas y
cada una de ellas debe ser en una secuencia de sı́mbolos distinta. Esto implica 2 k ≤
m n , i.e. se pueden usar menos sı́mbolos para transmitir la secuencia de bits.
● La distancia entre los sı́mbolos debe cumplir que sea mayor o a lo sumo igual a 2∆,
lo cual implica que el tamaño del alfabeto debe ser como máximo

● La mayor velocidad posible en bits por segundo que se puede conseguir de forma
fiable con ancho de banda B, amplitudes de los sı́mbolos dentro de ±A, y precisión
del receptor ± ∆.

● Hablamos de ​comunicación digital ​cuando el transmisor envı́a una señal de una


señal finita conjunto de señales posibles y de ​comunicación analógica cuando el
transmisor envı́a uno de un continuo de posibles señales.

10
​2​ Diseño de receptor para observaciones en tiempo discreto:
(Primera capa)
​2.1​ Introducción
● El ​enfoque ​de este y el próximo capítulo es el diseño del ​receptor​, La tarea del
receptor puede apreciarse considerando un canal muy ruidoso.
El "canal GPS" es un buen ejemplo. Deje que la entrada del canal sea la señal
eléctrica aplicada a la antena transmisora ​de un satélite GPS en órbita a una altitud
de 20 200 km, y dejar que la salida del canal sea la señal en la salida de la antena
de un receptor GPS al nivel del mar.​
● La señal de interés en la salida de la antena receptora es muy débil.
● Si tuviéramos que observar la salida de la antena receptora con un instrumento de
propósito general, como un ​osciloscopio ​o un analizador de espectro, no podríamos
distinguir la señal del ruido.
● Sin embargo, la mayoría de las veces el receptor maneja para reproducir la
secuencia de bits transmitida por el satélite. Este es el resultado de operaciones
sofisticadas realizadas por el receptor.
● Como un caso especial prominente, consideraremos el canal de ruido blanco
gaussiano aditivo de tiempo discreto (AWGN).

Figura 2.1: ​Sistema de comunicación estándar


​2.1.1​ Fuente:
● La fuente (no representada en la figura) produce el mensaje que será transmitido (en
una aplicación típica, ​el mensaje consiste en una secuencia de bits​).
● La fuente elije un "mensaje" de un conjunto de Posibles mensajes.
● Modelo matemático: Si hay ​m ​opciones posibles,se modela la fuente como una
variable aleatoria ​H ​que toma valores del conjunto .
● La mayoría de las veces, se supone que todos los mensajes tienen la misma
probabilidad pero, en general, permitimos que aparezca el mensaje i con
probabilidad .
● El conjunto de mensajes H y la distribución de probabilidad se supone que es
conocido por el diseñador del sistema.
Cardinalidad : ​N° de elementos que tiene un conjunto

11
​2.1.2​ Transmisor:
● Matemáticamente, el transmisor es un mapeo desde el mensaje
al conjunto de señales (​también llamado constelación de
señales​), donde ∈ Cargando… para algunos n.
● Desde un punto de ingeniería, el transmisor es necesario porque las señales que
representan el mensaje no son adecuados para excitar el canal. Desde este punto
de vista, el transmisor es una especia de​ conector sofisticado.
● Los elementos del conjunto de señales C son elegidos de tal manera que un
receptor bien diseñado que observe la salida del canal puede decir (con alta
probabilidad)​ qué señal de C ha excitado la entrada de canal
​2.1.3​ Canal:
● El diseñador del sistema necesita poder hacer frente a una amplia clase de Modelos
de canales.
● Una forma bastante general de describir un canal es especificando su ​Alfabeto de
entrada X ​(el conjunto de señales que son físicamente compatibles con la entrada
de canal), el alfabeto de salida de canal (Y)​, ​y una descripción estadística de la
salida dada la entrada.
● A menos que se especifique lo contrario, en este capítulo el alfabeto ​de salida Y es
un subconjunto de Cargando….

12
● Para cada letra x ∈ X que aplicamos a la entrada del canal, el canal genera la
realización de una variable aleatoria ​Y ∈ Y​ de estadística que depende de​ x.
● Si Y es una variable aleatoria discreta, describimos la probabilidad distribución
(también llamada función de masa de probabilidad, abreviada a PMF) de Y
dado x, denotado por .
● S​i Y es una variable aleatoria continua, describimos la función de densidad de
probabilidad (PDF) de Y dada x, denotada por .
● En una aplicación típica, necesitamos conocer la estadística de una secuencia
de salidas de canal, , dada una secuencia de entradas
de canal , pero nuestro canal típico no tiene memoria, lo que significa que:

para alfabetos de salida discreta y

para alfabetos de salida continua.


Un canal de tiempo discreto de esta generalidad, puede parecer un concepto
bastante abstracto, pero la teoría que desarrollamos con este modelo de canal
resulta ser lo que necesitamos.

​2.1.4​ Receptor:
● La tarea del receptor es "adivinar" la realización de la hipótesis H desde la
realización de la secuencia de salida del canal.
● Usamos ı̂ para representar lo que adivino el receptor. Al igual que el mensaje, la
suposición del mensaje es el resultado de un experimento aleatorio.
● La correspondiente variable aleatoria se denota por ​Ĥ ∈ H​.
● A menos que se especifique lo contrario, el receptor siempre será diseñado para
minimizar la probabilidad de error, denotado (definido como la probabilidad de
que Ĥ difiera de H.)
● Adivinar el valor de una variable discreta aleatoria H a partir de la realización de otra
variable aleatoria (o vector aleatorio) se llama un problema de ​prueba de hipótesis.

​2.2​ Prueba de Hipótesis


● La prueba de hipótesis se refiere al problema de adivinar la salida de una variable
aleatoria que toma valores de un alfabeto finito to , basado
en el resultado de una variable aleatoria llamada ”observable”.
● Un nombre más atractivo para la prueba de hipótesis es la toma de ​decisiones.​
Prueba de hipótesis, ​decodificación​, ​detección,​ y la toma de ​decisiones s​ on todos
sinónimos.
● La hipótesis es el mensaje a transmitir y el “observable” es la salida del canal
(o una secuencia de salidas del canal).

13
● El receptor adivina la realización de basándose en la realización de . A menos
que se indique de lo contrario.
● Se supone para todo i ∈ H, el diseñador del sistema conoce ​(PROB. de
cada mensaje) ​y ​(FUNC. de densidad de probabilidad de Y dada H)
● La decisión del receptor será denotada por y la variable aleatoria correspondiente
es ∈ H. Si pudiéramos, nos aseguraremos de que = H, pero esto
generalmente no es posible. ( es la variable aleatoria del receptor)
● El objetivo es diseñar una estrategia de decisión que maximice la probabilidad
de que la decisión es correcta.
● Un objetivo equivalente es ​minimizar ​la ​probabilidad de error

● El problema fundamental de la comunicación es el de reproducir en un punto


exactamente o aproximadamente un mensaje seleccionado en otro punto ".

​ omo un ejemplo típico de un problema de prueba de hipótesis, considere el


Ejemplo 2.4: C
problema de comunicar un bit de información a través de una fibra óptica. El bit que se
transmite está modelado por la variable aleatoria Cargando…, Cargando…. Si Cargando…,
activamos un diodo emisor de luz (LED) y su luz se transporta a través de la fibra óptica
hasta un fotodetector. El fotodetector genera la cantidad de fotones Cargando… que
detecta. El problema es decidir si Cargando… (el led está apagado) o Cargando… (el led
está encendido). Nuestra decisión sólo puede basarse en cualquier información que
tengamos sobre el modelo y en la actual observación Cargando… . Lo que hace que el
problema sea interesante es que es imposible determinar con certeza H desde Y. Incluso si
el LED está apagado, es probable que el detector detecte algunos fotones (por ejemplo,
debido a la "luz ambiental", RUIDO). Una buena suposición es que Y esta distribuido con
poisson con una intensidad Cargando…, la cual depende de que el led esté encendido o no.
Matemáticamente la situación es la siguiente:

14
Cuando Cargando…. Tenemos lo siguiente: “cuando Cargando…, se observa Y con una
distribución de Poisson con intensidad Cargando…. cuando 1, tenemos Y con una
distribución de Poisson con intensidad Cargando…”. Nuevamente el problema es decidir el
valor de H a partir del Y observable es un problema estándar de prueba de hipótesis.
Desde Cargando… y Cargando… por la regla de Bayes obtenemos

Donde Cargando… En la expresión anterior Cargando… es la posterior (también llamada


probabilidad a posteriori de H dado Y). Al observar Y = y, la probabilidad de que
Cargando… pase del Cargando… anterior al Cargando… posterior.
Si la decisión es . La probabilidad de que sea la decisión correcta es la
probabilidad de que Cargando…. Es decir, Cargando…. Como nuestro objetivo es
maximizar la probabilidad de ser correcto, la regla de decisión óptima es

Donde Cargando…representa uno de los argumentos Cargando… para los cuales la


función Cargando… alcanza su máximo. Esto lo llamamos la regla de decisión de máximo a
posteriori (MAP). En caso de igualdad, por ejemplo, si Cargando…es igual a Cargando…
no importa si elegimos por En ambos casos la probabilidad de que
hayamos elegido correctamente es la misma.
Debido a que la regla MAP maximiza la probabilidad de ser correcta para cada observación
Cargando…, también maximiza la probabilidad incondicional Cargando… de ser correcta. El
former es . Si conectamos la variable aleatoria Cargando… en lugar de
Cargando…, entonces obtenemos una variable aleatoria (​una función de valor real de una
variable aleatoria es una variable aleatoria​). El valor esperado de esta variable aleatoria
es la probabilidad (incondicional) de ser correcta, es decir:

(2.2)
Hay un caso especial importante, es decir, cuando H está distribuido uniformemente.
En este caso, Cargando…, en función de i, es proporcional a Cargando…. Por lo tanto, el
argumento que maximiza Cargando… también maximiza Cargando…. Entonces la ​regla de
decisión MAP​ es equivalente a la decisión

15
llamado la ​regla de decisión de máxima verosimilitud (ML)​. El nombre se deriva del
hecho que Cargando…, en función de i, se llama​ función de verosimilitud​.
Tenga en cuenta que la regla de decisión de ML ​se define incluso si no conocemos
Cargando…. Por lo tanto es la solución de elección cuando no se conoce lo anterior. (Las
reglas de decisión MAP y el ML son equivalentes solo cuando lo anterior es uniforme).

​2.2.1​ Test de Hipótesis Binario

El caso especial en el que tenemos que tomar una decisión binaria, es decir, H = {0, 1}, es
tanto instructivo como de relevancia prá[Link]ón en la siguiente sección, Hay
dos alternativas,​ MAP y ML test
​[Link]​ MAP TEST
Como solo hay dos alternativas para probar, la prueba MAP ahora puede ser escrita como

La notación anterior significa que la prueba MAP decide para Cargando… = 1 cuando la
izquierda está más grande o igual a la derecha, y decide para Cargando…= 0 de lo
contrario. ​Observa eso
el denominador es irrelevante porque Cargando…(y) es una constante positiva, ​por lo tanto,
no afectará la decisión. Por lo tanto, una regla de decisión equivalente es:

La prueba anterior se muestra en la Figura 2.2 suponiendo y ∈ R. Esta figura es muy


importante ya que ayuda a visualizar lo que sucede y, como veremos, será útil para calcular
la probabilidad de error.

16
La prueba anterior es perspicaz, ya que muestra que estamos comparando posteriores
después de re escalarlos cancelando el número positivo Cargando…(y) del denominador.
Sin embargo, hay formas alternativas del test que, dependiendo de los detalles, pueden ser
computacionalmente más conveniente. Se obtiene una prueba equivalente dividiendo
ambos lados con la cantidad no negativa Cargando…. Esto da como resultado siguiente test
de MAP binario:

(2.4)
El lado izquierdo de la prueba anterior se llama razón de probabilidad, denotada por Λ(y),
mientras que el lado derecho es el ​umbral η​. Tenga en cuenta que si Cargando…(0)
aumenta, también lo hace el umbral. A su vez, como es de esperar, la región {y:
Cargando…(y) = 0} se convierte más grande.
Cuando Cargando…(0) = Cargando…(1) = 1/2 el umbral η es la unidad y la prueba MAP se
convierte en
una prueba​ binaria de ML:

Una función Cargando…: Y → Cargando… = {0,. . . , m - 1} se llama función de decisión


(también llamada función de decodificación). Una forma de describir una función de decisión
es mediante regiones de decisión Ri = {y ∈ Y: Cargando…(y) = i​}, i ​∈ H. Por lo tanto, Ri es
el conjunto de y ∈ Y para cual Cargando…(y) = i. Continuamos esta subsección con H = {0,
1}.
Para calcular la probabilidad de error, a menudo es conveniente calcular la
probabilidad de error para cada hipótesis y luego tomar el promedio​. Cuando H = 0, el
la decisión es incorrecta si Y ∈ R1 o, de manera equivalente, si Λ (y) ≥ η. Por lo tanto,
denotando por Pe (i) la probabilidad de error cuando H = i,

o, equivalentemente:

Depende de si es más fácil trabajar con el lado derecho de (2.5) o el de (2.6)


depende si es más fácil trabajar con la densidad condicional de Y o de Λ (Y). Se verán
ejemplos de ambos casos.

17
Expresiones similares se mantienen para la probabilidad de error condicionada a H = 1,
denotado por Pe (1). Usando la ley de probabilidad total, obtenemos el (incondicional)
probabilidad de error:

Al derivar la probabilidad de error, hemos utilizado tácitamente una técnica importante


que se usará todo el tiempo en probabilidad: condicionamiento como un paso intermedio.
El condicionamiento como un paso intermedio puede verse como una estrategia de divide y
vencerás.
La idea es resolver un problema que parece difícil dividiéndolo en subproblemas que (i)
sabemos cómo resolver y (ii) una vez que tenemos la solución a los subproblemas también
tenemos la solución al problema original. Así es como funciona en probabilidad .Queremos
calcular el valor esperado de una variable aleatoria Z.
Suponga que no está claro de inmediato cómo calcular el valor esperado de Z, pero
sabemos que Z está relacionado con otra variable aleatoria W que nos dice algo útil sobre
Z: útil en el sentido de que por cada valor w somos capaces de calcular el valor esperado de
Z dado W = w. Luego, a través de la ley de total expectativa, calculamos:
E [Z] = Cargando…| W = w] Cargando…(w). El mismo principio aplica para probabilidades.
(Esto no es una coincidencia: la probabilidad de un evento es el valor esperado de la
función del indicador de ese evento.) Para las probabilidades,la expresión es
Pr (Z ∈ A) = Cargando…Pr (Z ∈ A | W = w) Cargando…(w). Se llama la ley de
probabilidad total
Revisemos lo que hemos hecho a la luz de los comentarios anteriores y qué más
podría haber hecho. El cálculo de la probabilidad de error implica dos variables aleatorias, H
e Y, así como un evento {H = Cargando…}. Para calcular la probabilidad de error (2.5)
primero hemos condicionado todos los valores posibles de H. Alternativamente, podríamos
haber condicionado todos los valores posibles de Y. Este es de hecho una alternativa
viable. De hecho, ya lo hemos hecho (sin decirlo) en (2.2). Entre los dos, usamos el que
parece más prometedor para el problema en cuestión. Nosotros veremos ejemplos de
ambos.

18
​2.2.2​ Prueba de hipótesis m-ary

Volviendo al problema de prueba de hipótesis. Esto significa que Cargando….


Recordemos que la regla de decisión MAP, que minimiza la probabilidad de cometer un
error, es

Donde Cargando… es la función densidad de probabilidad de la Cargando…observable


cuando la hipótesis es Cargando… y Cargando… es la probabilidad de la i-ésima hipótesis.
Esta regla está bien definida a los lazos. Si hay más de un Cargando… que alcanza el
máximo en el lado derecho de una (y, por lo tanto, todas) de las expresiones anteriores,
entonces podemos decidir cualquier Cargando… sin afectar la probabilidad de error. Si
queremos que la regla de decisión no sea ambigua, podemos, por ejemplo, acordar que, ​en
caso de empate, elegimos la Cargando… ​más grande que logre el máximo.
Cuando todas las hipótesis tienen la misma probabilidad, entonces la regla MAP se
convierte en la regla ML, es decir

Siempre asumimos que Cargando… se proporciona como parte de la formulación del


problema o que puede deducirse de la configuración. En comunicación, generalmente
conocemos el transmisor y el canal. En este capítulo, el transmisor es el mapa de
Cargando… y el canal se describe en el pdf Cargando… conocido para todos Cargando…
y todos Cargando…. De estos dos, obtenemos inmediatamente ,
donde ci es la señal asignada a i.

19
Tenga en cuenta que la función de decisión (o decodificación) asigna un Cargando… a
cada Cargando…. Como ya se mencionó, puede describirse por las regiones de decisión (o
decodificación) Ri,Cargando…, donde Ri consiste en aquellas Cargando… para las cuales
. Es conveniente pensar que Cargando… está dividido por regiones de
decodificación como se muestra en la Figura 2.3. Utilizamos las regiones de decodificación
para expresar la probabilidad de error Pe o, de manera equivalente, la probabilidad Pc = 1 −
Pe de decidir correctamente. Condicionado en H = i tenemos

​2.3​ La función Q
La función Q juega un papel muy importante en la comunicación. Saldrá frecuentemente a
lo largo de este texto. Se define como

● Donde el símbolo := ​significa que el lado izquierdo está definido por la expresión en
el Derecha.
● Por lo tanto, si Z es una variable aleatoria de unidad media distribuida normalmente

cero varianza, denotada por Z ∼ N (0, 1), Entonces luego .


(La función Q ha sido definido específicamente para hacer esto verdad)
● Si Z se distribuye normalmente con ​media​ m y ​varianza​ Cargando…, denotado por
Z ∼ N( m, Cargando…), la probabilidad Pr {Z ≥ x} también se puede escribir usando
la función Q.

● De hecho el evento es equivalente a

● Pero
Propiedades de la función Q

20
​2.4​ Diseño del receptor para el canal AWGN de tiempo discreto
El problema de prueba de hipótesis discutido en esta sección es clave en la comunicación
digital. Es el realizado por la capa superior de la Figura 1.7.

La puesta en marcha se representa en la figura 2.5. La hipótesis H ∈ H = {0, ..., m - 1}


representa un mensaje seleccionado al azar. El transmisor asigna H = i a una señal n-tupla
ci ∈ Cargando…. El canal agrega un vector aleatorio (ruido) Z que es de media cero y tiene
Componentes gaussianos de varianzaCargando… independientes e idénticamente
distribuidos. Resumiendo, Z ∼ N (0, Cargando…Cargando…). El observable es Y = ci + Z.
Comenzamos con la situación más simple posible, específicamente cuando solo hay
dos mensajes equiprobables y las señales son escalares (n = 1). Entonces generalizamos
a valores arbitrarios para n y finalmente consideramos valores arbitrarios también para la
cardinalidad m del conjunto de mensajes.

21
​2.4.1​ Decisión binaria para observaciones escalares
Deje que el mensaje H ∈ {0, 1} sea equiprobable y suponga que el transmisor asigna
H = 0 en c0 ∈ R y H = 1 en c1 ∈ R. La estadística de salida para las distintas hipótesis son
las siguientes:

Una forma equivalente de expresar la estadística de salida para cada hipótesis es

Nosotros calculamos la razón de verosimilitud

El umbral es

Ahora tenemos todos los ingredientes para la regla MAP.


En lugar de comparar Λ (y) con el umbral η,​ podemos comparar ln Λ (y) con ln η​.
La función ln Λ (y) se denomina relación de probabilidad logarítmica​. De ahí la regla de
decisión MAP puede expresarse como

El progreso consiste en el hecho de que ​el receptor ya no calcula una función exponencial
de la observación. ​Tiene que calcular ln (η), pero esto se hace una vez
y para todos​. Sin pérdida de generalidad esencial, suponga c1> c0. Entonces podemos
dividir ambos lados por Cargando… (que es positivo) sin cambiar el resultado de la
comparación anterior. Podemos simplificar aún más moviendo las constantes a la derecha.
Los

22
resultado es la prueba simple

Figura 2.6​. Cuando PH (0) = PH (1), el ​umbral de decisión θ​ es el punto medio


entre c0 y c1. El área sombreada representa la probabilidad de error.
condicionado en H = 0.

Donde:

Observe que si PH (0) = PH (1), entonces ln η = 0 y el umbral θ se convierte en el


punto medio Cargando… (Figura 2.6).
Ahora determinamos la probabilidad de error

Esta es la ​probabilidad de que una variable aleatoria gaussiana con media Cargando…
y varianza Cargando… exceda el umbral θ​. De nuestra revisión sobre la función Q
sabemos inmediatamente que Pe (0) = Q(Cargando…).Del mismo modo, Pe (1) = Q(
Cargando…).
Finalmente, ​Pe = PH (0) Q(Cargando…) + PH (1) Q(Cargando…).
El caso más común es cuando PH (0) = PH (1) = 1/2. Entonces Cargando…= Cargando… =
Cargando…= Cargando… donde d es la distancia entre c0 y c1. En este caso, Pe (0) = Pe
(1) = Pe, donde

Este resultado se puede obtener directamente sin cálculos secundarios. Como se muestra

23
en la Figura 2.6, el umbral es el punto medio entre c0 y c1 y Pe = Pe (0) = Q (Cargando…).
Este resultado debe conocerse de memoria.
​2.4.2​ Decisión binaria para observaciones de n-tuplas
Como en la subsección anterior, suponemos que H toma valores en {0,1}. Lo nuevo es que
las señales ahora son n-tuplas para n ≥ 1. Entonces, cuando H = 0, el transmisor envía
algunos Cargando… y cuando H = 1, envía Cargando…. El ruido agregado por el canal es
Cargando…e independiente de H.
De aquí en adelante, suponemos que el lector está familiarizado con las definiciones y los
resultados básicos relacionados con los vectores aleatorios gaussianos. (Consulte el
Apéndice 2.10 para una revisión.) También asumimos que estamos familiarizados con las
nociones de producto interno, norma y plano. (Ver Apéndice 2.12 para una revisión.) El
producto interno entre los vectores Cargando…se denotará por Cargando…, mientras que
Cargando… denota la norma de u. Haremos un uso extensivo de estas notaciones.
Aunque por ahora el espacio vectorial está sobre los reales, en el Capítulo 7 nos
encontraremos con espacios vectoriales complejos. Ya sea que el espacio vectorial esté
sobre R o sobre C, la notación es casi idéntica. Por ejemplo, si a y b son n-tuplas (columna)
en Cargando…, entonces Cargando…, donde ​† denota la transposición del conjugado​.
La igualdad se mantiene incluso si a y b están en Cargando…, pero en este caso la
conjugación es intrascendente y podríamos escribir Cargando…, donde T denota
transposición​. Por defecto, utilizaremos la notación más general para espacios vectoriales
complejos. Una igualdad que usaremos con frecuencia, por lo tanto, debe ser memorizada,
es

donde Cargando… denota la parte real del número complejo encerrado. Por supuesto,
podemos soltar el {·} para elementos de un espacio vectorial real. Como se hizo
anteriormente, para derivar una regla de decisión MAP, comenzamos escribiendo la
estadística de salida para cada hipótesis

O equivalente,

Como en el caso escalar, calculamos la razón de verosimilitud

24
Tomando el logaritmo en ambos lados y usando (2.8), obtenemos

A partir de (2.10), la regla MAP se puede escribir como

Observe la similitud con la expresión correspondiente del caso escalar. En cuanto al caso
escalar, movemos las constantes a la derecha y normalizamos para obtener

Donde

es el vector de longitud unitaria que apunta en la dirección Cargando…, Cargando… es la


distancia entre las señales y

Es el ​umbral de decisión​. Por lo tanto, las regiones de decisión Cargando… están


delimitadas por el plano afín

Por definición, estamos asignando los puntos de delimitación de un plano afín a Cargando…
, pero esta es una decisión arbitraria que no tiene ningún efecto en la probabilidad de error
porque ​la probabilidad de que Y esté en un plano afín dado es cero​.
Obtenemos información geométrica adicional al considerar aquellos y para los
cuales (2.9) es constante. La situación se muestra en la Figura 2.7, donde la distancia

25
firmada p es positiva si la delimitación de un plano afín se encuentra en la dirección
apuntada por ψ con respecto a Cargando… y Cargando… es positiva si el plano afín se
encuentra en la dirección apuntada por −ψ con respecto a Cargando…. (En la figura,
ambos Cargando… son positivos.) Según el teorema de Pitágoras aplicado a los dos
triángulos rectángulos con borde común, para todos y en el plano afín, Cargando… es igual
a Cargando….

Tenga en cuenta que Cargando… están relacionados con η, Cargando…y Cargando… via

Por lo tanto Cargando… = Cargando…. Usando esto y = p + q, obtenemos

CuandoCargando…, la delimitación de un plano afín es el conjunto de Cargando…para el


cual (2.9) es igual a 0. Estos son los puntos y que están a la misma distancia de
Cargando… y de Cargando…. Por lo tanto, Cargando… contiene todos los puntos
Cargando… que están más cerca de Cargando… que de Cargando…. Algunas
observaciones adicionales están en orden.
● El vector ψ no se ve afectado por el anterior, pero el umbral θ sí. Por lo tanto, lo
anterior afecta la posición pero no la orientación de la delimitación de un plano afín.
Como cabría esperar, el plano se aleja de Cargando…cuando aumenta Cargando….
Esto es consistente con nuestra intuición de que ​la región de decodificación de
una hipótesis se hace más grande a medida que aumenta la probabilidad de
esa hipótesis​.
● El efecto mencionado anteriormente se amplifica cuando aumenta Cargando…. Esto
también es consistente con nuestra intuición de que el decodificador depende

26
menos de la observación y más de lo anterior cuando la observación se vuelve
más ruidosa​.
● Observe la similitud de (2.9) y (2.10) con (2.7). Esto sugiere una estrecha relación
entre el caso escalar y el vector. Podemos obtener información adicional colocando
el origen de un nuevo sistema de coordenadas en Cargando… y dejando que la
primera coordenada esté en la dirección de Cargando…, donde nuevamente
Cargando…. En este nuevo sistema de coordenadas, H = 0 se asigna al vector
y H = 1 se asigna a . Si
es la salida del canal en este nuevo sistema de coordenadas, . Esto
muestra que para una decisión binaria, el caso del vector es esencialmente el caso
escalar incrustado en un espacio n-dimensional.

En cuanto al caso escalar, calculamos la probabilidad de error condicionando a H = 0 y H =


1 y luego eliminamos el condicionamiento promediando: .
Cuando H = 0, Cargando… y el decodificador MAP toma la decisión incorrecta cuando
<Z,ψ> ≥ p, es decir, ​cuando la proyección de Z en el vector unitario direccional ψ tiene
una longitud (con signo) igual o mayor que p​. Que esta es la condición para que un error
debe quedar claro en la Figura 2.7, pero también puede derivarse insertandoCargando… en
<Y, ψ> ≥ θ y usando (2.8). Dado que <Z, ψ> es una variable aleatoria gaussiana de media
cero de varianza Cargando…(ver Apéndice 2.10), obtenemos

procediendo de forma similar, encontramos

El caso Cargando… es el más común. Debido a que p = q = Cargando…, determinar la


probabilidad de error para este caso especial es sencillo:

27
​2.4.3​ m-ary para observaciones de n-tuplas
Cuando H = i, i ∈ H = {0, 1,. . ., m - 1}, la entrada del canal es ci ∈ Cargando…. Por ahora
nosotros
hacer la suposición simplificadora de que Cargando…(i) = Cargando…, que es una
suposición común
en comunicación. Más adelante veremos que generalizar es sencillo.
Cuando Y = y ∈ Cargando… la regla de decisión de ML es

Por lo tanto, una regla de decisión ML para el canal AWGN es una regla de decisión de
distancia mínima como se muestra en la Figura 2.8. Cargando… corresponde a la región de
Voronoi de Cargando…, definido como el conjunto de puntos en Cargando… que son al
menos tan cercanos a Cargando… como a cualquier otro Cargando….

Ejemplo 2.5 (m-PAM) ​La figura 2.9 muestra el conjunto de señales {c0, c1,. . . , c5} ⊂ R
para 6-ary PAM (modulación de amplitud de pulso). La figura también muestra las regiones
de decodificación de un Decodificador ML, suponiendo que el canal es AWGN. Los puntos
de señal son elementos de R, y el decodificador ML elige de acuerdo con la regla de
distancia mínima. Cuando la hipótesis es H = 0, el receptor toma la decisión equivocada si
la observación y ∈ R queda fuera de la región de decodificación Cargando… . Este es el
caso si el ruido Z ∈ R es mayor que Cargando…, donde d = Cargando… - Cargando…, i =
1,. . . , 5. Así

Por simetría, Pe(5) = Pe (0). Para i ∈ {1, 2, 3, 4}, la probabilidad de error cuando H = i es la
probabilidad de que el evento {Z ≥ Cargando…} ∪ {Z < -Cargando…} ocurre. Este evento
es la unión de eventos disjuntos. Su probabilidad es la suma de las probabilidades de la
eventos individuales Por lo tanto

Finalmente, Pe = Cargando…Q*(Cargando…)+Cargando…2Q*(Cargando…) = Cargando…


Q*(Cargando…). Vemos de inmediato cómo
generalizar. Para una constelación PAM de m puntos (m entero positivo), el error
la probabilidad es

28
Ejemplo 2.6 (m-QAM) F ​ igura 2.10 muestra el set de señal Cargando… para 4-ary
modulación por amplitud de cuadratura (QAM). Consideramos las señales como puntos en
Cargando…. (Podríamos elegir considerar las señales como puntos en C, pero tenemos
que posponer esta vista hasta que sepamos cómo lidiar con el ruido de valor complejo). El
ruido es Cargando…, y el observable cuando H = i , es Y = ci + Z. Suponemos que el
receptor implementa una regla de decisión ML, que para el canal AWGN significa
decodificación de distancia mínima. La región de decodificación para Cargando… es el
primer cuadrante, para Cargando… el segundo cuadrante, etc. Cuando H = 0, el
decodificador toma la decisión correcta siCargando…Cargando…, donde es el mínimo
distancia entre puntos de señal. Esta es la intersección de eventos independientes. Por lo
tanto, la probabilidad de la intersección es el producto de la probabilidad de cada evento, es
decir

Por simetría, para todo i, Cargando…, por lo que

29
m-QAM se define para todos los m de la forma Cargando…, para j = 1, 2, .... Un ejemplo de
16-QAM se da más adelante en la Figura 2.22.

Ejemplo 2.7 ​En el ejemplo 2.6 hemos calculado Cargando… a través de Cargando…, pero
podríamos haber optado por calcular Pe (0) directamente. Aquí es cómo:

Observe que, al determinar Cargando… (Ejemplo 2.6), calculamos la probabilidad de la


intersección de eventos independientes (que es el producto de la probabilidad de los
eventos individuales) mientras que al determinar Cargando… sin pasar por Cargando…
(este ejemplo), calculamos la probabilidad de la unión de eventos que no son disjuntos (que
no es la suma de la probabilidad de los eventos individuales).
PREGUNTAS UNIDAD 2

​3​ Diseño del receptor para el AWGN de tiempo continuo canal:


(Segunda capa)
A​dditive ​W​hite ​G​aussian ​N​oise - ​R​uido ​G​aussiano ​B​lanco ​A​ditivo
​3.1​ Introducción
● En el Capítulo 2 nos enfocamos en el receptor para el tiempo discreto AWGN
(aditivo canal de ruido blanco gaussiano).
● En este capítulo, abordamos el mismo problema para un modelo de canal más
cercano a la realidad, es decir, ​el canal AWGN de tiempo continuo.

30
● Además del modelo de canal, los supuestos y el objetivo son los mismos: nosotros
supongamos que la estadística ​fuente,​ el ​transmisor ​y el ​canal s​ e dan a nosotros y
buscamos entender qué tiene que hacer el receptor para minimizar el ​error
probabilidad
● También estamos interesados en la probabilidad de error resultante.
​3.1.1​ Comunicación a través del canal AWGN de tiempo continuo.

figure 3.1
● El canal tenemos el aspecto más importante de todo el mundo real:
○ La presencia de ruido gaussiano (additive noise).
● Cada señal se mapea con una forma de onda ​Wi(t)​ ​continua
● Aunque nuestro enfoque principal está en el receptor, en este capítulo también
ganamos información valiosa sobre la estructura del transmisor. Primero
necesitamos introducir la noción de la energía de la señal y especificar dos
restricciones técnicas leves que imponemos en el conjunto de señales
W = {w0 (t),. . . , wm − 1 (t)}.
​3.1.2​ Ejemplos y Formulas
1. Ejemplo 3.1 ​Un cable es un buen ejemplo de un canal que puede ser modelado por
el canal AWGN de tiempo continuo. Si la respuesta de frecuencia del cable no puede
ser considerada como constante sobre el ancho de banda de la señal. Luego
considerar el efecto de filtrado del cable, que debe tenerse en cuenta. Discutimos
esto en la Sección 3.6.
Otro buen ejemplo es el canal entre la antena de un satélite geoestacionario y la
antena de la estación terrena correspondiente. Para la comunicación en cualquiera
dirección podemos considerar el modelo de la figura 3.1.
2. Ejemplo 3.2 ​Suponga que ​Wi(t) es el voltaje que alimenta la antena de un
transmisor cuando H = i. Una antena tiene una impedancia interna Z. Un valor
típico para Z es de 50 ohmios.
Suponiendo que Z es puramente resistiva,
● La corriente en el punto de alimentación es : ​Wi(t)/Z

● La potencia instantánea es:

● La energía transferida a la antena es: .


Alternativamente, si ​Wi(t)​ es la corriente que alimenta la antena cuando H = i

● El voltaje en el punto de alimentación es:

● la potencia instantánea es:

31
● La energía es:

En ambos casos la energía es proporcional a:

3. Ejemplo 3.3 (Funciones continuas): Sea ​v: R→ R una función continua y


supongamos que ​| v(t0) | = a ​para algunos ​t0 y algunos positivos ​a​. Por continuidad,
existe un ε​ ​ > 0 tal que ​| v(t) | = a/2 ​para todo ​ t​ ​∈ ​ I​ donde​ I = (t0 - ε/2 , t0 + ε/2)
Eso sigue que

Concluimos que si una función continua tiene una vanishing norm, entonces la
función se desvanece en todas partes.

​3.1.4​ Restricciones sobre alfabeto de Wi(t)


● La norma al cuadrado de una señal ​Wi(t) generalmente está asociada con la
energía de la señal.
● 1° Restricción:​ Nos comunicamos a través de señales de ​energía finita​, esta es la
○ Una combinación lineal de un número finito de señales de energía finita es en
sí mismo una señal de energía finita.
○ Por lo tanto, cada vector del espacio vectorial V atravesado por W es una
función de integración cuadrada.
● 2° Restricción: v ∈ V tiene una vanishing norm, entonces v (t) desaparece para
todo t. Juntos, estos requisitos implican que ​V es un espacio de producto interno
de funciones integrables al cuadrado.

Todas las señales que representan señales de comunicación del mundo real son de energía
finita y continuo. Por lo tanto, el espacio vectorial que abarcan siempre es un espacio
interno del producto.
Este es un buen lugar para mencionar las diversas razones por las que estamos
interesados ​en energía de la señal o, de manera algo equivalente, en la potencia de la
señal, que es la energía por segundo.
Primero​, para la seguridad y para la reutilización del espectro, existen regulaciones que
limitan el poder de una señal transmitida.
En segundo lugar, ​para dispositivos móviles, la energía de la señal transmitida proviene de
la batería: una carga de batería dura más si se disminuye la potencia de la señal.
En tercer lugar​, sin limitación de la potencia de la señal, podemos transmitir a través de un
canal AWGN de ​tiempo continuo a cualquier velocidad deseada, independientemente del
ancho de banda disponible y de la probabilidad de error objetivo.
Por lo tanto, sería injusto para comparar métodos de señalización que no utilizan la misma
[Link] ahora, suponemos que W nos es dada. El problema de elegir un adecuado
conjunto W de señales se estudiará en capítulos posteriores.

32
​3.1.5​ Abstracción del canal de forma de onda.

FIGURA 3.2

Lo más destacado del capítulo es el poder de la abstracción. El diseño del receptor para el
canal AWGN de ​tiempo discreto se basó en ideas geométricas que se pueden formular
siempre que estemos en un espacio interno de productos. Usaremos las mismas ideas para
el canal AWGN de ​tiempo continuo.
El resultado principal es una descomposición del remitente y el receptor en el bloques de
construcción que se muestran en la Figura 3.2. Veremos que, sin pérdida de generalidad,
podemos (y deberíamos) ​pensar en el transmisor como un codificador que mapea el
mensaje i ∈ H en una n-tupla ci​, como en el capítulo anterior, ​seguido por una forma de
onda anterior que mapea ci en una forma de onda wi (t)​. Del mismo modo, veremos que
el receptor puede consistir en un formador de n-tuplas que toma la salida del canal y
produce una n-tupla Y​. El comportamiento de la entrada de forma de onda anterior a la
salida del formador de n-tuplas es la del canal AWGN de ​tiempo discreto considerado en el
capítulo previo.
Por lo tanto, ya sabemos lo que el decodificador de la Figura 3.2 debería hacer con la
salida del formador de n-tuplas.

​3.1.8​ Formalismo

33
​3.2​ Ruido Blanco Gaussiano
● El propósito de esta sección es presentar los conceptos básicos del ruido blanco
gaussiano ​N (t)​.
● El enfoque estándar es dar una descripción matemática de N(t), pero esto requiere
una teoría de la medida,si se hace rigurosamente.
● La buena noticia es que un modelo matemático ​N (t) no es necesario porque N (t) no
es observable a través de experimentos físicos (La razón se aclara en breve.)
● Nuestro enfoque es modelar lo que realmente podemos medir Asumimos un
conocimiento práctico vectores aleatorios de Gauss (revisados ​en el Apéndice 2.10).
● Un ​receptor ​es un instrumento eléctrico que se conecta a la salida del canal a través
de un cable. ​Por ejemplo​, en la comunicación inalámbrica, podríamos considerar el
canal salida para ser la salida de la antena receptora; en cuyo caso, el cable es el
que conecta la antena al receptor.
● Un ​cable ​es un filtro lineal invariante en el tiempo. Por lo tanto, podemos suponer
que todas las observaciones realizadas por el receptor son a través de un filtro lineal
invariante en el tiempo.
● Entonces, si ​N(t) representa el ruido introducido por el canal, el receptor ve, en
mejor, una versión filtrada ​Z(t)​ de ​N(t)​.
● Modelamos ​Z(t) como un proceso estocástico y, como tal, se describe por la
estadística de Z(t1), Z (t2),. . . , Z (tk) para cualquier positivo entero k y cualquier
colección finita de tiempos de muestreo​ t1, t2,. . . tk.
● Si la respuesta al impulso del filtro es ​h(t)​, la teoría del sistema lineal sugiere que

y (3.1)
● pero la validez de estas expresiones debe justificarse, porque N(t) no es una señal
determinista.
● Es posible definir ​N(t) como un proceso estocástico y probar que la integral
(Lebesgue) en (3.1) está bien definida; pero evitamos este camino.
● "​Z (ti) es la variable aleatoria que modela la salida en el momento ti de un filtro lineal
de respuesta al impulso invariante en el tiempo ​h (t) alimentado con blanco Ruido
gaussiano ​N (t)​ "
● Tenga en cuenta que​ h (ti −α) ​es una función de​ α​ que podemos renombrar
como ​gi (α)​. Ahora estamos en condiciones de definir el ruido gaussiano blanco.

34
​3.2.1​ Definición de ruido Gaussiano Blanco N(t)
N(t) es ruido blanco gaussiano de densidad espectral de potencia si, para cualquier

colección finita de funciones de valor real .

es una colección de variables aleatorias gaussianas conjuntas de ​media cero​ de


covarianza

cov(Zi,Zj) = Cargando…= Cargando… Cargando…= Cargando…<


Cargando…,Cargando…> ​(3.3)

❏ Aclaraciones de (3.3):
● Si Zi y Zj son independientes covarianza = 0
● Covarianza es la esperanza de Zi, Zj
● Si i = j, entonces covarianza = (No/2)
● Zi y Zj son variables aleatorias discretas
● gi(t) es continua
● (No/2) Densidad de potencia de Ruido. Potencia en un ancho de banda
infinitesimal

➢ Si no estamos evaluando la integral en (3.2), ​¿cómo sabemos si N (t) es Ruido


blanco gaussiano?
➢ En este texto, cuando corresponde, decimos que N (t) es ruido blanco gaussiano, en
cuyo caso podemos usar (3.3) como mejor nos parezca.
➢ En el mundo real, a menudo sabemos suficiente sobre el canal para saber si su ruido
se puede modelar como blanco y gaussiano. Este conocimiento podría provenir de
un modelo matemático del canal.
➢ Otra posibilidad es que realicemos mediciones y verifiquemos que se comportan de
acuerdo con la definición 3.4.
➢ Debido a su importancia y uso frecuente, formulamos el siguiente caso especial
como un lema. Es el hecho más importante que debe recordarse sobre
ruido blanco gaussiano.
➢ Lema 3.5 Sea {g1 (t),. . . , gk (t)} sea un ​conjunto ortonormal de funciones de valor
real. Entonces Cargando…, con Zi definido como en (3.2), es un vector Gaussiano

aleatorio de media cero con componentes iid de varianza

Ejemplo 3.6: Considere dos filtros pasa banda que tienen respuesta a frecuencia no
superpuesta, pero son idénticas, es decir, si traducimos la frecuencia, la respuesta
en frecuencia de un filtro por la cantidad adecuada obtenemos la respuesta de
frecuencia del otro filtro. Por la relación de Parseval, las respuestas de impulso
correspondientes son ortogonales el uno al otro. Si alimentamos los dos filtros con
ruido blanco gaussiano y mostramos su salida (incluso en diferentes momentos),
obtenemos dos variables aleatorias Gaussianas iid. Podríamos extender el

35
experimento (de manera obvia) a n filtros de no superposición de respuestas de
frecuencia, y obtendrían n variables aleatorias que son iid - por lo tanto de la misma
varianza. Esto explica por qué el ruido se llama blanco: como para la luz blanca, el
ruido gaussiano blanco tiene su poder distribuido equitativamente entre todos
frecuencias

➢ ¿Hay otros tipos de ruido? Si. Por ejemplo, hay naturales y ruidos
electromagnéticos artificiales. El ruido producido por motores eléctricos y el
producido por líneas eléctricas son ejemplos de ruido artificial. El ruido artificial es
típicamente ni blanco ni gaussiano.

➢ La buena noticia es que un diseño cuidadoso debería ser capaz de asegurarse de


que el receptor capta una cantidad insignificante de ruido artificial (Si alguna). El
ruido natural es inevitable. Cada conductor (resistencia) produce calor (Johnson)
ruido. (Ver Apéndice 3.10.)

➢ La suposición de que el ruido térmico es blanco y gaussiano es excelente. Otros


ejemplos de ruido natural son el ruido solar y ruido cósmico. Una antena receptora
capta estos ruidos, cuya intensidad depende de la ganancia de la antena y la
dirección de apuntado. Una corriente en un conductor da lugar al ruido de disparo. El
ruido de disparo se origina en la naturaleza discreta de cargas eléctricas.

​3.3​ Estadísticas suficientes y Observables


Recuerde que la configuración es la de la Figura 3.1, donde N (t) es ruido gaussiano blanco.
Como se discutió en la Sección 3.2, debido al ruido, la salida del canal R (t) no es
observable. Lo que podemos observar a través de experimentos físicos (mediciones) son
k-tuplas Cargando… de manera que

donde k es un entero positivo arbitrario y Cargando… son formas de onda arbitrarias de


energía finita. El operador conjugado complejo Cargando… es superfluo para señales de
valor real pero, como veremos en el Capítulo 7, la representación de banda base de una
respuesta al impulso de banda de paso es de valor complejo.
Observe que suponemos que podemos realizar un número arbitrariamente grande pero
infinito k de mediciones. Al no permitir mediciones infinitas, evitamos distraer sutilezas
matemáticas sin perder nada de relevancia de ingeniería.
Es importante señalar que el tipo de mediciones que consideramos es bastante general. Por
ejemplo, podemos pasar Cargando… a través de un filtro de paso bajo ideal de frecuencia
de corte B, para algunos B enormes (digamos Cargando…) y recolectar una gran cantidad
arbitraria de muestras tomadas cada Cargando…segundos para cumplir el teorema de
muestreo (Teorema 5.2).
De hecho, al elegir Cargando…, donde Cargando… es la respuesta al impulso del filtro de
paso bajo, Vi se convierte en la salida del filtro muestreada en el tiempo Cargando…. Como

36
lo indica el teorema de muestreo, a partir de estas muestras podemos reconstruir la salida
del ltro. Si Cargando… consiste en una señal más ruido, y la señal está limitada en banda
a menos de B Hz, entonces a partir de las muestras podemos reconstruir la señal más la
parte del ruido que tiene componentes de frecuencia en Cargando….
Sea Cargando… el espacio interno del producto abarcado por los elementos del conjunto de
señales Cargando… y sea Cargando… una base ortonormal arbitraria para Cargando….
Afirmamos que la Cargando… Cargando…T con componenteCargando…

es una estadística suficiente (para la hipótesis Cargando…) entre cualquier colección de


mediciones que contenga Cargando…. Para probar esta afirmación, sea Cargando… la
colección de mediciones adicionales realizadas de acuerdo con (3.4). Sea Cargando… el
espacio interno del producto abarcado por Cargando… y sea Cargando… será una base
ortonormal para Cargando… obtenida al extender la base ortonormal Cargando… para
Cargando…. Definir

Debe quedar claro que podemos recuperar Cargando… de Cargando… y Cargando…. Esto
es así porque, a partir de las proyecciones sobre una base, podemos obtener la proyección
sobre cualquier forma de onda en el lapso de la base. Matemáticamente,

donde Cargando… es el conjunto único de coeficientes en la expansión ortonormal de


Cargando… con respecto a la base Cargando….
Por lo tanto, podemos considerar (Cargando…,Cargando…) como observable y es
suficiente para mostrar que Cargando…es una estadística suficiente. Tenga en cuenta que
cuando Cargando…,

donde Cargando… es el componente Cargando… de la Cargando… de coeficientes


Cargando… que representa la forma de onda Cargando… con respecto a la base
ortonormal elegida, y Cargando… es una variable aleatoria gaussiana de media cero de
varianza Cargando… . La notación Cargando… pretende recordarnos que esta variable

37
aleatoria se obtiene al "proyectar" el ruido en el elemento Cargando… de la base ortonormal
elegida para Cargando…. Usando la notación tupla, obtenemos la siguiente estadística

donde usamos el hecho de que Cargando… está en el subespacio abarcado por


Cargando… y, por lo tanto, es ortogonal a Cargando… para cada Cargando…. La notación
Cargando… nos recuerda que esta variable aleatoria se obtiene al "proyectar" el ruido en el
elemento j de una base ortonormal que es ortogonal a V. Usando la notación tupla,
obtenemos

Del teorema de factorización de Fisher-Neyman (Teorema 2.13, Capítulo 2, con Cargando…


, Cargando…, y Cargando…, vemos que Cargando… es una estadística suficiente y
Cargando… es irrelevante como se afirma. La Figura 3.3 muestra lo que está sucediendo,
que resumimos de la siguiente manera:

¿Podríamos demostrar que un subconjunto de los componentes de Cargando… no es una


estadística suficiente? Si pudimos. Aquí está el bosquejo de una prueba. Sin pérdida de
generalidad esencial, pensemos que Cargando… consiste en dos partes, Cargando…. Del
mismo modo, descomponemos cada Cargando… en las partes correspondientes
Cargando…. La afirmación es que Cargando… seguido de Cargando… seguido de
Cargando… no forma una cadena de Markov en ese orden. De hecho, cuando Cargando…,
Cargando… consiste en Cargando… más ruido. Como Cargando… no puede deducirse de
Cargando… en general (o de lo contrario no nos molestaríamos en enviar Cargando…), se
deduce que la estadística de Cargando… depende de Cargando…incluso si conocemos la
realización de Cargando….

38
39
​3.4​ Arquitectura de transmisor y receptor
Los resultados de la sección anterior nos dicen que un receptor MAP para la forma de onda
del canal AWGN puede estructurarse como se muestra en la Figura 3.4.

● Vemos que el extremo frontal del receptor calcula a partir de R(t) ​en un
bloque que llamamos formador de n-tuplas. (el nombre no es estándar.) Por lo tanto,
el formador de n-tuplas realiza una gran reducción de datos desde la salida del canal
R(t) ​hasta la estadística suficiente ​Y
● El problema de la prueba de hipótesis basado en el observable​ Y​ es

​donde es independiente de ​H.


● Esta es precisamente el problema de prueba de hipótesis estudiado en el Capítulo 2,
junto con un transmisor que envía para señalar el mensaje i a través del
canal AWGN de ​tiempo discreto.
● Como se muestra en la figura, También podemos descomponer el transmisor en un
módulo que produce , llamado ​codificador​, y un módulo que produce ​Wi(t)​,
llamado forma de onda (waveformer) anterior. (Una vez más, la terminología no es
estándar). En adelante, la n-tupla de coeficientes será referido como la palabra
de código asociada a ​Wi(t)​.
● Todo lo que aprendimos sobre un decodificador para el canal ​AWGN de ​tiempo
discreto es aplicable al decodificador del canal AWGN de ​tiempo continuo.
● De paso, La descomposición de la Figura 3.4 es consistente con la filosofía de
estratificación del Modelo OSI (Sección 1.1), en el sentido de que el codificador y el
decodificador están diseñados como si estaban hablando entre ellos directamente a
través de un canal AWGN de ​tiempo discreto.

40
● En realidad, el canal visto por el par codificador / decodificador es el resultado del
"servicio" proporcionado por el formador de forma de onda y el formador de n-tuplas.
● La descomposición anterior es útil para la concepción del sistema, para el
rendimiento análisis, así como para la implementación del sistema; pero claro,
siempre tiene la opción de implementar el transmisor como un mapa directo desde
conjunto de mensajes H al conjunto de formas de onda W sin pasar por el libro de
códigos C.
● Aunque un mapa tan recto es una posibilidad y tiene sentido para relativamente
sistemas poco sofisticados, la descomposición en un codificador y una forma de
onda anterior es estándar para diseños modernos. De hecho, la teoría de la
información, así como la teoría de la codificación, dedica mucha atención al estudio
de los pares codificador / decodificador.
El siguiente ejemplo pretende hacer dos puntos importantes que se aplican cuando nos
comunicamos a través del canal AWGN de ​tiempo continuo y hacemos una decisión ML
● Primero​, los conjuntos de señales de tiempo continuo pueden "verse" muy
diferentes pero pueden compartir el mismo libro de códigos (CODEBOOK), que es
suficiente para garantizar que la probabilidad de error sea la misma
● Segundo​, para las constelaciones binarias, lo que importa para La probabilidad de
error es la distancia entre las dos señales y nada más.

​3.4.1​ Ejemplo 3.7 (Señales Ortogonales)


● Las siguientes cuatro opciones de Cargando… se ve muy diferente pero, con una
elección apropiada de base ortonormal, comparten el mismo libro de códigos
Cargando…conCargando… y Cargando…
● Para ver esto, es suficiente verificar que Cargando… sea igual a Cargando…
si i = j y si son distintos es igual a 0.
● Por lo tanto, las dos señales son ortogonales entre sí y su norma es
Cargando…
● La Figura 3.5 muestra las señales y las palabras de código asociadas.

41
OPCIÓN 1:MODULACIÓN DE PULSO RECTANGULAR POR POSICIÓN

--->

-->
● Donde hemos usado la función indicadora 1 {t ∈ [a, b]} para denotar un pulso
rectangular que es 1 en el intervalo [a, b] y 0 en otro lugar.
● Los pulsos rectangulares pueden ser fácilmente generado, ej-> por un
interruptor(switch). Se utilizan, por ejemplo, para comunicar un binario. símbolo
dentro de un circuito eléctrico.
● Como veremos, en el dominio de frecuencia estos pulsos tienen lóbulos laterales
que se descomponen relativamente lento, lo que no es deseable para velocidad de
datos en un canal para el cual el ancho de banda es muy importante.

OPCIÓN 2:CAMBIO DE FRECUENCIA

● Se eligen 2 bases ortogonales distintas donde ​k y l ​son entero positivos


Cargando…
● Con un gran valor de k y l estas señales podrían ser usadas para comunicación
inalámbrica
● Para ver que las dos señales son ortogonales entre sí podemos usar la identidad

trigonométrica
OPCIÓN 3: MODULACIÓN POR PULSO DE POSICIÓN

● Una ventaja de los pulsos sinc es que tienen un soporte finito en el dominio de
frecuencia.

42
● Al tomar su transformación de Fourier, rápidamente vemos que son ortogonales el
uno al otro. Consulte el Apéndice 5.10 para más detalles.

OPCIÓN 4: ESPECTRO ENSANCHADO

● donde Cargando…∈ {± 1} n y (Cargando…) ∈ {± 1} n son ortogonales.


● Esté método de señalización se llama espectro extendido​. No es difícil demostrar
que usa mucho ancho de banda pero tiene una robustez inherente con respecto a la
interferencia (no blanco y posiblemente señales no gaussianas).
● Ahora suponga que usamos una de las opciones anteriores para comunicarnos a
través de un canal AWGN de ​tiempo continuo y que el receptor implementa una
regla de decisión ML.
● Como el libro de códigos C es el mismo en todos los casos, el decodificador y el
error la probabilidad será idéntica sin importar qué elección hagamos.
● Calcular la probabilidad de error es particularmente fácil cuando solo hay dos
palabras de código. Del capítulo anterior sabemos que

● La distancia puede ser

computada como

● que no requiere una base ortonormal ni el libro de códigos.


● Aún otra alternativa es utilizar el teorema de Pitágoras. Como ya sabemos que
nuestras señales tienen la norma al cuadrado ε y son ortogonales entre sí, su
distancia es

43
​3.4.2​ Ejemplo 3.8 (Single-shot PAM)
● Sea ψ(t) un pulso de energía unitaria(ε=1). Hablamos de modulación de amplitud de

pulso de disparo único cuando la señal transmitida es de la forma


​ e la forma
donde ci toma un valor en algún subconjunto discreto de Cargando… d
{± a, ± 3a, ± 5a,. . . ,± (m − 1)a} para algún número positivo a. Un ejemplo para m = 6
se muestra en la Figura 2.9, donde d = 2a.

​3.4.3​ Ejemplo 3.9 (Single-shot PSK)


● Sea T y fc números positivos y sea m un entero positivo. Hablamos de modulación
de cambio de fase de disparo único cuando se establece la señal, consiste en
señales de la forma

● Por conveniencia matemática, suponemos que 2fcT es un número entero, de modo


que Cargando… = Cargando… ​para todo i. (​Cuando 2fcT es un número
entero, Cargando… tiene un número entero de períodos en un intervalo de
longitud-T. Esto asegura que todos los wi(t) tengan la misma norma,
independientemente de la fase inicial. En la práctica, fcT es muy grande, lo que
implica que hay muchos períodos en un intervalo de longitud T, en cuyo caso la
diferencia de energía debido a un período incompleto es insignificante.)
● La representación del espacio de la señal se puede obtener utilizando la identidad
trigonométrica cos (α + β) = cos (α) cos (β) - sin (α) sin (β) para reescribir (3.5) como:

donde:

● El lector debe verificar que ψ1 (t) y ψ2 (t) son funciones normalizadas y,


como 2fcT es un número entero, son ortogonales entre sí. Esto puede ser fácilmente
verificado utilizando la identidad trigonométrica:

● Por lo tanto, la palabra de código asociada a wi (t) es

44
● En el ejemplo 2.15, ya hemos estudiado esta constelación para el Canal de tiempo
discreto AWGN.

​3.4.4​ Ejemplo 3.10 (QAM de disparo único)


● Deje que T y fc sean números positivos de modo que 2fcT sea un número entero,
sea m un número entero positivo y defina:

● (Ya hemos establecido en el ejemplo 3.9 que ψ1 (t) y ψ2 (t) son ortogonales
entre sí y tienen una norma unitaria.) Si los componentes de Cargando…,
i = 0,. . . , m2 - 1, tome valores en algún subconjunto discreto de la forma {± a, ± 3a,
± 5a,. . . ,± (m - 1) a} para algunos positivos a, entonces

● es una modulación de amplitud en cuadratura de disparo único (QAM). Los valores


de ci para m = 2 y m = 4 se muestran en las Figuras 2.10 y 2.22, respectivamente.
Los métodos de señalización discutidos en esta sección son los componentes
básicos de muchos sistemas de comunicación.

45
46
​3.5​ Generalización y estructuras receptoras alternativas.
● Es interesante explorar un refinamiento y una variación de la estructura del receptor
que se muestra en la figura 3.4. También generalizamos a una distribución de
mensajes arbitraria. Nosotros aprovechamos la oportunidad de revisar lo que
tenemos hasta ahora.
● La fuente produce H = i con probabilidad PH (i), i ∈ H. Cuando H = i, la salida del
canal es R(t) = wi(t) + N(t), donde wi(t) ∈ W = {Cargando…} es la constelación de
señales compuesta de señales de energía finita (conocida por el receptor) y N(t) es
ruido blanco gaussiano.
● A lo largo de este texto, hacemos el supuesto natural de que el espacio vectorial V
atravesado por W forma un espacio de producto interno (con el producto interno
estándar). Esto está garantizado si la señal cero es la única señal que tiene una
norma que desaparece, que siempre es el caso en situaciones del mundo real.
● Deje {ψ1 (t),. . . , ψn (t)} sea una base ortonormal para V. Podemos usar el
Procedimiento de Gram-Schmidt para encontrar una base ortonormal, pero a veces
podemos elegir uno más conveniente "a mano".
● En el receptor, obtenemos una estadística suficiente tomando el ​producto interno
de la señal recibida R(t) con cada elemento​ de la base ortonormal. El resultado es

● Ahora enfrentamos un problema de prueba de hipótesis con PH(i) a priori, i ∈ H y un


Y observable distribuido de acuerdo a:

47
● donde Cargando… .
● Un receptor MAP que observa Y = ​y decide Cargando… para uno de los i ∈ H que
maximizan Cargando… o cualquier función monotónica de los mismos. Ya que
Cargando… es una función exponencial de y, simplificamos la prueba tomando el
logaritmo natural. ​También eliminamos términos que no dependen de i y reescalar,
manteniendo en cuenta que si escalamos con un número negativo, tenemos que
cambiar la maximización en minimización.
● Si elegimos Cargando… negativo como factor de escala, obtenemos el primero de
las siguientes pruebas de MAP equivalentes:

(b)
Figura 3.6​. Dos formas de implementar Cargando…, es decir, a través de un
correlacionador (a) y mediante un filtro coincidente (b) con la salida muestreada en el
tiempo T.

● El segundo se obtiene del primero usando:

● Una vez que soltamos el operador Cargando…{·} (los vectores tienen un valor real),
elimine la constante Cargando…, escale por −1/2, obtenemos (ii).
● Las reglas (ii) y (iii) son equivalentes ya que:

● Las reglas MAP (i) - (iii) requieren realizar operaciones del tipo

(3.6)

48
● donde b (t) es alguna función (ψj (t) o wj (t)). Hay dos formas de implementar (3.6) La
forma obvia, que se muestra en la Figura 3.6a, es mediante el llamado
correlacionador.
● Un correlacionador es un dispositivo que multiplica e integra dos señales de entrada.
● La forma de implementar (3.6) es a través del llamado filtro combinado. Este es un
filtro que toma r(t) como entrada y tiene h(t) =Cargando… como respuesta al
impulso (Figura 3.6b), donde T es un parámetro de diseño arbitrario seleccionado de
tal manera que la respuesta al impulso h(t) sea causal.
● La salida del filtro adaptado ​y(t)​ es entonces:

● Vemos que este último es de hecho (3.6).

Ejemplo 3.11 (filtro adaptado) Si Cargando… es como en la figura 3.7, entonces


Cargando…, Cargando… es la salida en Cargando… de un filtro lineal invariante en el
tiempo que tiene entrada Cargando… y tiene Cargando… como respuesta al impulso (ver la
figura). La respuesta al impulso Cargando… no es causal. Obtenemos el mismo resultado
con un filtro causal al retrasar la respuesta de impulso por Cargando… y muestreando la
salida en Cargando…. La respuesta de impulso retrasada es Cargando…, que también se
muestra en la figura.

49
Es instructivo trazar la salida del filtro adaptado como lo hacemos en el siguiente ejemplo.

Ejemplo 3.12 Suponga que las señales son Cargando… y Cargando…, donde Cargando…
es un número positivo y

Las señales se trazan a la izquierda de la figura 3.8. El formador de Cargando… consiste en


el filtro adaptado de la respuesta al impulso Cargando…, con la salida muestreada en
Cargando…. En ausencia de ruido, la salida del filtro adaptado en el momento del muestreo
debe ser a cuando se transmite Cargando… y Cargando… cuando se transmite
Cargando…. Los gráficos a la derecha de la gura muestran la respuesta del filtro adaptado
Cargando… a la entrada a la izquierda. De hecho, en Cargando… tenemos Cargando….
En cualquier otro momento tenemos Cargando…, para algunos Cargando… tal que 0 ≤ b ≤
a. Esto, y el hecho de que la varianza del ruido no depende del tiempo de muestreo, implica
que Cargando… es el tiempo de muestreo en el que se minimiza la probabilidad de error.

50
La Figura 3.9 muestra los diagramas de bloques para la implementación de las tres reglas
MAP (i) - (iii). En cada caso, el extremo frontal se implementó mediante el uso de filtros
compatibles, pero también se podrían usar correlacionadores, como en la Figura 3.4. El uso
de filtros o correlacionadores compatibles depende de la tecnología y de las formas de
onda. Implementar un correlacionador en tecnología analógica es costoso. Pero, si el
procesamiento lo realiza un microprocesador que tiene suficiente potencia computacional,
entonces se puede hacer una correlación sin costo adicional de hardware. Nos
inclinaríamos por utilizar filtros adaptados si hubiera filtros fáciles de implementar de la
respuesta al impulso deseada. En el ejercicio 3.10 de este capítulo, damos un ejemplo en el
que los filtros coincidentes se pueden implementar con componentes pasivos.

51
Observe que la implementación inferior de la Figura 3.9 no requiere una base ortonormal ni
un conocimiento del libro de códigos, pero sí requiere Cargando… en lugar de Cargando…
filtros (o correlacionadores) coincidentes. Sabemos que m ≥ n, y a menudo Cargando… es
mucho más grande que Cargando…. Observe también que esta implementación no encaja
en la descomposición de la Figura 3.2. De hecho, el receptor evita la necesidad de la
Cargando…. Como subproducto, esto prueba que el rendimiento del receptor no se ve
afectado por la elección de una base ortonormal. En un sistema de comunicación típico,
Cargando… son muy grandes. Tan grande que no es realista tener Cargando… filtros
coincidentes (o correlacionadores). Incluso si no tenemos en cuenta el costo de los filtros
coincidentes, el número de operaciones requeridas por un decodificador que realiza una
búsqueda de "fuerza bruta" para encontrar el índice de minimización de distancia (o índice
de maximización del producto interno) es típicamente exorbitante. Veremos que las
elecciones de diseño inteligentes pueden reducir drásticamente la complejidad de un
receptor MAP. La equivalencia de las dos operaciones de la figura 3.6 es muy importante.
Debe ser conocido de memoria.

52
​3.6​ Canales de tiempo continuo revisitados

Cada canal agrega ruido y esto es lo que hace que el problema de comunicación
sea desafiante e interesante. De hecho, el ruido es la única razón por la cual hay una
limitación fundamental en la velocidad máxima a la que podemos comunicarnos de manera
confiable a través de un cable, una fibra óptica y la mayoría de los otros canales de interés
práctico. Sin ruido, podríamos transmitir de manera confiable tantos bits por segundo como
queramos, utilizando la menor cantidad de energía deseada, incluso en presencia de las
otras imperfecciones del canal que describimos a continuación.
Atenuación y amplificación​, ya sea cableada o inalámbrica, un canal pasivo
siempre atenúa la señal. Para un canal inalámbrico, la atenuación puede ser de varios
órdenes de magnitud. Gran parte de la atenuación se compensa con una cascada de
amplificadores en la primera etapa del receptor, pero un amplificador escala tanto la señal
que transporta la información como el ruido, y agrega algo de ruido propio.
El hecho de que el extremo frontal del receptor incorpore una cascada de
amplificadores necesita alguna explicación. ¿Por qué debería amplificarse la señal si el
ruido se amplifica por el mismo factor? La primera respuesta a esta pregunta es que los
dispositivos electrónicos, como un formador de n-tuplas, están diseñados para procesar
señales eléctricas que se encuentran en un cierto rango de amplitudes. Por ejemplo, la
amplitud de la señal debe ser grande en comparación con el ruido agregado por el circuito.
Esto explica por qué la primera etapa de amplificación la realiza un denominado
amplificador de bajo ruido. Si la antena receptora está conectada al receptor a través de un
cable relativamente largo, como sería el caso de una antena exterior, entonces el
amplificador de bajo ruido generalmente se coloca entre la antena y el cable.
El amplificador de bajo ruido (o la etapa que lo sigue) contiene un filtro de reducción
de ruido que elimina el ruido fuera de banda. Con circuitos electrónicos perfectos, dicho filtro
es superfluo porque el ruido fuera de banda es eliminado por el formador de n-tuplas.
Pero el ruido fuera de banda aumenta la posibilidad de que los circuitos electrónicos,
hasta e incluyendo el formador de n-tuplas, se saturen, es decir, que la amplitud del ruido
exceda el rango que los circuitos pueden tolerar.
La siguiente etapa típica es el llamado ​amplificador de control automático de
ganancia (AGC)​, diseñado para llevar la amplitud de la señal al rango deseado. Por lo
tanto, el amplificador AGC introduce un factor de escala que depende de la intensidad de la
señal de entrada.
Para el resto de este texto, ignoramos las imperfecciones del hardware. Por lo tanto,
también podemos ignorar la presencia del amplificador de bajo ruido, del filtro de reducción
de ruido y del amplificador de control automático de ganancia. Si el canal escala la señal en
un factor Cargando…, el extremo frontal del receptor puede compensar escalando la señal
recibida enCargando…, pero el ruido también se escala en el mismo factor. Esto explica por
qué, al evaluar la probabilidad de error asociada a un esquema de señalización, a menudo
consideramos modelos de canal que solo agregan ruido. En tales casos, el factor de escala
Cargando… se explica implícitamente en el parámetro de ruido Cargando…. Un ejemplo de
cómo determinar Cargando… se da en el Apéndice 3.11, donde elaboramos un estudio de
caso basado en la comunicación satelital.
Retraso de propagación y desalineación del reloj​. El retraso de propagación se
refiere al tiempo que tarda una señal en llegar a un receptor. Si el conjunto de señales es

53
Cargando…y el retardo de propagación es τ, entonces para el receptor es como si el
conjunto de señales fuera Cargando…. La suposición común es que el receptor no conoce
Cargando… cuando comienza la comunicación. Por ejemplo, en la comunicación
inalámbrica, un receptor no tiene forma de saber que el retraso de propagación ha
cambiado porque el transmisor se movió mientras estaba apagado. ​Es responsabilidad del
receptor adaptarse al retraso de propagación​. Llegamos a la misma conclusión cuando
consideramos el hecho de que los relojes de diferentes dispositivos a menudo no están
sincronizados. Si el reloj del receptor lee Cargando… cuando el del transmisor lee
Cargando…, entonces, una vez más, para el receptor, el conjunto de señales es
Cargando… para algún desconocido Cargando…. La contabilidad de la Cargando…
desconocida en el receptor va bajo el nombre general de ​sincronización de reloj​. Por
razones que quedarán claras, el problema de sincronización del reloj se descompone en la
sincronización de símbolos y en los problemas de sincronización de fase, discutidos en las
Secciones 5.7 y 7.5. Hasta entonces y, a menos que se especifique lo contrario, suponemos
que no hay retraso de propagación y que todos los relojes están sincronizados.
Filtrado en la comunicación inalámbrica,​ debido a los reflejos y las diámetros en
los obstáculos, la señal electromagnética emitida por el transmisor llega al receptor a través
de múltiples caminos. Cada camino tiene su propio retraso y atenuación. Si se transmite
Cargando…, la salida de la antena del receptor tiene la forma Cargando… más ruido, donde
Cargando… y Cargando… son el retardo y la atenuación a lo largo de la Cargando… ruta. A
diferencia de un espejo, la superficie rugosa de ciertos objetos crea una gran cantidad de
pequeños reflejos que se explican mejor por la forma integral Cargando…más ruido. Esto es
lo mismo que decir que el canal contiene un filtro de respuesta de impulso Cargando…. Por
una razón diferente, el mismo modelo de canal se aplica a la comunicación por cable. De
hecho, debido a la dispersión, la salida del canal a un pulso de energía unitaria aplicado a la
entrada en el tiempo Cargando… es un impulso respuesta Cargando…. Debido a la
linealidad del canal, la salida debida a Cargando…. en la entrada es, una vez más,
Cargando… dτ más ruido.
Las posibilidades que tenemos para hacer frente al filtrado de canales dependen de
si la respuesta de impulso del canal es conocida solo por el receptor, tanto por el transmisor
como por el receptor, o por ninguno de los dos. A menudo es realista suponer que el
receptor puede medir la respuesta al impulso del canal. El receptor puede comunicarlo al
transmisor a través del enlace de comunicación invertido (si existe). Por lo tanto, no es el
caso que solo el transmisor conozca la respuesta al impulso del canal.
Si el transmisor usa el conjunto de señales Cargando… y el receptor conoce
Cargando…, desde el punto de vista del receptor, el conjunto de señales es ˜ Cargando…
con su señal y el canal solo agrega ruido gaussiano blanco. Este es el caso
familiar. Siendo realistas, el receptor conoce en el mejor de los casos una estimación
de Cargando… y la usa como la respuesta de impulso del canal real.
La situación más difícil ocurre cuando el receptor no sabe y no puede estimar h (t).
Esta es una suposición realista en la comunicación en ráfagas, cuando una ráfaga es
demasiado corta para que el receptor pueda estimar h (t) y la respuesta al impulso cambia
de una ráfaga a la siguiente.
La situación más favorable ocurre cuando tanto el receptor como el transmisor
conocen h (t) o una estimación del mismo. Típicamente, es el receptor el que estima la

54
respuesta al impulso del canal y la comunica al transmisor. Esto requiere comunicación
bidireccional, que normalmente está disponible. En este caso, el transmisor puede adaptar
la constelación de señal a la característica del canal. Podría decirse que la mejor estrategia
es el llamado llenado de agua (véase, por ejemplo, [19]) que se puede implementar a través
de la multiplexación por división de frecuencia ortogonal (OFDM).
Asumimos que la respuesta al impulso del canal caracteriza el filtrado del canal
durante la transmisión. Si el transmisor y / o el receptor se mueven, lo que suele ser el caso
en la comunicación móvil, entonces el canal sigue siendo lineal pero varía en el tiempo. Los
excelentes libros de texto para graduados que discuten este tipo de canal son [2] y [17].
Ruido gaussiano coloreado​, Podemos pensar en el ruido coloreado como ruido
blanco filtrado. Es seguro asumir que, sobre el rango de frecuencia de interés, es decir, el
rango de frecuencia ocupado por las señales portadoras de información, no hay un intervalo
de longitud positiva sobre el cual no haya ruido. (Un intervalo de frecuencia sin ruido es
físicamente injustificable y, si insistimos en un modelo de canal de este tipo, ya no tenemos
un problema de comunicación interesante porque podemos transmitir infinitamente muchos
bits sin errores al señalar dónde no hay ruido). Por lo tanto, suponemos que la respuesta de
frecuencia del filtro de conformación de ruido no puede desaparecer en un intervalo de
longitud positiva en el rango de frecuencia de interés. En este caso, podemos modificar el
filtro de reducción de ruido mencionado de tal manera que, en el rango de frecuencia de
interés, tenga la respuesta de frecuencia inversa del filtro de conformación de ruido.
El ruido a la salida del filtro de reducción de ruido modificado, llamado filtro de
blanqueamiento, es de media cero, gaussiano y blanco (en el rango de frecuencia de
interés). La probabilidad mínima de error con el filtro de blanqueamiento no puede ser
mayor que sin él, porque el filtro es invertible en el rango de frecuencia de interés. Lo que
ganamos con el filtro de blanqueamiento de ruido es que volvemos a la situación familiar.

donde el ruido es blanco y el conjunto de señales es ,


donde es la respuesta al impulso del filtro de blanqueamiento.

[Link]

55
Preguntas CAPITULO 3

● En un AWGN se puede descomponer el transmisor en un módulo que produce ci,


llamado codificador, y un módulo que produce wi(t), llamado conformador de formas
de onda.​ (Verdadero)

56
V, V , F, F ,F
1. Seleccione la/s opciones correctas
a. Si N(t) representa el ruido introducido por el canal, el receptor ve en el peor
de los casos una versión filtrada Z(t) de N(t) (ve siempre eso) ​FALSO
b. Un receptor MAP que observa Y = y decide H^ = i para uno de los i ∊ H que
minimizan PH(i) | H(y|i) o cualquier funcion monotonica de los mismo ​FALSO
c. Para las constelaciones binarias, lo que importa para la probabilidad de error
es la distancia entre las dos señales y nada más. ​VERDADERO PAG 103
d. Cargando…es la variable aleatoria que modela la salida en el tiempo ti de un
Filtro lineal de respuesta al impulso invariante en el tiempo h(t) alimentado
con ruido gaussiano blanco Cargando… ​VERDADERO

57
La figura 3.9 del libro de Bixio Rimoldi (pág. 110) corresponde a un receptor MAP.
Ambas implementaciones no son utilizadas en la realidad, esto se debe a que (Elija la/s
correcta):
1)Como el valor de n y m son valores muy grandes en la realidad se necesitaría un
número muy grande de correladores o filtros apareados para su implantación.
2)No es posible determinar si el ruido a la entrada es blanco.
3)La consigna es incorrecta debido a que si es posible implementar en la realidad
con filtros apareados y muestreadores.
4)Ninguna es de las anteriores es correcta.

Respuesta correcta 1. Pag 111 Bixio Rimoldi: "In a typical communication system, n
and m are very large. So large that it is not realistic to have n or m matched filters (or
correlators)".

58
59
Defina ruido gaussiano blanco y cual es su densidad espectral de potencia:

Procesos Estocásticos
Procesos Estacionarios
● una definición simple de proceso estocástico estacionario​, es cuando la
distribución de ​probabilidad conjunta de cualquier parte de la secuencia de
variables aleatorias es invariante en el tiempo.
F(Zt,Zt+1,....,Zt+k ) = F(Zt+tau,Zt+1+tau,....,Zt+k+tau)
Proceso estocástico no estacionario

60
● Un proceso estocástico no estacionario es aquel cuya distribución de
probabilidad varía de forma no constante. Tanto la variabilidad, como la media,
cambian a lo largo del tiempo.
​5​ Símbolo por símbolo en un tren de pulsos (revisión de la segunda
capa).

​5.1​ Introducción.

En este y en el siguiente capítulo, nos enfocamos en el problema del diseño de la


señal. Este capítulo está dedicado al formador de forma de onda y su contraparte del lado
del receptor, el formador de n-tuplas. En el Capítulo 6 nos enfocamos en el par codificador /
[Link]…
En principio, los resultados derivados en este capítulo pueden aplicarse tanto a la
comunicación de ​banda base como a la de ​pasa banda​. Sin embargo, por razones de
flexibilidad, costos de hardware y robustez, diseñamos el formador de forma de onda para la
comunicación de banda base y lo asignamos al convertidor up-converter, discutido en el
Capítulo 7, la tarea de convertir la salida del formador de onda en una señal adecuada para
la comunicación de pasa banda. Símbolo por símbolo en un tren de pulsos surgirá como
una técnica de señalización natural. Para mantener la notación al mínimo, escribimos
Cargando… (5.1)
en lugar de Cargando…. Eliminamos el índice de mensaje i de Cargando… porque
estudiaremos las propiedades del pulso Cargando…, así como las propiedades del proceso
estocástico que modela la señal de salida del transmisor, ninguno de los cuales depende de
una elección de mensaje particular. Siguiendo la práctica común, nos referimos a
Cargando… como un símbolo.

ejemplo 5.1 ​(señalización PAM) La señalización PAM (PAM para abreviar) es, de hecho,
símbolo por símbolo en un tren de pulsos, con los símbolos tomando valor en un alfabeto
PAM como se describe en la Figura 2.9. Depende del codificador si se permiten o no todas
las secuencias con símbolos que toman valor en el alfabeto PAM dado. Como veremos en
el Capítulo 6, podemos disminuir la probabilidad de error permitiendo solo un subconjunto
de las secuencias.

Hemos visto el acrónimo PAM en tres contextos que están relacionados pero que no
deben confundirse. Vamos a revisarlos.

61
(i)​ Alfabeto PAM como la constelación de puntos de la figura 2.9.
(ii) PAM de disparo único como en el ejemplo 3.8. Hemos visto que este método de
señalización no es apropiado para transmitir muchos bits. Por lo tanto, no lo discutiremos
más.
(iii) Señalización PAM como en el Ejemplo 5.1. Este es símbolo por símbolo en un
tren de pulsos con símbolos que toman valor en un alfabeto PAM. Comentarios similares se
aplican a QAM y PSK, siempre que veamos sus alfabetos como subconjuntos de C en lugar
de R2. La razón por la cual es conveniente hacerlo quedará claro en el Capítulo 7.
Como ya se mencionó, la mayoría de los sistemas de comunicación modernos
dependen de la señalización PAM, QAM o PSK. En este capítulo aprendemos la
herramienta principal para diseñar el pulso Cargando….
El capítulo está organizado de la siguiente manera. En la ​Sección 5.2,​ desarrollamos
un caso especial instructivo donde el canal está estrictamente limitado en banda y
re-descubrimos símbolo por símbolo en un tren de pulsos como una técnica de señalización
natural para esa situación. Esto también forma la base para la radio definida por software.
En la ​Sección 5.3 derivamos la expresión para la densidad espectral de potencia de la señal
transmitida para un pulso arbitrario cuando la secuencia de símbolos constituye un proceso
estacionario de sentido amplio de tiempo discreto. Como vista previa, descubrimos que
cuando los símbolos no están correlacionados, lo que es frecuente, el espectro es
proporcional a Cargando…. En la ​Sección 5.4,​ derivamos la condición necesaria y suficiente
en Cargando… para que Cargando… sea un conjunto ortonormal cuando Cargando…. (La
condición es que Cargando… cumple el llamado criterio de Nyquist).

​5.2​ El caso del filtro pasabajo ideal.

Suponga que el canal es como se muestra en la Figura 5.1, donde Cargando… es


ruido gaussiano blanco de densidad espectral Cargando… y el filtro tiene respuesta de
frecuencia

Esta es una versión idealizada de un canal de paso bajo.


Debido a que el filtro bloquea todos los componentes de la señal que caen fuera del
intervalo de frecuencia [−B, B], sin pérdida de optimización consideramos señales que están
estrictamente limitadas en banda a [−B, B]. El teorema de muestreo, indicado a continuación
y demostrado en el ​Apéndice 5.12,​ nos dice que tales señales pueden describirse mediante
una secuencia de números. La idea es dejar que el codificador produzca estos números y
dejar que el formador de formas de onda haga la "interpolación" que convierte las muestras
en la Cargando… deseada.

62
Teorema 5.2 (Teorema de muestreo)​. Sea Cargando… una función Cargando…
continua (posiblemente de valor complejo) y deje que su transformada de Fourier
Cargando…) desaparezca para Cargando…. Entonces Cargando… puede reconstruirse a
partir de la secuencia de muestras espaciadas en T, Cargando… con n ∈ Z, siempre que
Cargando…. Específicamente,

En el teorema de muestreo, suponemos que la señal de interés está en Cargando….


Básicamente, Cargando… es el espacio vectorial de las funciones de energía finita, y esto
es todo lo que necesita saber sobre Cargando… para aprovechar al máximo este texto. Sin
embargo, se recomienda leer el Apéndice 5.9,​ que contiene una introducción informal de
Cargando…, porque a menudo leemos sobre Cargando… en la literatura técnica. El
apéndice también es necesario para comprender algunas de las sutilezas relacionadas con
la transformada de Fourier (​Apéndice 5.10)​ y las series de Fourier (​Apéndice 5.11​). Nuestra
razón para referirnos a Cargando… es que es necesaria una prueba rigurosa del teorema
de muestreo. ​Todas las señales de energía finita que encontramos en este texto son
funciones de Cargando…. Es seguro decir que todas las funciones de energía finita
que modelan señales del mundo real están en Cargando…. ​En la definición del teorema
de muestreo, requerimos continuidad. La continuidad no se deduce de la condición de que
Cargando… esté limitado en banda. De hecho, si tomamos una buena función (continua y
Cargando…) y la modificamos en un solo punto, digamos en Cargando…, entonces las
funciones original y modificada tienen la misma transformada de Fourier. En particular, si el
original tiene límite de banda, también lo es la función modificada. La secuencia de
muestras es idéntica para ambas funciones; y la fórmula de reconstrucción (5.2)
re-construirá la función original (continua). Esta eventualidad no es una preocupación para
los ingenieros en ejercicio, porque las señales físicas son continuas. Matemáticamente,
cuando la diferencia entre dos funciones Cargando… es una función de norma cero,
decimos que las funciones son equivalentes a Cargando… ​(ver Apéndice 5.9)​. Para ver
qué sucede cuando omitimos la continuidad en el teorema de muestreo, considere la
situación en la que una señal continua que cumple las condiciones del teorema de

63
muestreo, es puesta a cero en todos los puntos de muestreo. Una vez más, la transformada
de Fourier de la señal modificada es idéntica a la de la señal original. Sin embargo, cuando
muestreamos la señal modificada y utilizamos las muestras en la "fórmula de
reconstrucción", obtenemos la señal de todo cero.
El pulso sinc utilizado en la declaración del teorema de muestreo no está
normalizado a unidad de energía. Si lo normalizamos, definimos específicamente
Cargando…, entonces Cargando… forma un conjunto ortonormal. (Esto está implícito en el
Teorema 5.6.​ El lector impaciente puede verificarlo mediante un cálculo directo, utilizando la
relación de Parseval. Los hechos útiles sobre la función sinc y su transformación de Fourier
se encuentran en el ​Apéndice 5.10​.) Por lo tanto ​(5.2)​ puede reescribirse como

donde Cargando…. Por lo tanto, una señal Cargando… que cumple las condiciones
del teorema de muestreo es una que vive en el espacio interno del producto abarcado por
Cargando…. Cuando muestreamos dicha señal, obtenemos (hasta un factor de escala) los
coeficientes de su expansión ortonormal con respecto a la base ortonormal Cargando….
Ahora volvamos a nuestro problema de comunicación. Acabamos de ver que
cualquier señal física (continua y Cargando…) Cargando… que no tenga energía fuera del
rango de frecuencia [−B, B] puede sintetizarse como Cargando…. Esta señal tiene
exactamente la forma de símbolo por símbolo en un tren de pulsos. Para implementar este
método de señalización, dejamos que la salida del codificador Cargando… seaCargando…,
y que el formador de formas de onda sea definida por el pulso Cargando…. El formador de
onda, el canal y el formador de n-tuplas se muestran en la ​Figura 5.2.
Es interesante observar que usamos el teorema de muestreo algo al revés, en el
siguiente sentido. En una aplicación típica del teorema de muestreo, el primer paso consiste
en muestrear la señal fuente, luego las muestras se almacenan o transmiten, y finalmente la
señal original se reconstruye a partir de las muestras. Por el contrario, en el diagrama de la
Figura 5.2​, el transmisor realiza la (re) construcción como primer paso, se transmite la señal
(re)construida y finalmente el receptor realiza el muestreo.
Observe también que Cargando…(la función sinc es par y de valor real) y su
transformación de Fourier es

64
(El ​apéndice 5.10 explica un método sin esfuerzo para relacionar el rectángulo y el
sinc como pares de Fourier). Por lo tanto, el matched filter en el receptor es un filtro de paso
bajo. Hace exactamente lo que parece ser lo correcto: eliminar el ruido fuera de banda.

ejemplo 5.3 (Software-dened radio). El teorema de muestreo es la base teórica de la


radio denida por software. No importa cuál sea el estándar de comunicaciones (GSM,
CDMA, EDGE, LTE, Bluetooth, 802.11, etc.), la señal transmitida puede describirse
mediante una secuencia de números. En una implementación de radio denida por software
de un transmisor, el codificador que produce las muestras es un programa de computadora.
Solo el programa conoce el estándar que se está implementando.
El hardware que convierte la secuencia de números en la señal transmitida (la forma
de onda anterior de la ​Figura 5.2)​ puede ser el mismo dispositivo estándar para todos los
estándares. De manera similar, el extremo frontal del receptor que convierte la señal
recibida en una secuencia de números (el formador de n-tuplas de la Figura 5.2) puede ser
el mismo para todos los estándares. En un receptor de radio denido por software, el
decodificador se implementa en software. En principio, cualquier estándar pasado, presente
y futuro puede implementarse cambiando el programa codificador / decodificador. Shannon
[24] trajo el teorema de muestreo a la comunidad de ingenieros en 1948, pero solo
recientemente contamos con la tecnología y las herramientas necesarias para hacer de la
radio definida por software una solución viable. En particular, las computadoras se están
volviendo lo suficientemente rápidas, los sistemas operativos en tiempo real como RT Linux
permiten programar eventos críticos con precisión, y la creación de prototipos se ve
facilitada en gran medida por la disponibilidad de idiomas de programación de alto nivel
para el procesamiento de señales como MATLAB

En el resto del capítulo generalizamos símbolo por símbolo en un tren de pulsos. El


objetivo es comprender qué pulsos ψ(t) están permitidos y determinar su efecto sobre la
densidad espectral de potencia de la señal de comunicación que producen.

​5.3​ Densidad espectral de potencia (PSD)


Un requisito típico impuesto por los reguladores es que la densidad espectral de potencia
(PSD) (también llamado espectro de potencia) de la señal de salida del transmisor estar por
debajo una "máscara" de dominio de frecuencia dada. En esta sección calculamos la ​PSD
de la señal de salida del transmisor modelada como

donde:

● es un pro- medio de un proceso de tiempo discreto estacionario de


sentido amplio (WSS).​(a zero-mean wide-sense stationary (WSS) discrete-time
pro-cess)

65
● es una función arbitraria de (no necesariamente normalizada u ortogonal
su tiempo espaciado en T se traduce), y Cargando…es un dither aleatorio (o
retraso) independiente de y distribuido uniformemente en el intervalo
[0, T). ​(Ver Apéndice 5.13 para una breve revisión de los procesos estocásticos).
La inserción del dither aleatorio Cargando…, no considerado hasta ahora en el
modelo de nuestra señal, necesita ser justificado.
Esté Modela el hecho de que un transmisor está encendido a la vez que es desconocido
para un observador interesado en medir la PSD ​de la señal. Por esta razón y debido al
retraso de propagación, el observador no tiene información sobre la posición relativa de la
señal con respecto a su propio eje de tiempo. El dither modela esta incertidumbre. Hasta
ahora, no hemos insertado el tramado porque lo hicimos no quiero hacer que el modelo de
la señal sea más complicado de lo necesario. Después de tiempo de observación
suficientemente largo, el receptor previsto puede estimar el tramado y compensarlo (ver
Sección 5.7).
Desde un punto de vista matemático, el dither hace que X (t) sea un proceso WSS, lo que
simplifica enormemente nuestra derivación del densidad espectral de potencia.

En la derivación que sigue usamos la autocovarianza

que depende solo de i ya que, por supuesto, es WSS.

También usamos La función de auto-similitud del pulso , definida como

(Piense en la definición de un producto interno si tiende a olvidar dónde colocar el


en la definición anterior).

El proceso​ X (t) ​es media cero. De hecho, usando la independencia entre y el

hecho de que obtenemos


La autocovarianza de​ X (t)​ es

66
donde en ​(a) usamos el hecho de que son variables aleatorias
independientes, en ​(b) ​hacemos el cambio de la variable k = i - j, ​y en (c) ​usamos el hecho
de que para una función arbitraria un número arbitrario y un positivo
(longitud del intervalo) b

(Si (5.6) no está claro para usted, la imagen se integra de a a ​a + 2b integrando primero de
a a ​a + b​, luego de ​a + b ​a ​a + 2b​, y sumando los resultados. Este es el lado derecho. Ahora
considere integrar ambos tiempos de a a + b​, pero antes realiza la segunda integración,
desplaza la función a la izquierda con ​b​. Esto es el lado izquierdo)

Vemos que depende solo de ​τ​. Por lo tanto, simplificamos la notación y

escriba en vez de Resumimos:

El proceso ​X(t)​ es ​WSS​ porque ni su media ni su autocovarianza depende de t.


Para el último paso en la derivación de la densidad espectral de potencia, usamos el hecho

de que la transformada de Fourier de

67
Esto se desprende de Parseval relación,

Ahora podemos tomar la transformada de Fourier de para obtener la densidad


espectral potencia.

La expresión anterior está en una forma que nos conviene. En muchas situaciones, el
infinito sum solo tiene un pequeño número de términos distintos de cero. Tenga en cuenta

que la suma en (5.8) es la transformada de Fourier en tiempo discreto de


evaluado en .

Esto es la densidad espectral de potencia del proceso de tiempo discreto -.


como la densidad espectral de potencia de ξ (t), podemos interpretar S X (f) como
siendo el producto de dos PSD, el de ξ (t) y el de {X i} ∞
i = −∞.
En muchos casos de interés, K X [k] = E1 {k = 0}, donde E = E [| X i | 2] En este caso
decimos que el proceso WSS de media cero {X i} ∞
i = −∞ no está correlacionado. Entonces (5.7) y
(5.8) simplificar a

Criterio de Nyquist para bases ortonormales


En la sección anterior vimos ese símbolo por símbolo en un tren de pulsos con los símbolos
no correlacionados, una condición que a menudo se cumple, generan un proceso

estocástico de densidad espectral de potencia , donde ​E es la energía


promedio del símbolo. Esta es progresiva, porque nos dice cómo elegir ​ψ (t) ​para obtener
la potencia deseada densidad espectral. Pero recuerde que ​ψ (t) tiene otra restricción
importante:​ debe ser ortogonal a sus tiempos traducidos de espacio T.

Sería bueno tener una caracterización de con el que es fácil trabajar y que

garantiza ortogonalidad ​entre ψ (t) y Esto parece estar


preguntando demasiado, pero es exactamente de lo que se trata el próximo resultado.
Entonces, estamos buscando un dominio de frecuencia equivalente de la condición

68
La forma del lado izquierdo sugiere usar la relación de Parseval. Haciéndolo rendimientos

donde en ​(a)​ usamos nuevamente (5.6) (pero en la otra dirección), en​ (b)​ usamos el hecho

k que y en​ (c) ​introducimos la función

función periódica con periodo 1/T

Observe que ​g (f) es una función periódica del período 1 / T ​y el lado derecho de ​(c)​ es
1 / T veces el enésimo coeficiente de la serie de Fourier A n de la función periódica g (f).
(UNA La revisión de las series de Fourier se da en el Apéndice 5.11.) Porque A 0 = T y A k
= 0 para k = 0, la serie de Fourier de g (f) es la constante T. Hasta un tecnicismo discutido a
continuación, esto prueba el siguiente resultado.

69
Teorema 5.6 (criterio de Nyquist para pulsos ortonormales)

Sea ​ψ (t)​ un L2 función. El conjunto consiste en funciones


ortonormales si y sólo si

La función en el dominio de la frecuencia se dice que satisface el criterio de

Nyquist con parámetro ​p​ si, para todo .

El ​teorema 5.6 dice que es un conjunto ortonormal si y solo si

satisface a El criterio de Nyquist con el parámetro T.


El l.i.m. en (5.13) representa el límite en la norma L2. Significa que a medida que
agregamos cada vez más términos para la suma en el lado izquierdo de (5.13) se convierte
en L2 equivalente a la constante en el lado derecho. El l.i.m es un tecnicismo debido
a la serie de Fourier. Para ver que el l.i.m. es necesario, tome una ​ψ F (f) ​tal que

cumple (5.13) sin el [Link]

Un ejemplo de tal función es el rectángulo y

cero en otro lugar. Ahora toma una copia y modificarlo en un


punto aislado arbitrario. Por ejemplo, nosotros set ​ψ̃ F (0) = 0​. La transformada inversa de
Fourier de ψ̃ F (f) ​sigue siendo ψ (t). Por lo tanto​, ψ (t) es ortogonal a su tiempo en T se
traduce. Sin embargo (5.13) ya no se cumple si omita el li.m.
Para nuestro ejemplo específico, la izquierda y la derecha difieren exactamente un punto de
cada período La igualdad aún se mantiene en el l. yo. metro. sentido.
IMPORTANTE
En toda práctica aplicaciones, ψ F (f) es una función suave y podemos ignorar la l. yo.
metro. en (5.13). Observe que el lado izquierdo de la igualdad en (5.13) es periódico con el

período 1 / T. Por lo tanto, para verificar que cumple el criterio de Nyquist con
el parámetro T, es suficiente para verificar que (5.13) se mantiene durante un intervalo de
longitud 1 / T

ejemplo 5.7
Las siguientes funciones satisfacen el criterio de Nyquist con parámetro T.

70
Los siguientes comentarios están en orden.
(a) (Constante pero no T) ​ψ (t) es ortogonal a su tiempo espaciado en T se traduce
incluso cuando el lado izquierdo de (5.13) es L2 equivalente a una constante distinta
de T, pero en este caso Este es un problema menor, solo tenemos
que escalar el pulso para hacerlo unidad-norma.

(b) (Ancho de banda mínimo) Una función no puede cumplir el criterio de


Nyquist con el parámetro T si su soporte está contenido en un intervalo de la forma
[−B, B] con . Por lo tanto, el ancho de banda mínimo para cumplir

con Nyquist es

(c) (Prueba de anchos de banda entre ) | 2 + | ψ F (- 2T -) | 2 = el criterio de


Nyquist se cumple si y solo si | ψ F (2T 1 1 2T ] (ver Figura 5.3). Si, además, ψ (t)
tiene un valor real, que T para ∈ [- 2T es típicamente el caso, entonces | ψ F (−f) | 2
= | ψ F (f) | 2) En este caso, es suficiente que verifiquemos las frecuencias positivas,
es decir, el criterio de Nyquist se cumple if5.4. Criterio de Nyquist para bases
ortonormales 169
PREGUNTAS UNIDAD 5

Cuales son las dos características de los pulsos continuos que hemos analizado?
● la densidad espectral de potencia debe ser: E |ψF(f)|^2 /T
● Deben ser ortogonales a sus tiempos traducidos de espacio T.

Se X variable aleatoria que toma valores en un alfabeto {x1, x2} con probabilidades
p(x1) y p(x2) Como se calcula su potencia?

727
72
77
77
77
77

71
77
7 ψ F (1 -) 7 + 7 ψ F (1 +) 7 = T,
77
77
77
77
2T
2T

1
.
∈ 0,
2T
1
Esto significa que | ψ F (2T
) | 2 = T 2 y la cantidad por la cual la función
1
1
2
a f = 2T
- es compensado por
| ψ F (f) | varía cuando pasamos de f = 2T
1
1
+. Por ejemplo
la variación de la función al pasar de f = 2T a f = 2T
de tal simetría de borde de banda, ver Figura 5.3, Figura 5.6a y las funciones
1
a veces se llama
(b) y (c) en el ejemplo 5.7. El ancho de banda B N = 2T
Ancho de banda de Nyquist.

proxima clase figura 5.7, con el


conformador de onda como la
figura 5.6, muestrear en el tiempo
para sacar la forma de onda 5.6 y
luego el 5.7, despues se suman
72
VER SECCION 5.6

73
Codificación convolucional y decodificación de Viterbi: Primera
capa revisitada
Introducción
En este capítulo cambiamos el foco al par codificador / decodificador. La configuración
general es el de la Figura 6.1, donde N (t) es ruido gaussiano blanco de densidad
espectral de potencia N0 / 2. Los detalles del formador de forma de onda y el formador de
n-tuplas son irrelevantes para este capitulo El hecho importante es que el modelo de canal
del codificador la salida a la entrada del decodificador es el canal AWGN discreto de
variación de ruido​ σ2 = N0 / 2.
El estudio de los métodos de codificación / decodificación ha sido un área de investigación
activa. desde la segunda mitad del siglo XX. Se llama teoría de la codificación. Allí
Hay muchas técnicas de codificación, y una introducción general a la codificación puede
fácilmente ocupar un curso de posgrado de un semestre.
Aquí solo consideraremos un ejemplo de una técnica llamada ​codificación convolucional​.
Al considerar un ejemplo específico, Podemos simplificar considerablemente la notación.
Como se ve en los ejercicios, aplicar Las técnicas aprendidas en este capítulo para otros
codificadores convolucionales son bastante sencillo. Elegimos la codificación convolucional
por dos razones: (i) está bien adecuado junto con el canal AWGN de ​tiempo discreto; (ii)
nos permite Introducir varias herramientas instructivas y útiles, en particular el algoritmo de
Viterbi para hacer decodificación de máxima probabilidad y generar funciones para el límite
superior del probabilidad de error de bit

El Codificador - Encoder
El codificador es el dispositivo que toma el mensaje y produce la palabra de código. En En
este capítulo, el mensaje consiste en una secuencia (b1, b2,..., bk) de fuente binaria
símbolos Para comparar bit por bit en un tren de pulsos, dejamos que las palabras de
código consisten en símbolos que tienen valor en

74
Para simplificar la descripción de la codificador, dejamos que los símbolos fuente tomen
valor en {± 1} (en lugar de en {0, 1}). por la misma razón, factorizamos de la salida del
codificador. Por eso declaramos la salida del codificador será la secuencia (x1, x2,..., xn)

con componentes en {± 1} y deja que la palabra clave sea

Los símbolos fuente ingresan al codificador secuencialmente, a intervalos regulares


determinados por el reloj del codificador. Durante la jth época, j = 1, 2,. . . , el codificador
toma ​bj y produce dos símbolos de salida, x2j − 1 y x2j, de acuerdo al mapa de codificación
mapa1

Para producir x1 y x2, el codificador necesita b−1 y b0, que se supone que son 1 por
defecto.
El circuito que implementa el codificador convolucional se muestra en la Figura 6.2, donde
"×" denota la multiplicación en R. Un registro de desplazamiento almacena las dos últimas
entradas. Como implican los índices de x2j − 1, x2j, las dos salidas del codificador
producidas durante una época se transmiten secuencialmente.
Observe que la salida del codificador tiene una longitud n = 2k. El siguiente es un ejemplo
de una secuencia fuente de longitud k = 5 y la secuencia de salida del codificador
correspondiente de longitud n = 10.

75
Debido a que los símbolos de salida del codificador n = 2k están determinados por la
entrada k bits, solo 2k de las 2n secuencias de son palabras clave. Por lo tanto,
usamos solo uno fracción 2k / 2n = 2 - k de todas las posibles secuencias de entrada de
canal de longitud n. Comparado con poco a poco en un tren de pulsos, estamos
renunciando a un factor dos en la tasa de bits para hacer que el espacio de la señal sea
mucho menos concurrido, con la esperanza de que esto reduzca significativamente la
probabilidad de error.
Ya hemos visto dos formas de describir el codificador (el mapa de codificación y El circuito
de codificación). Una tercera forma, útil para determinar la probabilidad de error, es El
diagrama de estado en la Figura 6.3. El diagrama describe una máquina de estados finitos.
la El estado del codificador convolucional es lo que el codificador necesita saber sobre el
pasado. entradas para estado y entrada actual para determinar la salida actual. por
el codificador convolucional en la figura 6.2, el estado en el tiempo j se puede definir como
(bj - 1, bj - 2). Por lo tanto tenemos cuatro estados.
Como muestra el diagrama, hay dos posibles transiciones para cada estado. el símbolo de
entrada bj decide cuál de las dos transiciones se toma durante la época j.
Las transiciones están etiquetadas por bj | x2j - 1, x2j. Para ser coherente con el valor
predeterminado b - 1 = b0 = 1, el estado es (1, 1) cuando b1 ingresa al codificador.

La opción de dejar que los símbolos de entrada y salida del codificador sean los elementos
de {± 1} no es estándar. La mayoría de los autores eligen el alfabeto de entrada / salida
para ser {0, 1} y use el módulo de suma 2 en lugar de la multiplicación sobre R. En este
caso, un
El mapeo sin memoria en la salida del codificador transforma el alfabeto símbolo de
{0, 1} a {± √Es}. La notación es diferente pero el resultado final es el mismo. los La elección
que hemos hecho es más adecuada para el canal AWGN. El inconveniente de Esta opción
es que es menos evidente que el codificador es lineal. En el ejercicio 6.12 nosotros
establecer el vínculo entre los dos puntos de vista y en el ejercicio 6.5 probamos de
primeros principios de que el codificador es de hecho lineal. En cada época, el codificador
convolucional que hemos elegido tiene k0 = 1 símbolo entrando y n0 = 2 símbolos saliendo
del codificador. En general, un convolucional el codificador se especifica mediante (i) el
número k0 de símbolos fuente que ingresan al codificador en cada época (ii) el número n0
de símbolos producidos por el codificador en cada época, donde n0> k0; (iii) la longitud de
restricción m0 definida como el número de entrada k0-tuplas utilizadas para determinar una
salida n0-tupla; y (iv) la función de codificación, especificado, por ejemplo, por una matriz k0
× m0 de 1s y 0s para cada componente de la salida n0-tupla. La matriz asociada a un
componente de salida especifica qué las entradas se multiplican para obtener esa salida. En
nuestro ejemplo, k0 = 1, n0 = 2, m0 = 3, y la función de codificación se especifica mediante
[1, 0, 1] (para el primer componente de la salida) y [1, 1, 1] (para el segundo componente).
(Ver las conexiones que determine la salida superior e inferior en la Figura 6.2.) En nuestro
caso, los elementos de las tuplas de salida n0 se serializan en una sola secuencia que
consideramos la salida real del codificador, pero hay otras posibilidades. Por ejemplo,
podríamos tomar el par x2j − 1, x2j y mapearlo en un elemento de una constelación 4-PAM.

76
The decoder
Un decodificador de máxima verosimilitud (ML) para el canal AWGN de ​tiempo discreto
decide ​para (una de) la secuencia de salida del codificador x que maximiza

donde y es la secuencia de salida del canal y c = √Esx es la palabra de código asociada a


X., El último término en la expresión anterior es irrelevante ya que es nEs / 2, por lo tanto, el
mismo para todas las palabras de código. Además, encontrar una x que maximice c, y =
√ Esx, y es lo mismo que encontrar una x que maximice x, y.
Hasta este punto, el producto interno y la norma se han definido para vectores de Cn
escrito en forma de columna, siendo n un entero positivo arbitrario pero fijo. Considerar
n-tuplas en forma de columna es una práctica matemática estándar cuando las operaciones
matriciales están involucradas. (Hemos utilizado la notación matricial para expresar eld
ensidad de vectores aleatorios gaussianos.) En la teoría de la codificación, las personas lo
encuentran más útil escribir n-tuplas en forma de fila porque ahorra espacio. Por lo tanto,
nos referimos al codificador entrada y salida como secuencias en lugar de como k y
n-tuplas, respectivamente.
Esto es Un punto menor. Lo que importa es que los productos internos y las normas de los
anteriores El párrafo está bien definido.

Para encontrar una x que maximice x, y, en principio podríamos calcular x, y para todos los
2k secuencias que puede producir el codificador. Este enfoque de fuerza bruta
Ser bastante poco práctico. Como ya se mencionó, si k = 100 (que es relativamente
modesto valor para k), 2k = (210) 10, que es aproximadamente (103) 10 = 1030. Un chip
VLSI que hace 109 productos internos por segundo, toma 1021 segundos para verificar
todas las posibilidades. Esto es aproximadamente 4 × 1013 años. ¡El universo tiene "solo"
aproximadamente 2 × 1010 años!
Deseamos un método que encuentre una x de maximización con varias operaciones
que crece linealmente (en lugar de exponencialmente) en k. Veremos que el llamado
El algoritmo de Viterbi logra esto.
Para describir el algoritmo de Viterbi (VA)​, presentamos una cuarta forma de describir un
codificador convolucional, a saber, el enrejado. El enrejado es una transición desplegada
diagrama que realiza un seguimiento del paso del tiempo. Para nuestro ejemplo, si
suponemos que comenzamos en el estado (1, 1), que la secuencia fuente es b1, b2,. . . ,
b5, y que completamos la transmisión alimentando el codificador con dos "bits ficticios"
b6 = b7 = 1 que hacen que el codificador se detenga en el estado inicial, obtenemos el
enrejado descripción que se muestra en la parte superior de la Figura 6.4, donde un borde
(transición) de un estado en profundidad j a un estado en profundidad j + 1 está etiquetado
con la salida del codificador correspondiente x2j − 1, x2j. La entrada del codificador que
corresponde a un borde es el primer componente del próximo estado.
Existe una correspondencia uno a uno entre la secuencia de entrada del codificador b, un
secuencia de salida del codificador x, y una ruta (o secuencia de estado) que comienza en
la inicial estado (1, 1) (estado izquierdo) y termina en el estado final (1, 1) (estado derecho)
del enrejado

77
Por lo tanto, podemos referirnos a una ruta por medio de una secuencia de entrada, una
secuencia de salida o una secuencia de estados.
Para decodificar usando el algoritmo de Viterbi, reemplazamos la etiqueta de cada borde
con la métrica de borde (también llamada ​métrica de rama) calculada de la siguiente
manera. El borde con
x2j − 1 = a y x2j = b, donde a, b ∈ {± 1}, se le asigna la métrica de borde ay2j − 1 + by2j.
Ahora, si sumamos todas las métricas de borde a lo largo de una ruta, obtenemos la métrica
de ruta
x, y.
ejemplo
DEFINICIONES VITERBI
METRICA DE RAMA: ​Es asignada a cada transición o rama teniendo en cuenta las salidas
producidas (X2j-1 y X2j) que pueden ser 1 o -1 y la entrada del decodificador ( y ) para ese
instante j. Entonces a la rama con X2j-1 = a y x2j=b se le asigna la métrica → ​a y2j-1 + ​b
y2j
METRICA DE CAMINO: ​Es la suma de todas las métricas de rama a lo largo de un camino
específico en el diagrama de trellis.
DETH O PROFUNDIDAD: ​Se refiere al instante de tiempo o índice discreto del estado j,
indica que tanto se avanzó en la secuencia
TRACEBACK: Es la operación de recuperar volviendo hacia atrás desde el ultimo j (máxima
profundidad ), el camino original decodificado (x), Consiste en elegir el estado anterior con
la mayor métrica de rama y seguir hasta el primer estado.
CAMINO SOBREVIVIENTE

78

También podría gustarte