0% encontró este documento útil (0 votos)
20 vistas42 páginas

Sistemas de Comunicación: Teoría y Práctica

El documento aborda la importancia de la tecnología de la información y las comunicaciones en la globalización y el desarrollo moderno, presentando un estudio teórico sobre sistemas y técnicas de comunicación. Se enfoca en métodos pedagógicos efectivos para la enseñanza de estas materias en la Universidad Pontificia Bolivariana, incorporando elementos prácticos y audiovisuales. Además, se exploran conceptos básicos, clasificaciones y características de los sistemas de comunicación, así como la relevancia del espectro electromagnético en este contexto.

Cargado por

alex_galvis
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
20 vistas42 páginas

Sistemas de Comunicación: Teoría y Práctica

El documento aborda la importancia de la tecnología de la información y las comunicaciones en la globalización y el desarrollo moderno, presentando un estudio teórico sobre sistemas y técnicas de comunicación. Se enfoca en métodos pedagógicos efectivos para la enseñanza de estas materias en la Universidad Pontificia Bolivariana, incorporando elementos prácticos y audiovisuales. Además, se exploran conceptos básicos, clasificaciones y características de los sistemas de comunicación, así como la relevancia del espectro electromagnético en este contexto.

Cargado por

alex_galvis
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

17

INTRODUCCIÓN

La tecnología de la información y las comunicaciones son factores de suma


importancia en la vida moderna, es indudable que componen uno de los ejes
principales de los fenómenos de la globalización y convergencia. Los sistemas de
comunicación se hallan dondequiera que se desee transmitir información de un
lugar a otro; van desde los ejemplos cotidianos del teléfono, la radio y la televisión,
hasta complejos sistemas de telemetría y control a largas distancias. Sin duda
alguna, dependiendo de su efectividad y rapidez en la transmisión de la
información, el mundo actual se encuentra en continuo desarrollo y revolución,
desembocando en radicales cambios tecnológicos, privatización de servicios y la
rápida evolución de los mercados mundiales.

Dada la importancia de los sistemas de comunicación, y con el propósito de


establecer métodos pedagógicos más efectivos para los medios y la forma de
enseñanza actuales, este libro presenta un estudio general sobre la base teórica
de los sistemas y técnicas de comunicación, con especial cuidado en los
desarrollos matemáticos que los fundamentan y un enfoque práctico hacia
aplicaciones actuales. Adicionalmente, se ha logrado recoger la experiencia en la
enseñanza de los cursos de pregrado y posgrado de comunicaciones y
transmisión digital de la Facultad de Ingeniería Eléctrica y Electrónica de la
Universidad Pontificia Bolivariana, de tal manera que para la elaboración del
contenido de este libro se han tenido en cuenta las dudas, preguntas, comentarios
y aportes que los alumnos normalmente presentan ante el profesorado. Además
de tratarse de un libro con gran cantidad de información acerca del tema, se
adicionan elementos audiovisuales que sintetizan la presentación de los diferentes
capítulos, con el objeto de permitir la enseñanza de los mismos a través de los
cursos ofrecidos por la Universidad.
18

De esta manera se ha pretendido enriquecer la enseñanza de los sistemas de


comunicaciones, no queriendo ser originales en el tratamiento de los temas, más
si en la presentación de un orden coherente que facilite el método de aprendizaje
y que se acomode a los objetivos propuestos para la materia.

El alcance comprende desde los conceptos básicos más importantes dentro de los
sistemas de comunicación hasta los últimos sistemas de transmisión y
conmutación digitales, incluyendo las modernas técnicas de codificación y
corrección de errores, no sin antes pasar por los sistemas analógicos que aunque
antiguos aún permanecen vigentes.

Por todo lo anterior se ha logrado entonces la elaboración de una importante


herramienta de consulta y enseñanza sobre los sistemas de comunicaciones, que
queda disponible para todo el cuerpo de estudiantes y profesores de la
Universidad Pontificia Bolivariana, y que sin duda alguna será de gran ayuda para
el dictado de estos cursos.
19

1. PRELIMINARES

1.1 DEFINICIONES BÁSICAS

Telecomunicación: Conducción o transmisión de información de un lugar a otro.

El término información se refiere a datos, sonido y video, y la información


transmitida puede estar compuesta por todos, algunos o cualquiera de ellos.

Comunicaciones electrónicas: Transmisión, recepción y procesamiento de


información usando circuitos electrónicos. Para ello la información debe
convertirse a energía electromagnética (señales eléctricas).

El empleo de señales eléctricas ha reemplazado casi por completo a todas las


demás formas de transmisión de información a largas distancias. Esto se debe,
principalmente, a que las señales eléctricas son relativamente fáciles de controlar
si se compara con otras, por ejemplo el humo, y viajan a velocidades cercanas o
iguales a la de la luz. La luz, en este sentido amplio, puede considerarse una señal
eléctrica, ya que pertenece al espectro electromagnético.

Señal bandabase: Señal eléctrica que se obtiene al convertir la señal original


(voz, imagen...) mediante un transductor.


Ver Anexo A.
20

Todo tipo de información que se desea transmitir a través de un sistema de


comunicación debe hacerse mediante señales eléctricas. Los transductores son
los dispositivos encargados de convertir las señales mecánicas, acústicas, etc., en
una equivalente señal eléctrica y viceversa. Esta primera señal (a la salida del
transductor), sin ningún tipo de tratamiento ni modificación es lo que se conoce
como señal bandabase, que por lo general es débil y no apta para ser transmitida
directamente a través de un sistema de comunicación, excepto en casos
particulares sobre cortas distancias.

Señal pasabanda: Es la señal que se obtiene al modular una portadora con la


señal bandabase.

En un sistema de comunicación siempre se va a encontrar que el canal o medio


físico por el que viaja la información está contaminado de varios factores (ruido)
que impiden una transmisión eficiente de las señales, bien sea por la influencia de
factores externos o porque la señal no cumple con las condiciones de operación
del canal. Por este motivo es que las señales bandabase no son aptas para
transmitirlas directamente; antes de hacerlo es necesario realizar algún
tratamiento con ellas con el objeto de obtener una señal suficiente y apta para ser
transmitida a través del canal. Este tratamiento sobre la señal bandabase es lo
que se conoce como modulación y la señal que se obtiene a partir de este proceso
es conocida como señal pasabanda.

En resumen, la información que se desea transmitir a través de un sistema de


comunicación es convertida en señal eléctrica por medio de un transductor; esta
primera señal es conocida como bandabase y debe ser modulada para poder
transmitirla eficientemente. La señal modulada y lista para transmitir se conoce
como señal pasabanda.
21

1.2 SISTEMAS DE COMUNICACIÓN

La figura 1, muestra las etapas básicas comprendidas en un sistema de


comunicación.

Figura 1. Etapas básicas de un sistema de comunicación.

No todos los sistemas incluyen la totalidad de las operaciones indicadas, aunque


siempre deben existir los subsistemas principales: el transmisor, un medio de
transmisión de alguna clase y un receptor. Por ejemplo, un sistema de transmisión
bandabase no incluye el bloque del modulador, y en este caso la señal s(t) se dice
que es pasabanda. Este tipo de transmisión se caracteriza por realizarse sobre
cortas distancias.

Obviamente, en todo proceso de comunicación debe existir una fuente, de


naturaleza humana o mecánica, que determine el tipo de mensaje a transmitir y su
grado de complejidad; y un destino al que está dirigido el mensaje y elemento
decisivo para pronunciarse sobre la fidelidad de la comunicación.

Transmisor: Es un recurso técnico que transforma el mensaje originado por la


fuente de información en señales apropiadas (adaptación al canal). Generalmente
consta de un bloque de procesamiento de señal y de un modulador.
22

El bloque de procesamiento de señal adapta la información para una transmisión


más eficiente. Generalmente, el tratamiento realizado por este bloque sobre la
señal bandabase depende del tipo de modulación que se vaya a utilizar. En
sistemas analógicos puede ser, por ejemplo, un filtro pasabajas para limitar el
ancho de banda de m(t); puede ser un conversor A/D para el caso modulación de
pulsos; puede ser un codificador del mensaje en sistemas digitales, etc. A la salida
de éste la señal es todavía bandabase (espectro alrededor de f = 0).

El bloque modulador convierte la señal bandabase procesada en una banda de


frecuencia apropiada para el medio transmisor del canal. Por ejemplo, si es fibra
óptica, convierte la señal de bandabase a frecuencias luminosas. Para el caso de
una comunicación bandabase no existe el bloque modulador y s(t) sería la señal
de salida en el bloque de procesamiento de señal.

En cualquier caso, la señal s(t), a la salida del transmisor, es proporcional, de


algún modo, a la señal que aparece en sus terminales de entrada (señal
bandabase). Por ejemplo, un modulador senoidal puede variar la amplitud, la
frecuencia o la fase de una señal senoidal en proporción directa a la tensión de
entrada.

Receptor: Es un recurso técnico que transforma las señales recibidas en el


mensaje concebido por la fuente de información.

La función del receptor es efectuar las operaciones inversas del transmisor para
recuperar la información con la menor cantidad de errores posible. Su diseño, al
igual que el del transmisor, permite combatir de alguna manera los efectos
perniciosos del canal en la transmisión de la información.

La señal obtenida no es necesariamente la misma que fue transmitida.


23

Canal: Proporciona un medio de conexión entre el transmisor y el receptor para el


transporte de las señales.

Se clasifican en dos categorías: de cable duro (par trenzado, coaxial, fibra óptica,
guías de onda) y de cable blando (aire, espacio vacío, agua de mar).

El canal es el principal inconveniente de una comunicación eficiente, allí se


introducen los problemas de la comunicación: atenuación, distorsión y ruido.
Puede decirse que es el factor limitante del rendimiento de cualquier sistema de
comunicación bien diseñado, restringe el flujo de información.

El canal puede contener dispositivos amplificadores activos, por ejemplo


repetidores (en sistemas telefónicos) o transpondedores (en sistemas satelitales).
Además puede incluir múltiples trayectorias con características diferentes de
retardo y atenuación y que pueden variar con el tiempo, lo que produce
desvanecimiento de la señal. Por esta razón es importante el conocimiento de las
curvas de respuesta del canal (retardo y atenuación), para así elegir el medio más
adecuado y las características de modulación más convenientes que permitan la
transmisión más transparente posible.

En algunos casos el sistema transmite información de diversas fuentes a la vez.


Es un procedimiento mediante el cual se reúnen o entrelazan diversas señales en
otra señal de orden superior, haciendo posible su transmisión por el mismo canal
de forma simultánea e independientemente sin que las señales agrupadas se
interfieran entre sí. A este proceso se le llama multicanalización.


El canal de transmisión ideal debe tener una función de transferencia tal que la salida sea directamente
proporcional a la entrada, es decir, lo cual se cumple si , ya que
y .
24

1.3 CLASIFICACIÓN DE LOS SISTEMAS DE COMUNICACIÓN

1.3.1 Según el modo de transmisión

- Simplex: La transmisión se hace en una sola dirección, a través de un solo


canal. Ejemplo: Radiodifusión comercial, televisión.

Tx Rx

Figura 2. Comunicación simplex.

- Semidúplex (half dúplex): La transmisión puede ocurrir en ambas


direcciones pero no a la vez, a través de un solo canal utilizado
alternadamente, basado en un protocolo de control del canal. Ejemplo: Los
sistemas PTT (Push To Talk –oprima para hablar), o sistemas de radio de
doble sentido (policía o banda civil).

Tx Rx

Rx Tx

Figura 3. Comunicación semidúplex.

- Dúplex completo (full dúplex): Las transmisiones se pueden hacer en


ambas direcciones al mismo tiempo, utilizando para ello dos canales de
comunicación separados. La estación que está transmitiendo tiene que ser la
misma que recibe del otro extremo, no es un repetidor. Ejemplo: Sistema
telefónico, televisión interactiva.
25

Tx Rx

Rx Tx

Figura 4. Comunicación Full Dúplex.

- Full/full dúplex: Una estación transmite y recibe a la vez pero no


necesariamente con otra estación, sino que puede recibir de una y transmitir a
una tercera. Se utiliza casi exclusivamente con circuitos de comunicación de
datos.

1.3.2 Según las señales que maneja

- Analógico: La energía electromagnética se transmite y recibe en forma


analógica. Ejemplo: La radio comercial.

- Digital: La energía electromagnética se transmite y recibe en forma digital


(niveles discretos).

En comunicaciones el término digital tiene un sentido más amplio que la


definición dada en Sistemas y Señales. Aquí se entiende por señal digital
aquella que toma sólo un conjunto de valores discretos aunque sea continua en
el tiempo; por ejemplo, una señal de 2 niveles, +5 voltios y –5 voltios, es digital.
Para los sistemas digitales la información analógica debe convertirse en una
forma digital para su transmisión.
26

Algunos autores consideran que un sistema es analógico si la fuente entrega


información analógica, y es digital si la fuente entrega información digital. Por
ejemplo, en una modulación FSK se usa una onda senoidal de una frecuencia
f1 para transmitir el 1 binario y otra f 2 para transmitir el 0 binario; aunque por el
canal viaja una señal analógica, el sistema es digital.

En resumen, hay una cierta ambigüedad en la diferenciación entre un sistema


analógico y uno digital, por ejemplo, una modulación con portadora analógica y
moduladora digital, se llama digital.

Aunque los sistemas analógicos fueron los primeros en desarrollarse, los sistemas
digitales actualmente se hacen más comunes gracias a las ventajas que
presentan, tales como:

- Los circuitos digitales son relativamente económicos.

- En teoría no se acumula ruido (en sistemas de larga distancia).

- Se puede usar codificación criptográfica (mayor privacidad).

- Es posible un mayor intervalo dinámico (la diferencia entre los valores mayor y
menor).

- Se pueden mezclar y transmitir datos de voz, video y fuentes de datos con un


sistema de transmisión digital común.

- Se puede hacer detección y corrección de errores.

- Un sistema de comunicación digital puede transmitir mensajes con mayor


exactitud que uno analógico en presencia de distorsión y ruido.
27

- La posibilidad de utilizar repetidores regenerativos: Una estación repetidora


detecta los pulsos y transmite nuevos pulsos limpios, evitando así la
acumulación de distorsión y ruido y permitiendo la transmisión de información a
través de distancias más largas y con mayor exactitud.

Sin embargo, también presentan desventajas:

- En general requieren más ancho de banda que los sistemas analógicos,


aunque con las modernas técnicas de compresión esto es cada vez menos
cierto.

- Requiere sincronización. Ejemplo: PCM 2º nivel.

1.4 ESPECTRO ELECTROMAGNÉTICO

El espectro electromagnético es un recurso natural limitado y escaso constituido


por un conjunto de frecuencias casi infinito, las que son utilizadas por los
diferentes sistemas de telecomunicaciones para transferir información de un punto
a otro. Este comprende desde la bajísima frecuencia, aproximadamente 10 a 100
Hertzios, que corresponde a los campos generados por las actividades de
generación y transmisión de energía eléctrica, hasta frecuencias de 10 22 Hertzios,
que corresponden a la radiación de los rayos cósmicos.

Al mismo tiempo existe lo que se conoce como espectro radioeléctrico, que se


define como las frecuencias del espectro electromagnético usadas para los
servicios de difusión, servicios móviles, de policía, bomberos, radioastronomía,
meteorología y fijos. Es decir, el espectro radioeléctrico hace parte del espectro
electromagnético.
28

Día a día la trascendencia del espectro es mayor, esto debido al grado de


expansión de los sistemas de telecomunicaciones en el mundo, al desarrollo
constante de las nuevas tecnologías y su masiva aplicación a desarrollos
comerciales. Es debido a esta importancia que el Estado ha asumido –en todas la
naciones soberanas- la indelegable responsabilidad de establecer una gestión
directa en el uso del espectro, porque se trata de un activo nacional, un recurso
natural, limitado, escaso y de naturaleza pública. En el caso de Colombia, el
Estado, a través del Ministerio de Comunicaciones, actúa como dicho
administrador y como tal puede intervenir por mandato de la ley para garantizar el
pluralismo informativo y la competencia y evitar las prácticas monopolísticas en el
uso de este bien.

Como se verá a continuación, el espectro electromagnético está dividido en varios


rangos de frecuencias y en varias bandas, esto con el objeto de dar un adecuado
uso a este recurso y poder ser utilizado simultáneamente por varias aplicaciones,
ejemplo: radio, televisión, telefonía, difusión por cable, etc.

1.4.1 División del espectro. A partir de la creación de la Unión Internacional de


Telecomunicaciones (ITU-T) se comenzaron a discutir aspectos relacionados con
la utilización de frecuencias, al existir la posibilidad de que ciertas frecuencias
puedan llegar hasta otros países e incluso otros continentes. Adicionalmente, se
acordaron recomendaciones que buscan lograr un uso ordenado y eficiente del
espectro electromagnético. El siguiente cuadro muestra las bandas en que se
ordena el espectro electromagnético. Cada una de ellas define un conjunto de
ondas y recibe una designación determinada.
29

Tabla 1. Bandas del espectro electromagnético.

En la práctica sólo nueve grandes rangos de frecuencias son utilizados para la


realización de las comunicaciones, siendo estos los siguientes: VLF, LF, MF, HF,
VHF, UHF, SHF, EHF y la banda de frecuencias que comprende frecuencias
superiores a 300 GHz.

Estos rangos de frecuencias son a su vez divididos en bandas asociadas a


determinados servicios, y al mismo tiempo las bandas son divididas en canales,
esto con el objeto de poder atender simultáneamente varias comunicaciones de un
mismo servicio. De esta manera, por ejemplo, al servicio de radiodifusión sonora
por modulación de amplitud se le asignó la banda comprendida entre 550 Khz y
1650 Khz, dividida en canales de 10 Khz cada uno.
30

De acuerdo a las divisiones y reglamentaciones dictadas por la UIT, cada ente


administrador del espectro electromagnético de cada país, administra, gestiona y
controla la utilización del mismo. Por ejemplo, para Colombia el Ministerio de
Comunicaciones ha creado el “Cuadro Nacional de Atribución de Bandas de
Frecuencias”, con el cual se orienta a los usuarios actuales y potenciales de
servicios de radiocomunicación, dándoles a conocer las distribución del espectro
radioeléctrico, a fin de que sus solicitudes de frecuencias sean congruentes y estén
en la posibilidad de acceso a este recurso. A través de este mismo cuadro los
diferentes sectores de la sociedad (gubernamental, industrial, empresarial,
universidades de investigación científica y tecnológica, etc.), cuentan con un marco
de consulta que responda a su interés particular al conocer el estado actual de la
atribución de las bandas de frecuencias radioeléctricas y los planes particulares para
los diferentes servicios de radiocomunicación.

Sin embargo, por la naturaleza dinámica de la gestión de frecuencias, el Cuadro


Nacional de Atribución de Bandas de Frecuencias es actualizado periódicamente
como resultado de acuerdos tomados en las Conferencias Mundiales de
Radiocomunicaciones de la UIT, acuerdos Bilaterales y Multilaterales celebrados con
otros países y de aquellas modificaciones, adiciones o expedición de normas
nacionales, aplicadas a los planes de distribución de radiocanales de los servicios de
radiocomunicación que actualmente están en operación o bien de los nuevos
servicios de radiocomunicación.

1.4.2 Frecuencia y longitud de onda. Los diferentes rangos de frecuencias que


constituyen el espectro electromagnético también pueden ser designados de
acuerdo a las longitudes de onda de las ondas electromagnéticas que contienen,
utilizando para esto la siguiente relación:

(1.1)
31

donde  es la longitud de onda, c es la velocidad de la luz y f la frecuencia de la


onda electromagnética. De esta manera, para los nueve rangos de frecuencias
utilizados en la práctica tenemos las siguientes designaciones alternativas:

DESIGNACIÓN RANGO DE LONGITUD DE ONDA


FRECUENCIA

Very Low Frecuency Ondas 3 - 30 kHz 100 - 10 K


VLF Miriamétricas m.
Low Frecuency Ondas 30 - 300 kHz 10 - 1 K
LF Kilométricas m.
Médium Frecuency Ondas 300 - 3000 kHz 1 - 0.1 K
MF Hectométrica m.
s
High Frecuency Ondas 3 - 30 MHz 0.1 - 0.01 K
HF Decamétrica m.
s
Very High Frecuency Ondas 30 - 300 MHz 0.01 - 0.001 K
VHF Métricas m.
Ultra High Frecuency Ondas 300 - 3000 MHz 0.001 - 0.0001 K
UHF decimétricas m.
Super High Ondas 3 - 30 GHz 0.0001 - 0.00001 K
Frecuency centimétricas m.
SHF
Extremely High Ondas 30 - 300 GHz 0.0000 - 0.00000 K
Frecuency milimétricas 1 1 m.
EHF

Tabla 2. Designación de rangos de frecuencia.


32

1.5 CLASIFICACIÓN DE LAS TRANSMISIONES

En Estados Unidos, para propósitos de asignación de frecuencias, las


transmisiones de radio se clasifican teniendo en cuenta cuatro parámetros: Ancho
de banda (BW), tipo de modulación, tipo de portadora, información transmitida.

Para ello se usa un código que contiene:

- Ancho de banda necesario: se expresa mediante tres cifras y una letra. Esta
última ocupa la posición de la coma decimal, representando la unidad del ancho
de banda. Esta expresión no podrá comenzar por cero ni por K, M o G.

El ancho de banda necesario entre 0,001 y 999 Hz se expresa en Hz (letra H);


entre 1,00 y 999 kHz se expresará en kHz (letra K); entre 1,00 y 999 MHz se
expresa en MHz (letra M) y entre 1,00 y 999 GHz se expresa en GHz (letra G).

Ejemplos:

0,002 Hz = H002 6 KHz = 6K00 1,25 MHz =


1M25
0,1 Hz = H100 12,5 KHz = 12K5 2 MHz = 2M00
25,3 Hz = 25H3 180,4 KHz = 180K 10 MHz = 10M0
400 Hz = 400H 180,5 KHz = 181K 202 MHz = 202M
2,4 KHz = 2K40 180,7 KHz = 181K 5,65 GHz = 5G65

- Tipo de modulación de la portadora principal: Se representa utilizando alguna


de las letras especificadas en la tabla 3, según sea el caso.

TIPO DE MODULACIÓN LETRA


33

Emisión de una portadora no modulada N


Doble banda lateral A
Banda lateral única, portadora completa H
Banda lateral única, portadora reducida o de nivel variable R
Banda lateral única, portadora suprimida J
Bandas laterales independientes B
Banda lateral residual C
Modulación de frecuencia F
Modulación en fase G
Emisión en la cual la portadora principal puede tener modulación de D
amplitud y modulación angular.
Secuencia de impulsos no modulados P
Secuencia de impulsos modulados en amplitud K
Secuencia de impulsos modulados en anchura/duración L
Secuencia de impulsos modulados en posición/fase M
Secuencia de impulsos modulados en la que la portadora tiene Q
modulación angular durante el periodo del impulso
Secuencia de impulsos que consiste en una combinación de las V
técnicas precedentes o que se producen por otros medios
Casos no comprendidos aquí, en los que una emisión consiste en la W
portadora principal modulada, bien simultáneamente o según una
secuencia previamente establecida, según una combinación de dos o
más de los modos siguientes: modulación en amplitud, angular o por
impulsos
Casos no previstos X

Tabla 3. Tipos de modulación y su designación.


34

- Naturaleza de la señal(es) que modula(n) la portadora principal: Se representa


por un número que identifica el tipo de emisión (analógica, digital, etc.).

NATURALEZA DE LA SEÑAL NÚMERO


Ausencia de señal moduladora 0
Un solo canal con información cuantificada o digital, sin utilizar una 1
subportadora moduladora (2)
Un solo canal con información cuantificada o digital, utilizando una 2
subportadora moduladora (2)
Un solo canal con información analógica 3
Dos o más canales con información cuantificada o digital 7
Dos o más canales con información analógica 8
Sistema compuesto, con uno o más canales con información 9
cuantificada o digital, junto con uno o más canales con información
analógica
Casos no previstos X

Tabla 4. Naturaleza de la señal y su designación.

- Tipo de información que se va a transmitir: Se representa mediante una letra


que indica el tipo de información que se está transmitiendo (datos, telefonía,
voz, etc.).

TIPO DE INFORMACIÓN LETRA


Ausencia de información transmitida N
Telegrafía (para recepción acústica) A
Telegrafía (para recepción automática) B
Facsímil C
Transmisión de datos, telemedida, telemando D
35

Telefonía (incluida la radiodifusión sonora) E


Televisión (video) F
Combinación de los procedimientos anteriores W
Casos no previstos X

Tabla 5. Tipos de información y su designación.


Ejemplo:

1 0 K 0 A 3 E

10KHz
Radiodifusión de
sonido
Analógico

DBL con portadora

1.6 RUIDO

1.6.1 Preliminares. El ruido juega un papel importantísimo en cualquier sistema


de comunicaciones, es el causante de fluctuaciones (de tensión o corriente) que
tienden a oscurecer y enmascarar las señales deseadas y, por lo tanto, impide su
fiel reproducción. En términos generales es una señal indeseable que puede
provenir de diversas fuentes, artificiales o naturales.

Resulta ser tan importante el ruido en un sistema de comunicaciones, a tal punto


que es uno de los tres factores que deben tenerse en cuenta obligatoriamente.
Directamente influye en la calidad del sistema, factor que puede medirse
estableciendo una relación entre la potencia de la señal y la potencia del ruido,
36

comúnmente conocida como relación señal a ruido. Más adelante se profundizará


en este tema.

Los tipos de interferencia artificial (ruido) incluyen: captación electromagnética de


otras señales, filtrado inadecuado de potencia, términos alias provenientes de
mala selección del muestreo, vibraciones mecánicas que provocan disturbios
eléctricos, etc. Estas fuentes de ruido artificial pueden eliminarse, o al menos
minimizarse, con un diseño y operación cuidadosos.

En cambio, la interferencia causada por fuentes naturales no es controlable de


manera tan directa y sus características sólo pueden describirse en forma
estadística.

1.6.2 Definición y causas. Se entiende por ruido cualquier señal indeseable,


aleatoria y no predecible, debida a causas de origen natural, tanto internas como
externas (por su carácter aleatorio requiere un tratamiento estadístico). El ruido no
puede ser eliminado ni aún en teoría, constituyendo así una de las limitaciones
físicas fundamentales de las comunicaciones.

- El ruido externo incluye la interferencia proveniente de señales transmitidas por


canales vecinos, fallas de contactos en el equipo eléctrico, radiación de la
ignición de los automóviles y luces fluorescentes y el ruido natural de los
relámpagos, tormentas eléctricas, radiación solar e intergaláctica, radiación de
computadores, líneas de alto voltaje, etc.

- El ruido interno se debe al movimiento térmico de los electrones dentro de los


conductores y la distorsión por no linealidades en el proceso de transmisión y
recepción.
37

Para eliminar el ruido externo producido por la interferencia la UIT establece las
reglas que deben cumplir los operadores, y el Ministerio de Comunicaciones vela
por su cumplimiento. En cuanto a los niveles de radiación permitidos existen
organismos que las fijan (en Estados Unidos la FCC, en Colombia el ICONTEC).

1.6.3 Relación señal a ruido (S/N) . La relación señal a ruido es un importante


parámetro en la teoría y el diseño de sistemas de comunicación. Para su cálculo
es necesario conocer la potencia media de la señal y del ruido en el sistema,
incluyendo el conjunto completo del transmisor, canal y receptor. Si la potencia
media del ruido es relativamente pequeña, la potencia de la señal no necesita ser
muy grande para que el receptor determine qué información se está enviando (por
supuesto, también interesa la eficiencia del sistema y, por tanto, minimizar la
potencia transmitida necesaria para conducir la información al usuario); en cambio,
si la potencia media del ruido es alta entonces se necesitará una potencia media
de señal relativamente alta, lo que redunda en un sistema menos eficiente.

La razón por la que se utilizan potencias medias y no la magnitud como tal para el
cálculo de la relación señal a ruido, se debe al carácter impredecible del ruido.

n(t)
n(t)

Figura 5. Señal de ruido

El valor medio del ruido, se obtiene mediante la siguiente fórmula estadística:

(1.2)
38

donde n(t) representa el nivel de la señal de ruido y T la variable del límite.

Utilizando el valor medio del ruido es posible encontrar el valor cuadrático medio
del ruido, también representado como N:

(1.3)

A su vez, el valor cuadrático medio de la señal se encuentra con la siguiente


ecuación:

(1.4)

donde m(t) representa el nivel de la señal transmitida.


Finalmente, utilizando las ecuaciones (1.3) y (1.4) se obtiene la relación S/N:

(1.5)

Es común expresar la relación señal a ruido (S/N) en decibeles. Esta es una


unidad logarítmica de medición usada para comparar dos niveles de potencia. Si
Pr es el nivel de potencia de referencia, el decibel se define por la ecuación:

(1.6)

De allí que, dada una razón de potencias en db, la razón de potencias es:

(1.7)
39

Si las potencias se normalizan, es decir, se refieren a resistencias del mismo valor,


se obtiene:

(1.8)

Los decibeles también se usan para indicar valores absolutos de potencias:

- Si la referencia es 1 Watt, (1.9)

- Si la referencia es 1 miliwatt, (1.10)

Para expresar entonces la relación S/N en decibeles, se utiliza la siguiente


expresión:

(1.11)

Se ha calificado al ruido como una de las limitaciones físicas fundamentales; la


otra es el ancho de banda.

El ruido, o mejor la S/N, y el ancho de banda son directamente proporcionales.


Para la comunicación es necesario un BW mínimo B; un ancho de banda mayor
permitirá más interferencia del ruido con la transmisión de la información, por lo
que es importante mantener el BW del canal tan reducido como sea posible.
Ambas limitaciones, ruido y ancho de banda, determinan la capacidad del sistema,
la cual, según Shannon, no debe ser excedida por la tasa de información. Esto se
demuestra con la Ley de Hartley-Shannon que se verá más adelante.

En general el ruido limita la capacidad de comunicación del sistema, si éste no


existiera se podría enviar información (mensajes electrónicos) a los confines del
universo con una cantidad de energía tendiente a cero (0).
40

Adicional a la contaminación por ruido que sufre la señal a lo largo de la


trayectoria de la comunicación, también sufre distorsiones causadas por el canal.
Este actúa como un filtro que atenúa y distorsiona la forma de onda, debido a las
diferentes magnitudes de atenuación y de corrimiento de fase que sufren las
diferentes componentes de frecuencia de la señal. Por esta razón es importante
conocer la respuesta en magnitud y frecuencia del canal, y poder elegir el rango
de frecuencias más adecuado para la transmisión de la información.

1.6.4 Ruido blanco. La Densidad Espectral de Potencia (DEP), como se verá


más adelante, permite describir la distribución de la potencia en función de la
frecuencia, y por tanto juega un papel importante en la descripción del ruido
aleatorio promediado en el tiempo o . El tipo de DEP que contiene todas las
componentes de frecuencia con igual proporción de potencia se designa como
ruido blanco, por analogía con la luz blanca (que contiene todos los colores).

El ruido blanco gaussiano tiene una Función de Densidad de Probabilidad


(F.D.P.), es decir, distribución relativa de las amplitudes de ruido, dada por:

(1.12)

donde  es el valor RMS de la señal de ruido. La probabilidad de que una amplitud


igual a n esté dentro de un rango (, ) resulta del área bajo la curva de FDP en
ese rango:

(1.13)
41

Figura 6. Función de Densidad de Probabilidad


para el ruido blanco Gaussiano.

1.6.5 Factor de ruido. El factor de ruido, o temperatura eficaz de ruido, se puede


utilizar para estipular la calidad de un receptor o del sistema de comunicación en
general; es una temperatura aparente que es representativa del ruido generado
internamente en el receptor. El factor de ruido F se define como la relación entre la
potencia total de ruido existente en la salida del receptor, cuando la terminal de la
entrada está a temperatura de 290 K (18ºC), y la porción total de potencia de ruido
existente en la terminal de entrada.

(1.14)

El receptor “perfecto” tiene, pues, un factor de ruido igual a la unidad (cero


decibeles), y la introducción de ruido adicional hace que dicho factor sea mayor
que uno, lo que corresponde al caso real. Teóricamente, y debido al ruido térmico
o temperatura de ruido, todo sistema de comunicación introduce ruido adicional.

Se dice que todo cuerpo, por encontrarse a una temperatura T (en grados Kelvin)
emite ondas electromagnéticas de potencia constante a lo largo de todo el
espectro. Se demuestra que dicha potencia puede expresarse matemáticamente
como:
42

P = KTB (1.15)

Donde:

P: Potencia de ruido en Wattios.


K: Constante de Boltzman; K=1.38 x 10-23 J/K (Julios por grado Kelvin).
T: Temperatura en K (grados Kelvin).
B: Ancho de banda en Hz.

1.7 FACTOR DE MÉRITO

El factor de mérito mide la degradación o mejora de la relación señal a ruido en la


salida de la etapa de demodulación respecto a la entrada. Es decir, determina la
eficiencia de un tipo de modulación.

La calidad de un sistema o su factor de mérito se define por la siguiente relación:

(1.16)

donde S0/N0 es la relación señal a ruido a la salida del receptor y S I/NI la relación
señal a ruido a la entrada del mismo.

Ancho de Banda: Como ya se había mencionado, el ancho de banda es la otra


limitante física para el desarrollo de los sistemas de comunicación.

La noción de ancho de banda se aplica tanto a las señales como a los sistemas.
En el caso de las señales nos da una indicación de su velocidad de variación y en
consecuencia de la cantidad de información que la misma contiene. Por otro lado,
43

la aptitud de un sistema para seguir las variaciones de la señal inyectada a su


entrada también se expresa como ancho de banda de transmisión. Se define
como el intervalo de frecuencias positivas dentro del cual se puede transmitir una
señal con razonable fidelidad. Es importante por dos razones:

- El espectro es un recurso no renovable cada vez más escaso y cada vez más
usuarios deben acomodarse en una banda limitada.

- Debe tenerse en cuenta en el diseño, de modo que sea suficiente para


acomodar la señal y rechazar el ruido, es decir, a mayor ancho de banda
mayor es la posibilidad de interferencia del ruido con la transmisión de la
información, por lo que es importante mantener el ancho de banda tan reducido
como sea posible.

El ancho de banda está relacionado en forma directa con la velocidad de


transmisión, si esta aumenta entonces el espectro se ensancha.

Existen varios criterios para determinar el ancho de banda, el más usado es el


ancho de banda de 3db o ancho de banda de media potencia.

1.8 SEÑALES REALES

En los sistemas de comunicación las formas de onda pueden ser de voltaje como
función del tiempo, o de corriente como función del tiempo. En general se pueden
usar las mismas técnicas matemáticas cuando se trabaja con uno u otro tipo de
forma de onda, la característica es que deben ser físicamente realizables y por
tanto satisfacen las siguientes condiciones:
44

- La forma de onda tiene valores significativos diferentes de cero a lo largo de un


lapso compuesto finito: condición necesaria ya que aparentemente los
sistemas (y sus formas de onda) existen durante una cantidad finita de tiempo.

- El espectro de la forma de onda tiene valores significativos a lo largo de un


intervalo de frecuencia compuesto finito: condición necesaria ya que cualquier
medio de transmisión posee un ancho de banda limitado.

- La forma de onda es una función de tiempo continua.

- La forma de onda tiene un valor máximo finito: condición necesaria ya que los
dispositivos físicos se destruyen si dentro de ellos existe voltaje o corrientes de
valor infinito.

- La forma de onda tiene sólo valores reales. Esta condición se desprende del
hecho que sólo formas de onda reales se pueden observar en el mundo real,
aunque sus propiedades, tales como el espectro, pueden ser complejas.

Algunas caracterísitcas útiles de las formas de onda son el valor de corriente


directa, también conocido como valor promedio, y la potencia o valor cuadrático
promedio.

Si f es una señal, el valor promedio de f en el tiempo se define como:

(1.17)

No obstante, para cualquier forma de onda física, existe especial interés por
evaluar el valor promedio sólo en un intervalo finito de tiempo, en este caso:
45

(1.18)

Acerca de la potencia promedio de la señal, si ésta es lo suficientemente grande


comparada con la potencia promedio del ruido, es posible recuperar la información
en el lado del receptor. La potencia o valor cuadrático promedio de una señal se
define como:

(1.19)

1.9 TEOREMA DE PARSEVAL

El teorema de Parseval es un método que permite evaluar la energía de una forma


de onda utilizando la descripción del dominio de la frecuencia. Está definido por:

(1.20)

Si f1(t) = f *2(t) = f(t), la ecuación anterior se reduce a:

(1.21)

El teorema de Parseval conduce al concepto de función de densidad espectral de


energía. La Densidad Espectral de Energía (DEE), para formas de onda de
energía, está definida por:

(1.22)
46

Para formas de onda de potencia se define una función similar conocida como
Densidad Espectral de Potencia, tal como se verá a continuación.

1.10 DENSIDAD ESPECTRAL DE POTENCIA

La Densidad Espectral de Potencia (DEP), representada por Sf(w), describe la


distribución de la potencia en función de la frecuencia, y por tanto constituye una
medida importante en los sistemas de comunicación prácticos. Por ejemplo,
permite describir la manera en que el contenido de potencia de las señales y el
ruido son afectadas por filtros y otros dispositivos en los sistemas de
comunicación.

En la ecuación (1.21), la densidad espectral de energía (DEE) se definió en


términos de la magnitud elevada al cuadrado de la transformada de Fourier de la
forma de onda. La DEP se define de la misma manera; sin embargo la DEP
resulta ser más útil que la DEE puesto que en la solución de problemas de
comunicación por lo general se utilizan modelos de potencia.

Para hallar la DEP de una forma de onda debe definirse primero su versión
truncada:

(1.23)

Utilizando la ecuación (1.18) puede hallarse la potencia promedio:

(1.24)
47

Utilizando el teorema de Parseval la anterior ecuación se convierte en:

(1.25)

De la ecuación (1.24) se desprende que la DEP está dada por:

(1.26)

Obsérvese que la DEP siempre es una función de frecuencia no negativa real.

Una manera indirecta de evaluar la DEP de una forma de onda es mediante una
función relacionada llamada función de autocorrelación, definida como:

(1.27)

Es posible demostrar que la DEP y la función de autocorrelación es un par de


transformadas:
(1.28)

Por lo tanto puede encontrarse la DEP evaluando en primer lugar la función de


autocorrelación y en seguida la transformada de Fourier de la ecuación (1.27).
48

1.11 INTRODUCCIÓN A LA TEORÍA DE LA INFORMACIÓN

1.11.1 Conceptos de la teoría de la información. La llamada teoría de la


información, formulada a finales de los 40 por el ingeniero Claude E. Shannon, es
una rama de las matemáticas que permite definir todas aquellas magnitudes que
intervienen en las situaciones en las que se produce un flujo o transmisión de
información, y conseguir, a partir de esas definiciones, un cálculo de la cantidad de
información que puede ser transportada a través de un canal y la identificación,
además, de las formas de maximizar la eficacia de ese proceso.

En ese sentido, los problemas que se persigue subsanar con esta teoría se
agrupan alrededor de temas como el ahorro de tiempo y dinero en la transmisión
de señales, el diseño y el uso de canales que permitan transmitir la máxima
cantidad de información, la búsqueda de códigos adecuados compatibles con el
canal, la reproducción (de forma exacta o aproximada) de una señal seleccionada
en otro lugar o el desarrollo de canales sin ruido, por presentar sólo unos
ejemplos.

En toda transmisión de datos lo ideal es que éstos lleguen sin errores, es decir,
que la probabilidad de error tienda a 0 (Pe→0), algo que es casi imposible en un
canal con presencia de ruido, como son la mayoría de los canales. Con la teoría
de la información se logra establecer que el índice de transmisión de la
información es la base para una transmisión libre de errores, haciendo que éste se
mantenga dentro de un límite (capacidad del canal). Es necesario entonces medir
la información contenida en las señales mensaje y poder determinar la capacidad
de un sistema de transferir la información desde su origen hasta su destino,
problema del que se ocupa la teoría de la información.
49

1.11.2 Medida de la información. La cantidad de información sobre un


acontecimiento está estrechamente relacionada con su probabilidad de ocurrencia.
Cuanto más probable es un mensaje menor es la información transmitida por ese
mensaje. Por ejemplo, si en una compañía el pago de la nómina se realiza el
último día hábil del mes, comunicarle a los empleados esta novedad no les
transmitirá gran información, pues la probabilidad que ocurra es prácticamente 1.
Pero si se les comunica que la compañía ha decidido pagar un premio extra de 7
salarios este mensaje es distinto en lo que se refiere a cantidad de información,
pues la probabilidad es mucho menor que en el caso anterior.

Así que aquellos mensajes que contienen noticias de gran probabilidad de


ocurrencia llevan relativamente poca información. Por el contrario, los que
contienen noticias con baja probabilidad de ocurrencia conducen grandes
cantidades de información. O sea, la información recibida es inversamente
proporcional a su probabilidad de ocurrencia.

De acuerdo a este razonamiento puede llegarse a una formulación matemática


que tenga en cuenta y cumpla las siguientes premisas:

- Si un evento es cierto, es decir, ocurre con probabilidad igual a 1, lleva 0


información.

- Por otro lado, si un evento es imposible, probabilidad de ocurrencia igual a 0,


entonces conlleva una cantidad infinita de información.

En términos generales, la medida de la información permite indicar la libertad de


elección que puede tener la fuente en seleccionar un mensaje. Si la fuente puede
elegir libremente entre varios mensajes diferentes, el usuario tiene una alta
incertidumbre respecto al mensaje que será seleccionado. Pero si no hay elección
no hay incertidumbre y por lo tanto tampoco información. Adicionalmente, la
50

medida de la información debe tener un valor real y debe ser aditiva para poder
tener en cuenta eventos estadísticamente independientes.

La ecuación (1.29) describe matemáticamente el razonamiento presentado atrás y


permite calcular la información asociada a un evento. I(mj) puede entenderse
como la información necesaria para representar que se ha producido la ocurrencia
de mj, o como el número de pasos o decisiones binarias (bits) necesarios para
reducir n posibilidades de una fuente a una.

(1.29)

La base del logaritmo define la unidad de información. La más usada es con base
2 y su unidad de información se denomina bit ; otras base son 10 (Hartley) y e
(nat).

Ejemplo: Supóngase que se usa codificación binaria y que se tienen 2 mensajes


equiprobables m1 y m2, es decir, P(m1) = P(m2) = ½. La cantidad de información
asociada a cada mensaje es:

En este caso cada mensaje se codifica con 1 bit y cada mensaje tiene un bit de
información, por ejemplo m1=1 y m2=0.


Se había hecho referencia a los pulsos binarios como bits, y ahora se define el bit como una medida del
contenido de información. Cuando los eventos son equiprobables las 2 definiciones coinciden, pero en el caso
general no. Por lo tanto se define del contexto a cual de las dos definiciones se refiere la palabra bit, si a
pulsos binarios o a unidades de información.
51

En el caso de 4 mensajes equiprobables m1, m2, m3 y m4, se tiene que P(mj) = ¼ y por tanto:

Entonces cada mensaje se codifica con 2 bits y tiene 2 bits de información (m 1=00,
m2=01, m3=10, m4=11).

Resumiendo, cualquiera de n mensajes equiprobables contiene bits de


información, cantidad que coincide con el número de dígitos binarios. Si n no es
potencia de 2, no es entero; en ese caso se aproxima al entero por encima.

Los resultados obtenidos hasta ahora definen la medida de información para el


caso particular en que todos los mensajes son igualmente probables. En el caso
de que los mensajes no sean equiprobables, que es lo general y lo normal, el
número de dígitos binarios o de codificación no coincidirá con el número de bits de
información. Para generalizar, se define entonces una medida de información
promedio para una fuente considerando todos los mensajes posibles, llamada
entropía H.

1.11.3 Entropía de la fuente. Para una fuente discreta cuyos símbolos son
estadísticamente independientes la expresión de la entropía es formulada por la
ecuación (1.29):

(1.30)

La entropía debe entenderse como la información promedio de cada mensaje


suministrado por la fuente, o también, el valor medio de la incertidumbre de un
observador antes de conocer la salida de la fuente.
52

Para el caso de una fuente binaria, la información promedio o entropía H se define


como el valor esperado de I, de acuerdo a la ecuación mostrada en la diapositiva.
Si los mensajes son equiprobables entonces Pi = 1/n, y por tanto:

(1.31)

y se puede demostrar que la entropía es máxima para este caso.

Para el ejemplo anterior se tendrá:

Esto indica que el número mínimo de dígitos binarios que se requieren en


promedio para codificar uno de estos mensajes es 1.74. Puede concluirse que el
número de bits de información siempre es menor o igual al número de dígitos
binarios.

En conclusión, la entropía asigna a cada mensaje un contenido de información


promedio, aunque la información para cada uno puede variar de forma
considerable.

La importancia de esta cantidad, en detrimento de la de cantidad de información


de una señal concreta, se justifica por el hecho de que es mucho más fructífera y
útil a la hora de intentar diseñar soluciones a los problemas centrados en los
aspectos de la ingeniería de la comunicación. Es poco útil intentar encontrar un
canal que sirva para transmitir información exclusivamente en función de la
cantidad de información asociada a una señal determinada de una fuente: si bien
se lograría que esa señal se transmitiese de una manera correcta, podría ser que
53

para el resto de las señales de la fuente el canal utilizado no fuera adecuado. Es


mucho más rentable diseñar un canal teniendo en cuenta el promedio de
información por mensaje suministrado por la fuente.

Las definiciones que se han dado aquí son para fuentes digitales. Para fuentes
continuas las matemáticas con más complicadas y los resultados más difíciles de
interpretar.

1.11.4 Codificación de la fuente. Se busca hacer más eficiente una fuente


discreta, para ello se hace que los mensajes más probables tengan asignadas
palabras de código más cortas y a los menos probables palabras más largas.

El teorema de codificación de una fuente dice que se necesitan, en promedio, un


mínimo de H dígitos binarios por mensaje. El número de dígitos en la palabra de
código es su longitud. Así, la longitud media de palabra de un código óptimo es H.

Ejemplo: Sea una fuente discreta sin memoria que emite n mensajes m1, m2, …,
mn, con probabilidades P1, P2, …, Pn. Supóngase una sucesión de N mensajes,
con N muy grande, por lo que el mensaje m i se presentará NPi veces en la
sucesión de N (una sucesión típica de N mensajes, N→α, tiene la misma
proporción de los n mensajes que cualquier otra, aunque en otro orden). La
probabilidad de ocurrencia de cualquier sucesión típica SN será:
(1.32)

Como todas las sucesiones tienen la misma composición de N mensajes,


entonces estas son equiprobables.


Cada mensaje es independiente de los mensajes anteriores.
54

Por tanto, para codificar una de tales sucesiones se necesita una palabra de
código de longitud LN:

(1.33)

LN es el número de dígitos binarios que se necesitan para codificar los N mensajes


en secuencia, por lo tanto el promedio de dígitos que se requieren por mensaje es:

dígitos binarios (1.34)

En conclusión, el número mínimo de dígitos binarios que se requieren para


codificar cada mensaje es H.

Si la fuente no es binaria sino r-aria (r dígitos para codificar los mensajes),


entonces:

(1.35)

1.11.5 Código de Huffman. Se denomina código de fuente óptimo dado que la


longitud promedio de palabra es mínima. El procedimiento, por ejemplo, para una
fuente dada que produce 6 mensajes como los mostrados en la diapositiva, es
como sigue.

Se ordenan los mensajes en forma descendente según su probabilidad, y se


combinan los 2 últimos en un nuevo mensaje con probabilidad igual a la suma de
las probabilidades de los mensajes combinados (figura 7).
55

Mensaje Probabilidad Código S1 S2 S3 S4

m1 0.35 0.35 0.35 0.38 0.62


m2 0.20 0.20 0.27 0.35 0.38
m3 0.18 0.18 0.20 0.27
m4 0.15 0.15 0.18
m5 0.10 0.12
m6 0.02
Figura 7. Formación del código de Huffman.

La probabilidad del mensaje combinado se coloca con los demás restantes en una
nueva columna, igualmente ordenada en forma descendente. Este procedimiento
se repite hasta obtener sólo dos mensajes, a los que se les asignan 0 y 1 para su
codificación. Luego se asignan 0 y 1 al segundo dígito de los dos mensajes que se
combinaron en el paso anterior (figura 8).

El código que se obtiene es unívocamente decodificable (decodificación no


ambigua).
Mensaje Probabilidad Código S1 S2 S3 S4

m1 0.35 00 0.35 00 0.35 00 0.38 1 0.62 0


m2 0.20 10 0.20 10 0.27 01 0.35 00 0.38 1
m3 0.18 11 0.18 11 0.20 10 0.27 01
m4 0.15 010 0.15 010 0.18 11
m5 0.10 0110 0.12 011
m6 0.02 0111

Figura 8. Formación del código de Huffman (continuación).

En este caso, la longitud media de la palabra de código es:


56

La entropía de la fuente:

Luego, la mínima longitud posible que alcanza una sucesión infinitamente larga de
mensajes es igual a 2.295 bits por mensaje.

La eficiencia del código

La redundancia del código γ = 1-η = 0.04. La redundancia implica confiabilidad, ya


que mientras más redundante (pero menos eficiente) se puede lograr mejor
detección y corrección de errores.

1.11.6 Capacidad del canal. Como se había mencionado, en un sistema de


comunicación el ancho de banda B y la potencia de transmisión S son
intercambiables, en el sentido de que al aumentar uno se puede disminuir el otro.
Si la transmisión de determinada información requiere un ancho de banda B 1 y una
relación señal a ruido (S/N)1, es posible transmitir la misma información a través
de un ancho de banda de canal B 2 y una relación señal a ruido (S/N) 2 si se
cumple:

(1.36)

Lo anterior indica que si se duplica el ancho de banda del canal (B 2=2B1),


entonces la relación señal a ruido que se requiere es:
57

(1.37)

Como puede verse, un incremento relativamente pequeño en el ancho de banda


del canal representa una gran reducción en la potencia requerida para conservar
el índice de transmisión; por lo tanto, en la práctica, se incremente B para reducir
la potencia de transmisión y rara vez lo contrario.

1.11.7 Ley de Hartley – Shannon. El concepto de Capacidad del Canal establece


que si la velocidad de transmisión R es igual o menor que el índice de transmisión
de información por segundo C (R≤C), conocido como capacidad del canal,
entonces existe una técnica de codificación que permite la transmisión por el canal
con una probabilidad de error arbitrariamente cercana a cero. Es decir, si la
velocidad de transmisión R es menor que C, se puede transmitir información con
tanta exactitud como se desee.

Con este teorema Shannon señaló una meta del rendimiento teórico que hay que
tratar de lograr con sistemas de comunicación prácticos, aunque no indicó cómo
hacerlo. En la práctica los sistemas que se aproximan a esta meta por lo general
incorporan codificación de corrección de errores.

La ley de Hartley-Shannon establece la relación entre el ancho de banda B y la


relación señal a ruido (S/N) en presencia de ruido blanco gaussiano (no se
considera la interferencia intersimbólica y los desvanecimientos), utilizando para
ello la capacidad del canal C. Para un canal binario:

bps (1.38)
58

Aunque restringido al caso gaussiano, este resultado es de gran importancia en


sistemas de comunicación porque muchos canales pueden modelarse como el
gaussiano. Es aplicable tanto al canal discreto como al continuo.

También podría gustarte