TEMA 1.
REPRESENTACIÓN Y COMUNICACIÓN DE LA Volver al
índice
INFORMACIÓN
Índice
1. Introducción
2. Sistemas de numeración
1. Sistemas de numeración posicionales
3. Cambios de sistemas de numeración
1. Paso de base b a decimal
2. Paso de un decimal a cualquier base
3. Paso de base b a base c
4. El sistema binario
5. Operaciones en binario
1. Suma binaria
2. Resta binaria
3. Multiplicación binaria
4. División binaria
5. Operaciones lógicas
6. El sistema octal y el sistema hexadecimal
7. Códigos binarios
1. Códigos numéricos
1. Códigos BCD (Decimal Codificado en Binario)
2. Otros códigos numéricos
1. Código gray
2. Codificación biquinaria
3. Codificación quibinaria
4. Código 7 segmentos
2. Códigos alfanuméricos
1. Código BCD de intercambio normalizado
2. Código ASCII
3. Código EBCDIC. Código BCD ampliado
1. Ventajas de los códigos EBCDIC y ASCII
8. Redundancia en la codificaciones binarias. Bits de control.
9. Comunicación de la información
1. Elementos de un sistema de comunicación digital
2. Compresión de datos en las comunicaciones
1. Compresión lossless
2. Compresión lossy
Esquema
1.- INTRODUCCIÓN
Toda la información que manejan los ordenadores se representa mediante dos símbolos el 0 y el 1 ( dos niveles de
tensión). Esto facilita la construcción y fiabilidad de los circuitos internos. El ordenador será capaz de manejar caracteres
numéricos; alfabéticos; especiales; gráficos e información de control (salto de línea, control comunicaciones, etc.)
Pasar de este conjunto de símbolos a 0's y 1's se denomina codificación de la información y al proceso inverso
decodificación.
2.- SISTEMA DE NUMERACIÓN
Sistema para expresar gráficamente los números. Existen sistemas posicionales donde el valor depende de la posición
(por ejemplo la numeración decimal) y otros no posicionales (sistema romano) donde el valor es independiente de la
posición.
2.1.- SISTEMAS DE NUMERACIÓN POSICIONALES
Se caracteriza fundamentalmente por su base, que es el valor (peso) de cada símbolo dependiendo de la posición que
ocupe, y normalmente coincide con el número de símbolos que utiliza la representación.
Página 1
Para p cifras enteras, q cifras decimales y sien b la base. Nombrando sus cifras de la siguiente forma:
N(b = np-1np-2 ... n1 n0' n1 n2 ... nq
N(10 = np-1·bp-1 + np-2·bp-2 + ... + n1·b1 + n0·p0 + n1·b-1 + n2·b-2 + ... + nq·b-q
3.- CAMBIOS DE SISTEMAS DE NUMERACIÓN
3.1.- PASO DE BASE b A DECIMAL
Existen dos métodos para pasar un número de cualquier base a decimal:
1) Teorema fundamental de la numeración (TFN): N (b = np-1·bp-1 + np-2·bp-2 + ... + n1·b1 + n0·p0 + n1·b-1 +
n2·b-2 + ... + nq·b-q = N(10
1 2 3 4
2) Método de Ruffini: por ejemplo
1234 (5 = 194 (10 5 (base) 5·1 5·7 5·38
suma-> 1 7 38 194
3.2..- PASO DE DECIMAL A CUALQUIER BASE
Se divide el número decimal por la base hasta que se obtenga un cociente menor que la base, luego se recoge el último
cociente y los restos obtenidos en orden inverso. Por ejemplo 1234 (10 = 14414 (5.
3.3.- PASO DE BASE b A BASE c
Se pasará de base b a base decimal (bien por Ruffini o bien por el TFN) y luego el número decimal mediante la división
entera por la base c.
4.- EL SISTEMA BINARIO
El sistema de numeración de base dos, se conoce como sistema binario y utiliza los símbolos 0 y 1 = Cifra binaria o bit.
La cantidad de números que se pueden representar con un sistema binario depende del número de cifras binarias que
utilicemos así. 2 n siendo n = número de cifras binarias.
En binario los grupos de bits, Los múltiplos del byte son:
dependiendo de su longitud,
reciben un nombre específico:
bits nombre específico bytes nombre específico
4 nibble 1024 Kilobyte -Kb
8 byte / octeto 1024 2 Megabyte -Mb (1024 Kb)
16 media palabra 1024 3 Gigabyte -Gb (1024 Mb)
32 palabra 1024 4 Terabyte - Tb (1024 Gb)
64 doble palabra 1024 5 Petabyte - Pb (1024 Tb)
Si tenemos que pasar un número en base 10 (decimal) con decimales a binario, primero pasaremos la parte entera
dividiendo por 2 sucesivamente y luego la parte decimal que la iremos multiplicando por 2 hasta llegar a uno.
0,0625 (10 0,0001 (2
0,625·2 = 0
0,125
0,125·2 = 0
0,25
0,25·2 = 0
0,50
0,5·2 = 1 1
Si tenemos que pasar de decimal a binario lo hacemos por el Teorema Fundamental de los números:
0,0001 (2 = 0·20+ 0·2-1 +0 ·2-2 +0·2-3+1·2-4 = 0,0625 (10 . (Nota 2-n = 1/2n)
Puede darse el caso que un decimal con un número finito de decimales al pasarlo a binario de infinitas cifras decimales.
Esto justifica algunos errores que aparecen en los cálculos hechos con ordenador que truncan estos tipos de números.
5.- OPERACIONES EN BINARIO
Página 2
Operaciones aritméticas:
Multiplicación
Suma binaria Resta binaria División binaria
binaria
0+0=0 0-0=0 0·0=0 111011011 / 101
0+1=1 0-1=1 (y 0·1=0 -101||| 1011111
1+0=1 acarreo 1) 1·0=0 ----|||
1+1=0 (acarreo 1-0=1 1·1=1 01001|
1) 1-1=0 - 101|
-----|
1001 ...
Operaciones lógicas:
AND OR XOR
0 and 0 = 0 0 or 0 = 0 0 xor 0 = 0
0 and 1 = 0 0 or 1 = 1 0 xor 1 = 1
1 and 0 = 0 1 or 0 = 1 1 xor 0 = 1
1 and 1 = 1 1 or 1 0 1 1 xor 1 = 0
6.- EL SISTEMA OCTAL Y EL SISTEMAHEXADECIMAL
El sistema octal utiliza 8 símbolos {0,1,2,3,4,5,6,7}, la ventaja de este sistema es la facilidad para pasar un número octal a
binario y viceversa.
47(8 = 100 111= 100111(2
4 7
El sistema hexadecimal utiliza 16 símbolos {0,1,2,3,4,5,6,78,9, A,B,C,D,E,F} y ofrece la misma ventaja que el sistema octal.
3F1(16 = 0011 1111 0001 = 001111110001
(2
3 F 1
7.- CÓDIGOS BINARIOS
Se entiende por código una representación unívoca de las cantidades.
7.1.- CÓDIGOS NUMÉRICOS
7.1.1.- CÓDIGOS BCD (DECIMAL CODIFICADO EN BINARIO)
BCD NATURAL (8421)
PONDERADOS
Autocomplementario BCD AIKEN (2421)
CÓDIGOS O
BCD (5421)
BCD PESADOS
BCD (5311)
NO PONDERADOS Autocomplementario XS.3 (Exceso a 3)
Se dice que un código es autocomplementario cuando la combinación correspondiente al complemento a 9 de un número
N (9-N) se obtiene invirtiendo la combinación correspondiente al número N
7.1.2.- OTROS CÓDIGOS NUMÉRICOS
7.1.2.1.- CÓDIGO GRAY
Es un código no pesado, se utiliza para contadores, decodificadores, etc.. La característica principal es que cada número
se diferencia del anterior y de l posterior en la modificación de un solo dígito.
7.1.2.2.- CODIFICACIÓN BIQUINARIA
Cada dígito decimal se expresa mediante un conjunto de 7 bits, de tal forma que en cada código válido hay dos bits a uno
y cinco a cero con la condición de que siempre uno de los 2 bits a uno han de estar en las posiciones 5 ó 6 (las dos
posiciones de la izquierda).
7.1.2.3.- CODIFICACIÓN QUIBINARIA
Página 3
En este código también se expresa cada dígito binario con 7 bits; dos de estos bits han de estar a 1 y cinco a 0; en este
caso uno de los bits a uno debe estar en una de las dos posiciones de la derecha y el otro en una de las cinco posiciones
de la izquierda. En este código los números pares tendrán el bit de la derecha a 1 y los impares a 0.
7.1.2.4.- CÓDIGO 7 SEGMENTOS
Son códigos que se utilizan para mostrar datos en pequeños visualizadores o displays (calculadoras), suelen ser de 7 16 o
35 bits, para representar un carácter basta con poner a 1 el bit que queremos que se encienda.
7.2.- CÓDIGOS ALFANUMÉRICOS
6 bits: FIELDATA, EBCDIC o X.3 (64 caracteres)
7 bits: ASCII (permitía mayúsculas y minúsculas además de caracteres de control)
8 bits: EBCDIC, ASCII extendido (ñ, letras acentuadas, caracteres gráficos, etc.)
2 bytes: UNICODE (permite 65536 símbolos distintos, griego, cirilico , árabe, etc.)
7.2.1.- CÓDIGO BCD DE INTERCAMBIO NORMALIZADO
Son 6 bits. Se suele utilizar el bit extremo izquierdo como bit de paridad
bits de zona bits de posición
00 Números del 1 al 0
11 Letras de la "A" a la "I"
10 Letras de "J" a la "R"
01 Letras de la "S" a la "Z"
7.2.2.- CÓDIGO ASCII
Se utiliza 7 bits (tres bits de zona y cuatro de posición).
bits de zona bits de posición
100 letras de la A a la O
101 letras de la P a la Z
110 letras de la "a" a la "o"
111 letras de la "p" a la "z"
011 números
7.2.3.- CÓDIGO EBCDIC. CÓDIGO BCD AMPLIADO
Se utilizan 8 bits. Se dividen en 2 grupos de 4 bits. Los bits de zona se dividen a su vez en 2 grupos de 2 bits cada uno.
zona -1 zona-2 posición
00 letras mayúsculas y números A.. I
01 J..R
11
10 S..Z
11 números
10 idem letras minúsculas
01 caracteres especiales
00 información de control
7.2.3.1.- VENTAJAS DE LOS CÓDIGOS EBCDIC Y ASCII
Los caracteres numéricos se distinguen fácilmente
Los caracteres alfabéticos difieren en un solo bit las mayúsculas de las minúsculas
Los caracteres de control son fácilmente reconocibles
8.- REDUNDANCIA EN LAS CODIFICACIONES BINARIAS. BITS DE CONTROL.
La codificación biquinaria es un ejemplo de codificación redundante.
Cálculo de la redundancia R = 1- r = 1- (I n / It) x 100, donde:
Página 4
In = cantidad de información utilizada por el código
It = cantidad de información total
Por ejemplo el código BCD usa 4 bits para representa 10 símbolos distintos: 1- (10 / 2 4) x 100 = 37,5% de redundancia.
Un código poco redundante es el que aprovecha al máximo todas las posibilidades que tiene para representar la
información.
A veces es interesante que un código sea redundante para facilitar la detección de errores e incluso repararlo.
El bit de paridad (par o impar) es un ejemplo de redundancia para detectar errores. El inconveniente que tiene es que no
es capaz de detectar un cambio en más de un bit. Hay otros tipos de métodos capaces de corregir dichos fallos, uno de
estos fallos consiste en añadir un bit de paridad vertical por cada grupo de bytes, cada uno de los cuales lleva su propio
bit de paridad. Si el error fuera múltiple este se podrá detectar pero no corregir.
Existen métodos más efectivos como son los códigos de Hamming que son capaces de detectar errores múltiples y
corregir errores sencillos utilizando en proporción menos bits de paridad. Estos códigos consisten en añadir varios bits de
paridad colocados en las posiciones que son potencia de 2, de forma que cada uno proteja a varios bits del dato. Estos
códigos son cada vez más utilizados en las memorias.
Si lo que se pretende es la detección de errores en las comunicaciones serie, existen códigos especiales ya que los
errores producidos suelen afectar a varios bits consecutivos. Estos códigos llamados polinomiales o de redundancia
cíclica (CRC) consisten en añadir a cada bloque un residuo (módulo) con respecto a un valor concreto representado por
un polinomio. Existen 4 polinomios ampliamente utilizados:
CRC-12
CRC-16
CRC-CCITT
CRC-32
Los códigos de Huffman presentan la particularidad de emplear códigos de longitud variable, de manera que el número
de bits utilizados para codificar un carácter va a depender de la frecuencia de utilización.
Otro código corrector, el "2 entre 3", consiste en enviar la información por triplicado de forma que si dos de los tres bytes
enviados son iguales podemos desechar el tercero.
9.- COMUNICACIÓN DE LA INFORMACIÓN
Comunicación = intercambio de información = Emisor, Receptor y Canal de transmisión. Es necesario que emisor y
receptor codifiquen la información de forma que sea entendible por ambos así como crear un protocolo de comunicación.
El sistema de transmisión puede ser clasificado según diferentes criterios:
Según sistema de transmisión:
Por línea: cable de par trenzado, coaxial, fibra óptica.
Por radio: ondas terrestres y ondas vía satélite.
Según la direccionalidad de la transmisión:
Simplex: la comunicación se efectúa en un solo sentido.
Semi-duplex: existe comunicación en ambos sentidos pero no simultáneamente.
Full-duplex: hay comunicación en ambos sentidos de manera simultánea.
Según la forma de sincronización:
Asíncrona: emisor y receptor se sincronizan cuando se envía un carácter.
Síncrona: se puede enviar la señal de sincronismo a través de una línea independiente o bien utilizar una
codificación autosincronizada, de manera que el dato incluya una señal de temporización.
Según la naturaleza de la señal:
Analógicos: señal que toma valores continuos en el tiempo.
Digitales: señal que toma un número finito de valores (si sólo toma 2 se llaman señal digital binaria).
9.1.- ELEMENTOS DE UN SISTEMA DE COMUNICACIÓN DIGITAL
Página 5
Opcionalmente estos símbolos codificados pueden ser comprimidos con el fin de conseguir una comunicación más rápida.
9.2.- COMPRESIÓN DE DATOS EN LAS COMUNICACIONES
9.2.1.- COMPRENSIÓN LOSSLESS
Compresores estadísticos
Compresores del tipo Huffman o Shannon-Fano. Codificación inversamente proporcional a la probabilidad
de aparición del mensaje.
Compresores aritméticos. Compresor también basado en la probabilidad de aparición de un mensaje,
pero en este caso para la representación se utiliza un número en coma flotante.
Compresores predictivos. Pretenden predecir el siguiente mensaje a transmitir partiendo del conocimiento
que se tiene de los mensajes enviados hasta el momento.
Compresores basados en diccionario o sustitucionales
Compresión RLE. Compresor de los menos eficaces pero de los más sencillos. Se basa en la sustitución de
caracteres repetidos por un carácter más el número de repeticiones.
Compresores Lempel-Ziv (LZ).
LZ78. Esta técnica consiste en la elaboración dinámica de un diccionario donde se irán
almacenando las cadenas aparecidas hasta el momento y a las que se le irán asignando
identificadores, de forma que si aparece una cadena que ya está en eldiccionario , se enviará su
identificador. Uno de los problemas de este método es el delimitar el crecimiento infinito del
diccionario.
LZ77. Este método guarda un registro de caracteres enviados, pero no construyen un diccionario
propiamente dicho, sino que mantienen una "historia (o ventana)" de la entrada y un "buffer de
adelantamiento". Este método de comprensión es utilizado en la mayoría de los compresores
actuales, por ejemplo, hacen uso de él PK-ZIP, RAR, ARJ, etc.
Compresores híbridos o de dos fases. Los compresores actuales utilizan ambos métodos (estadísticos y
sustitucionales ) para comprimir de manera más óptima.
9.2.2.- COMPRENSIÓN LOSSY
Se utiliza sobre todo para la codificación de archivos multimedia, dónde no es tan importante que la información recibida
sea exacta y sí es muy importante la capacidad de comprensión.
Codificación diferencial. La secuencia de valores son representados como la diferencia con respecto a un valor
previo.
Compresión basada en transformadas. Se basa en la representación de la imagen muestreada en términos de
contenido de frecuencias de la imagen.
Cuantización de vectores. División de la imagen en rectángulos de tamaño fijo y se basa en la utilización de un
"libro de códigos" que se crea previamente, a raiz de las estadísticas de un grupo de imágenes de prueba que son
similares en contenido a la imagen que se va a comprimir.
Compresión fractal. Similar a la anterior técnica, pero en vez de seleccionar el bloque del libro más parecido, se
puede aplicar una transformación geométrica a los bloques del libro de códigos para hacerlos coincidir mejor con
el bloque de pixels que está siendo evaluando.
Técnicas de compresión de imágenes en movimiento (interframe ). La comprensión se basa por la eliminación
de redundancia que se produce por las mínimas diferencias entre imágenes sucesivas.
Volver al
REPRESENTACIÓN Y COMUNICACIÓN DE LA INFORMACIÓN
índice
Página 6