0% encontró este documento útil (0 votos)
55 vistas23 páginas

Tema 1 Imes

Cargado por

jgarciac
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOC, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
55 vistas23 páginas

Tema 1 Imes

Cargado por

jgarciac
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOC, PDF, TXT o lee en línea desde Scribd

TEMA 1.

INFORMACION Y SISTEMAS INFORMATICOS

1. ¿QUÉ ES UN SISTEMA INFORMÁTICO?


1.1. Hardware
1.2. Software
2. EVOLUCION DE LOS ORDENADORES. CLASIFICACION Y
TENDENCIAS
2.1. Breve historia de la informática
2.2. Generaciones de ordenadores
3. EL TRATAMIENTO DE LA INFORMACION
3.1. Representación numérica
3.1.1. Cambio de base
3.1.2. Números naturales
3.1.3. Números enteros
3.1.4. Números reales
3.2. Representación alfanumérica
4. MEDIDAS DE LA INFORMACIÓN
4.1. La capacidad
4.2. La velocidad

1
OBJETIVOS

- Saber qué es un sistema informático y de qué elementos se compone.


- Conocer cómo han evolucionado los sistemas informáticos desde su inicio a la
actualidad
- Cómo se representa la información en un sistema informático
- Descubrir cuáles son los sistemas de representación más importantes y cómo se
realiza la conversión entre ellos.

1. ¿Qué es un sistema informático?

Un sistema informático es la síntesis de hardware y software. Un sistema


informático típico emplea un ordenador que usa dispositivos programables para
almacenar, recuperar y procesar datos. El ordenador personal o PC resulta de por sí un
ejemplo de un sistema informático.

Incluso el ordenador más sencillo se clasifica como un sistema informático, porque


al menos dos componentes (hardware y software) tienen que trabajar unidos. Pero el
genuino significado de "sistema informático" viene mediante la interconexión. Muchos
sistemas informáticos pueden interconectarse, esto es, unirse para convertirse un sistema
mayor. El interconexionado de sistemas informáticos puede tornarse dificultoso debido
a las incompatibilidades. A veces estas dificultades ocurren entre hardware
incompatible, mientras que en otras ocasiones se dan entre programas informáticos que
no se entienden entre sí.

Los diseñadores de los distintos sistemas informáticos no necesariamente esperan


conseguir interconectar sus creaciones con ningún otro sistema. Los técnicamente
eruditos a menudo pueden configurar ordenadores dispares para comunicarse usando un
conjunto de reglas y restricciones conocidas como protocolos. Los protocolos tratan
precisamente de definir la comunicación dentro de y entre sistemas informáticos
distintos pero conectados entre sí. Si dos sistemas informáticos usan los mismos
protocolos, entonces podrán ser capaces de interconectarse y formar parte de un sistema
mayor.

Definición: Un sistema informático es un conjunto de máquinas (hardware) y


programas (software) que permite el tratamiento de la información.

Una computadora, conocida en España como ordenador y en algunos países como


computador, es un sistema digital con tecnología microelectrónica capaz de procesar
datos a partir de un grupo de instrucciones denominado programa. La estructura física
básica de una computadora incluye microprocesador (CPU), memoria y dispositivos de
entrada/salida (E/S), junto a los buses que permiten la comunicación entre ellos. En
resumen la computadora es una dualidad entre hardware (parte física) y software (parte
lógica), es decir, un sistema informático, como veíamos arriba, que interactúan entre sí
para una determinada función.

La característica principal que la distingue de otros dispositivos similares, como una


calculadora no programable, es que puede realizar tareas muy diversas cargando
distintos programas en la memoria para que los ejecute el procesador.

2
Veamos pues las partes principales de un sistema informático: Hardware y Software.

1.1. Hardware

Se denomina hardware o soporte físico al conjunto de elementos materiales que


componen un sistema informático. Hardware también son los componentes físicos de
una computadora tales como el disco duro, dispositivo de CD-Rom, disquetera, etc. En
dicho conjunto se incluyen los dispositivos electrónicos y electromecánicos, circuitos,
cables, tarjetas, armarios o cajas, periféricos de todo tipo y otros elementos físicos. Los
principales que nos van a interesar van a ser:

La unidad centra del proceso o CPU. Es la unidad donde se ejecutan las instrucciones de
los programas y se controla el funcionamiento de los distintos componentes del sistema
informático. Suele estar integrada en un chip denominado microprocesador. Es el
corazón de todo ordenador, y es un microchip con una alta escala de integración, es
decir, que aloja millones de transistores en su interior. Todos estos transistores forman
una serie de circuitos lógicos que permite ejecutar una determinada variedad de
instrucciones básicas. Cada fabricante de microprocesadores tendrá sus propias familias
de estos, y cada familia su propio conjunto de instrucciones. De hecho, cada modelo
concreto tendrá su propio conjunto, ya que en cada modelo se tiende a aumentar el
conjunto de las instrucciones que tuviera el modelo anterior.

La memoria. Es el componente que alberga la información con la que trabaja el


ordenador. Tanto los programas como los datos deben ubicarse en la memoria para que
el procesador pueda trabajar con ellos.

Dispositivos periféricos. Son dispositivos de soporte físico a una computadora, que le


permite interactuar con el exterior por medio de la entrada, salida y el almacenamiento
de datos así como la comunicación entre ordenadores. El término suele aplicarse a los
dispositivos que no forman parte indispensable de una computadora (como, sin
embargo, lo son cpu y memoria) y que son, en cierta forma, opcionales. También se
suele utilizar habitualmente para definir a los elementos que se conectan externamente a
un puerto de la misma, aunque muchos de ellos se han vuelto tan indispensables para las
computadoras personales de hoy en día que ya son integrados desde la fabricación en la
tarjeta principal. Se pueden clasificar de la siguiente manera:

 Entrada: Aportan datos al ordenador para su tratamiento por parte de la CPU.


Son la interfaz por medio de la cual el ser humano introduce información al
mismo. Ejemplos: Cámara web, Escáner, Ratón, Tarjetero flash, Teclado,
Micrófono, Conversor Analógico digital/Capturadora de datos, Escáner de
código de barras, Joystick, Lápiz óptico, Pantalla táctil, Tableta digitalizadora...

 Salida: Se encargan de transmitir los datos procesados por el CPU de vuelta a la


persona que está utilizando la computadora por diferentes medios. Ejemplos:
Monitor, Impresora, Pantalla, Altavoces, Tarjeta de sonido.

 Entrada / Salida. Son capaces de realizar las dos acciones anteriores, tanto de
entrada como de salida de datos. Se pueden dividir su vez en dos tipos
principales:

3
o Comunicación: Su función es servir de canal entre una o más
computadoras o entre la computadora y un dispositivo periférico externo.
Ejemplos: Fax-Módem, Tarjeta de red
o Almacenamiento: Su función principal es asegurar la permanencia de la
información producida y/o manejada por la computadora después de que
esta ha sido apagada. Ejemplos: Grabadora de CD, Grabadora de DVD,
Lector de CD, Lector de DVD, Disco duro, Memoria USB, Grabadora de
cinta de copia de seguridad.

Conectores. Conectan la unidad centro con los periféricos. Incluye los cables de
conexión y los puertos.

1.2. Software

Se denomina software a todos los componentes intangibles de un sistema informático,


ordenador o computadora, es decir, al conjunto de programas y procedimientos
necesarios para hacer posible la realización de una tarea específica, en contraposición a
los componentes físicos del sistema (hardware). Esto incluye aplicaciones informáticas
tales como un procesador de textos, que permite al usuario realizar una tarea, y software
de sistema como un sistema operativo, que permite al resto de programas funcionar
adecuadamente, facilitando la interacción con los componentes físicos y el resto de
aplicaciones.

El software suele clasificarse de la siguiente manera:

 Software de sistema, que permite funcionar al hardware. Su objetivo es aislar


tanto como sea posible al programador de aplicaciones de los detalles del
computador particular que se use, especialmente de las características físicas de
la memoria, dispositivos de comunicaciones, impresoras, pantallas, teclados,
etcetera. Incluye entre otros:
o Sistemas operativos
o Controladores de dispositivo
 Software de programación, que proporciona herramientas para ayudar al
programador a escribir programas informáticos y a usar diferentes lenguajes de
programación de forma práctica. Incluye entre otros:
o Editores de texto
o Compiladores
o Intérpretes
o Enlazadores
o Depuradores
o Los entornos integrados de desarrollo (IDE) agrupan estas herramientas
de forma que el programador no necesite introducir múltiples comandos
para compilar, interpretar, depurar, etcétera, gracias a que habitualmente
cuentan con una interfaz gráfica de usuario (GUI) avanzada.
 Software de aplicación, que permite a los usuarios llevar a cabo una o varias
tareas más específicas, en cualquier campo de actividad susceptible de ser
automatizado o asistido, con especial énfasis en los negocios. Incluye entre
otros:
o Aplicaciones de automatización industrial
o Aplicaciones ofimáticas

4
o Software educativo
o Software médico
o Bases de datos
o Videojuegos

Estas dos últimas categorías se consideran generalmente unidas, ya que ambas necesitan
del software de sistema para poder funcionar. Así pues, el software de sistema, y
principalmente el Sistema Operativo, es el interfaz que permite la comunicación entre el
hardware (la máquina) y el usuario (sus herramientas y aplicaciones).

2. Evolución de los ordenadores. Clasificación y tendencias.

Antes de entrar a fondo en el funcionamiento de un sistema informático es preciso hacer


una breve panorámica de la evolución histórica de los ordenadores.

2.1. Breve historia de la informática

Primeros dispositivos

Seguramente fue el ábaco el primer dispositivo mecánico utilizado para el cálculo y


aritmética básica. Anteriormente se habían utilizado piedras, palos y elementos de
diferentes tamaños para representar números, y así realizar operaciones, pero el ábaco es
el primer intento de máquina para calcular. Su origen se remonta a China hacia el 2500
adC y tal fue su efectividad y repercusión que hoy en día siguen construyéndose,
aunque no para su uso como antaño.

En 1623 Wilhelm Schickard construyó la primera calculadora mecánica y por ello se le


considera el padre de la era del cómputo. Como su máquina usaba piezas de relojería
(como dientes y engranajes), también se la llamó "reloj de cálculo". Su amigo Johannes
Kepler, quien revolucionó la astronomía, la puso en funcionamiento y la utilizó.

En el año 1633, un clérigo inglés, de nombre Willian Oughtred, inventó un dispositivo


de cálculo basado en los logaritmos de Napier, al cual denominó Círculos de
Proporción.

Este instrumento llegó a ser conocido como la regla de cálculo, que se ha usado hasta el
siglo XX, cuando llegó la calculadora electrónica portátil. La regla de cálculo consiste
en un conjunto de reglas o discos deslizantes, que tienen marcas en escala logarítmica.
Debido a sus propiedades, permite obtener calcular productos y cocientes haciendo sólo
sumas y restas de longitudes.

En la Francia del siglo XVII, Blaise Pascal con sólo 19 años inventó la primera
calculadora del mundo, la Pascalina. Era una pequeña caja de madera bastante
incómoda que tenía en la tapa una hilera de discos numerados, como los del teléfono
(que tardaría un siglo más en inventarse), con los agujeros para introducir los dedos y
hacerlos girar. Cada disco tenía una ventanilla, y había toda una hilera de ventanillas
bajo la hilera de discos: de derecha a izquierda se alienaban las unidades, decenas,
centenas, etc. Cuando una rueda daba una vuelta completa, avanzaba la otra rueda
situada a su izquierda. Las ventanillas correspondientes a cada unidad daban la
respuesta buscada. En conjunto, el engranaje proporcionaba un mecanismo de respuesta

5
idéntico al resultado que se puede obtener empleando la aritmética. No obstante, la
Pascalina tenía varios inconvenientes; el principal era que sólo el mismo Pascal era
capaz de arreglarla.

En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta


máquina e inventó una que también podía multiplicar. A pesar de ello, las limitaciones
técnicas de la época jugaron en su contra. Leibniz también describió el sistema binario,
un ingrediente central para todas las computadoras modernas. Sin embargo, hacia los
años 1940s, muchos diseños subsecuentes (incluyendo la máquina de Babbage de los
años 1800s e incluso la ENIAC de 1945) fueron basados en el duro(?) de implementar
sistema decimal.

Siglo XIX

En 1801, el inventor francés Joseph Marie Jacquard diseñó un telar que no necesitaba
adaptarse mecánicamente a cada diseño a tejer, sino que usaba unas delgadas placas de
madera perforadas que representaban el patrón. Se conoce como el telar de Jacquard.

También en el siglo XIX el matemático e inventor británico Charles Babbage elaboró


los principios de la computadora digital moderna (programable y de propósito general).
Este noble inglés usaba la pascalina para sus cálculos pero le resultaba muy incómoda,
dado que no hacía nada por sí sola; había que indicarle los números y las operaciones
cada vez. Un día al ver un telar mecánico que confeccionaba un punto escocés por sí
solo, sin necesidad de que hubiese alguien allí dándole indicaciones cada vez, tuvo una
idea. Los telares estaban dirigidos por cintas perforadas. Así que Babbage, copiando al
telar, inventó su propia calculadora con cintas perforadas.

Luego inventó una serie de máquinas, como la máquina diferencial, diseñadas para
solucionar problemas matemáticos complejos. Muchos historiadores consideran a
Babbage y a su socia, la matemática británica Augusta Ada Byron (1815-1852), hija del
poeta inglés Lord Byron, como a los verdaderos inventores de la computadora digital
moderna.

La tecnología de aquella época no era capaz de trasladar a la práctica sus acertados


conceptos; pero una de sus invenciones, la máquina analítica, ya tenía muchas de las
características de un ordenador moderno. Incluía una corriente, o flujo de entrada en
forma de paquete de tarjetas perforadas, una memoria para guardar los datos, un
procesador para las operaciones matemáticas y una impresora para hacer permanente el
registro. Estaba hecha de hierro y se necesitaba una máquina de vapor y era muy cara.
Cuando la Marina dejó de financiarle, Babbage nunca pudo terminar su máquina.

Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la


máquina tabuladora a partir de la idea de utilizar tarjetas perforadas, similares a las
placas de Jacquard, para procesar datos. Hollerith consiguió compilar la información
estadística destinada al censo de población de 1890 de Estados Unidos en sólo 2 años en
vez de 13, que era lo que se estimaba. La máquina hacía pasar las tarjetas perforadas
sobre contactos eléctricos para catalogarlas en diferentes cajones.

Más adelante, esta máquina evolucionó y pudo hacer operaciones matemáticas. Fue el
principal negocio de IBM desde en 1924, con Thomas J. Watson como presidente.

6
1900-1940: computadoras analógicas

Por los 1900s las primeras calculadoras mecánicas, cajas registradoras, máquinas de
contabilidad, entre otras se rediseñaron para utilizar motores electrónicos, con un
engranaje de posición como la representación para el estado de una variable. Las
personas eran computadoras, como un título de trabajo, y usaban calculadoras para
evaluar expresiones.

Los nomogramas, como la Carta de Smith, son un dispositivo de cálculo analógico para
algunos tipos de problemas. Antes de la Segunda Guerra Mundial, los ordenadores
analógicos eran lo más moderno de esa época, y muchos creían que sería el futuro de la
informática.

Una máquina analógica representa cantidades mediante magnitudes físicas que pueden
cambiar continuamente, como la tensión, la corriente, la velocidad de rotación de un eje,
etc. Un ejemplo de esta máquina es el Integrador de agua, de 1936, que funcionaba con
tuberías y cubos de agua etiquetados con una escala.

Este tipo de ordenadores permitía resolver problemas complejos que los digitales eran
incapaces de procesar, ya que aún estaban en sus primeros intentos. En cambio, tenían
el problema de la poca flexibilidad: tenían que ser reconfigurados (manualmente) para
cada problema.

A medida que los digitales se hicieron más rápidos y con más memoria RAM, se vio
que sí que era posible sustituir a los analógicos. Entonces nació el concepto de
programación de ordenadores digitales tal como lo conocemos hoy en día, como un
trabajo lógico y matemático más que de conexión y desconexión de tuberías y cables en
una máquina.

También hubo ordenadores híbridos (magnitudes analógicas controladas por circuitos


digitales), que se usaron mucho en los 1950 y 1960, y más tarde en aplicaciones
específicas.

Algunas computadoras analógicas se usaban en el campo de la artillería, para ayudar a


apuntar a un objetivo en los vehículos de combate o en otras armas. Un ejemplo es el
bombardero Norden. Algunos de estos sistemas se siguieron usando mucho después de
la Segunda Guerra Mundial.

Como las máquinas computadoras no eran muy comunes en esta época, algunos
mecanismos se usaban mediante mecanismos en papel, como grafos y nomogramas
(diagramas) que daban soluciones analógicas a algunos problemas, como la distribución
de presiones y temperaturas en un sistema calefactor. Otro ejemplo es la Carta de Smith.

Siglo XX: primeras computadoras electrónicas

En los años 30, siendo presidente de IBM Mister Watson, un joven profesor de Harvard,
llamado Howard Aiken, le presentó un nuevo diseño de la calculadora de Babbage. Al
igual que Pascal diseñó la pascalina y Babbage añadió el manejo mediante cintas
perforadas, Aiken sustituyó el mecanismo de vapor por electricidad y añadió el

7
mecanismo de control de una centralita telefónica, de manera que la máquina
seleccionara por sí sola las tarjetas perforadas. Aiken obtuvo fondos para su proyecto y
construyó el Harvard Mark 1, de 3 metros de alto y 20 de largo, que estuvo funcionando
hasta 1959.

Casi al mismo tiempo que Howard Aiken, en el Berlín de los años 30, un joven
ingeniero aeronáutico de 26 años llamado Konrad Zuse construyó la primera
computadora electromecánica binaria programable, la cual hacía uso de relés eléctricos
para automatizar los procesos. Sin embargo, tan sólo fabricó un prototipo para pruebas
al cual llamó Z1. Este prototipo nunca llegó a funcionar debido a la falta de
perfeccionamiento en sus elementos mecánicos.

En 1940 Zuse terminó su modelo Z2, el cual fue la primera computadora


electromecánica completamente funcional del mundo. Al año siguiente, en 1941,
fabricó su modelo Z3 para el cual desarrolló un programa de control que hacía uso de
los dígitos binarios. No obstante, esta computadora fue destruida en 1944 a causa de la
guerra. Konrad Zuse se había basado para el diseño de sus computadores en los
recientes trabajos de Alan Turing. El Z4 necesitaba 20 metros cuadrados y pesaba 2
toneladas. En plena Segunda Guerra Mundial, la Z4 estaba en peligro y fue desmontada
pieza a pieza y llevada a un lugar seguro. Entre 1945 y 1946 creó el Plankalkül (Plan de
Cálculos), el primer lenguaje de programación de la historia y predecesor de los
lenguajes modernos de programación algorítmica.

Durante la Segunda Guerra Mundial (1939-1945), un equipo de científicos y


matemáticos que trabajaban en Bletchley Park, al norte de Londres, crearon lo que se
consideró el primer ordenador digital totalmente electrónico: el Colossus. Hacia
diciembre de 1943 el Colossus, que incorporaba 1.500 válvulas o tubos de vacío, era ya
operativo. Fue utilizado por el equipo dirigido por Alan Turing para descodificar los
mensajes de radio cifrados de los alemanes.

En 1939 y con independencia de este proyecto, John Atanasoff y el estudiante graduado


Clifford Berry ya habían construido un prototipo de máquina electrónica en el Iowa
State College (Estados Unidos). Estos investigadores desarrollaron la primera
computadora digital electrónica entre los años de 1937 a 1942. Llamaron a su invento la
computadora Atanasoff-Berry, o sólo ABC (Atanasoff Berry Computer).

Este prototipo y las investigaciones posteriores se realizaron en el anonimato, y más


tarde quedaron eclipsadas por el desarrollo del Calculador e integrador numérico digital
electrónico (ENIAC) en 1945. El ENIAC, que según mostró la evidencia se basaba en
gran medida en el `ordenador' Atanasoff-Berry, obtuvo una patente que caducó en 1973,
varias décadas más tarde.

El ENIAC contenía 18.000 válvulas de vacío y tenía una velocidad de varios cientos de
multiplicaciones por minuto, pero su programa estaba conectado al procesador y debía
ser modificado manualmente. Se construyó un sucesor del ENIAC con un
almacenamiento de programa que estaba basado en los conceptos del matemático
húngaro-estadounidense John von Neumann. Las instrucciones se almacenaban dentro
de una llamada memoria, lo que liberaba al ordenador de las limitaciones de velocidad

8
del lector de cinta de papel durante la ejecución y permitía resolver problemas sin
necesidad de volver a conectarse al ordenador.

La computadora EDVAC, construida en la Universidad de Manchester, en Connecticut


(EEUU), en 1949 fue el primer equipo con capacidad de almacenamiento de memoria e
hizo desechar a los otros equipos que tenían que ser intercambiados o reconfigurados
cada vez que se usaban.

Esta computadora fue construida por John Mauchly y J. Prespert Eckert, (participando
también Von Neumann) quienes empezaron a trabajar en ella 2 años antes que la
ENIAC empezara a operar. La idea era tener el programa almacenado en la
computadora y esto fue posible gracias a que la EDVAC tenía una mayor capacidad de
almacenamiento de memoria.

La memoria consistía en líneas de mercurio dentro de un tubo de vidrio al vacío, de tal


modo que un impulso electrónico podía ir y venir en 2 posiciones, para almacenar los
ceros (0) y unos (1). Esto era indispensable ya que en lugar de usar decimales la
EDVAC empleaba números binarios

La Univac (Universal Atomic Computer), en 1951, fue la primera computadora


comercial moderna. Este computador se utilizaba para el tratamiento de datos no
científicos. Fue construida por la Remington Ran (Sperry Rand), compañía fundada por
Eckert y Mauchly. La Univac fue la primera máquina capaz de aceptar y tratar o
procesar datos alfabéticos y numéricos.

Las calculadoras mecánicas, cajas registradoras, máquinas de contabilidad, entre otras,


se habían rediseñado para utilizar motores electrónicos, con un engranaje de posición
como la representación para el estado de una variable. Las personas eran computadoras,
como un título de trabajo, y usaban calculadoras para evaluar expresiones. Durante el
proyecto Manhattan, el futuro Nobel Richard Feynman fue el supervisor de las
computadoras humanas, muchas de las mujeres dedicadas a las matemáticas, que
entendieron las ecuaciones matemáticas que estaban resolviéndose para el esfuerzo de
guerra. Incluso el renombrado Stanislaw Marcin Ulman fue presionado por el servicio
para traducir las matemáticas en las aproximaciones computables para la bomba de
hidrógeno, después de la guerra. Durante la Segunda Guerra Mundial, los planes de Curt
Herzstark para una calculadora de bolsillo mecánica, literalmente le salvaron la vida:
Cliff Stoll, Scientific American 290, no. 1, pp. 92-99. (January 2004).

A finales de la década de 1950 el uso del transistor en los ordenadores marcó el


advenimiento de elementos lógicos más pequeños, rápidos y versátiles de lo que
permitían las máquinas con válvulas. Como los transistores utilizan mucha menos
energía y tienen una vida útil más prolongada, a su desarrollo se debió el nacimiento de
máquinas más perfeccionadas, que fueron llamadas ordenadores o computadoras de
segunda generación. Los componentes se hicieron más pequeños, así como los espacios
entre ellos, por lo que la fabricación del sistema resultaba más barata.

A finales de la década de 1960 apareció el circuito integrado (CI), que posibilitó la


fabricación de varios transistores en un único sustrato de silicio en el que los cables de
interconexión iban soldados. El circuito integrado permitió una posterior reducción del
precio, el tamaño y los porcentajes de error. El microprocesador se convirtió en una

9
realidad a mediados de la década de 1970, con la introducción del circuito de
integración a gran escala (LSI, acrónimo de Large Scale Integrated) y, más tarde, con el
circuito de integración a mayor escala (VLSI, acrónimo de Very Large Scale
Integrated), con varios miles de transistores interconectados soldados sobre un único
sustrato de silicio.

2.2. Generaciones de ordenadores

En informática se ha utilizado el término generaciones para describir diferentes fases de


la evolución de los ordenadores que veíamos antes. Esta evolución está íntimamente
ligada a los avances de la electrónica, por lo que cada fase se define por un nuevo
componente técnico que la distingue de la anterior y la dota de sus propias
características. Se pueden distinguir cinco generaciones.

Primera Generación

Computadoras constituidas por tubos de vacío, desprendían bastante calor y tenían una
vida relativamente corta. Máquinas grandes y pesadas. A esta generación pertenece el
ENIAC, el EDSAC y UNIVAC I entre otros. El almacenamiento de la información era
en un tambor magnético interior. El tambor magnético se disponía en el interior del
ordenador, recogía y memorizaba los datos y los programas que se le suministraban. La
programación era en lenguaje máquina, consistía en largas cadenas de bits, de ceros y
unos, por lo que la programación resultaba larga y compleja. Tenía un alto costo. Se
usaban tarjetas perforadas para suministrar los datos y los programas. Estos ordenadores
carecían de sistema operativo.

Segunda Generación

Los tubos de vacío fueron sustituidos por los transistores, estos últimos eran más
económicos, más pequeños que las válvulas miniaturizadas, consumían menos y
producían menos calor. Por todos estos motivos, la densidad del circuito podía ser
aumentada sensiblemente, lo que quería decir que los componentes podían colocarse
mucho más cerca unos a otros y ahorrar mucho más espacio. Evolucionan los modos de
direccionamiento y surgen los lenguajes de programación de más alto nivel. Algunos
ordenadores de esta época son el UNIVAC 1004, el CDC 6600 y el PDP-1.

Tercera Generación

Aparece el circuito integrado (chips). Aumenta la capacidad de almacenamiento y se


reduce el tiempo de respuesta. Se generalizan los lenguajes de programación de alto
nivel. Se consigue compatibilidad para compartir software entre diversos equipos.
Aparece la posibilidad de trabajar en tiempo compartido. Pertenecen a estos años las
máquinas UNIVAC 1100 y PDP-8.

Cuarta Generación

Surge el microcircuito integrado. Se construye el microprocesador: el proceso de


reducción del tamaño de los componentes llega a operar a escalas microscópicas. La
microminiaturización permite construir dicho microprocesador, circuito integrado que
rige las funciones fundamentales del ordenador. Comienzan a proliferar las redes de

10
computadores. Aparecen los sistemas operativos en red y distribuidos. Ordenadores de
esta generación son el Cray-1, IBM PC, SPARC, etc.

Quinta Generación

Desarrollo de la Inteligencia Artificial. El propósito de la Inteligencia Artificial es


equipar a las Computadoras con "Inteligencia Humana" y con la capacidad de razonar
para encontrar soluciones. Otro factor fundamental del diseño, la capacidad de la
computadora para reconocer patrones y secuencias de procesamiento que haya
encontrado previamente (programación heurística) que permita a la computadora
recordar resultados previos e incluirlos en el procesamiento. En esencia, la computadora
aprenderá a partir de sus propias experiencias usará sus datos originales para obtener la
respuesta por medio del razonamiento y conservará esos resultados para posteriores
tareas de procesamiento y toma de decisiones. El conocimiento recién adquirido le
servirá como base para la próxima serie de soluciones.

3. EL TRATAMIENTO DE LA INFORMACIÓN

La informática es la tecnología que estudia el tratamiento de la información para


obtener de ella la máxima utilidad. Su fin es dotar a las estructuras formales del
conocimiento humano de un soporte estable, en la cual reposar su significado de forma
que queden estables sin capacidad de duda para su posterior manipulación.

La finalidad principal de la representación interna es obtener una representación de los


datos lo más adecuada posible a las características internas del ordenador. La
representación externa es la utilizada por las personas (sistema decimal, caracteres
alfanuméricos gráficos, etc.) y la representación interna es la utilizada por el ordenador
(sistema binario, códigos ASCII por caracteres, etc.).

3.1. Representación numérica

Primero de todo definiremos los que es un sistema de numeración (de ahora en adelante
SN) es toda una serie de convenios sobre cómo agrupar y manipular unos determinados
signos mediante un conjunto de reglas; los signos (aislados o agrupados) permiten
representar cantidades de forma simbólica, y el conjunto de reglas define cómo se
pueden agrupar y cuáles son las operaciones permitidas sobre dichos signos.

El SN más utilizado por las personas es el sistema decimal: los signos de este sistema
son los dígitos del 0 al 9, y las reglas son conocidas por todos. Sin embargo, también se
utilizan se utilizan cotidianamente otros sistemas de numeración, sin apenas prestarles
atención. Por ejemplo, cuando se consulta la hora se está haciendo uso del SN
sexagesimal. En este sistema existen tres categorías: horas, minutos y segundos, y una
cantidad se expresa como agrupaciones de 59 o menos elementos de cada categoría.

Definimos base de un SN como el número de signos distintos (dígitos) que se emplean


en dichos sistemas. En el SN decimal, se emplean diez signos distintos: 0, 1, 2, 3, 4, 5,
6, 7, 8 y 9, por lo que se trata de un sistema de base 10.

Así pues, diremos que un SN es posicional si la cantidad que representa viene definida
por una cadena de dígitos, estando cada uno de ellos afectado por un factor de escala

11
que depende de la posición que ocupa en esta cadena. Este factor de escala es siempre la
base del SN elevada a un valor diferente para cada posible posición del dígito en la
cadena.

Vistos los conceptos mencionados anteriormente podemos verificar que el SN decimal


es posicional, en la que la posición del dígito en la cadena indica la potencia de 10 que
le afecta. Así, un número decimal cualquiera se representa como un polinomio de
potencias de 10 (es decir, de su base).

Ejemplo:
73 = 70 + 3 = 7 * 101 + 3 * 100
81,55 = 80 + 1 + 0,5 + 0,05 = 8 * 101 + 1 * 100 + 5 * 10-1 + 5* 10-2
0,12 = 0,1 + 0,02 = 1 * 10-1 + 2 * 10-2
En general, en un sistema posicional de base b , un número N se puede escribir como
una secuencia de dígitos,

an-1 an-2 an-3    a1 a0 , a-1 a-2 a-3    a-p+1 a-p

Donde la base (b) es un número entero mayor que 1 y los dígitos (ai) son números
enteros comprendidos entre 0 y b-1. Los n dígitos an-1 an-2 an-3    a1 a0 forman
parte de la parte entera y los p dígitos a-1 a-2 a-3    a-p+1 a-p de la parte
fraccionaria; utilizando la coma decimal (,) para distinguir.

La CPU procesa agrupaciones de bits (del inglés Binary Digit) denominadas palabras,
por ello en representación interna se suelen usar códigos como el binario natural y
similares. Cada dígito binario puede tener uno de los dos valores posibles (0 ó 1) que se
adaptan perfectamente a la base tecnológica utilizada en la construcción de los circuitos
electrónicos para computadoras que se basan en la capacidad para reconocer
únicamente dos estados diferentes.

El sistema binario (base 2) es el más sencillo de los posibles sistemas de numeración


pues incluye únicamente dos dígitos el 0 y el 1. A cada cifra binaria se le conoce como
bit (binary digit, unidad mínima de información).

Donde una cantidad N se representa mediante una secuencia de bits. N=10112

10112 base

MSB LSB
(Most Significant Bit) (Least Significant Bit)

Un número binario cualquiera se representa como un polinomio de potencias de 2 (es


decir, de su base).

12
Ejemplo:
10112 = 1 * 23 + 0 * 22 + 1 * 21 + 1 * 20 = 1110
10,112 = 1 * 21 + 1 * 2-1 + 1 * 2-2 = 2,7510

3.1.1. CAMBIO DE BASE

En la representación interna de la información se utiliza normalmente alguna variante


del código binario natural. También los denominados códigos intermedios, el octal y el
hexadecimal, que constituyen una forma más compacta de representar magnitudes
binarias. Éstos surgen ante la tediosa tarea de trabajar en binario. Principalmente el octal
y el hexadecimal que permiten una fácil traducción hacia y desde el sistema binario.

Primero veremos como convertimos un número representado en decimal a binário (este


método también es útil para pasar de decimal a cualquier base no sólo la binaria):

- Para la parte entera:


Consiste en dividir la cantidad entre la nueva base (b=2). Mientras el
cociente sea mayor o igual que la nueva base, dividir de nuevo (esta vez
sólo el cociente). Una vez realizadas todas las divisiones, la secuencia de
dígitos concatenación del último cociente y los restos de las divisiones
anteriores, empezando por la última.

Ejemplo:

348 / 2 = 174 / 2 = 87 / 2 = 43 / 2 = 21 / 2 = 10 / 2 = 5 / 2 = 2 / 2 = 1
+0 +0 +1 +1 +1 +0 +1 +0

34810 = 1010111002

- Para la parte fraccionaria:


Consiste en multiplicar la cantidad entre la nueva base (b=2). La parte
entera resultante (0 ó 1) será uno de los dígitos de la secuencia, Aplicar
de nuevo la multiplicación a la parte fraccionaria restante.

Ejemplo:

0,625 * 2 = 1,250 1 (MSB)


0,25 * 2 = 0,50 0
0,5 * 2 = 1,0 1 (LSB)

Finalmente concatenamos las dos secuencias obtenidas:

348,62510 = 101011100,1012
OCTAL. Base 8 = 23 y los dígitos son {0,...,7}. Cada dígito octal representa tres
binarios.

HEXADECIMAL. Base 16 = 24 y los dígitos son {0,...,9,A,B,C,D,E,F}. Cada dígito


hexadecimal representa cuatro binarios.

Cambio de base Octal a Decimal:

13
746,128 = 7 * 82 + 4 * 81 + 6 * 80 + 1 * 8-1 + 2 * 8-2 =
= 448 + 32 + 6 + 0,125 + 0,03125 =
= 486,1562510

Cambio de base Hexadecimal a Decimal:

F9,E3B16 = F * 161 + 9 * 160 + E * 16-1 + 3 * 16-2 + B * 16-3 =


= 15 * 161 + 9 * 160 + 14 * 16-1 + 3 * 16-2 + 11 * 16-3 =
= 249,889404296910

Cambio de bases Binaria, Octal y Hexadecimal:

Octal Binario Hexadecimal Binario Hex. Binario


0 000 0 0000 8 1000
1 001 1 0001 9 1001
2 010 2 0010 A 1010
3 011 3 0011 B 1011
4 100 4 0100 C 1100
5 101 5 0101 D 1101
6 110 6 0110 E 1110
7 111 7 0111 F 1111

Ejemplos:
- (de Octal y Hexadecimal a Binario)
15,368 = 001 101 , 011 110 2
F9,E3B16 = 1111 1001 , 1110 0011 1011 2
- (de Binario a Octal y Hexadecimal)
111000011011.100000012 = 111 000 011 011 , 100 000 01 2 =
= 7 0 3 3 , 4 0 28
= 1110 0001 1011 , 1000 0001 2 =
= E 1 B , 8 1 16

3.1.2. NUMEROS NATURALES

Se denominan números naturales a aquellos números sin signo y sin parte


fraccionaria. Los números naturales se representan en el ordenador directamente
mediante su correspondiente valor binario.
El rango de representación viene dado por el intervalo de números
representables en un formato:
Con n bits se pueden representar los valores [0 , 2n –1].

Binario Natura
l
000 0
001 1
010 2
011 3
100 4

14
101 5
110 6
111 7

Es posible que al operar exista desbordamiento ( el resultado no es representable con


n bits).

OPERECIONES BINARIAS (Suma, Resta, Multiplicación y División)

Para todas estas operaciones, las reglas son las mismas que las empleadas en
decimal, excepto lo referente a la base:
- Para la suma; hay acarreo cuando la suma de los dígitos es igual o superior a 2
(y no cuando es igual o superior a 10 como en decimal).
- Para la resta; el préstamo se calcula como 2 + minuendo – sustraendo ( y no
como 10 + minuendo – sustraendo como en decimal).
- Y para la división: si cabe el dígito del cociente es seguro un 1, cuando en
decimal hay que probar entre 1 y 9.

Suma: Ejemplo: 01100101


0+0=0 00111101 sumandos
0+1=1
1+0=1 01011 0 suma parcial
1 + 1 = 10 (suma 0 y acarreo 1) + 11111 1 acarreo anterior
_______________
10100010

Resta: Ejemplo: 01100101


0-0=0 00111101 operandos
0 - 1 = 1 y 1 de préstamo
1-0=1 101 resta parcial
1-1=0 - 111 préstamo anterior
_______________
00101000

Multiplicación:
23 10111
7x de decimal a binario 00111 x
161 10111
10111
10111
00000
00000 .
161 = 128+32+1 = de binario a decimal 010100001

División:
23 7 10111 111

2 3 -111 0 1 1 = 310
no cabe

1011
- 111

15
0100

1001
- 111
0 0 1 0 = 210

3.1.3. NUMEROS ENTEROS

Se denominan números enteros a aquellos números con signo y sin parte


fraccionaria. En esta sección de van a presentar los diferentes métodos que existen para
representar números enteros en el computador; no podremos almacenar el digno ‘+’ ni
el ‘—‘ , ya que el computador sólo puede almacenar 1´s y 0´s. Por tanto tendremos que
reservar un bit en una posición determinada para indicar el signo, 0 para el positivo y 1
para el negtivo. Veamos varias formas de representar los números naturales.

SIGNO Y MAGNITUD

- Se reserva un bit (el MSB) para representar el signo del número:


- MSB = 0 para los números positivos.
- MSB = 1 para los números negativos.
- El resto de bits representa el valor absoluto del número en binario natural.
- El rango de representación es simétrico [ - (2 n-1 – 1), + 2n-1 – 1]. Para n=8
bits podremos representar [-127, +127].
- Existen dos ceros, uno positivo y otro negativo.
- Antes de sumar o restar hay que analizar el signo de los operandos.

S. y M. Decimal S. y M. Decimal
0 000....000 +0 1 000....000 -0
0 000....001 +1 1 000....001 -1
0 000....010 +2 1 000....010 -2
0 000....011 +3 1 000....011 -3
... ..... ... ........
0 111....110 +( 2n-1 – 2) 1 111....110 -( 2n-1 – 2)
0 111....111 +( 2n-1 – 1) 1 111....111 -( 2n-1 – 1)

Hay que señalar dos aspectos de esta técnica de representación que la hacen
poco interesante:
- Existen dos representaciones para el valor cero.
- En las operaciones de suma y resta; para obtener el resultado de A – B, primero
hay que mirar el signo, si los dos operandos tienen el mismo signo, se restan, en
caso contrario se suman, lo mismo ocurre con A + B . Un procedimiento
engorroso y complejo que necesitaría de circuitería adicional.
Se define la extensión de signo como aquél procedimiento por el cual se permite
ampliar el tamaño de la representación sin modificar los valores representados. La
extensión de signo es necesaria para igualar las longitudes de dos operandos antes de
iniciar cualquier operación; para no perder dígitos, al igualar las longitudes se suele
extender el signo al operando con menos dígitos. En el caso de la representación en
Signo y Magnitud consiste en introducir los ceros necesarios tras el bit de signo.

16
COMPLEMENTO A UNO (Ca1)

En esta forma de representación los números positivos se representan


directamente en binario natural y los negativos se como complemento a uno del anterior
valor.

Binario en Ca1 Decimal


0 000....000 +0
0 000....001 +1
....... ... .... Positivos
n-1
0 111....111 2 –1
1 000....000 - ( 2n-1 – 1)
....... .... .... Negativos
1 111....110 -1
1 111....111 -0

El rango de representación es el mismo que para la representación en Signo y


Magnitud, también existe doble representación para el ‘0’. Pero para la extensión de
signo simplemente hay que replicar el primer bit (MSB). De 001 a 0001 y de 101 a
1101.
Ejemplo: 12  [- (25-1 – 1), + 25-1 – 1]=[- (24 – 1), + 24 – 1]=[-15,15]
Ca1(12)=Ca1(01100)=01100
-16  [- (26-1 – 1), + 26-1 – 1]=[- (25 – 1), + 25 – 1]=[-31,31]
Ca1(-16)=Ca1(001100)=110011

COMPLEMENTO A DOS (Ca2)

De forma análoga a la representación en complemento a uno, los números


positivos se representan directamente en binario natural y los negativos se como
complemento a dos del anterior valor.

Binario en Ca2 Decimal


0 000....000 +0
0 000....001 +1
....... ... .... Positivos
0 111....111 2n-1 – 1
1 000....000 - 2n-1
....... .... .... Negativos
1 111....110 -2
1 111....111 -1

En este sistema ganamos en rango de representación [ - 2 n-1 , 2n-1 – 1]. Para n=8
bits podremos representar [-128, +127]. Además ahora el valor cero sólo tiene una
representación. Para la extensión de signo emplea el mismo procedimiento que en el
caso anterior.

Ejemplo: 12  [- 25-1 , + 25-1 – 1]=[- 24 , + 24 – 1]=[-16,15]


Ca1(12)=Ca1(01100)=01100
-16  [- 25-1 , + 25-1 – 1]=[- 24 , + 24 – 1]=[-16,15]
Ca1(-16)=Ca1(01100)=10100.

17
OPERACIONES EN COMPLEMENTO A DOS:

Sean A y B dos números enteros (positivos o negativos), representados según el


convenio de Ca2:
- Para calcular R=A+B y obtener R en convenio de representación Ca2, realizar una
suma binaria y despreciar el acarreo final.
- Para calcular R=A-B y obtener R , realizar la suma binaria A + (-B) =A + Ca2(B)

Ejemplos:
-20 101100
+ +10 + 001010
-10 0 110110

-20 101100
- +10 Ca2(001010) + 110110
-30 1 100010

EXCESO Z

Este formato se basa en la idea de escoger una combinación binaria cualquiera


(el valor en binario natural de esta combinación se le denomina Z o exceso ) como
representación del valor cero; por convenio, todas las combinaciones menores son
negativas y las mayores, positivas. Ya no existe un bit de signo, sino que el signo está
implícito en el valor representado. De otra forma, este convenio se puede formular
diciendo que un número cualquiera A se representa por la secuencia de bits en binario
natural correspondiente al valor A + Z .

No tiene sentido realizar la extensión de signo y existe un único cero. La utilidad


de esta representación estriba en que la representación de los números con signo
mantiene el orden de los valores representados; las combinaciones que en binario
natural son mayores representan a los números positivos más grandes. Esta propiedad
facilita la comparación entre números con signo, lo que la hace ideal para la
representación del exponente para números en coma flotante.

Exceso 2n-1 – 1 Decimal Exceso 2n-1 – 1 Decimal


0 000....000 -( 2n-1 – 1) 1 000....000 +1
0 000....001 -( 2n-1 – 2) 1 000....001 +2
0 000....010 -( 2n-1 – 3) .... .... ...
0 000....011 -( 2n-1 – 4) 1 111....100 n-1
+( 2 – 3)
... ..... 1 111....101 +( 2n-1 – 2)
0 111....110 -1 1 111....110 +( 2n-1 – 1)
0 111....111 0 1 111....111 + 2n-1

A la hora de sumar y restar, el resultado no lleva incorporado el exceso correcto


y hay que ajustarlo:

A A+Z A A+Z
+ B + B+Z - B - B+Z
A+B A+B+2Z A-B A-B
- Z + Z
A+B+Z (A-B)+Z

18
DESBORDAMIENTO DE LAS OPERACIONES

Este suceso ocurre cuando el resultado de las operaciones no es representable el


formato utilizado, queda fuera del rango de representación. Puede ocurrir en cualquier
convenio de representación (generalmente llamado V ó OV).

- Desbordamiento en números sin signo:


Ocurre cuando hay acarreo en la última etapa, indicando que es necesario
al menos un bit más para representar el resultado.

+44 101100 +44 101100


+ +10 + 001010 + +24 + 011000
+54 0110110 +68 1000100

V=0 V=1 No es representable con 6 bits


68  [0 , 26 – 1]=[0 , 63]

- Desbordamiento al operar con números en Ca2:


Ocurre cuando el signo del resultado no es coherente con los signos de
los operandos (resultado positivo al sumar dos números negativos, o
resultado negativo al sumar dos números positivos)

An-1 Bn-1 Cn-2 Cn-1 Rn-1


0 0 0 0 0 A y B >=0 . Cn-1 Cn-2 .....
An-1 An-2 ... A0
0 0 1 0 1 Desb. Si R>0 + Bn-1 Bn-2 ... A0
0 1 0 0 1 Cn-1 Rn-1 Rn-2 ... R0
0 1 1 1 0 A>=0 y b<0 o viceversa
1 0 0 0 1 Desb. Imposible .
1 0 1 1 0
1 1 0 1 0 A y B <0 .
1 1 1 1 1 Desb. Si R>=0

V= Cn-1  Cn-2 = “V=1 si Cn-1 =1 ó Cn-2 = 1 , pero no ambos”

Ejemplo: Rango para 6 bits en Ca2= [- 26-1 , + 26-1 – 1]=[- 25 , + 25 – 1]=[-32,31]

Sumar y restar +17 y +16 con 6 bits

V=1 V=0

010000
+17 010001 +17 010001
+ +16 + 010000 - +16 Ca2(010000) + 110000
+33 0100001 +01 1000001

R= - 31 ¿?? R= + 1 o.k.

RESUMEN

19
S. y M. Ca1 Ca2 Exceso
Rango [ - (2n-1 – 1), + 2n-1 – 1]. [ - (2n-1 – 1), + 2n-1 – 1]. [ - 2n-1 , + 2n-1 – 1]. [ - (2n-1 – 1), + 2n-1 ].
Ext. Signo Si Si Si No
Inconvenientes Dos repre. Para el Dos repre. Para el Sumas y restas
cero cero complicadas
Sumas y restas
complicadas

3.1.4. NUMEROS REALES

Una vez estudiadas las posibles representaciones de números enteros y su


aritmética, es necesario introducir estos mismos conceptos para los números reales. De
esta forma se habrán cubierto todos los aspectos relacionados son las operaciones
numéricas en el computador.

Un número real es aquel que consta de parte entera y parte fraccionaria. En la


aritmética decimal, ambas partes están separadas mediante un nuevo símbolo: la coma
decimal. Existe otra forma de representar números reales que también se usa con
frecuencia, la notación exponencial.

Ejemplo:
5,25=5,25 * 100 = 0,525 * 101 = 52,5 * 10 -1 = ...

COMA FIJA

Un número real R se representa mediante dos campos de longitud fija, uno para
la parte entera y otro para la parte fraccionaria, separados mediante la coma decimal.

R = en-1 en-2 ....... e1 e0 , f-1 f-2 ...... f-p+1 f-p


Con n bits para la parte entera y p bits para la parte fraccionaria.

Problema debido a la longitud fija de los campos. Supongamos que tenemos un


número real con 3 bits para cada uno de los campos y realizamos esta operación:

000,12510 * 000,00110 = 000,00012510 ajustando el resultado al formato: 000,00010

COMA FLOTANTE

Un número real R se representa mediante la expresión R = M * BE , donde:


M es la mantisa. Tiene signo y suele ser un número fraccionario.
B es la base del exponente. Suele ser 2, aunque no siempre es así.
E es el exponente. Es un número entero con signo.

La aritmética es más compleja que la entera, existen circuitos específicos


(coprocesadores matemáticos). El rango de representación está determinado
principalmente por el número de bits asignado al exponente E. Y aparece el concepto de
precisión ( distancia entre dos valores representables) que vendrá determinado
principalmente por el número de bits asignados a la mantisa M.

R = M * BE R = (M; B; E) R = (M; E)
donde B es fijo para un computador dado

20
Respecto a :
- La mantisa M, se asignan q bits : mq-1 mq-2 .... m1 m0 y es un número
fraccionario con signo expresado en S. Y M.
- El exponente E, se asignan p bits : mep-1 meq-2 .... me1 me0 y es un número
entero expresado en exceso 2p-1 - 1

El orden de los campos en memoria seria este:

Signo Exponent Magnitud


mantisa e mantisa

Ejemplo: Representar el número 5,625 en coma flotante

Base = 10
5,625 =5,625 * 100
R = (5,625; 0) = (0,5625; 1) = (56,25; -1) = ...
/10 *10

Base = 2
5,625 = 5,625 * 20
R = (5,625; 0) = (2,8125; 1) = (11,25; -1) = ...
/2 *2

5,625 = 101,1012 * 20
R = (101,101; 0) = (10,1101; 1) = (1011,01; -1) = ...
/2 *2

NORMALIZACIÓN DE LA MANTISA

Surge para no perder bits significativos (bits a 1) despreciando espacio para


almacenar bits no significativos (bits a 0). Al normalizar la representación de la mantisa
se asegura que se almacenen el mayor número de unos posibles.

El primer bit significativo se coloca alrededor de la coma. Para mover la coma


habrá que modificar el valor del exponente. Si el primer bit significativo se coloca a la
derecha de la coma, los números tendrán la forma 0,1xxx...x. Si se coloca a la izquierda,
tendrán la forma 1,xx...x. Al normalizar, aparece el concepto de bit implícito , dado que
se asegura la posición del primer bit significativo, no hace falta almacenarlo (aunque sí
tenerlo en cuenta en la operaciones).

3.2. Representación alfanumérica

A cada símbolo del conjunto {0,1,...,9,A,...Z,+,-,*,...} se le puede asociar una


combinación arbitraria de señales binarias que usualmente suele constar de palabras del
mismo tamaño.

Las características de esta representación son las siguientes:


- Longitud del código que se utiliza para representar cada carácter (de ella
depende el número de caracteres distintos representable).

21
- Codificación de cada carácter.

Debe destacarse que no existe un criterio determinado que indique qué código debe
utilizarse para representar un carácter alfanumérico determinado (no existe ninguna
regla que indique qué código es el más adecuado para representar la letra “a”, por
ejemplo). Por este motivo viene utilizándose convenios para estas empresas,
algunos de los cuales se han convertido en estándares con el paso del tiempo.

EJEMPLO DE CÓDIGOS

A.S.C.I.I. (American Standard Code fos Information Interchange)

- Es el más utilizado hoy en día.


- Longitud fija, igual para todos los códigos.
- ASCII original. Longitud de código de 7 bits.
- ASCII extendido. Ampliación para caracteres internacionales, con
una longitud de código de 8 bits.

E.B.C.D.I.C. (Extended Binary Coded Decimal Interchange Code)

- Surgido en 1964 con el sistema IBM S360.


- Longitud fija de 8 bits.
- Sólo se usa en algunos sistemas mainframe.

Ejemplo: Tabla de representación del ASCII de 7 bits.

4. MEDIDAS DE LA INFORMACION

4.1. La capacidad

22
Los ordenadores disponen de dispositivos para almacenar la información. Dichos
dispositivos son elementos físicos con una capacidad determinada. Para medir dicha
capacidad utilizamos una serie de medidas.

La unidad mínima de información es el bit que como ya hemos visto tiene dos valores
posibles: 0 y 1. A partir de ésta existen otras medidas múltiplos de ésta. Concretamente
tenemos:

- Byte u octeto. Conjunto de 8 (23) bits


- Kilobyte (Kb). Conjunto de 1024 (210) bytes = 213 bits
- Megabyte (Mb). Conjunto de 1024 (210) Kb = 220 bytes = 223 bits
- Gigabyte (Gb). Conjunto de 1024 (210) Mb = 220 Kb = 230 bytes = 233 bits
- Terabyte (Tb). Conjunto de 1024 (210) Gb = 220 Mb = 230 Kb = 240 bytes = 243
bits.

4.2. La velocidad

Otra característica de los ordenadores es su velocidad de procesamiento. Para ello cada


ordenador dispone de un reloj o generador de pulsos que sincroniza todas las
operaciones que realiza. Al periodo de duración de esta señal, se le denomina tiempo de
ciclo. El ordenador realiza una operación simple cada ciclo de reloj, por lo tanto, cuanto
más corto sea un ciclo, más ciclos (es decir, más operaciones) podrá realizar en un
segundo.

La magnitud que mide el ciclo de reloj por segundo es el Herzio, aunque por cuestiones
obvias se utilizan sus múltiplos, el Megaherzio (millón de ciclos) y el Gigaherzio (mil
millones de ciclos). Parece evidente pues, que la frecuencia de reloj, expresada en Mhz
o Ghz por segundo, será determinante en la velocidad de funcionamiento de un
ordenador.

23

También podría gustarte