DEDICATORIA
Este segundo trabajo de investigación elaborado a base de esfuerzo y perseverancia; se
lo dedicamos a nuestras madres que el domingo pasado han estado celebrando su día
en el cual recordamos todo lo que hacen por nosotros, que a pesar de los inconvenientes
siempre nos dan su apoyo condicional para seguir adelante a pesar de las dificultades
de la vida.
AGRADECIMIENTO
Darle un agradecimiento de corazón, no
bastaría; para aquel ser que cada día esta al
lado nuestro y que nos prepara que para el
final de nuestra vida terrenal logremos dar el
paso para llegar a vivir con Él y por Él. Es
por eso que agradecemos a dios con todo
nuestro amor.
Un agradecimiento muy especial a esta
prestigiosa Universidad, por habernos
alojado en sus instalaciones en este corto
tiempo; así como también le agradecemos
por inculcarnos el espíritu de integridad
personal en cada uno de nosotros.
Gustosos de recibir su ayuda en un honor
agradecerles.
INTRODUCCION
A lo largo de la historia, incluso desde tiempos en que no existía la
electricidad, el hombre siempre ha querido simplificar sus tareas diarias, por esta
razón los grandes pensadores de todos tiempos han dedicado gran parte de su vida a
desarrollar distintos procesadores de información, desde una simple calculadoras
hasta una complicada computadora personal.
Este conjunto de desarrollos conllevo a la evolución no sólo de la parte física o
hardware de un procesador sino también de una parte lógica llamada software.
Además debemos recalcar que con la aparición de la computadora y el desarrollo
de sus componentes básicos (hardware y software), trajo consigo la evolución no sólo
tecnológica, sino social, rompiendo las barreras de la comunicación entre hombre y
máquina.
Por esta razón debemos considerar que la evolución de hombre y máquina deben
ir de la mano complementándose y ayudándose mutuamente
HARDWARE
Equipo utilizado para el funcionamiento de una computadora. El hardware se refiere a
los componentes materiales de un sistema informático. La función de estos
componentes suele dividirse en tres categorías principales: entrada, salida y
almacenamiento. Los componentes de esas categorías están conectados a través de un
conjunto de cables o circuitos llamado bus con la unidad central de proceso (CPU) del
ordenador, el microprocesador que controla la computadora y le proporciona capacidad
de cálculo.
I.-PERIFERICOS DE UN COMPUTADOR
I.1 .-PERIFÉRICOS DE ENTRADA
I.1.1 .-EL TECLADO
Un teclado es un periférico de entrada, que convierte la acción mecánica de pulsar una
serie de pulsos eléctricos codificados que permiten identificarla. Las teclas que lo
constituyen sirven para entrar caracteres alfanuméricos y comandos a una computadora.
En un teclado se puede distinguir a cuatro subconjuntos de teclas:
*TECLADO ALFANUMERICO, con las teclas dispuestas como en una maquina de
escribir.
*TECLADO NUMERICO, (ubicado a la derecha del anterior) con teclas dispuestas
como en una calculadora.
*TECLADO DE FUNCIONES, (desde F1 hasta F12) son teclas cuya función depende
del programa en ejecución.
*TECLADO DE CURSOR, para ir con el cursor de un lugar a otro en un texto. El
cursor se mueve según el sentido de las flechas de las teclas, ir al comienzo de un
párrafo ("HOME"), avanzar/retroceder una pagina ("PAGE UP/PAGE DOWN"),
eliminar caracteres ("delete"), etc.
Cada tecla tiene su contacto, que se encuentra debajo de, ella al oprimirla se "CIERRA"
y al soltarla se "ABRE", de esta manera constituye una llave "SI-NO".
Debajo del teclado existe una matriz con pistas conductoras que puede pensarse en
forma rectangular, siendo en realidad de formato irregular. Si no hay teclas oprimidas,
no se toca ningún conductor horizontal con otro vertical. Las teclas están sobre los
puntos de intersección de las líneas conductoras horizontales y verticales.
Cuando se pulsa una tecla. Se establece un contacto eléctrico entre la línea conductora
vertical y horizontal que pasan por debajo de la misma.
El teclado por dentro: En un teclado de PC se verán los caminos conductores
horizontales construidos, soportados y aislados en una hoja de plástico, y los verticales
en otra hoja similar que esta sobre la primera.
De lado interno de cada de hoja, en cada camino existe una serie de círculos
conductores formando parte del mismo, que no están aislados.
Entre dichas dos hojas con caminos conductores y cuerpo de la tecla se interpone una
tercer capa de material elástico, que provee un con truncado elástico para cada tecla, el
cual haría de resorte.
Debajo de cada tecla, se enfrentan, un circulo de un camino horizontal con otro de un
camino vertical. Al pulsar una tecla se vence el conito que esta debajo de ella. A través
de este eje de la tecla presiona uno sobre otros círculos conductores, poniéndolos en
contacto. Al soltar la tecla los círculos quedan separados y aislados.
Formando parte de la caja del teclado, aparece una pastilla de circuito integrado
(MINICONTROLADOR) con funciones de codificador, el cual constituye la
electrónica del periférico teclado. La función de este integrado es explorar y sensar el
teclado, para detectar si una tecla fue expulsada o soltada, en ambos casos un código
que la identifica, y lo enviara a un port que se encuentra en la interfaz circuital
denominada CONTROLADORA DEL TECLADO, ubicado en un chip de la
MOTHERBOARD.
I.1.2.-MOUSE
El ratón o Mouse informático es un dispositivo señalador o de entrada, recibe esta
denominación por su apariencia.
A medida que se desplaza, el Mouse debe enviar al computador señales eléctricas
binarias que permitan reconstruir su trayectoria, con el fin que la misma sea repetida por
una flecha en el monitor. Para ello el Mouse debe realizar dos funciones :
En primer lugar debe generar, por cada fracción de milímetro que se mueve, uno o más pulsos
eléctricos (CONVERSION ANALOGICA-DIGITAL).
En segundo lugar contar dichos pulsos y enviar hacia la interfaz "port serie", a la cual esta conectado el
valor de la cuenta, junto con la información acerca de sí se pulsa alguna de sus tres teclas ubicada en su
parte superior.
Suponiendo que se quiera medir cuantas vueltas gira una rueda, esta presenta sobre su
circunferencia exterior flejes metálicos radiales. Cada fleje al rozar un clavo ubicado en
una posición fija, genera un sonido audible. Al ponerse la rueda en movimiento, una vez
que un fleje rozo dicho clavo, cada vez que la rueda avanza 30º se escuche un sonido en
correspondencia con el fleje que roza el clavo. Contando el número de estos sonidos
discontinuos, se puede cuantificar, mediante un número, cuantas vueltas y fracción a
girado la rueda. Se ha convertido así un movimiento físicamente continuo en una
sucesión discontinua de sonidos aislados para medir el giro.
Se ha realizado lo que se llama una conversión "analógica-digital" que debe realizar el
Mouse para que pueda medir la distancia que recorrió.
Existen dos tecnologías principales en fabricación de ratones: Ratones mecánicos y
Ratones ópticos.
I.1.2.1.- RATONES MECÁNICOS.
Los ratones mecánicos constan de una bola situada en su parte inferior. La bola, al
moverse el ratón, roza unos contactos en forma de rueda que indican el movimiento del
cursor en la pantalla del sistema informático.
I.1.2.2.- RATONES ÓPTICOS.
Los ratones ópticos tienen un pequeño haz de luz láser en lugar de la bola rodante de los
mecánicos. Un sensor óptico situado dentro del cuerpo del ratón detecta el movimiento
del reflejo al mover el ratón sobre el espejo e indica la posición del cursor en la pantalla
de la computadora.
Una limitación de los ratones ópticos es que han de situarse sobre una superficie que
refleje el haz de luz. Por ello, los fabricantes generalmente los entregan con una
pequeña plantilla en forma de espejo.
¿Cómo opera en detalle un sistema con un mouse?
Cuando este se desplaza el movimiento de la bolita que esta en su parte inferior se
descompone en dos movimientos según dos ruedas con ejes perpendiculares entre sí (en
correspondencia con dos ejes de coordenadas X e Y) que un conversor analógico -
digital traduce en pulsos eléctricos. La cantidad de pulsos generados para cada eje
representa la distancia recorrida por la bolita respecto de ese eje representa la distancia
recorrida por la bolita respecto de ese eje, y en relación con la ultima posición en que el
Mouse estuvo quieto. Dichos pulsos se van contando en dos contadores, uno para cada
eje, pudiendo ser la cuenta progresiva o regresiva, según el sentido del movimiento del
Mouse respecto de dichos ejes. Los circuitos envían por un cable que va hacia un port
serie del computador , el valor de la cuenta de los contadores, como dos números de 8
bits con bit be signo (rango de-128 a +127). Según el protocolo de MICROSOFT estos
números se envían formando parte de bytes, cada uno de los cuales además se transmite
bit de START (inicio) y STOP conforme al protocolo RS 232C para un port serie.
I.1.3.-TABLETA DIGITALIZADORA
Las tabletas digitalizadoras son unas herramientas que permiten el manejo del cursor a
través de la pantalla del sistema informático y facilitan una importante ayuda en el
tratamiento de los comandos de órdenes en aplicaciones de CAD/CAM (diseño asistido
por computadora).
Las tabletas digitalizadoras convierten una serie de coordenadas espaciales en un código
binario que se introduce en la computadora. Estas coordenadas serán manejadas
posteriormente por programas de dibujo, ingeniería, etc.
La tableta suele tener impresos en su armazón pulsadores con símbolos dibujados para
ejecutar de modo directo comandos que agilizan el trabajo de manejo del software.
Las tabletas digitalizadoras poseen una resolución de alrededor de una décima de
milímetro y pueden manejar gráficos en dos y tres dimensiones.
Una posibilidad de manejo muy intuitiva convierte a las tabletas digitalizadoras en unas
herramientas muy útiles y polivalentes en los sistemas informáticos de diseño y manejo
de gráficos.
Existen diversas tecnologías de construcción de tabletas, pudiendo ser éstas:
• Tabletas mecánicas.
• Tabletas electrónicas.
Las mecánicas, debido al desgaste producido en sus componentes por el uso continuado,
son menos precisas y más delicadas de manejar que las electrónicas, siendo éstas, por
ello, las más extendidas comercialmente en el mercado.
Los lápices ópticos son dispositivos de introducción de datos que trabajan directamente
con la pantalla de la computadora, señalando puntos en ella y realizando operaciones de
manejo de software.
Para operar con el lápiz óptico se coloca éste sobre la pantalla del sistema informático.
En el momento en que el cañón de rayos catódicos de la pantalla barre el punto sobre el
que se posiciona el lápiz, éste envía la información a un software especial que la
maneja. El microprocesador calcula cuál es la posición sobre la pantalla de la
computadora permitiendo manipular la información representada en ella.
Los lápices ópticos permiten la introducción de datos, el manejo del cursor, etc., en la
pantalla de la computadora. Son una asistencia para las limitaciones de los teclados en
algunas aplicaciones, sobre todo las que no son de gestión pura (creativas, etc.)
I.1.4.-ESCANERS
Los escáneres son periféricos diseñados para registrar caracteres escritos, o gráficos en
forma de fotografías o dibujos, impresos en una hoja de papel facilitando su
introducción la computadora convirtiéndolos en información binaria comprensible para
ésta.
El funcionamiento de un escáner es similar al de una fotocopiadora. Se coloca una hoja
de papel que contiene una imagen sobre una superficie de cristal transparente, bajo el
cristal existe una lente especial que realiza un barrido de la imagen existente en el papel;
al realizar el barrido, la información existente en la hoja de papel es convertida en una
sucesión de información en forma de unos y ceros que se introducen en la computadora.
Para mejorar el funcionamiento del sistema informático cuando se están registrando
textos, los escáneres se asocian a un tipo de software especialmente diseñado para el
manejo de este tipo de información en código binario llamados OCR (Optical Character
Recognition o reconocimiento óptico de caracteres), que permiten reconocer e
interpretar los caracteres detectados por el escáner en forma de una matriz de puntos e
identificar y determinar qué caracteres son los que el subsistema está leyendo.
Un caso particular de la utilización de un scanner, aunque representa una de sus
principales ventajas, es la velocidad de lectura e introducción de la información en el
sistema informático con respecto al método tradicional de introducción manual de datos
por medio del teclado, llegándose a alcanzar los 1.200 caracteres por segundo. Pero una
gran desventaja es que, sin querer se disminuye la calidad de imagen y por ende, no se
puede apreciar exactamente como su original.
I.1.4.1.-ESCÁNER DE MANO.
Es el menos costoso. Tiene un ancho de escaneado aproximadamente cuatro pulgadas, y
es ideal para copiar imágenes pequeñas como firmas, logotipos y fotografías.
I.1.4.2.-ESCÁNER HOJA POR HOJA
Un escáner de hoja por hoja produce lecturas mas confiables, es menos costoso y más
compacto que uno plano. Este tipo de escáner puede solamente copiar hojas sueltas. Si
se desea escanear una página de un libro, se debe arrancar.
I.1.4.3.-ESCÁNER PLANO
Un escáner plano es el tipo más versátil. Es ideal para escanear páginas de un libro sin
tener que desprenderlas
I.2 .-PERIFÉRICOS DE ALMACENAMIENTO
Los periféricos de almacenamiento, llamados también periféricos de memoria auxiliar,
son unos dispositivos en los que se almacenan, temporal o permanente, los datos que va
a manejar la CPU durante el proceso en curso, y que no es posible mantener en la
memoria principal. Suponen un apoyo fundamental a la computadora para realizar su
trabajo habitual.
Los periféricos de almacenamiento se pueden clasificar de acuerdo al modo de acceso a
los datos que contienen:
A.- ACCESO SECUENCIAL.
En el acceso secuencial, el elemento de lectura del dispositivo debe pasar por el espacio
ocupado por la totalidad de los datos almacenados previamente al espacio ocupado
físicamente por los datos almacenados que componen el conjunto de información a la
que se desea acceder.
B.- ACCESO ALEATORIO.
En el modo de acceso aleatorio, el elemento de lectura accede directamente a la
dirección donde se encuentra almacenada físicamente la información que se desea
localizar sin tener que pasar previamente por la almacenada entre el principio de la
superficie de grabación y el punto donde se almacena la información buscada.
Es evidente la reducción de tiempo que presenta el acceso aleatorio frente al secuencial,
pero la utilización de la tecnología de acceso secuencial se debió a que la
implementación de las cintas magnéticas fue muy anterior a la puesta en marcha
operativa del primer periférico de acceso aleatorio.
En la actualidad, las cintas magnéticas tradicionales se están relegando poco a poco a
simples soportes de almacenamiento de datos históricos del sistema informático o de
procesos periódicos de copias de seguridad.
I.2.1.- MEDIOS MAGNÉTICOS
Disco rígido
Existen dos tipos principales de discos duros:
I.2.1.1.- DISCOS FIJOS.
Los discos fijos se fabrican dentro de una carcasa sellada de la que no se pueden extraer.
El montaje de los componentes internos del disco se realiza en la fábrica con unas
condiciones muy estrictas de limpieza y aislamiento para evitar la entrada de polvo que
pudieran deteriorarlo. Por ello nunca debe abrirse la carcasa de protección de un disco
duro excepto por personal técnico en las condiciones adecuadas.
I.2.1.2.- DISCOS REMOVIBLES.
Los discos removibles están montados en un contenedor, también sellado, que les
permite entrar y salir de unos habitáculos especiales. Estos habitáculos están situados en
la carcasa de la computadora o bien conectados a ésta por medio de un cable interfaz.
Material soporte:Están fabricados con una aleación de aluminio con un recubrimiento
magnético, se están investigando materiales sintéticos compuestos para reducir el
rozamiento para que haya un tiempo de acceso mas reducido
I.2.2.- DISQUETE Y DISCO DUROS
La diferencia mas clara entre un disquete y un disco duro es la gran capacidad de
almacenamiento de este ultimo.
Esto hace que haya que tratar de forma diferente a los discos duros de los flexibles.
Los discos duros presentan un problema especial que, por otra parte, tiene solución. Al
estar en el interior de la computadora no podemos combinarlo con otro de formato
diferente o preparado para otro sistema operativo (normalmente se usa DOS pero hay
otros SO como UNIX, OS-2 etc...). Este problema deja de tener importancia cuando se
usan discos removibles, ya que su utilización es similar a la de los discos flexibles.
Con los disquetes y con los removibles no hay problema de reconocimiento por parte de
nuestro sistema operativo, porque si no lo reconoce por estar inicializado (formateado)
con un sistema podemos introducir otro, pero el disco rígido si trabaja con un sistema
operativo, en un principio, ya no puede utilizar otro.
Por eso los fabricantes de hardware permiten organizar el disco rígido para que acepte
varios sistemas operativos por medio de lo que se denomina partición del disco duro
(dividirlo en áreas).
I.2.3.- MEDIOS ÓPTICOS
Los discos ópticos presentan una capa interna protegida, donde se guardan los bits
mediante distintas tecnologías, siendo que en todas ellas dichos bits se leen merced a un
rayo láser incidente. Este, al ser reflejado, permite detectar variaciones microscópicas de
propiedades óptico-reflectivas ocurridas como consecuencia de la grabación realizada
en la escritura. Un sistema óptico con lentes encamina el haz luminoso, y lo enfoca
como un punto en la capa del disco que almacena los datos.
Las tecnologías de grabación (escritura) a desarrollar son:
Por moldeado durante la fabricación, mediante un molde de níquel (CD-ROM y DVD ROM),
Por la acción de un haz láser (CD-R y CD-RW, también llamado CD-E),
Por la acción de un haz láser en conjunción con un campo magnético (discos magneto-ópticos - MO).
Los discos ópticos tienen las siguientes características, confrontadas con los discos
magnéticos:
Los discos ópticos, además de ser medios removibles con capacidad para almacenar
masivamente datos en pequeños espacios -por lo menos diez veces más que un disco
rígido de igual tamaño- son portables y seguros en la conservación de los datos (que
también permanecen si se corta la energía eléctrica). El hecho de ser portables deviene
del hecho de que son removibles de la unidad.
Asimismo, tienen bajo costo por byte almacenado. Los CD-ROM se copian (producen)
masivamente. La mayor capacidad de los discos ópticos frente a los magnéticos se debe
al carácter puntual del haz láser incidente, y a la precisión del enfoque óptico del láser.
Ello permite que en una pista los bits estén más juntos (mayor densidad lineal), y que
las pistas estén más próximas (más t.p.i).
Los CD son más seguros en la conservación de los datos, dado que la capa que los
almacena es inmune a los campos magnéticos caseros, y está protegida de la corrosión
ambiental, manoseo, etc., por constituir un "sándwich" entre dos capas transparentes de
policarbonato.
Por otra parte, la cabeza móvil -que porta la fuente láser y la óptica asociada- por estar
separada a 1 mm. de la superficie del disco, nunca puede tocarla. Por ello no produce en
ella desgaste por rozamiento, ni existe riesgo de "aterrizaje", como en el disco rígido
con cabezas flotantes. Tampoco el haz láser que incide sobre la información puede
afectarla, dada su baja potencia.
I.2.4.-UNIDAD CD-GRABABLE
Una unidad de cd-grabable (CD-R) permite almacenar la información en un disco. Este
tipo de unidad es útil para respaldar un disco duro o distribuir información. Puede
grabar información en cada disco solo una vez. Un disco CD-Grabable puede almacenar
hasta 650 MB de datos.
Una Unidad de CD-Regrabable (CD-RW) a menudo es similar a una CD-Grabable, pero
le permite cambiar los datos que registra en un disco. Un disco Cd Regrabable almacena
la misma cantidad de datos que un disco CD-Grabable.
Velocidad.-La velocidad de una unidad de CD-ROM determina qué tan rápido gira un
disco. Con altas velocidades la información se puede transferir de un disco a la
computadora más rápidamente, lo que da como resultado un mejor desempeño.
La velocidad a la cual la información se transfiere de un disco a la computadora, es
llamada ritmo de transferencia de datos, y es medida en Kilobytes por segundo (KBps).
La velocidad de la unidad de CD-ROM es muy importante, cuando se visualiza videos e
información que se encuentran en juegos y enciclopedias. Las velocidades bajas darán
como resultado un sonido de fondo entrecortado.
La mayoría de las nuevas unidades de CD-ROM tienen una velocidad de al menos 50X.
I.2.5.- DVD-ROM
Una unidad de DVD-ROM es un dispositivo que lee la información almacenada en
discos DVD-ROM o CD-ROM.
DVD-ROM quiere decir disco versátil digital- de memoria de solo lectura, lo que
significa que no puede cambiar la información almacenada.
El disco es similar en tamaño y forma a un CD pero puede almacenar más información
Un solo disco DVD puede almacenar al menos 4.7 GB, lo que equivale a más de siete
discos CD-ROM.
Pueden tener un solo lado o doble lado. Cada uno puede almacenar una o dos capas de
datos.
Hoy en día es muy usado en reemplazo de los videos casette usados para almacenar
películas.
Velocidad.-La velocidad de la unidad de DVD-ROM determina cuan rápido se puede
transferir datos desde un disco a la computadora. Las más nuevas pueden alcanzar
velocidades equivalentes a una unidad de CD-ROM 36X.
I.2.6.-DISQUETES
I.2.6.1.-DISQUETES DE 5 ¼ , (ya desaparecidos)
Están compuestos por una lamina de poliéster (plástico flexible) de forma circular,
recubierta por una película de material magnetizable.
La lamina de poliéster impregnada en la película magnética, esta cubierta con una funda
flexible, normalmente cloruro de vinilo, en cuyo interior se encuentra un forro especial
que sirve para proteger el disco del polvo y en cierta medida del calor y la humedad.
Hay una especie de ranuras él la conformación del disquete:
*Una ventana central en donde la unidad atrapa al disquete
*Un agujero de lectura-escritura, normalmente ovalado donde la cabeza lectora se
instala.
*Cerca de la abertura central se encuentra el orificio índice que permite detectar a la
unidad de disco el inicio del índice del disquete.
*Dos muescas de descarga junto a la abertura de lectura-escritura para asegurar que la
funda no se deforme.
*Una ranura de protección de escritura, depende si se tapa la ranura no se puede escribir
y si no se puede reescribir.
Grabación de datos: En los disquetes los datos se graban en series de círculos
concéntricos a los que denominamos "pistas", por lo tanto la superficie de un disco
queda subdivididas en pistas. Las pistas a su vez se dividen en sectores. El numero de
sectores que exista en un disquete dependen del tipo de disco y su formateo, todos los
disquetes tienen dos caras, en las que se puede leer y escribir. Como en ambas existen
pistas al conjunto de pistas se lo denomina "cilindro".
Cuando mezclamos todos estos conceptos, cara, pistas, tamaño del sector, obtenemos lo
que se denomina "capacidad de almacenamiento" que es la multiplicación de todos estos
términos:
I.2.6.2.-DISQUETES 3 ½:
Tiene prácticamente el mismo mecanismo que el de 5 ¼ , pero es diferentes en tamaño
(físico y en Kbytes) la funda es de plástico rígido con una pestaña corrediza en un borde
que al entrar a la unidad de disco esta se corre automáticamente.
Almacenamiento: El método de grabación magnética es el mismo que emplean todas
las variedades de cinta magnética: casetes de música, de vídeo, etc.
La base de esta clase de grabación es la propiedad de magnetización que tienen algunos
materiales, tales como el hierro.
La superficie de los discos que contienen una superficie delgada de material magnético,
se trata como si fuera una matriz de posiciones de puntos, cada uno de los cuales es un
bit que se activa al equivalente magnético de 0 y 1 (magnetizado o desmagnetizado,
respectivamente). Como las posiciones de estos puntos no están predeterminadas,
necesitan unas marcas que ayuden a la unidad de grabación a encontrar y comprobar
dichas posiciones.
I.3.-PERIFÉRICOS DE SALIDA
I.3.1.-IMPRESORA
Periférico para ordenador o computadora que traslada el texto o la imagen generada por
computadora a papel u otro medio, como transparencias o diversos tipos de fibras. Las
impresoras se pueden dividir en categorías siguiendo diversos criterios
I.3.1.1.-IMPRESORA MATRICIAL
Cualquier impresora que imprime caracteres compuestos por puntos empleando un
cabezal de impresión formado por agujas accionadas electromagnéticamente. Los
parámetros principales de calidad de impresión de una impresora matricial son el
número de puntos de la matriz de agujas y su velocidad. Por el tipo de tecnología
empleado para obtener el carácter impreso se clasifican como impresoras de impacto. El
número de agujas del cabezal de impresión suele ser 9, 18 o 24
I.3.1.2.-IMPRESORA LÁSER
Impresora electrofotográfica que utiliza la misma tecnología que las fotocopiadoras.
Para dibujar la imagen de la página deseada se utilizan un rayo láser dirigido y un
espejo giratorio, que actúan sobre un tambor fotosensible. La imagen se fija en el
tambor en forma de carga electrostática que atrae y retiene el tóner. Se enrolla una hoja
de papel cargada electrostáticamente alrededor del tambor, de forma que el tóner
depositado se queda pegado al papel. A continuación se calienta el papel para que el
tóner se funda sobre su superficie. Por último, se elimina la carga eléctrica del tambor y
se recoge el tóner sobrante. Para hacer varias copias de una misma imagen, se omite
este último paso y se repiten sólo la aplicación del tóner y el tratamiento del papel.
Una desventaja de las impresoras láser es que son menos versátiles que las matriciales,
que trabajan con distintos tipos de papel. Por ello suelen obtenerse mejores resultados si
se utilizan impresoras matriciales o de margarita para la impresión de formularios
autocopiativos o en papel ancho
I.3.1.3.-IMPRESORA DE CHORRO DE TINTA O DE INYECCIÓN DE TINTA
Impresora que utiliza la propulsión de gotas de tinta —tecnología ink jet— sobre un
soporte sólido (papel o acetato) para obtener la copia de un documento. Habitualmente
la tinta se encuentra en estado líquido y llega al soporte por inyección térmica
(tecnología desarrollada por Canon, bubble jet) o por efecto piezoeléctrico (tecnología
desarrollada por Epson).
En un principio, las impresoras de chorro de tinta imprimían en blanco y negro, pero en
la actualidad la mayoría lo hace en color. Suelen utilizar dos cabezales, uno con un
cartucho de tinta negra y otro con tres depósitos de tinta de color diverso (cyan, magenta
y amarillo); son impresoras CMYK (acrónimo de Cyan, Magenta, Yellow, blacK). Cada
punto se imprime combinando los distintos colores en la cantidad adecuada, lo que
permite una gran precisión; si se utiliza un papel apropiado, se pueden obtener copias
con calidad fotográfica.
También existen impresoras de tinta sólida, que en lugar de los cartuchos
convencionales tienen cuatro barras de tinta sólida con los colores primarios; dan una
impresión de gran calidad a un costo relativamente bajo, lo que las convierte en una
buena alternativa a las impresoras láser en color.
Desde que llegaron al mercado, en la segunda mitad de la década de 1980, las
impresoras de chorro de tinta han experimentado un crecimiento notable, ya que su
precio ha ido descendiendo al tiempo que han ido aumentando sus prestaciones.
I.3.2.-MONITOR
El dispositivo en el que se muestran las imágenes generadas por el adaptador de vídeo
del ordenador o computadora. El término monitor se refiere normalmente a la pantalla
de vídeo y su carcasa. El monitor se conecta al adaptador de vídeo mediante un cable.
La calidad del monitor se mide por su tamaño (especificado como la longitud de la
diagonal de la pantalla, medida en pulgadas), el tamaño del punto, la frecuencia de
barrido horizontal y la frecuencia de barrido vertical o frecuencia de refresco. En un
principio, todos los monitores estaban basados en tubos de rayos catódicos, similares a
las pantallas de televisión
I.3.2.1.-MONITOR ANALÓGICO
Un monitor visual capaz de presentar una gama continua (un número infinito) de
colores o tonalidades de gris, a diferencia de un monitor digital, que sólo es capaz de
presentar un número finito de colores. El número de colores que puede representar viene
limitado sólo por la tarjeta gráfica que se esté utilizando. A diferencia de los monitores
digitales, estos monitores reciben de la tarjeta gráfica una señal analógica con valores de
tensión variable entre 0 y 0,7 voltios; la tensión puede tener cualquier valor entre estos
límites, de ahí que puedan representar un número infinito de colores. Tarjetas
compatibles con estos monitores son las VGA, SuperVGA y XGA.
I.3.2.2.-MONITOR DIGITAL
Monitor de vídeo capaz de presentar sólo un número fijo de colores o tonalidades de
gris. Algunos ejemplos de monitores digitales son el monocromo, el monitor para
gráficos en color y el monitor para colores mejorados de IBM. En el caso de un monitor
monocromo, la tarjeta gráfica envía dos informaciones por cada punto; la primera dice
si el punto está iluminado o no y la segunda si la señal es intensa o no. Los monitores
color digitales reciben de la tarjeta gráfica cuatro informaciones por cada punto; la
primera indica si el punto es rojo o no rojo, la segunda, si es verde o no verde, la tercera
si es azul o no azul y la cuarta, si es intenso o no intenso. Las tarjetas gráficas
compatibles con estos monitores son las MDA, CGA y EGA.
También representa a los monitores que no requieren de convertidores digitales
analógicos para representar en pantalla la información de la imagen recibida desde el
controlador gráfico
I.3.2.3.- MONITOR MULTIFRECUENCIA
Monitor de vídeo capaz de ajustarse automáticamente a la frecuencia de la señal del
adaptador de vídeo al que está conectado. Se puede distinguir entre los monitores
multifrecuencia propiamente dichos, que se pueden ajustar a un conjunto establecido de
frecuencias, y aquellos que analizan la frecuencia de la señal entrante que proporciona
la tarjeta de vídeo y se configuran en base a ella; éstos se denominan monitores
multiescán o MultiSync (denominación comercial de NEC). Frente a los monitores de
frecuencia fija, los multifrecuencia y los multiescán pueden mostrar las imágenes
generadas por casi cualquier tipo de tarjeta gráfica, incluidas las MDA, Hercules, EGA,
VGA y SVGA.
Los monitores MultiSync fueron introducidos en el mercado en 1986 por la empresa
NECT (NEC Technologies, Inc.), filial estadounidense de la empresa japonesa NEC.
Aunque son un poco más caros que los de frecuencia fija, la mayor parte de los
ordenadores o computadoras personales tienen actualmente monitores multifrecuencia o
MultiSync.
I.3.2.4.-MONITOR MONOCROMO
Término aplicado a un monitor que muestra las imágenes en un solo color: negro sobre
blanco (de acuerdo con el modelo de las pantallas monocromas de los equipos Apple
Macintosh) o ámbar o verde sobre negro (común en IBM y en otros monitores
monocromos). El término se aplica también a los monitores que sólo muestran distintos
niveles de gris. Se considera que los monitores monocromos de alta calidad son
generalmente más nítidos y más legibles que los monitores de color con una resolución
equivalente.
I.3.2.5.-MONITOR COLOR
Pantalla basada en un tubo de rayos catódicos diseñada para funcionar con una tarjeta o
adaptador de vídeo, que produce textos o imágenes gráficas en color. Un monitor color,
a diferencia del monocromo, tiene una pantalla revestida internamente con trifósforo
rojo, verde y azul dispuesto en bandas o configuraciones. Para iluminar el trifósforo y
generar un punto de color, este monitor suele incluir también tres cañones de electrones,
en este caso uno para cada color primario. Para crear colores como el amarillo, el rosado
o el anaranjado, los tres colores primarios se mezclan en diversos grados.
Además de los monitores con tecnología de tubo de rayos catódicos, hoy día existen
monitores de tipo panel cuya tecnología puede ser LCD (Liquid Cristal Display,
dispositivos de cristal líquido), plasma, EL (ElectroLuminescent, electroluminiscencia)
o FED (Field Emission Display, dispositivos de emisión de campo). En un principio se
instalaban sólo en ordenadores portátiles, pero actualmente se incluyen también en otros
equipos
I.4.-PERIFÉRICOS DE ENTREDA / SALIDA
I.4.1.-MÓDEM.-
Es un dispositivo electrónico de entrada / salida (ver figura 3)que se utiliza
principalmente para convertir señales digitales a análogas y viceversa, una de sus
principales aplicaciones es en la conexión a redes teniendo como principal punto de
referencia o ejemplo la Internet.
Por otra parte, si la queremos definir técnicamente tendríamos, diríamos que cuando hay
una conexión con redes telefónicas se establece mediante el módem, y gracias a este los
usuarios de muy diversos lugares pueden intercambiar información como faxes,
memorandos, etc., la palabra MODEM surgió de la combinación de dos términos los
cuales son MODULADOR y el otro DEMODULADOR .
La Modulación consiste en transformar los datos de la computadora (bits y bytes) en
sonido o vibraciones acústicas, sin embargo, la Demodulación consiste en el proceso
inverso, los sonidos se reciben y los cuales son convertidos a datos.
I.5.- MEMORIAS
La función principal de la CPU es obedecer las instrucciones codificadas en los
programas. Sin embargo, sólo puede manejar una instrucción y unos cuantos datos a la
vez. La computadora tiene que colocar en algún lugar el resto del programa y los datos
hasta que el procesador esté listo para usarlos. Para esto es la RAM.
RAM (Random Acces Memory, memoria de acceso aleatorio): Memoria de
almacenamiento primario. Almacena temporalmente instrucciones de programa y
datos. El computador divide un chip de RAM en varias localidades de igual
tamaño. Estas localidades de memoria tienen una dirección única, de manera que
el computador pueda distinguirlas cuando se le ordena que guarde o recupere
información. Puede almacenarse un trozo de información en cualquier localidad de
la RAM tomada al azar y el computador puede recuperarlo rápidamente si se le
indica hacerlo. De ahí proviene el nombre de memoria de acceso aleatorio. La
información almacenada en la RAM no es más que un patrón de corriente eléctrica
que fluye por circuitos microscópicos en chips de silicio. Es una memoria volatil,
ya que la información que contiene no se conserva de manera permanente. Si se
interrumpe la energía, dicha información se pierde. La RAM no tiene partes
móviles; al no tener un movimiento mecánico, se puede tener acceso a los datos de
la RAM a velocidades electrónicas o aproximadamente a la velocidad de la luz. La
RAM ofrece al procesador un almacenamiento temporal para programas y datos.
Todos los programas y datos se deben transferir a la RAM desde un dispositivo de
entrada o del almacenamiento secundario antes de que se puedan ejecutar los
programas o procesar los datos. El espacio de la RAM es siempre escaso; por
tanto, después de que se haya ejecutado un programa, el espacio de
almacenamiento que ocupaba se vuelve a distribuir a otro programa que espera su
ejecución.
ROM (Read Only Memory, memoria sólo de lectura): Es una memoria no
volátil, porque el computador puede leer información de ella pero nunca escribir
información nueva. Todas las computadoras cuentan con dispositivos de ROM
que contienen las instrucciones de arranque y otra información crítica. La
información en la ROM se graba permanentemente cuando nace el computador,
pero no hay manera de reemplazarla a menos que se reemplace el chip de ROM.
Memoria PROM (Programmable read only memory, memoria de sólo
lectura programable): Es una variación de la ROM, es la ROM en la que usuario
puede cargas programas y datos de solo lectura que una vez cargados rara vez o
nunca se cambian. La memoria flash es un tipo de PROM que el usuario puede
alterar con facilidad.
Memoria caché: Se usa para facilitar una transferencia aún más rápida de
instrucciones y datos al procesador; es decir que se usa para mejorar el caudal de
proceso (velocidad con que un sistema de computación puede realizar el trabajo).
Al igual que la RAM, el caché es un área de almacenamiento de alta velocidad
para las instrucciones de los programas y los datos, pero es 10 veces más rápida
que la RAM y mucho más cara. Con sólo una fracción de la capacidad de la RAM,
la memoria caché sólo contiene las instrucciones y los datos que es probable que
el procesador requiera enseguida.
II.-COMPONENTES ELECTRÓNICOS DE UNA COMPUTADORA
II.1.-DISCO DURO (DD)
En pocas palabras es un dispositivo de almacenimiento magnético que la computadora
utiliza (como su nombre lo indica) para almacenar datos que en un futuro volveremos a
utilizar.
Por otra parte, en muchos casos para que la velocidad de ejecución de los programas sea
alta, es más eficiente un disco duro más rápido que un mismo procesador, lo importante
en los discos duros es su capacidad, su velocidad y que tengan un funcionamiento
estable.
II.1.1.-EL PRINCIPIO DEL DISCO DURO.- Desde los primeros tiempos de la
tecnología, los discos duros siguen funcionando según el mismo principio, un principio
que en pocas veces es válido también para disquetes.
En ambos casos, la información se encuentra guardada en una línea de minúsculos
elementos magnetizables. Un cabezal de lectura y escritura magnetiza estas partes al
escribir y al leer descifra su contenido magnético. El cabezal se encuentra en una
posición determinada y el disco duro gira por debajo de el. Todo lo que puede leer y
escribir en una reducción del disco duro, se encuentran en un círculo al que se le
denomina pistas.
Si el cabezal se desplaza ligeramente hacia el centro, puede trabajar sobre otra pista. Los
datos se encuentran sobre el disco duro repartidos por la pista.
Estas pistas se encuentran tanto en el disco duro como en los disquetes, en ambas de sus
caras. En consecuencia hay un cabezal que procesa la parte superior del disco y otro que
procesa la inferior, la pareja de pistas contrarias se le llama cilindro.
Para obtener un mejor control, las pistas están numeradas, pista más externa es la pista
N° 0 y a partir de ella la numeración aumenta en orden creciente, en los disquetes, la
última pista es la 79.
II.2.- TARJETA DE VIDEO
La tarjeta de video, (también llamada controlador de video, ver figura 2), es un
componente electrónico requerido para generar una señal de video que se manda a una
pantalla de video por medio de un cable. La tarjeta de video se encuentra normalmente
en la placa de sistema de la computadora o en una placa de expansión. La tarjeta gráfica
reúne toda la información que debe visualizarse en pantalla y actúa como interfaz entre
el procesador y el monitor; la información es enviada a éste por la placa luego de
haberla recibido a través del sistema de buses. Una tarjeta gráfica se compone,
básicamente, de un controlador de video, de la memoria de pantalla o RAM video, y el
generador de caracteres, y en la actualidad también poseen un acelerador de gráficos. El
controlador de video va leyendo a intervalos la información almacenada en la RAM
video y la transfiere al monitor en forma de señal de video; el número de veces por
segundo que el contenido de la RAM video es leído y transmitido al monitor en forma
de señal de video se conoce como frecuencia de refresco de la pantalla. Entonces, como
ya dijimos antes, la frecuencia depende en gran medida de la calidad de la placa de
video.
II.2.1.- TIPOS DE TARJETA DE VIDEO
II.2.1.1.- TARJETA GRÁFICA HÉRCULES
Con ésta tarjeta se podía visualizar gráficos y textos simultáneamente. En modo texto,
soportaba una resolución de 80x25 puntos. En tanto que en los gráficos lo hacía con
720x350 puntos, dicha tarjeta servía sólo para gráficos de un solo color. La tarjeta
Hércules tenía una capacidad total de 64k de memoria video RAM. Poseía una
frecuencia de refresco de la pantalla de 50HZ.
II.2.1.2.- COLOR GRAPHICS ADAPTER (CGA)
La CGA utiliza el mismo chip que la Hércules y aporta resoluciones y colores distintos.
Los tres colores primarios se combinan digitalmente formando un máximo de ocho
colores distintos. La resolución varía considerablemente según el modo de gráficos que
se esté utilizando, como se ve en la siguiente lista:
160 X 100 PUNTOS CON 16 COLORES
320 X 200 PUNTOS CON 4 COLORES
640 X 200 PUNTOS CON 2 COLORES
II.2.1.3.- LA TARJETA EGA
Enchanced Graphics Adapter (EGA). Se trata de una tarjeta gráfica superior a la CGA.
En el modo texto ofrece una resolución de 14x18 puntos y en el modo gráfico dos
resoluciones diferentes de 640x200 y 640x350 a 4 bits, lo que da como resultado una
paleta de 16 colores, siempre y cuando la tarjeta esté equipada con 256KB de memoria
de video RAM.
II.2.1.4.- LA TARJETA VGA
La Video Graphics Adapter (VGA) significó la aparición de un nuevo estándar del
mercado. Esta tarjeta ofrece una paleta de 256 colores, dando como resultado imágenes
de colores mucho más vivos. Las primeras VGA contaban con 256KB de memoria y
solo podían alcanzar una resolución de 320x200 puntos con la cantidad de colores
mencionados anteriormente. Primero la cantidad de memoria video RAM se amplió a
512KB, y más tarde a 1024KB, gracias a ésta ampliación es posible conseguir una
resolución de, por ejemplo, 1024x768 píxeles con 8 bits de color. En el modo texto la
VGA tiene una resolución de 720x400 pixeles, además posee un refresco de pantalla de
60HZ, y con 16 colores soporta hasta 640X480 puntos.
II.2.1.5.- LA TARJETA SVGA
La tarjeta SVGA (Super Video Graphics Adapter) contiene conjuntos de chips de uso
especial, y más memoria, lo que aumenta la cantidad de colores y la resolución.
II.3.-TARJETA DE SONIDO
Es una tarjeta electrónica que se conecta una ranura que tiene la computadora (CPU, en
especìfico la tarjeta madre) que tiene como funciones principales: la generación o
reproducción de sonido y la entrada o grabación del mismo. Para reproducir sonidos, las
tarjetas incluyen un chip sintetizador que genera ondas musicales. Este sintetizador solía
emplear la tecnología FM, que emula el sonido de instrumentos reales mediante pura
programación; sin embargo, una técnica relativamente reciente ha eclipsado a la síntesis
FM, y es la síntesis por tabla de ondas (WaveTable).
En WaveTable se usan grabaciones de instrumentos reales, produciéndose un gran salto
en calidad de la reproducción, ya que se pasa de simular artificialmente un sonido a
emitir uno real. Las tarjetas que usan esta técnica suelen incluir una memoria ROM
donde almacenan dichos "samples" o cortos; normalmente se incluyen zócalos SIMM
para añadir memoria a la tarjeta, de modo que se nos permita incorporar más
instrumentos a la misma.
II.4.- SIMM
Siglas de Single In line Memory Module (ver figura 4), un tipo de encapsulado
consistente en una pequeña placa de circuito impreso que almacena chips de memoria, y
que se inserta en un zócalo SIMM en la placa madre o en la placa de memoria. Los
SIMMs son más fáciles de instalar que los antiguos chips de memoria individuales, y a
diferencia de ellos son medidos en bytes en lugar de bits.
El primer formato que se hizo popular en los computadores personales tenía 3.5" de
largo y usaba un conector de 32 pins. Un formato más largo de 4.25", que usa 72
contactos y puede almacenar hasta 64 megabytes de RAM es actualmente el más
frecuente.
Un PC usa tanto memoria de nueve bits (ocho bits y un bit de paridad, en 9 chips de
memoria RAM dinámica) como memoria de ocho bits sin paridad. En el primer caso los
ocho primeros son para datos y el noveno es para el chequeo de paridad.
II.4.1.- TIPOS DE SIMM’S
II.4.1.1.- SIMM’S DE 30 CONTACTOS
Son los SIMM propios de las primeras placas base con micros de 32 bits (386 y 486).
Supongamos una de estas placas con zócalos de 30 contactos, cada uno de los cuales
soporta 8 bits de datos. Necesitaremos 4 SIMM’s de 30 contactos para conseguir los 32
bits. Típicamente, estas placas tienen 8 zócalos divididos en dos bancos de 4 zócalos
cada uno. El microprocesador sólo puede direccionar uno de los dos bancos en cada
momento.
En algunos ordenadores, el hecho de mezclar SIMM’s de diferente capacidad en el
mismo banco, puede producir efectos tales como una mala detección de la cantidad de
memoria del sistema, o que el ordenador no arranque.
II.4.1.2.- SIMM’S DE 72 CONTACTOS
Los SIMM de 72 contactos se desarrollaron para satisfacer los requerimientos de
expansión de memoria cada vez mayores. Un SIMM de 72 contactos soporta 32 bits de
datos, es decir, cuatro veces el número de bits de datos soportado por los SIMM de 30
contactos. En placas base con micros de 32 bits (Intel 386 y 486) se necesita sólo un
SIMM de 72 contactos por banco para proporcionar al microprocesador los 32 bits de
datos.
Con los microprocesadores Pentium, al tener 64 bits para comunicaciones externas
(aunque internamente sean micros de 32 bits), se necesita utilizar grupos de dos SIMM
para proporcionar los 64 bits necesarios.
II.5.- DIMM
Los módulos DIMM (Dual In-Line Memory Module, ver figura 5) son similares a los
SIMM, aunque con notables diferencias. Al igual que los SIMM, los DIMM se instalan
verticalmente en los sockets de memoria de la placa base. Sin embargo, un DIMM
dispone de 168 contactos, la mitad por cada cara, separados entre sí. Los DIMM se
instalan en aquellas placas que soportan típicamente un bus de memoria de 64 bits o
más. Típicamente, son los módulos que se montan en todas las placas Pentium-II hacia
delante con chipset LX, y hoy por hoy se han convertido en el estándar en memoria.
III.- EVOLUCION DE HARDWARE
III.1.-LA REVOLUCIÓN DE LAS COMPUTADORAS
Aunque a mediados del los años 70 la computadoras eran utilizadas por muy poca
gente, la computadora ha tenido un impacto muy grande en nuestra sociedad mucho mas
grande que cualquier otro dispositivo inventado en la segunda mitad del siglo XX. En
las empresas las computadoras ayudan a diseñar y manufacturar productos, conformar
campañas de publicidad, y procesar y controlar desde inventario hasta nominas y
cuentas por cobrar y pagar.
En la educación, ayudan programando horarios y registrando calificaciones.
En las profesiones medicas, las computadoras ayudan en los diagnósticos y monitorean
pacientes, regulando el tratamiento.
Los científicos usan las computadoras para analizar el sistema solar, predecir el estado
del tiempo y efectuar experimentos.
De todos los tipos de computadoras, la microcomputadora ha sido la más útil para
mejorar nuestra capacidad de controlar información y resolver problemas. La
microcomputadora es empleada tanto por las 500 compañías que aparecen en la revista
Fortune como por pequeñas empresas para almacenar información, producir documento
y correspondencia, y realizar cálculos y proyecciones administrativas que consumen
mucho tiempo. Ha impulsado la productividad de los trabajadores en todos lo niveles
organizacionales, desde el departamento de mensajeria hasta el comité directivo, así
como a quienes trabajan independientemente. La microcomputadora en un punto de
entrada a un nuevo campo de información, conexiones y habilidades. El saber que son
pude revolucionar su vida y profesión.
III.2.-COMPUTADORAS Y SISTEMAS DE MICROCOMPUTADORAS
Una computadora es un dispositivo electrónico de uso general que realiza operaciones
aritmético-lógicas a gran velocidad de acuerdo con instrucciones internas, que se
ejecutan sin intervención humana. El tipo de computadora más común en la actualidad
es la llamada microcomputadora. Puede decirse que una microcomputadora es una
computadora que puede ser utilizada por una sola persona a la vez, y puede colocarse
sobre sus rodillas o escritorio.
Tan pronto como se siente usted a la microcomputadora, se convertirá en parte de un
sistema de información por microcomputadora (SIM), que consiste en personas,
hardware (equipo), software (programas), datos/información, y documentación.
El Hardware o equipo de cómputo comprende todos los dispositivos físicos que
conforman una computadora. Pueden incorporarse en una sola unidad, o estar por
separado. El hardware de una computadora debe realizar cuatro tareas vitales.
1. Entrada: El usuario ingresa los datos e instrucciones en la computadora,
utilizando por ejemplo el teclado.
2. .Procesamiento: La computadora ingresa o manipula esas instrucciones o
datos.
3. Salida: La computadora comunica sus resultados al usuario, por ejemplo,
desplegando la información en un monitor, o imprimiéndola.
4. Almacenamiento secundario: La computadora coloca información en un
almacenador electrónico del que puede recuperase más tarde.
Los dispositivos de entrada, salida y procesamiento secundario se conocen como
periféricos, porque están fuera del procesador central. El hardware completo de un
sistema puede estar en una sola unidad, o distribuido en varios componentes
individuales.
A través de las partes del hardware, todas las computadoras modernas utilizan chips
para almacenar y procesar la información. Un chip es una pastilla de silicio que
contiene componentes electrónicos en miniatura, llamados semiconductores. Una
computadora puede tener muchos chips, que llevan cabo varias funciones. El chip o
chips que procesan o “piensan” constituyen la unidad de procesamiento central (CPU,
de central processing unit). La CPU procesa datos y realiza cálculos aritméticos y
lógicos. Informalmente, la caja que contiene esos chips y otros dispositivos de la
microcomputadora, tan bien se denomina CPU.
El Software o Progaramaje son las instrucciones codificada electrónicamente
(programas) que dirigen la computadora para realizar ciertas tareas.
La Documentación se refiere a las instrucciones manuales de procesamiento que se dan
al usuario para enseñarle a usar el software y hardware.
Un sistema de microcomputadoras es también un sistema de información con
elementos tangibles e intangibles. Los elementos primeros lo incluyen a usted (el
usuario), el hardware de la computadora y los textos que le guiaran a través del sistema,
incluyendo datos, resultados procesados, software y procedimientos. Los datos y los
resultados del proceso son la materia prima de la resolución de problemas. El software
es el conjunto de instrucciones que la computadora utiliza para manipular los datos. Los
procedimientos son instrucciones escritas que le guían en el uso del software y
hardware. Por ejemplo tendría que consultar u manual de procedimientos cuando
necesite cambiar el papel de la impresora.
III.3.-HISTORIA DE LA COMPUTADORA ELECTRONICA
Esta breve historia le ayudara a comprender que la revolución de las computadoras esta
todavía en proceso. También le ayudara a ver la microcomputadora como una maquina
capaza de comunicarse con una gran red de in formación y recursos.
En esencia la computadora nacieron grandes y centralizadas, después se redujeron y
descentralizaron en alto grado. Hoy en día las computadoras pequeñas están
comunicándose otras ves con las grandes y entre si, de modo que una computadora
pequeña tenga los recursos de una grande. La siguiente historia es un recurso de
clasificar las computadoras dentro de un rápido curso de eventos cambiantes.
Durante la primera mitad del siglo XX, la gente usaba calculadoras mecánicas para
realizar operaciones de calculo, tabular grandes numero, y controlar una gran variedad
de maquinas de gran tamaño, como por ejemplo los telares. Las computadoras
electrónicas se desarrollaron durante los años 30 y 40. Desde 1939 hasta 1942, Jhon
Atanasoff, un profesor de física del Iowa State Collage, y su asistente Clifford Berry
desarrollaron un dispositivo electrónico que realizaba cálculos matemáticos. Llamada la
Atanasoff-Berry Computer (ABC), este sistema usaba bulbos electrónicos para procesar
datos, lo que hacia la primera computadora completamente electrónica. Aunque
Atanasoff y Berrynunca terminaron su computadora, sirvió como modelos para muchos
diseños posteriores.
La primera computadora electrónica completa fue la llamada ENIAC (Electronical
Numerical Integrator and Calculador; es decir, Integrador numérico y calculador
electrónico), financiado por el ejercito de los Estados Unidos para sus uso en la segunda
guerra mundial. Fue diseñada por los profesores Jhon Mauchly y J.Presper Eckert, Jr, de
la universidad de Pennsylvania, para calcular tablas balísticas de artillería. La ENIAC,
con 30 toneladas de peso, llenaba un cuarto de 6m por 12m, contenía 18,000 bulbos, y
podría realizar cálculos matemático 1000 veces mas rápido que cualquier maquina
sumadora de su tiempo. Este gigante tenía que programarse manualmente conectándola
a tres tableros que contenían más de 6000 interruptores. Ingresar un nuevo programa era
un proceso muy tedioso que requería días o incluso semanas.
En 1945, Jhon Von Neumann, que había trabajado con Eckert y Mauchly en la
universidad de Pennsylvania, publico un artículo acerca del almacenamiento de
programas. El concepto de programa almacenado permitió la lectura de un programa
dentro de la memoria de la computadora, y después la ejecución de las instrucciones del
mismo sin tener que volver a escribir. La primera computadora en usar el citado
concepto fue la llamada EDVAC (Electronic Discrete-Variable Automatic Computer; es
decir Computadora automática electrónica de variable discreta), desarrollada por Von
Neumann, Eckert y Mauchly.
Los programas almacenados dieron a las computadoras una flexibilidad y confiabilidad
tremenda, haciéndolas mas rápidas y menos sujetas a errores que los programas
mecánicos. Una computadora con la capacidad de programa almacenado podría ser
utilizada para varias aplicaciones tan solo cargando y ejecutando el programa apropiado.
Hasta este punto los programas y datos podrían ser ingresados en la computadora solo
con la notación binaria, que es único código que las computadoras “entienden”.
El siguiente desarrollo importante en el diseño de las computadoras fueron los
programas interpretes, que permitían a las a las personas comunicarse con las
computadoras utilizando medios distintos a los números binarios.
En 1952, Grace Murria Hopper una oficial de la Marina de guerra de los Estados
Unidos, desarrollo exprime compilador, un programa que puede traducir enunciados
parecidos al ingles en un código binario comprensible por la maquina. Mas tarde
desarrollo el llamado COBOL (de Common Bussines-Oriental Language; es decir
Lenguaje orientado a los negocios.), un proyecto financiado por compañías privadas y
organismos educativos, junto con el gobierno federal durante la ultima parte de los anos
50. COBOL permitía que un programa de computadora escrito para una maquina
especial, pudiere correrse en otras maquinas sin tener que volver a codificar. De
pronto, los programas se transportaban, fácilmente, y el mundo de los negocios
comenzó a aceptar a las computadoras con entusiasmo.
III.4.-EL SISTEMA DE CÓMPUTO CON TARJETAS PERFORADAS DE
HOLLERITH
A Herman Hollerith (1860-1929) se le reconoce la creación del primer sistema de
cómputo con tarjetas perforadas. Hollerith trabajo afanosamente entre 1882 y 1889, en
un equipo de tarjetas perforadas que podría usarse para el recuento del censo de 1890.
Laboraba en su “maquina de censos” mientras trabajaba con instructor MIT, al mismo
tiempo que también estaba empleando en la oficina de patentes de los Estados Unidos.
Antes de ingresar en el MIT, se relacionó con el Coronel Jhon Shaw Billings, director
de Estadística para el censo. Billings estaba convencido de que la información de cada
ciudadano de estados Unidos podría registrase en una tarjeta perforada, y esto facilitaría
el recuento de la información.
Hollerith diseño una tarjeta perforada del tamaño de un billete de un dólar de ese
tiempo, un tamaño conveniente para almacenarlo en gabinetes de archivo. Después de
muchísimas pruebas, desarrollo una maquina que podría contar 10,000 apariciones de
cualquier característica que fuera codificada en las tarjetas (solo podía contarse una
sola característica a la vez). El equipo de Hollerith derroto a otros dos contendientes y
fue escogido por el comité encargado del censo para realizar tabulación de 1890.
El equipo que Hollerith rentó al Gobierno de Estados unidos podía leer entre 50 y 80
tarjetas por minuto, y too mas de dos años para considerar los 62.6 millones de
residentes. (En contrate el censo de 1990 requirió menos de nueve meses para generar
un resultado de mas de 260 millones de personas). Después del éxito d Hollerith en el
censo de aquel país, varias naciones extranjeras (incluyendo Austria, Canadá y Rusia)
consideraron el uso de la maquina para los censos, y Hollerith comenzó a rentar sus
sistema. En 1896 formo la Tabulating machina Company. En 1912, vendió los derechos
de la compañía a un consorcio naciente que posteriormente se convertiría en la IBM
(Internacional Bussines Machines). Thomas J. Watson, Sr. Quien se convertiría luego
en la fuerza impulsora de la IBM, fue encargado de dirigir esa compañía.
Este sistema de tarjetas perforadas se convirtió en el principal método d ingreso de
información usado por muchas generaciones de computadoras. Desde su invención en la
década de 1880, se han usado billones de tarjetas perforadas para ingresar y programar
datos en las computadoras.
III.5.-GENERACIONES DE COMPUTADORAS
Cuatro generaciones de computadores se diferencian por sus componentes electrónicos.
Los bulbos o tubos electrónicos se usaron en la primera generación, los transistores en
la segunda, los circuito integrados en la tercera, y los chips integrados a gran escala
(LSI), y a muy gran escala (VLSI),.en la cuarta.
III.5.1.-LA PRIMERA GENERACIÓN (1951 A 1958)
Las computadoras de la primera generación emplearon bulbos para procesar
información. Los operadores integraban los datos y programas en código especial por
medio de tarjetas perforadas. El almacenamiento interno se lograba con un tambor que
giraba rápidamente, sobre el cual un dispositivo de lectura/escritura colocaba marcas
magnéticas. Como los radiorreceptores del mismo tipo, esas computadoras de bulbos
eran mucho más grandes y generaban más calor que los modelos contemporáneos.
Eckert y Mauchly contribuyeron al desarrollo de computadoras de la primera
generación formando una compañía privada, y construyendo UNIVAC I, que como la
del censo utilizo a evaluar el de 1950.
La internacional Bussines Machines (IBM), que vendía equipos de tarjetas perforadas y
no había logrado el contrato para el censo de 1950 comenzó a construir computadoras
electrónicas, y rápidamente se coloco como fuerte contendiente en el mercado.
Aunque caras y de uso limitado, las computadoras fueron aceptadas rápidamente por las
compañías privadas y el gobierno. A la mitad de los años 50, IBM y Remington Rand,
que habían comprado la compañía de Eckert y Mauchly, se consideraban como líderes e
la fabricación de computadoras. Sus clientes incluían a las empresas Silvana, General
Electric y el gobierno federal. Desde 1956, la IBM ha sido el fabricante d computadoras
mas grande del mundo.
En 1940 Zuse terminó su modelo Z2, el cual fue la primera computadora electro-
mecánica completamente funcional del mundo. Al año siguiente, en 1941, fabricó su
modelo Z3 pare el cual desarrolló un programa de control que hacía uso de los dígitos
binarios.
Sin embargo esta computadora fue destruida en 1944 a causa de la guerra. Entre 1945 y
1946 creó el "Plankalkül" (Plan de Cálculos), el primer lenguaje de programación de la
historia y predecesor de los lenguajes modernos de programación algorítmica.
III.5.2.-LA SEGUNDA GENERACIÓN (1958 A 1964)
En 1974, tres científicos de los laboratorio Bell ganaron el premio Nóbel al inventar y
desarrollar el Transistor, que era mas rápido, confiable y 200 veces mas pequeño que e
bulbo o tubo electrónico, y requería menor electricidad. El transistor hizo posible una
nueva generación de computadoras, mas rápidas, pequeñas y con menores necesidades
de ventilación. Comparase un antiguo radio de bulbos con uno de transmisores para
tener una idea de cómo esta nueva tecnología redujo el tamaño de las computadoras.
Las computadoras de la segunda generación también utilizaban redes de núcleo
magnéticos en lugar de tambores giratorios para el almacenamiento primario. Estos
núcleos contenían pequeños anillos de material magnético, enlazados entre si, en los
cuales podían almacenar datos e instrucciones.
Los programas de computadoras, también mejoraron. El COBOL, desarrollado durante
la primera generación de computadoras, estaba ya disponible comercialmente.
Los programas escritos para una computadora podían transmitirse a otra con un mínimo
esfuerzo. El escribir un programa ya no requería entender plenamente el hardware de la
computación.
Las computadoras de la segunda generación eran sustancialmente mas pequeñas y
rápidas que la de los bulbos, y se usaban para nuevas aplicaciones, como e los sistemas
de reservación en líneas aéreas, control de transito aéreo, y simulaciones para uso
general. Las empresas empezaron a aplicar a las computadoras a tareas de
almacenamiento de registros, como manejo de inventarios, nomina y contabilidad. La
Marina de los Estados Unidos utilizo las computadoras de la segunda generación. Para
crear el primer simulador de vuelo, Whirlwind I.
III.5.3.-LA TERCERA GENERACIÓN (1964 A 1970).
Las computadoras de la tercera generación emergieron con el desarrollo de los circuitos
integrados (pastillas de silicio) en las cuales se colocan miles de componentes
electrónicos, en una integración en miniatura.
Las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían
menos calor y eran energéticamente más eficientes.
Antes del advenimiento de los circuitos integrados, las computadoras estaban diseñadas
para aplicaciones matemáticas o de negocio, pero no para las dos cosas. Los circuitos
integrados permitieron a los fabricantes de computadoras incrementar la flexibilidad de
los programas, y estandarizar sus modelos. La IBM 360, una de las primeras
computadoras comerciales que uso circuitos integrados, podía realizar tanto análisis
numérico como administración o procesamientos de archivos.
Los clientes podían escalar sus sistemas 360 a modelos IBM de mayores tamaños, y
podían correr todavía sus programas actuales.
Con la introducción del modelo 360, IBM capturo el 70% del mercado, dejando a RCA,
General Electric y Xerox fuera del campo de las computadoras grandes. Sin embargo,
la estandarización del modelo 360 permitió el crecimiento de lo s fabricantes de
dispositivos de almacenamiento, cuyos periféricos eran compatibles con las series de
IBM.
Para evitar competir directamente con la IBM, Digital Equipment Corporation (DEC)
redirigió sus esfuerzos hacia computadoras grandes, las mini computadoras se
desarrollaron durante la segunda generación y se extendió su uso entre 1960 y 1970. En
1960, DEC introdujo la primera mini computadora, la PDP-1, y en 1969 tenia ya una
línea de exitosas mini computadoras.
La tecnología de los circuitos integrados también provoco la expansión de la industria
del software. Los programas estándares fueron reescritos para trabajar en las nuevas
maquinas de circuitos integrados, e incluso en maquinas todavía en fases de desarrollo.
Esta compatibilidad hacia el futuro permitió a las compañías usar su software
anticuado después d modernizar su hardware.
La DEC PDP-1, una de las primeras mini computadoras más populares. Puede
considerarse como una de las primeras PC. Esta maquina fue utilizada especialmente
por los ingenieros, científicos e investigadores de universidades, debido a que tenia gran
poder y el usuario podía controlarla directamente.
III.5.4.-LA CUARTA GENERACIÓN (1971 HASTA LA FECHA)
Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta
generación: el reemplazo de las memorias con núcleos magnéticos, por las del chip de
silicio, y la colocación de muchos más componentes en un chip. Intel Corporation llevo
esta idea a la conclusión lógica creando el microprocesador, un chip que contiene
todos los circuitos requeridos para hacerlo programable.
El tamaño reducido del microprocesador de chips hizo posible la creación de las
computadoras personales (PC) Un chip puede contener dos de los componentes del
CPU, la unidad de control y la unidad aritmético-lógica. Un tercer componente, la
memoria primaria (también con chips), se maneja por separado.
Hoy en día, las tecnologías LSI (integración a gran escala) y VLSI (integración a muy
gran escala) permiten que cientos de miles de componentes eléctricos se almacene en
un chip. Usando VLSI, un fabricante puede hacer que una computadora pequeña
rivalice con una computadora de la primera generación que ocupara un cuarto completo.
Las aplicaciones para las computadoras de la cuarta generación están más involucradas
en el manejo de datos a distancia por medio de terminales para las computadoras
grandes. Muchos investigadores y empresarios con visión han logrado un gran impacto
en la industria de la computación aplicando la tecnología existente en varias formas.
Adam Osborne, por ejemplo, fue el responsable de desarrollar y comercializar la
primera computadora portátil.
III.6.-HACIA EL FUTURO
III.6.1.-COMPUTADORAS DE LA QUINTA GENERACIÓN
Hay varias opiniones de lo que definirá a la computadora de la quinta generación. En
1980 los japoneses iniciaron el desarrollo de lo que llamaron el desarrollo de una
computadora “inteligente”, haciendo un uso extensivo de la inteligencia artificial.
La Inteligencia Artificial es el campo de estudio que trata de aplicar los procesos de
razonamiento humano utilizados para la resolución de problemas a una computadora. Si
alguna vez pueden incorporarse estos procesos en una computadora, se estará en
posibilidad de comunicarnos con ella, muy similarmente a como nos comunicamos con
otros humanos, en lo que normalmente se conoce como lenguaje natural. Para que una
computadora use tal lenguaje, necesitara cierto cúmulo de conocimientos que sea
similar a la cultura general d cada ser humano. Tal computadora podría comunicarse
con algo semejante al habla humana. Sin embargo, este proyecto todavía esta por
realizarse.
Algunos creen que la quinta generación de computadoras serán varios procesadores
enlazados para resolver un problema en particular. Tales computadoras, llamadas
procesadores en paralelo, podrían consistir en cientos o miles de procesadores
enlazados para resolver problemas simultáneamente.
III.7.-CLASIFICACIÓN DE LAS COMPUTADORAS ACTUALES
Cualquier clasificación de computadoras es arbitraria. Las que se basan en precio y
tamaño se vuelven rápidamente obsoletas debido a la nueva tecnología. Sin embargo,
las computadoras de hoy en día pueden dividirse en microcomputadoras, mini
computadoras (en vía de desaparición) y supercomputadoras, maxicomputadoras
(más conocida como mainframes) y supercomputadoras; cada tipo esta caracterizado
por tamaño, precio, velocidad de operación, y capacidades de memoria y
procesamiento.
III.7.1.-LAS MICROCOMPUTADORAS.-
Son las computadoras mas pequeñas, menos costosas y las mas populares en el
mercado. Las microcomputadoras cuestan entre $1000 y $15.000 dólares. Algunos
modelos rivalizan con las mini computadoras y las añosas mainframes. Las
computadoras se utilizan en empresas para muchas cosas, desde la elaboración de hojas
de cálculo hasta las publicaciones “de escritorio”
Gracias al microprocesador, las microcomputadoras son suficientemente pequeñas para
caber en la cubierta de un escritorio, o en algunas veces en un portafolio. Las
microcomputadoras pueden funcionar como unidades independientes, o conectarse con
otras microcomputadoras o mainframes para expandir sus capacidades. Las
microcomputadoras se venden en tiendas d departamento, tiendas de descuentos y
establecimientos especializados, la disponibilidad de programas de bajo costo y fácil
operación desempeña una función importante e la aceptación de las marcas d
microcomputadoras.
III.7.2.-LAS MINI COMPUTADORAS.-
Fueron desarrolladas durante la década de 1960 para realizar tareas específicas como el
manejo de comunicaciones de datos. Las mini computadoras actuales rivalizan con
algunas mainframes, y se usan para procesamiento de palabras, automatización
industrial y aplicaciones de multiusuarios.
Las mini computadoras son más pequeñas, menos costosas y fáciles de mantener e
instalar que las mainframes. Los precios varían entre entre $50,000 y varios cientos de
miles de dólares.
La industria de mini computadoras esta hoy en día en una tremenda revolución.
Las operaciones que alguna vez fueron realizadas por las “minis” se delegan a
poderosas “micros”, y los vendedores de mini computadoras sufrieron una recensión
durante los años 80. Varios operadores enlazados ala misma mini computadora pueden
acceder a recursos como impresoras y almacenamiento de disco más rápidamente que
los usuarios de una red de microcomputadoras.
III.7.3.-LAS MAXICOMPUTADORAS O MAINFRAMES.-
Son grandes y rápidos sistemas, capaces de controlar varios cientos de dispositivos de
entrada y salida. Las grandes corporaciones, universidades, bancos y hospitales
dependen de mainframes debido a sus inmensas capacidades de procesamiento. Por
ejemplo, algunas “maxis” se usan para controlar los cientos de miles d e reservaciones
que los agentes de viaje hacen cada día en una línea aérea. Las mainframes cuestan
desde varios cientos de miles de dólares a algunos millones.
Estas maquinas se usan frecuentemente como dispositivo de grandes cantidades de
datos, los cuales pueden ser accesados directamente por usuarios d mainframe, o desde
micros o conectadas a una mainframe.Las maxicomputadoras producen mico calor, por
lo que la temperatura y humedad del ambiente deben regularse utilizando sistemas
especiales. También requieren un considerable cuerpo técnico de personal dedicado a su
mantenimiento. Típicamente, el proveedor de la computadora entrena al personal del
usuario, y proporciona el mantenimiento necesario. A su vez, el personal de operación
del cliente maneja y programa la maxicomputadora o mainframe.
III.7.4.-LAS SUPERCOMPUTADORAS.-
Son las más rápidas y costosas computadoras. Pueden correr varios cálculos
simultáneamente, procesando en un minuto lo que tomaría semanas o meses a una PC o
computadora personal. Científicos en el Sandia National Laboratory de Nuevo México,
EUA, construyeron una supercomputadora que consistía en 1024 procesadores. Cada
procesador tiene la capacidad de una computadora más pequeña, y se le asigna parte de
un problema de gran volumen que es resuelto por todos los procesadores a la vez.
Llamada Hypercube, esta supercomputadora resuelve problemas 1000 veces mas
rápidos que una maxicomputadora o mainframe típica.
La mayoría de las supercomputadoras ese usa en trabajos científicos, particularmente
para crear modelos matemáticos del mundo real. Llamado simulación, este
procesamiento es especialmente útil en sismología, explotación de petróleo, predicción
del clima y de la expansión de la contaminación. Las supercomputadoras cuestan
varios millones de dólares, y solo unas pocas se construyen cada año.
III.8.- LAS COMPUTADORAS COMO UTENCILIOS PARA RESOLVER
PROBLEMAS.
Debido a que pueden manipular datos usando un programa interno, la computadora se
define generalmente como un medio o herramienta para resolver problemas.
Inicialmente las computadoras se usaban para automatizar procesos de mantenimiento
de archivos, como inscripción d alumnos, programación de horarios, contabilidad
general y de nominas. Desde entonces, las computadoras se han utilizado cada vez más
en aplicaciones de un nivel más alto, que involucran seleccionar una solución apropiada
a partir de varias posibles alternativas. Una de las aplicaciones más complicadas implica
la evaluación de los datos proporcionados por miles de estaciones de observación de la
atmósfera, con objeto de predecir el tiempo o clima. No importa que tan gran de o
pequeña sea una computadora, todas almacenan y manipulan datos mas o menos de la
misma forma.
La siguiente descripción se enfoca a las computadoras usadas en aplicaciones de
negocios. Esto es muy diferente a las aplicaciones que procesan instrucciones
intensivamente, tales como simulaciones matemáticas o juegos de ajedrez. Para jugar
ajedrez, por ejemplo, una computadora debe evaluar una pequeña entrada de un bity
después realizar una gran cantidad de operaciones lógicas (quizá miles de operaciones)
para determinar la siguiente jugada o movimiento. En contraste, en las aplicaciones para
el manejo de archivos usualmente se realizan una s cuantas operaciones de registro. Al
mismo tiempo, pueden procesar grandes cantidades de datos contra varios archivos de
registros.
SOFTWARE
Programas de computadoras. Son las instrucciones responsables de que el hardware (la
máquina) realice su tarea. Como concepto general, el software puede dividirse en varias
categorías basadas en el tipo de trabajo realizado. Las dos categorías primarias de
software son los sistemas operativos (software del sistema), que controlan los trabajos
del ordenador o computadora, y el software de aplicación, que dirige las distintas tareas
para las que se utilizan las computadoras. Por lo tanto, el software del sistema procesa
tareas tan esenciales, aunque a menudo invisibles, como el mantenimiento de los
archivos del disco y la administración de la pantalla, mientras que el software de
aplicación lleva a cabo tareas de tratamiento de textos, gestión de bases de datos y
similares.
I.-TIPOS DE SOFTWARE
I.1.-SOFTWARE DE TRADUCCIÓN: Con el que los programadores pueden crear
otro software.
I.2.-SOFTWARE DE USO GENERAL: Ofrece la estructura para un gran número de
aplicaciones empresariales, científicas y personales. La mayoría del software de este
tipo se vende como paquete, es decir, con software y documentación orientada al
usuario. La creación de la aplicación depende del usuario, del uso que le dé.
I.3.-SOFTWARE DE APLICACIÓN: Sirve como herramienta para elevar la
productividad de los usuarios en la resolución de problemas. Está diseñado y escrito
para realizar tareas específicas personales, empresariales o científicas. El software
de este tipo procesa datos y genera información.
Ejemplos:
- Hojas de cálculo (Quattro Pro)
- Procesadora de Textos (Word Perfect)
- Base de datos (Dbase)
- Diseño Gráfico (Corel Draw)
I.4.-SOFTWARE DEL SISTEMA: Coordina las operaciones de hardware y lleva a
cabo las tareas ocultas que el usuario rara vez observa. Controla o respalda a los
otros tipos de software. Dentro de este tipo de soft se encuentran
El sistema operativo: es el núcleo de cualquier sistema de computación;
supervisa y controla todas las actividades de I/O (input-ouput, entrada-
salida) y procesamiento de un sistema de computación. Todo el hardware y
el software se controla por medio del sistema operativo.
La interfaz gráfica para usuario (GUI, Grafical user interface): Cuando se
usa software con base en texto y controlado por comandos (v.g.: MS-DOS)
se debe ser explícito; si se omite información necesaria en un comando o el
formato del comando es incorrecto, aparece un mensaje de error y/o un
indicador en pantalla que solicitará que se vuelva a escribir el comando.
I.5.-SOFTWARE MULTIUSO: Los paquetes de software integrado cuentan con
varias aplicaciones diseñadas para trabajar en conjunto; estos paquetes suelen incluir
como mínimo, 5 tipos de aplicaciones: procesador de textos, base de datos, planilla
de cálculo, gráficos y telecomunicaciones. Los paquetes integrados ofrecen varias
ventajas:
Su precio es menor que el costo total de la compra de los programas
individuales.
Dan una apariencia similar a todas sus aplicaciones, de modo que los
usuarios no tienen que memorizar diferentes órdenes y técnicas para efectuar
tareas diferentes.
Permiten transferir datos entre las aplicaciones con rapidez y facilidad.
I.6.-SOFTWARE VERTICAL: Aplicaciones diseñadas específicamente para una
empresa o industria particular. Son mucho más costosas que las aplicaciones de
mercado masivo.
I.7.-SOFTWARE A MEDIDA: Es el que se programa específicamente para
determinados clientes.
II.- SOFTWARE DE APLICACIÓN
Es el conjunto de programas concebidos o creados para atender trabajos específicos del
usuario, referidos al cumplimiento de sus diversos objetivos.
Este software está diseñado y escrito para realizar tareas específicas personales,
empresariales o científicas. Todas estas aplicaciones procesan datos y generan
información. El software de aplicación necesita parte del software de base para
ejecutarse.
El software de aplicación puede ser:
A medida: Ofrece la oportunidad al usuario de personalizar el sistema de
aplicación según sus necesidades; es decir que están diseñados considerando las
particularidades que esa aplicación tiene para el usuario. Teóricamente, un
sistema de este tipo debiera satisfacer plenamente las necesidades del usuario.
La personalización tiene un límite, dado por el hardware y el software de base en
cual el sistema será utilizado.
Preplaneado: Es concebido en forma estándar, sin tener en consideración a
usuarios en particular. Desde el punto de vista de los requerimientos de una
aplicación específica de un usuario determinado, podrían resultar menos
flexibles que los desarrollados a medida, debido a que no tienen elementos que
permitan personalizar la aplicación. Pero desde el punto de vista de los
requerimientos generales de aplicación considerada en sí misma, son sistemas
mucho más flexibles que los desarrollados a medida.
El elemento determinante en la elección será, casi seguramente, el factor económico. El
sistema preplaneado es más barato ya que el costo de desarrollo se amortiza entre todos
los usuarios que adquieran el paquete. Pero para evaluar la magnitud del ahorro debe
examinarse si, en relación con los requerimientos del usuario, lo que ofrece el sistema
preplaneado:
Coincide plenamente: el ahorro económico es real.
Excede los requerimientos del usuario: la situación resultaría costosa, ya que
se estaría pagando por elementos y funciones que no se utilizarán (siempre y
cuando el costo de los mismo fuera significativo frente a lo que resulta útil del
paquete).
Satisface parcialmente o en forma diferente a lo que es práctica usual en la
organización: el ahorro es absorbido por el costo, implícito, de adaptar la
organización a los requerimientos del sistema, en lugar de que el sistema
satisfaga los requerimientos de la organización.
III.- SOFTWARE DE BASE O SISTEMA
Por la relación estrecha que existe entre las características de un computador y su
software de base, no se puede concebir el uno sin el otro.
Este software es independiente de cualquier paquete de software para uso general o
cualquier área de aplicación específica; controla y respalda en cierto modo el software
de las otras categorías. Pertenecen a la categoría del software de base el sistema
operativo, la interfaz gráfica de usuario (GUI) y los utilitarios.
El software de base ahorra al usuario el tener que preocuparse por temas tales como:
Las partes de la memoria del computador que contienen el documento;
Los segmentos del software de procesamiento de textos que se encuentran en la
memoria;
Las instrucciones de salida enviadas por la computadora a la impresora.
Generalmente es entregado por el proveedor del equipo o por casas especializadas en el
desarrollo de software de base. Se divide en 2 grandes grupos: utilitarios y sistema
operativo.
III.1.- SISTEMA OPERATIVO
El sistema operativo supervisa y controla todas las actividades de entrada/salida y
procesamiento de un sistema de computación. Todo el hardware y el software se
controla por medio del sistema operativo.
El sistema operativo distribuye y controla (es decir administra) recursos limitados del
equipo de cómputo. Los programas que constituyen el sistema operativo son
desarrollados generalmente por los fabricantes de computadoras y proporcionados a los
compradores. Están diseñados para hacer el mejor uso de los componentes de cada
sistema de computación.
Pueden existir diferentes sistemas operativos incluso en los sistemas de un solo
fabricante.
El conjunto de programas de control del sistema operativo trabaja en forma conjunta y
está diseñado para maximizar la eficacia total del sistema de cómputo.
Este sistema supervisa todas las actividades, recabando programas especiales de sistema
cuando sea necesario, asignando recursos del sistema y programando los trabajo de
tareas para la operación continua del sistema.
Los componentes del sistema operativos son de 2 tipos:
residentes: también llamados supervisores. Son componentes que residen
permanentemente en la memoria central durante todo el procesamiento.
transientes: residen sólo cuando se los necesita, estando almacenados en
periféricos cuando no están en la memoria central.
Funciones básicas del sistema operativo
1. Proveer servicios para la
ejecución y desarrollo de los programas de aplicación: administrar los
recursos en proceso, obtener automáticamente la rutina apropiada y mantener la
operación del computador, sin necesidad de intervención manual.
2. Actuar como entorno de la
aplicación en la cual el programa es ejecutado: Supervisar mediante un
conjunto de rutinas las operaciones del computador, controlar el desarrollo de las
operaciones internas de la CPU, dirigir el desenvolvimiento de las operaciones
de entrada/salida.
III.1.1.- EVOLUCIÓN DE LOS SISTEMAS OPERATIVOS
Los sistemas operativos, al igual que el hardware, han sufrido cambios a través del
tiempo, los cuales se pueden agrupar en generaciones. La evolución del hardware ha
marcado el paralelismo de la evolución de los sistemas operativos.
Primera Generación.
Segunda Generación.
Tercera Generación.
Cuarta Generación.
III.1.1.A.-PRIMERA GENERACIÓN (FINALES DE LA DÉCADA DE LOS 50'S)
En esta década aparecen los sistemas de procesamiento por lotes, donde los trabajos se
reunían por grupos o lotes. Cuando se ejecutaba alguna tarea, ésta tenía control total de
la máquina. Al terminar cada tarea, el control era devuelto al sistema operativo, el cual
limpiaba, leía e iniciaba la siguiente tarea. Aparece el concepto de nombres de archivo
del sistema para lograr independencia de información. Los laboratorios de investigación
de General Motors poseen el crédito de haber sido los primeros en poner en operación
un sistema operativo para su IBM 701.
III.1.1.B.-SEGUNDA GENERACIÓN (MITAD DE LA DÉCADA DE LOS 60'S)
En esta generación se desarrollan los sistemas compartidos con multiprogramación, en
los cuales se utilizan varios procesadores en un solo sistema, con la finalidad de
incrementar el poder de procesamiento de la máquina. El programa especificaba tan
sólo que un archivo iba a ser escrito en una unidad de cinta con cierto número de pistas
y cierta densidad. El sistema operativo localizaba entonces una unidad de cinta
disponible con las características deseadas, y le indicaba al operador que montara una
cinta en esa unidad.
III.1.1.C.-TERCERA GENERACIÓN
En esta época surge la familia de computadores IBM/360 diseñados como sistemas para
uso general, por lo que requerían manejar grandes volúmenes de información de distinto
tipo, lo cual provocó una nueva evolución de los sistemas operativos: los sistemas de
modos múltiples, que soportan simultáneamente procesos por lotes, tiempo compartido,
procesamiento en tiempo real y multiprocesamiento.
III.1.1.D.-CUARTA GENERACIÓN (MITAD DE LA DÉCADA DE LOS 70'S
HASTA NUESTROS DÍAS)
Los sistemas operativos conocidos en la época actual son los considerados sistemas de
cuarta generación. Con la ampliación del uso de redes de computadoras y del
procesamiento en línea es posible obtener acceso a computadoras alejadas
geográficamente a través de varios tipos de terminales. Con estos sistemas operativos
aparece el concepto de máquinas virtuales, en el cual el usuario no se involucra con el
hardware de la computadora con la que se quiere conectar y en su lugar el usuario
observa una interfaz gráfica creada por el sistema operativo.
IV.- LA EVOLUCIÓN DEL SOFTWARE
Hoy en día el software tiene un doble papel. Es un producto y, al mismo tiempo, el
vehículo para hacer entrega de un producto. Si reside dentro de un teléfono celular u
opera dentro de una computadora central, el software es un transformador de
información, produciendo, gestionando, adquiriendo, modificando y mostrando
información que puede ser tan simple como un solo bit, o tan complejo como una
simulación en multimedia.
Como vehículo utilizado para hacer entrega del producto, el software actúa como la
base de control de la computadora (sistemas operativos), la comunicación de
información (redes), y la creación y control de otros programas (herramientas del
software y hardware).
El software hace entrega de lo que muchos creen será el producto más importante del
siglo XXI, la información. El software transforma datos personales para que los datos
sean más útiles en un contexto local; gestiona información comercial para mejorar la
competitividad; proporciona el acceso a redes de información por todo el mundo, por
ejm, el internet; y también proporciona el medio de adquirir información en todas sus
formas.
El papel del software informático ha sufrido un cambio significativo en la segunda
mitad del siglo XX. Enormes mejoras en rendimiento del hardware, profundos cambios
de arquitecturas informáticas, grandes aumentos de memoria y capacidad de
almacenamiento, una gran variedad de opciones de entrada y salida han precipitado
sistemas más sofisticados y más complejos basados en computadora. La sofisticación y
la complejidad pueden producir un resultado deslumbrante, cuando un sistema tiene
éxito, pero también pueden suceder grandes problemas para aquellos, que tienen que
diseñar sistemas complejos.
Libros populares publicados durante los años 70 y 80 proporcionan una visión histórica
útil dentro de la percepción cambiante de la computadora y del software, y de su
impacto en nuestra cultura. Osborne hablaba de una nueva revolución industrial. Toffler
llamó a la llegada de componentes microelectrónicas “La tercera ola de cambio” en la
historia de la humanidad a una sociedad de información y el conocimiento (controlados
por computadora) serían el foco de poder del siglo XXI y Stoll argumentó que la
“comunidad electrónica” creada mediante redes y software es la clave para el
intercambio de conocimientos alrededor del mundo.
Al comienzo de la década de los año 90, Toffler describió “un cambio de poder” en las
que las viejas estructuras de poder se desintegrarían a medida que las computadoras y el
software nos llevarán a la democratización del conocimiento. A Yourdon le preocupaba
que las compañías en Estados Unidos pudieran perder su competitividad en empresas
relativas al software y predijo “el declive y la caída del programador americano”.
Hammer y Champy argumentaron que las tecnologías de información iban a
desempeñar el papel principal en la “reingeniería de la compañía”. A mediados de los
90 la presistencia de las computadoras y del software generó una erupción de los libros,
ya que algunos autores criticaban enormemente la computadora, enfatizando en
preocupaciones legítimas pero ignorando los profundos beneficios que se han llevado a
cabo.
Durante los primeros años de la era de la computadora. El software se contemplaba
como un añadido. La programación de computadoras era un “arte de andar por casa”,
para el que existían pocos métodos sistemáticos. El desarrollo del software se realizaba
virtualmente sin ninguna planificación hasta que los planes comenzaron a descalabrarse
y los costes a correr. Los programadores trataban de hacer las cosas bien y como un
esfuerzo heroico, a menudo salían con éxito.
Durante los primeros años lo normal era que el hardware era de propósito general. Por
otra parte, el software se diseñaba a medida para cada aplicación y tenia una
distribución relativamente pequeña.
El software como producto es decir, programas desarrollados para ser vendidos a uno o
a más clientes estaba en su infancia. La mayoría de software se desarrollaba y era
utilizado por la misma persona u organización. La misma persona describía, lo
ejecutaba y si fallaba, lo depuraba. Debido a que la movilidad en el trabajo era baja, los
ejecutivos estaban seguros de que esa persona estará allí, cuando se encontraba algún
error. Debido a este entorno personalizado del software el diseño era un proceso
implícito, realizado en la mente de alguien, y la documentación normalmente no
existiría.
A lo largo de los primeros años aprendimos sobre la implementación de sistemas
informáticos, pero relativamente poco sobre la ingeniería de las computadoras. Sin
embargo, en honor de la verdad, debemos reconocer que durante esa era se
desarrollaron muchos sistemas informativos excepcionales. Algunos de ellos, todavía se
siguen utilizando hoy, y por sus características siguen siendo admirados con toda
justicia.
La segunda era en la evolución en los sistemas de computadora se extienden desde la
mitad de la década de los 60 hasta finales de los 70. La multiprogramación y los
sistemas multiusuarios introdujeron nuevos conceptos de interacción hombre -
maquina. Las técnicas interactivas abrieron un nuevo mundo de aplicaciones y nuevos
niveles de sofisticación del hardware y software. Los sistemas de tiempo real podían
recoger, analizar y transformar datos de múltiples fuentes, controlando así los procesos
y produciendo salidas en milisegundos, en lugar de un minuto. Los avances en los
dispositivos de almacenamiento en línea, condujeron a la primera generación de
sistemas de gestión de base de datos.
La segunda era se caracterizo también por el establecimiento del software como
producto y la llegada de las “casas del software”. El software ya se desarrollaba para
tener una amplia distribución para computadoras grandes y para minicomputadoras, a
cientos e incluso a miles de usuarios. Los patronos de la industria, del gobierno, de la
universidad, se prestaban a “desarrollar el mejor paquete de software y ganar así mucho
dinero”.
Conforme crecía el número de sistemas informáticos, comenzaron a extenderse las
bibliotecas de software de computadora. Las casas desarrollaban proyectos en los que
producían decenas de miles de sentencia fuente. Los productos de software comprados
al exterior incorporaban cientos de miles de nuevas sentencias. Una nube apareció en el
horizonte. Todos esos programas, todas esas sentencias fuentes tenían que ser
corregidos, cuando se detectaban fallas, modificados, cuando cambiaban los requisitos
del usuario o adaptados a nuevos dispositivos hardware que se hubieran adquirido. Estas
actividades se llamaron colectivamente mantenimiento de software. El esfuerzo gastado
en el mantenimiento del software comenzó a absorber recursos en una medida
alarmante.
Aun peor, la naturaleza personalizada de muchos programas, los hacia virtualmente
imposibles de mantener, había comenzado “una crisis del software”.
La tercera era en la evolución de los sistemas de computadora comenzó más allá de los
70 y continúo más allá de una década. El sistema distributivo, múltiples computadoras,
cada una ejecutando funciones concurrentemente y comunicándose con alguna otra,
incremento notablemente la complejidad de los sistemas informáticos. Las redes de área
local y global, las comunicaciones digitales de alto ancho de banda y la creciente
demanda de acceso “instantáneo” a los datos, supusieron una fuerte presión sobre los
desarrolladores del software. Aun mas, los sistemas y el software que le permitían
continuaron residiendo dentro de la industria y de la academia. El uso personal era
extraño.
La conclusión de la tercera era se caracterizo por la llegada y amplio uso de los
microprocesadores. El microprocesador ha producido un extenso grupo de productos
inteligentes, desde automóviles hasta horno microondas, desde robots industriales a
equipos de diagnósticos de sueros sanguíneos, pero ninguno ha sido más importante que
la computadora personal. En menos de una década, las computadoras llegaran a ser
fácilmente accesibles al público. La cuarta era de la evolución de los sistemas
informáticos se aleja de las computadoras individuales y de los programas de
computadoras, dirigiéndose al impacto colectivo de las computadoras y del software.
Potentes maquinas personales controladas por sistemas operativos sofisticados, en redes
globales y locales, acompañadas por aplicaciones de software avanzadas se han
convertido en la norma. Las arquitecturas informáticas están cambiando de entornos
centralizados de grandes computadoras a entornos descentralizados cliente/servidor. Las
redes de información en todo el mundo proporcionan una infraestructura que iguala a
expertos y políticos en pensar sobre una “superautopista de información” y una
conexión en el “ciber espacio”. De hecho Internet se puede observar como un software
al que pueden acceder usuarios individuales.
La industria del software ya es la cuna de la economía en el mundo. Las decisiones
tomadas por gigantes de la industria, tales como Microsoft arriesgan billones de dólares.
A medida que la cuarta generación progresa, han comenzado a surgir nuevas
tecnologías. Las tecnologías orientadas a objetos están desplazando rápidamente los
enfoques de desarrollo de software más convencionales en muchas áreas de
aplicaciones. Aunque las predicciones de las computadoras de “quinta generación”
continúan eludiéndonos, las técnicas de cuarta generación para el desarrollo del
software están cambiando en la forma que la comunidad del software construye
programas informáticos. Los sistemas expertos y el software de inteligencia artificial
han salido del laboratorio para entrar en aplicaciones prácticas de una gran variedad de
problemas del mundo real. El software de redes neuronales artificiales junto con la
aplicación de lógica difusa ha abierto posibilidades excitantes para el reconocimiento de
patrones y habilidades de procesamiento de información de carácter humano. La
programación de realidad virtual y los sistemas multimedia ofrecen formas radicalmente
diferentes de comunicar información al usuario final. “Los algoritmos genéticos”
ofrecen el potencial para el software que reside dentro de las computadoras biológicas
masivamente en paralelo.
Sin embargo, un conjunto de problemas relacionados con el software ha persistido a
través de la evolución de los sistemas basados en computadora, y estos problemas
continúan aumentando.
IV.1.- INGENIERÍA DEL SOFTWARE: UN ENFOQUE PRÁCTICO
Los avances de software continuando dejando atrás nuestra habilidad de construir
software para alcanzar el potencial del hardware.
Nuestra habilidad de construir nuestros programas no pueden ir al ritmo de la demanda
de nuevos programas, ni podemos, ni podemos construir programas lo suficientemente
rápido, como para cumplir las necesidades del mercado y negocios.
El uso extenso de computadoras ha hecho de la sociedad cada vez más dependediente de
la operación fiable del software. Cuando el software falla, pueden ocurrir daños
económicos enormes y ocasionar sufrimiento humano.
Luchamos por construir software informático que tenga fiabilidad y alta calidad.
Nuestra habilidad de soportar y mejorar los programas existentes se ve amenazada por
diseños pobres y recursos inadecuados.
En respuesta a estos problemas, las prácticas de la ingeniería del software se están
adoptando en toda la industria.
IV.2.- UNA PERSPECTIVA INDUSTRIAL
En los primeros días de la informática, los sistemas basados en computadora se
desarrollaban usando técnica de gestión, orientadas al hardware. Los gestores del
proyecto se centraban en el hardware, debido a que era el factor principal del
presupuesto en el desarrollo del sistema. Para controlar los costes de hardware, los
gestores instituyeron controles formales y estándares técnicos. Exigían un análisis y
diseño completo antes de que algo se construyera. Medio el proceso para determinar
donde podían hacerse mejoras. Dicho sencillamente, aplicaban los controles, los
métodos y las herramientas que reconocemos como ingeniería del hardware.
Desgraciadamente, el software no era normalmente más que un añadido.
En los primeros días, la programación se veía como un “arte”. Existían pocos métodos
formales, y pocas personas lo usaban. El programador aprendía normalmente su oficio
mediante prueba – error. La jerga y los desafíos de la construcción de software de
computadores crearon una “orden”, en la que pocos ejecutivos, se preocupaban. ¡El
mundo del software era virtualmente indisciplinado y muchos aprendices de entonces,
lo adoraban!
Hoy, la distribución de costes en el desarrollo de sistemas informáticos, ha cambiado
drásticamente. El software, en lugar del hardware, que es normalmente el elemento
principal del coste. En las pasadas décadas los ejecutivos y muchos aprendices técnicos,
se habrían hecho las Sgtes. Preguntas:
¿Por qué lleva tanto tiempo terminar un programa?
¿Por qué es tan elevado el coste?
¿Por qué no podemos encontrar todos los errores antes de entregar el software a
nuestros clientes?
¿Por qué nos resulta difícil constatar el progreso, conforme se desarrollo el software?
Estas y otras muchas cuestiones, son una manifestación del software y de la forma en
que se desarrolla, un problema que ha llevado a la adopción de la ingeniería del
software como practica.
IV.3.- UNA FÁBRICA DE SOFTWARE QUE ENVEJECE
En los años 50 y 60, muchos comentaristas especializados, criticaron duramente a la
industria del metal, por la falta de inversión en as fábricas.
Las fábricas habían comenzado a deteriorarse, raramente se aplicaron los métodos de
producción moderna:
La calidad quedaba entre dicho y sin embargo el costo del producto final subía y la
competencia comenzó a ganarse una parte sustancial del mercado, la dirección de estas
industrias decidió no realizar la inversión de capital que se requería para mantenerse
competitivas en sus entornos comerciales. La industria del metal sufrió esa situación
durante mucho tiempo, perdiendo una significativa parte del mercado, beneficiando a la
competencia extranjera, competencia que tenia fabricas mas modernas, tecnología mas
modernas, y obtenía ayuda de sus gobiernos, para hacerlas extremadamente
cooperativas en los costos.
Durante ese periodo, muchos de nosotros inmersos en la floreciente industria de las
computadoras, miramos a la industria del metal con desden.
“Si no están dispuesto a intervenir en su propio negocio”, se “merecen perder parte del
mercado”.Esas palabras pueden volverse ahora contra nosotros.
Aun a riesgo de que suene un poco melodramático, el hecho es que la industria del
software hoy esta en una situación que es bastante similar a la de la industria del metal
en los años cincuenta y sesenta. Tanto en las grandes empresas como en las pequeñas, lo
que tenemos es una “fábrica de software que envejece”; hay cientos de aplicaciones
basadas en software en una situación crítica y necesitan ser renovadas urgentemente.
Las aplicaciones de sistemas de información escritas hace veinte años que han sufrido
cuarenta generaciones de cambios y que ahora son virtualmente imposibles de
mantener. Incluso la más mínima modificación, puede hacer que falle todo el sistema.
Las aplicaciones de software que se utilizan para generar datos críticos de diseño, y que
sin embargo, a pesar de su edad y estado de conservación, realmente no se entienden.
Nadie tiene un conocimiento detallado sobre la estructura de esos programas.
Sistemas empotrados que aparecen extraños y a veces tienen un comportamiento
inexplicable. Pero que no se pueden poner fuera de servicio porque no hay nada
disponible para reemplazar.
No será suficiente “reparar” lo que esta mal y dar una imagen moderna a estas
aplicaciones. Muchos componentes de la fábrica de software requieren una reingeniería
o reestructuración importante o, de lo contrario no serán competitivos durantes los años
del siglo XXI, Desafortunadamente muchos directores de empresas parecen pocos
dispuestos a comprometer los recursos necesarios para emprender Este esfuerzo de
reestructuración.
V.-COMPETITIVIDAD DEL SOFTWARE
Durante muchos años, los desarrolladores de software empleados por grandes y
pequeñas compañías eran los únicos en este campo y a menudo actuaban como tal.
Como todos los programas e computadora se construyan de forma personalizada, los
desarrolladores de este software domestico dictaban los costos, planificación y calidad.
Hoy, todo esto ha cambiado.
El software ahora es una empresa extremadamente competitiva el que se construía
internamente, ahora se puede adquirir en tiendas. Muchas compañías que en su
momento pagaban legiones de programadores, para crear aplicaciones especializadas
ahora ofrecen a un tercero mucho del trabajo del software.
El costo, la agenda y la calidad, son los conductores principales que llevaran a la
competición intensa del trabajo del software de las últimas décadas.
USA y Europa Occidental han establecido buenas industrias de software. Pero los países
del lejano oriente, en Asia, y en Europa Oriental ofrecen un gran grupo de profesionales
altamente motivados, competitivamente educados y relativamente a bajos costos. Estas
fuerzas de trabajo, se están moviendo rápidamente para adoptar prácticas de ingeniería
del software modernas y se ha convertido en una fuerza a estimar como un grupo
mundial de profesionales, que persiguen obtener una cuota importante de los beneficios
del desarrollo.
En su libro, sobre el impacto de los servicios de información, en USA y en el mundo.
Feigenbaum y McCorduck plantean lo Sgte. :
El conocimiento es poder y la computadora es un amplificador de este poder.
La industria americana ha sido invocadora, vital y satisfactoria.
Por un lado, es una industria ideal. Crea valor transformado, el poder mental de los
trabajadores del conocimiento, con poco consumo de energía y materias primas. Hoy,
dominados las ideas y mercados del mundo en la más importante de todas las
tecnologías ¿Pero qué ocurrirá mañana?
Verdaderamente, ¿Qué ocurrirá mañana? El hardware de las computadoras se ha
convertido en una comodidad, disponible desde muchas fuentes.
Pero el software permanece como una industria en donde USA ha sido “innovador, vital
y beneficioso”. ¿Pero mantendremos nuestro primer lugar?
Al menos parte de la pregunta yace en el enfoque que tomamos, para la construcción del
software en la próxima generación de sistemas basados en computadora.