Taller
Taller
Capitulo No.1
I. Objetivo General
Historia de las Computadoras
III. Contenido
1. La computadora
4. Historia cronológica
5. Categoría de computadoras
7. Guía de Trabajo
La Computadora
Es una máquina capaz de procesar o tratar automáticamente a gran velocidad cálculos y
complicados procesos que requieren una toma rápida de decisiones, mediante la aplicación
sistemática de los criterios preestablecidos, siguiendo las instrucciones de un programa, la
información que se le suministra, es procesada para así obtener un resultado deseado.
Los PC tienen 4 elementos básicos (hardware): el teclado, que es principalmente para facilitar
la introducción de información al computador; la memoria, que es la que se encarga de
almacenar la información y el programa; la unidad de proceso (CPU), es el que lleva a cabo
las instrucciones contenidas en el programa; una impresora es una máquina que es capaz de
sacar en papel todo la información que se le dio al computador que pueden ser alfanuméricos;
una pantalla que es simplemente para ver los resultados del trabajo realizado, entre otros
periféricos que no son mas que elementos que forman parte del sistema físico y que cumplen
funciones adicionales, pero no necesarias.
Los programas o softwares son el conjunto de instrucciones que le dicen al computador qué
debe hacer. Sin ellos, el computador es una máquina inútil. Hay diferentes clases de
programas. Las dos principales categorías son los sistemas operativos y el software aplicativo
o aplicaciones.
El sistema operativo establece las reglas y parámetros para que el software aplicativo
interactúe con el computador, ya que en lugar de hablar directamente con el hardware las
aplicaciones hablan con el sistema operativo y este actúa como su intérprete.
Computación
El término computación es equivalente a decir informática, la única diferencia es que solo el
depende de las zonas geográficas. La palabra computación procede del inglés que se refiere a
la realización de cálculos. En cambio informática proviene del francés y designa la actividad de
procesamiento de información. Al margen de su origen etimológico, estos términos resultan
equiparables. No obstante, la tarea esencial de las computadoras no es el cálculo, sino el
procesamiento de información.
John ingresó a la Universidad de Budapest en 1921, aunque sólo asistía a la escuela cuando
había exámenes finales. Entre 1921 y 1923, pasó la mayor parte del tiempo en Berlín, donde
asistió a las clases de química de Fritz Haber, atendió la clase de mecánica estadística de
Albert Einstein y fue influenciado por el matemático Erhard Schmidt. Dado que su padre no
quiso que estudiara matemáticas por razones eminentemente financieras, von Neumann hubo
de estudiar ingeniería química, ingresando para ello a la prestigiosa Eidgenossische
Technische Hochschule (ETH) en Zurich (la escuela que una vez rechazara como posible
estudiante al joven Albert Einstein), sin darse de baja de la Universidad de Budapest. En 1925
obtuvo la licenciatura en ingeniería química del ETH, y sólo un año después, el doctorado en
matemáticas (con sub-especializaciones en física experimental y química) de la Universidad de
Budapest, cuando contaba con sólo 22 años de edad.
Fue precisamente durante la primera mitad de 1943, en plena guerra, que se interesó por
primera vez en la computación.
En octubre de 1954 se volvió miembro de la Comisión de Energía Atómica, por lo que se tuvo
que mudar junto con su esposa, a Georgetown, en Washington, D.C.
A la vez, sirvió como consultor para la IBM, en donde conoció a John Backus mientras
desarrollaba el FORTRAN. Curiosamente, von Neumann desdeñó el trabajo de Backus
pensando que nadie requeriría jamás usar un lenguaje de programación de más alto nivel que
el lenguaje binario que él tan bien conocía.
En el verano de ese mismo año, se lastimó el hombro izquierdo en una caída, y en la cirugía
posterior se descubrió que tenía cáncer en los huesos.
Pese a saberse cerca de la muerte, continuó con su tremendo ritmo de trabajo, y en sus últimos
días, el secretario de defensa, y los secretarios del ejército, la marina y la fuerza aérea
norteamericanas, se daban cita alrededor de la cama de von Neumann en el hospital Water
Reed en Washington, D.C.
Sólo médicos y personal con autorización militar podían verlo, ante el temor que revelara
secretos importantes mientras estaba sedado. Para ese entonces, von Neumann había recibido
un sinnúmero de doctorados Honoris Causa, la medalla presidencial al mérito, el premio Enrico
Fermi y el premio Albert Einstein.
Sus planes de irse a trabajar como profesor a la Universidad de California en Los Angeles
nunca se volverían realidad, porque el "mejor matemático del mundo", como lo llamara Herman
H. Goldstine, falleció el 8 de febrero de 1957. Su leyenda, sin embargo, sigue viva.
Tenía treinta metros de largo, tres de alto, uno de ancho, pesaba treinta toneladas y tenía 800
kilómetros de cableado. Consumía la misma electricidad que mil lavadoras juntas y realizaba
cien mil operaciones por segundo. Era capaz de calcular con gran velocidad las trayectorias de
proyectiles, que era el objetivo inicial de su construcción.
Sin embargo, John Von Neumann resolvió el problema de tener que cablear la máquina para
cada tarea.
La solución fue poner las instrucciones en la misma memoria que los datos, escribiéndolas de
la misma forma, en código binario.
Hoy en día, la mayoría de ordenadores están basados en esta arquitectura, aunque pueden
incluir otros dispositivos adicionales, (por ejemplo, para gestionar las interrupciones de
dispositivos externos como ratón, teclado, etc).
Cronología Histórica
Generaciones De Computadoras
Aunque caras y de uso limitado las computadoras fueron aceptadas rápidamente por las
Compañías privadas y de Gobierno. A la mitad de los años 50 IBM y Remington Rand se
consolidaban como líderes en la fabricación de computadoras.
Las, más rápidas, más pequeñas y con menores necesidades de ventilación. Sin embargo el
costo seguía siendo una porción significativa del presupuesto de una Compañía.
Los programas escritos para una computadora podían transferirse a otra con un mínimo
esfuerzo. El escribir un programa ya no requería entender plenamente el hardware de la
computadora.
Las computadoras de la 2da Generación eran substancialmente más pequeñas y rápidas que
las de bulbos, y se usaban para nuevas aplicaciones, como en los sistemas para reservación
en líneas aéreas, control de tráfico aéreo y simulaciones para uso general.
Mejoran los dispositivos de entrada y salida, para la mejor lectura de tarjetas perforadas, se
disponía de células fotoeléctricas.
La Marina de [Link]. utilizó las computadoras de la Segunda Generación para crear el primer
simulador de vuelo (Whirlwind I).
Antes del advenimiento de los circuitos integrados, las computadoras estaban diseñadas para
aplicaciones matemáticas o de negocios, pero no para las dos cosas. Los circuitos integrados
permitieron a los fabricantes de computadoras incrementar la flexibilidad de los programas, y
estandarizar sus modelos.
La IBM 360 una de las primeras computadoras comerciales que usó circuitos integrados, podía
realizar tanto análisis numéricos como administración ó procesamiento de archivos.
Las computadoras trabajaban a tal velocidad que proporcionaban la capacidad de correr más
de un programa de manera simultánea (multiprogramación).
Con la introducción del modelo 360 IBM acaparó el 70% del mercado, para evitar competir
directamente con IBM la empresa Digital Equipment Corporation (DEC) redirigió sus esfuerzos
hacia computadoras pequeñas.
Mucho menos costosas de comprar y de operar que las computadoras grandes, las mini
computadoras se desarrollaron durante la segunda generación pero alcanzaron su mayor auge
entre 1960 y 1970.
Un "chip" es una pieza de silicio que contiene los componentes electrónicos en miniatura
llamados semiconductores.
En 1981, IBM develó su computador personal y, en 1984, Apple su Macintosh. A medida que
estas máquinas se hacían más poderosas, se pudieron enlazar en redes, lo cual eventualmente
condujo al desarrollo de Internet. Otros de los adelantos que se han desarrollado en esta
generación son el uso de interfaces gráficas (Windows y Mac OS), el mouse y aparatos
portátiles.
Hoy en día las tecnologías LSI (Integración a gran escala) y VLSI (integración a muy gran
escala) permiten que cientos de miles de componentes electrónicos se almacenen en un clip.
Usando VLSI, un fabricante puede hacer que una computadora pequeña rivalice con una
computadora de la primera generación que ocupara un cuarto completo.
Multiproceso.
Microcomputadora.
Categoría de computadoras
Supercomputadora
La supercomputadora es lo máximo en computadoras, es la más rápida y, por lo tanto, la más
cara. Cuesta millones de dólares y se hacen de dos a tres al año. Procesan billones de
instrucciones por segundo. Son utilizadas para trabajos científicos, particularmente para crear
modelos matemáticos del mundo real, llamados simulación.
Algunos ejemplos de uso son: exploración y producción petrolera, análisis estructural, dinámica
de fluidos computacional, física, química, diseño electrónico, investigación de energía nuclear,
meteorología, diseño de automóviles, efectos especiales de películas, trabajos sofisticados de
arte, planes gubernamentales y militares y la fabricación de naves espaciales por
computadoras. Ejemplo: Cray 1, Cray 2.
Mainframe
Los "mainframe" son computadoras grandes, ligeras, capaces de utilizar cientos de dispositivos
de entrada y salida. Procesan millones de instrucciones por segundo. Su velocidad operacional
y capacidad de procesar hacen que los grandes negocios, el gobierno, los bancos, las
universidades, los hospitales, compañías de seguros, líneas aéreas, etc. confíen en ellas.
Su principal función es procesar grandes cantidades de datos rápidamente. Estos datos están
accesibles a los usuarios del "mainframe" o a los usuarios de las microcomputadoras cuyos
terminales están conectados al "mainframe".
Su costo fluctúa entre varios cientos de miles de dólares hasta el millón. Requieren de un
sistema especial para controlar la temperatura y la humedad. También requieren de un
personal profesional especializado para procesar los datos y darle el mantenimiento.
Minicomputadora
La minicomputadora se desarrolló en la década de 1960 para llevar a cabo tareas
especializadas, tales como el manejo de datos de comunicación. Son más pequeñas, más
baratas y más fáciles de mantener e instalar que los "mainframes".
Microcomputadora
La microcomputadora es conocida como computadora personal o PC. Es la más pequeña,
gracias a los microprocesadores, más barata y más popular en el mercado. Su costo fluctúa
entre varios cientos de dólares hasta varios miles de dólares.
Puede funcionar como unidad independiente o estar en red con otras microcomputadoras o
como un terminal de un "mainframe" para expandir sus capacidades. Puede ejecutar las
mismas operaciones y usar los mismos programas que muchas computadoras superiores,
aunque en menor capacidad. Ejemplos: Apple, IBM PC, Dell, Compaq, Gateway, etc.
Tipos de microcomputadoras:
a. Desktop: Es otro nombre para la PC que está encima del escritorio.
c. Palmtop: Es la computadora del tamaño de una calculadora de mano. Utiliza batería y puede
ser conectada a la desktop para transferir datos.
Tecnologías Futuras
La nanotecnología basada en el nanómetro, del cual la unidad es la mil millonésima parte de un
metro, permite a los científicos tener nuevos conceptos de diagnósticos de enfermedad y
tratamiento a una escala molecular y atómica. Al utilizar partículas de nanómetro, un médico
puede separar las células del feto de la sangre de una mujer embarazada para ver si el
desarrollo del feto es normal.
Este método también está siendo utilizado en los diagnósticos tempranos de cáncer y de
enfermedades cardíacas.
Se ha mostrado que los nanotubos de carbón son diez veces más fuertes que el acero, con un
sexto del peso, y los sistemas de nanoescala tienen el potencial de hacer el costo del
transporte supersónico efectivo e incrementar la eficiencia de la computadora en millones de
veces.
Al disfrutar más y más gente de la navegación por Internet, los científicos han comenzado la
investigación de la nueva generación de Internet. La tercera generación de Internet, conocida
como la cuadrícula de servicio de información (ISG, siglas en inglés), conectará no sólo
computadoras y sitios web, sino también recursos informativos, incluyendo bases de datos,
software y equipo informativo. La cuadrícula proveerá a los suscriptores de servicios integrados
precisamente como una computadora supergrande.
Por ejemplo, cuando un suscriptor vaya a viajar, el o ella sólo necesitará introducir datos en el
número de turistas, destino, tiempo y otros factores. Entonces el ISG contactará
automáticamente aerolíneas, estaciones de tren, agencias de viajes y hoteles para preparar un
programa de viaje para el suscriptor y terminar todo el trabajo necesario como la reservación de
boletos y de cuartos.
Pero los estudios revelan que este ritmo no se puede mantener y que el límite será alcanzado
tarde o temprano, ya que si se reduce más, las interferencias de un transistor provocarían fallos
en los transistores adyacentes.
Con el fin de superar estos límites de tamaño y velocidad se está trabajando en la actualidad
en varios centros de investigación de todo el mundo en dos líneas que pueden revolucionar el
mundo de la informática: Los ordenadores cuánticos y los ordenadores de ADN.
Podría ser el inicio de la nanotecnología, idea propuesta por Eric Drexler, quien, como
estudiante del MIT en los años 70, consideraba la posibilidad de construir máquinas con unos
pocos átomos que puedan programarse para construir otras, eventualmente millones.
Gracias a estas propiedades los ordenadores cuánticos tienen una especial capacidad para
resolver problemas que necesitan un elevado número de cálculos en un tiempo muy pequeño.
Además, como estarán construidos con átomos, su tamaño será microscópico consiguiendo un
nivel de miniaturización impensable en los microprocesadores de silicio.
Entre los principales centros destacan los laboratorios del centro de investigación de Almaden
de IBM, AT&T, Hewlett Packard en Palo Alto (California), el Instituto Tecnológico de
Massachusetts (MIT) y universidades de todo el mundo como la de Oxford Standford, Berkeley,
etcétera.
Computadoras de ADN
La computación molecular consiste en representar la información a procesar con moléculas
orgánicas y hacerlas reaccionar dentro de un tubo de ensayo para resolver un problema.
Por una parte, esta técnica aprovecha la facultad de las moléculas de reaccionar
simultáneamente dentro de un mismo tubo de ensayo tratando una cantidad de datos muy
grande al mismo tiempo. Por otro lado, el tamaño de las moléculas los sitúa a un tamaño
equiparable al que se puede conseguir con los ordenadores cuánticos.
Aunque aún no se pueden construir ordenadores de este tipo, desde la primera experiencia
práctica esta área ha pasado a formar parte de los proyectos más serios como alternativa al
silicio. Buena prueba de ello son las investigaciones llevadas a cabo en el marco del DIMACS o
"Centro de Matemática Discreta y Computación Teórica" del cual forman parte las
universidades Princeton, los laboratorios de AT&T, Bell entre otros. Otros focos de
investigación son el Departamento de Defensa de los Estados Unidos y el Consorcio Europeo
de Computación Molecular formado por un importante número de universidades.
Científicos israelitas, presentaron una computadora de ADN tan diminuta que un millón de ellas
podría caber en un tubo de ensayo y realizar 1.000 millones de operaciones por segundo con
un 99,8 por ciento de precisión.
La Computación Vestible
La computación vestible o para llevar puesta (Wearable Computing o WC) intenta hacer que la
computadora sea verdaderamente parte de la vida diaria del ser humano, integrándola en la
forma de un accesorio tan cómodo de vestir como un reloj de pulsera y tan fácil de usar como
un teléfono móvil.
Se trata de un sistema completo que porta el usuario, desde la placa principal (el motherboard)
hasta la fuente de alimentación y todos los dispositivos de entrada/salida, y que interactúan con
él basado en el contexto de la situación.
"Para integrar la computadora de forma imperceptible con el entorno, no basta con que se la
pueda llevar a la playa, a la selva o a un aeropuerto.
La computadora de bolsillo más potente seguiría centrando la atención del usuario sobre una
caja individual. Uno debería estar dentro de la computadora más bien que frente a ella, debería
estar en un entorno inmersivo"
Aunque resulte increíble, a esa distancia del ojo, la imagen percibida sobre la cara interna de
los anteojos, es equivalente a la ofrecida por un monitor común situado a varias decenas de
centímetros.
Esto creará una simbiosis íntima entre el hombre y la computadora. La WC responderá a la voz
del dueño dándole la información crítica que necesita, en el momento en que la precisa y en
cualquier lugar.
Por ejemplo, y en el caso de que una persona presencie un hurto, podrá fotografiarlo y enviarlo
por Internet ya que, además, uno podrá navegar por la red mientras viaja o camina por
cualquier zona del globo. El usuario podrá recibir de manera instantánea aquellas
informaciones que particularmente le interesen; podrá enlazarse con la red de posicionamiento
global para saber en cualquier momento su ubicación y nunca se olvidará del cumpleaños de
ninguno de sus amigos.
Asimismo, ofrece la posibilidad para tomar notas y procesarlas en el momento, algo
verdaderamente útil ya que evita la sobrecarga de pensamientos y libera a la mente de
"recursos" para permitir que surjan nuevas ideas. Incluso, permitirá organizar mejor los
pensamientos, ya que recuperará para el usuario todo lo que anteriormente escribió, leyó, vio y
escuchó sobre el mismo tema, complementando o aumentando su información.
Nanotecnología
La nanotecnología tiene grandes posibilidades de convertirse en la tecnología clave en las
próximas décadas. Las nanotecnologías -técnicas de manipulación o control a escala
nanotécnica e incluso molecular o atómica- estarán presentes en todos los campos de las
ciencias y supondrán, según los expertos, una revolución.
En todos los países situados a la cabeza del desarrollo tecnológico, cobran cada día más
relevancia las investigaciones de la Nanotecnología aplicadas a distintos campos como la
aeronáutica y el espacio, las comunicaciones y multimedia, la biomedicina o el control de
procesos industriales.
Entre las soluciones que se están aplicando actualmente está la de sustituir el aluminio por el
cobre en los conductores que conectan los transistores. El cobre es un 40% mejor conductor
que el aluminio y mejora la velocidad de los procesadores. Pero presenta otros problemas. No
se mezcla bien con el silicio, el material base de los transistores, y, además, es capaz de
cambiar las propiedades eléctricas del sustrato.
Para solucionar este problema, la compañía IBM consiguió desarrollar un método, que consiste
en introducir una barrera microscópica entre el cobre y el silicio, y que elimina el rechazo. Este
sistema está permitiendo fabricar chips con tecnología de 0.12 micras y cuyo coste de
procesamiento es entre un 20 y un 30% menor que el de los chips basados en aluminio.
En septiembre de 2001, anunció que había conseguido unir el arsenio de galio, más caro pero
mejor conductor de la electricidad, con el silicio. La compañía de telefonía afirmó que el nuevo
semiconductor actúa a una velocidad de 70 gigahercios, 35 veces por encima de los actuales
gigahercios de los procesadores más rápidos en las computadoras personales.
Intel presentó una nueva estructura para transistores, que permitirá que los chips funcionen
más rápido y consuman menos energía. Lo llaman el Transistor TeraHertz, porque su ciclo de
encendido y apagado es de un billón de veces por segundo.
El proyecto del chip molecular sustituirá al silicio, en favor de la química, más manipulable. Se
prevé que se podrán fabricar computadoras del tamaño de una partícula de polvo y miles de
veces más potentes que los existentes.
También es necesario fabricar otros conductores, porque los existentes no sirven. Los
experimentos con nanotubos de carbón (milmillonésima parte de un metro) para la conducción
de información entre las moléculas ya han dado resultados. IBM acaba de anunciar que ha
conseguido crear un circuito lógico de ordenador con una sola molécula de carbono, una
estructura con forma de cilindro 100.000 veces más fino que un cabello. Este proyecto permite
introducir 10.000 transistores en el espacio que ocupa uno de silicio.
Este chip podrá utilizarse también en tarjetas de débito, carnets, matrículas de automóviles,
permisos de conducir, discos compactos,
DVD, programas informáticos, títulos y valores,
bonos, libretas bancarias, antigüedades,
pinturas, y otras aplicaciones en las que se
necesite comprobar su autenticidad.
De esta forma, es capaz de modelizar y controlar una amplia variedad de sistemas complejos,
constituyéndose como una herramienta efectiva y tolerante a fallas para tratar con los
problemas de toma de decisiones en ambientes complejos, el razonamiento aproximado, la
clasificación y compresión de señales y el reconocimiento de patrones.
Sus aplicaciones están relacionadas, entre otras, con el comercio, las finanzas, la medicina, la
robótica y la automatización.
Algoritmos Genéticos y
Razonamiento Probabilística
Esta última incluyendo Algoritmos Evolutivos, Sistemas Caóticos, Redes de Opinión y, aunque
solo parcialmente, Teoría de Aprendizaje.
Cyborgs
Dentro de algunos años, podría haber sofisticados sistemas computacionales implantados
dentro mismo del sistema nervioso humano y enlazados con las partes sensitivas del cerebro.
Taller 17
Con las "películas omnisensoriales on-line", por ejemplo, uno podría llegar a convertirse en un
"copiloto" que experimenta la realidad de otra persona en el mismo momento en que ésta lo
está viviendo.
18 Historia de las computadoras
2. ¿Qué es un Hardware?
4. ¿Qué es el Software?
5. ¿Cuáles son las categorías del Software?
14. ¿Cuáles son las partes de las que consta la arquitectura de von Neuman?
16. ¿Cómo eran las computadoras de la segunda generación y qué innovación hubo?
17. ¿Cómo eran las computadoras de la tercera generación y qué avances hubo?
18. ¿Cómo eran las computadoras de la cuarta generación y qué avances hubo?
Capitulo No.2
I. Objetivo General
El Mantenimiento de computadoras
III. Contenido
Mantenimiento
Tipos de Mantenimiento
Materiales
Guía de Trabajo
Bienvenidos al mundo del mantenimiento de las computadoras, debes saber que en nuestro
medio se espera que el profesional de informática sea capaz de realizar muchas de las
funciones propias de un taller de computadoras, por eso estudia este manual con mucho
entusiasmo pues será un buen inicio para tu futura vida profesional, es mas este manual te
servirá para comenzar a ganar dinero haciendo uso de tus conocimientos, si los pones en
practica con lo que tengas a la mano.
Preventivo y
Correctivo.
Mantenimiento preventivo
El mantenimiento preventivo consiste en crear un ambiente
favorable para el sistema y conservar limpias todas las partes
que componen una computadora.
El mayor número de fallas que presentan los equipos es por la acumulación de polvo en los
componentes internos, ya que éste actúa como aislante térmico.
Las partículas de grasa y aceite que pueda contener el aire del ambiente se mezclan con el
polvo, creando una espesa capa aislante que refleja el calor hacia los demás componentes,
con lo cual se reduce la vida útil del sistema en general.
Por otro lado, el polvo contiene elementos conductores que pueden generar cortocircuitos entre
las trayectorias de los circuitos impresos y tarjetas de periféricos.
Si se quiere prolongar la vida útil del equipo y hacer que permanezca libre de reparaciones por
muchos años se debe de realizar la limpieza con frecuencia.
Mantenimiento correctivo
Consiste en la reparación de alguno de los componentes de la computadora, puede ser una
soldadura pequeña, el cambio total de una tarjeta (sonido, video, memoria, entre otras), o el
cambio total de algún dispositivo periférico como el ratón, teclado, monitor, etc.
Resulta mucho más barato cambiar algún dispositivo que el tratar de repararlo pues muchas
veces nos vemos limitados de tiempo y con sobre carga de trabajo, además de que se
necesitan aparatos especiales para probar algunos dispositivos.
Hogar
Es necesario mantener el equipo lejos de las ventanas, esto es para evitar que los rayos del sol
dañen a la PC, así como para evitar que el polvo se acumule con mayor rapidez, también hay
que tratar de ubicar a la PC en un mueble que se pueda limpiar con facilidad, si en la habitación
donde se encuentra la PC hay alfombra se debe aspirar con frecuencia para evitar que se
acumule el polvo.
También no es conveniente utilizar el monitor como “repisa”, esto quiere decir que no hay que
poner nada sobre el monitor ya que genera una gran cantidad de calor y es necesario disiparlo,
lo mismo para el chasis del CPU.
Oficina
Los mismos cuidados se deben tener en la oficina, aunque probablemente usted trabaje en una
compañía constructora y lleve los registros de materiales, la contabilidad, los planos en
Autocad, etc.
Esto implicaría que la computadora se encuentre expuesta a una gran cantidad de polvo,
vibraciones y probablemente descargas eléctricas, así mismo la oficina se mueve a cada
instante, hoy puede estar en Tegucigalpa y en dos semanas en San Pedro Sula, por lo mismo
el mantenimiento preventivo será más frecuente.
Consideraciones finales:
No exponer a la PC a los rayos del sol.
No colocar a la PC en lugares húmedos.
Mantener a la PC alejada de equipos electrónicos o bocinas que produzcan campos
magnéticos ya que pueden dañar la información.
Limpiar con frecuencia el mueble donde se encuentra la PC así como aspirar con
frecuencia el área si es que hay alfombras.
No fumar cerca de la PC.
Evitar comer y beber cuando se esté usando la PC.
Usar un UPS para regular la energía eléctrica y por si la energía se corta que haya
tiempo de guardar la información.
Cuando se deje de usar la PC, esperar a que se enfríe el monitor y ponerle una
funda protectora, así como al teclado y al chasis del CPU.
Revisión de la instalación eléctrica de la casa u oficina, pero esto lo debe de hacer
un especialista.
También es importante contar con las herramientas y material adecuado, todo esto para poder
facilitar el trabajo:
Una computadora está compuesta por partes mecánicas y electrónicas, las cuales en conjunto
la hacen funcionar, cada parte de la computadora recibe un nombre específico de acuerdo con
la función que desempeña.
Unidad de Control y
Unidad Aritmética Lógica.
Unidad de Control
Analiza y ejecuta cada instrucción del programa, controla las actividades de los periféricos,
tales como un disco o una pantalla de presentación.
A partir de señales que recibe del CPU, ejecuta las transferencias físicas de datos entre la
memoria y el dispositivo periférico, se encarga de controlar todo el flujo de información.
Unidad Aritmética Lógica (UAL)
Es la tarjeta principal o base, es un circuito impreso con dispositivos electrónicos que contiene
ranuras de expansión que aceptan otras tarjetas adicionales.
Interfaz de dispositivos
Sistema de almacenamiento
Las unidades de almacenamiento están asociadas con una pieza de hardware a la que se
denomina disco. Los tipos más comunes de discos son el disco duro (hard disk), disquete y
disco compacto.
Unidad lectora de discos flexibles (floppy disk)
Estas unidades pueden ser de 3½” y de 5¼” (ésta última se encuentra en desuso), son partes
electrónicas y mecánicas y también están expuestas al polvo u otros factores externos que
pueden dañar a estos componentes, por consiguiente también necesitan de un mantenimiento
preventivo o correctivo para su buen funcionamiento.
Existen lectores, grabadores y regrabadores. Los más flexibles son los últimos, ya que permiten
trabajar en cualquiera de los tres modos, pero la velocidad de lectura, que es uno de los
parámetros más importantes se resiente mucho, al igual que en los grabadores.
Puertos de comunicación
Puerto serie
Utiliza una línea para enviar información, otra para
recibirla; por su parte, existen líneas que regulan la información enviada por las otras dos
líneas.
El puerto serie se utiliza principalmente en la conexión del mouse o del módem. Envía
información de un bit a la vez, esta transferencia es lenta pero suficiente para un mouse ya que
la información que transmite un mouse es tan pequeña que la velocidad no es importante; para
un módem es perfecta pues las líneas telefónicas no pueden transportar más que una señal a
la vez.
Los puertos seriales dentro de la PC pueden ser conocidos como puertos COM y utilizan
conectores del tipo DB9.
Puerto paralelo
También es conocido como puerto Centronics, envía información a través de 8 cables paralelos
simultáneamente en una sola dirección, envía varios bits de información, es mucho más rápido
que el puerto serie. Este tipo de puerto es utilizado para impresoras.
Los puertos paralelos dentro de la PC pueden ser conocidos como LPT1 o LPT2 y utilizan
conectores del tipo DB25.
Ranuras o Slots con Bus de 8 bits
La información es transmitida a los Slots de expansión y otros componentes en el Bus con sólo
8 líneas paralelas de datos.
Ranuras o Slots con Bus MCA (Microchanel Architecture)
La tarjeta Microcanal de IBM utiliza 32 de sus 93 líneas para enviar y recibir datos. También
incluye una circuitería que, al igual que Plug and Play*, facilita la instalación de la tarjeta.
Ranuras o Slots con Bus EISA (Extended Industry Standard
Arhitecture)
Puede utilizar tarjetas de expansión diseñadas específicamente para trabajar con los 97
conectores de ranura divididos en dos niveles. Esta ranura transmite 32 bits de datos a la vez,
las ranuras EISA admiten tarjetas de 8 y 16 bits.
Ranuras o Slots con Bus VESA de 32 bits (Video Electronic
Standard Asociation)
Se dividen en un conjunto de conectores basados en la ranura ISA y en un conjunto
independiente de 32 pares adicionales de conectores más pequeños, que transportan la
información del Bus local, trabajan con datos de 32 bits.
Ranuras o Slots con Bus PCI (Peripheral Component
Interconection)
Transmite información con un rango de 32 bits simultáneamente, estas ranuras de expansión
no aceptan de 8 o 16 bits ni tarjetas MCA.
Ranuras o Slos con Bus AGP (Accelerated Graphics Port)
Las ranuras AGP proveen un puerto de alta velocidad que sólo transporta información gráfica e
incorpora otras funciones para el manejo de gráficas 3D y texturas. Este puerto está conectado
directamente al microprocesador y la memoria a través del bus a una frecuencia más alta que
los demás dispositivos, cabe señalar que este tipo de ranura de expansión sólo se encuentra
disponible para las tarjetas de video.
Tarjetas de expansión
Dentro de la PC podemos encontrar otros dispositivos instalados, como un módem (ya sea
interno o externo), tarjeta de sonido, tarjeta de red, tarjeta SCSI para dispositivos de este tipo,
etcétera.
Tarjeta de video
Al igual que todas las tarjetas es un dispositivo que se conecta a la computadora y genera texto
e imágenes en la pantalla de un monitor, éste es responsable de la calidad del video.
Taller 31
a) Módem interno
Éste va insertado en la ranura de expansión de la PC, es una tarjeta, tiene dos conectores, en
uno se conecta la línea telefónica y en el otro el teléfono, utiliza software de comunicaciones.
b) Módem externo
Tarjeta de sonido
Es un dispositivo que permite a la computadora reproducir sonidos, hay diferentes formatos de
sonidos, hoy en día son parte importante de un equipo de cómputo.
Tarjeta de red
Este dispositivo se utiliza para redes LAN (Local Área Network), existen diversos tipos de
tarjetas de red, sin embargo la finalidad es la misma, conectar computadoras en red.
Fuente de alimentación
Se encarga de alimentar o suministrar energía a toda la PC, tiene dos conectores que se
insertan directamente a la tarjeta principal, estos conectores son conocidos como P8 y P9, los
conectores que alimentan a los dispositivos se conocen como conectores comunes, los voltajes
que da la fuente de alimentación son:
Rojo 5 V Azul- 12 V
Amarillo 12 V Amarillo 12 V
Naranja 5 V
NOTA. Los valores del voltaje de la fuente de alimentación pueden tener una variación de ±
10%.
Monitores
Características:
A continuación se explicará brevemente los parámetros o características que influyen en la
calidad de un monitor:
Tamaño
El tamaño se mide en pulgadas y lo que se mide es la longitud de la diagonal, el tamaño es
importante porque permite tener varias tareas a la vez de forma visible y poder trabajar de
forma más cómoda, el tamaño mínimo aconsejable es de 14 pulgadas.
Tubo
El tubo nos definirá si la pantalla es más o menos plana y cuadrada, el tamaño del punto (Dot
Pix) y también servirá para comparar entre diferentes marcas por si hay un posible daño, como
por ejemplo que se dañe el Flash Back, los controles de brillo y contraste, entre otros.
Frecuencia de refresco
Se refiere a que la frecuencia tiene que ser lo suficientemente alta para que el barrido de la
imagen no se distorsione, la frecuencia está proporcionalmente ligada a la estabilidad de la
imagen y por tanto al confort y descanso de la vista.
Resolución
Se denomina como la cantidad de pixeles* que se pueden ubicar en un determinado modo de
pantalla, los *pixeles están distribuidos entre el total de horizontales y verticales de la pantalla.
*Pixel (picture element).- Es el elemento más pequeño en una pantalla de presentación de
video. Una pantalla se divide en miles de pequeños puntos, y un pixel es uno o más puntos que
se tratan como una unidad, un pixel puede ser un punto en una pantalla monocromática, tres
puntos (rojo, verde, azul) en pantallas de color.
Conector
DIN
El cable del teclado corre de un conector DIN, tiene 5 patas (no en orden numérico
consecutivo).
Mini-DIN
Este tipo de conector fue introducido por IBM y utilizado en equipos de “marca”, y es el habitual
en las placas con formato ATX, tiene el mismo formato que el DIN pero el conector es más
pequeño.
Ratón (mouse)
MANTENIMIENTO DE UNA PC
Para el mantenimiento preventivo y/o correctivo será necesario quitar y poner las partes
internas de la computadora, para esto se debe conocer la manera de sacar y volver a introducir
adecuadamente los componentes así como las medidas básicas de seguridad, a continuación
se explicará brevemente el procedimiento.
Medidas de seguridad
Estas medidas aunque le parezcan básicas son vitales para la seguridad de su equipo de
cómputo y su seguridad personal:
Antes de abrir cualquier computadora es necesario revisarla para poder detectar posibles
fallas, por lo cual hay que encender la computadora y probar todas y cada una de las
aplicaciones, revisar las unidades de disco flexible y la unidad de CD-ROM, así como verificar
que cada una de las teclas del teclado funcionen adecuadamente, y que tanto el ratón como los
botones se desplacen sin ningún problema.
Si detectó algún problema tome nota e infórmele al dueño del equipo.
Retire los tornillos e introdúzcalos en el bote para rollo fotográfico (así se evita perder los
tornillos), asegúrese de utilizar el desarmador adecuado.
Si el CPU es mini-torre “acuéstelo” para poder trabajar con comodidad y seguridad.
Antes de quitar cualquier componente observe con cuidado la parte interna de la PC, tome nota
de la colocación de las tarjetas, para que cuando termine el mantenimiento preventivo las
coloque en el lugar exacto de donde las sacó.
Ya que haya tomado nota de todos los pequeños detalles proceda a colocarse la pulsera
antiestática, esto es para evitar dañar alguna tarjeta.
Cuando saque alguna tarjeta y ya la haya limpiado colóquela dentro de una bolsa antiestática,
lo mismo para todas las tarjetas.
Cuando inserte los cables tipo Listón tiene que seguir la “Ley del Pin 1”, esta ley o regla implica
la manera como se tiene que colocar el cable o Bus, observe con cuidado sus cables tipo
Listón y podrá ver que en uno de los extremos el cable tiene un filamento rojo, ese filamento
indica que es el Pin 1, ahora en su dispositivo (disco duro, unidad de disco flexible o CD-ROM)
en la parte exterior cerca del lugar donde se inserta el cable tiene que ver un número 1 o una
especie de flecha, esa señalización indica que es el Pin 1; en pocas palabras tiene que
coincidir el filamento rojo con el No. 1 o la flecha indicada en el dispositivo.
Colocar las tarjetas en el lugar exacto de donde las sacó, así evita alterar la configuración que
ya se tenía antes.
Recomendaciones:
Nunca introducir nada a la fuerza, ya que se pueden dañar los conectores y los dispositivos,
sólo entra de una manera.
La mayor de las veces que uno realiza un trabajo, cualquiera que sea éste, es necesario
siempre contar con todo el material, herramientas y área de trabajo adecuados para llevar a
buen término dicha tarea.
Un ejemplo muy simple es el siguiente: si al retirar una tuerca para remover una pieza
mecánica, no cuento con una llave adecuada, y por falta de tiempo utilizo unas pinzas de
presión, de momento se soluciona el problema, pero al no utilizar la llave adecuada se pueden
ocasionar problemas que van desde el maltrato de la tuerca en el menor de los casos, y en el
peor su deformación por la aplicación excesiva de presión, con la consecuencia de quedar
inutilizada y tener que retardar el término de la tarea.
El ejemplo anterior muestra de una manera muy simple el problema que se puede ocasionar
sino no se cuenta con la herramienta adecuada.
En el mercado hay diferentes tipos de destornilladores, debido al diseño de la punta que tienen:
plano, de cruz, estrella y de caja.
Debido a que la electricidad estática puede inclusive generarse en el cuerpo humano —esto
variará dependiendo de cada uno como individuo— se necesitan tomar unas cuantas
precauciones cuando se estén manejando componentes de la computadora, y una de ellas es
ocupar la pulsera antiestática.
La pulsera antiestática es un
dispositivo que se adapta a su
muñeca y lo conecta a una fuente
de tierra (como la parte metálica
de una caja) para mantenerlo libre
de electricidad estática.
Si tiene alfombra en el cuarto
donde está trabajando con la
computadora, tome sus
precauciones contra la descarga
de electricidad estática que
definitivamente se generará en su
cuerpo.
En cualquier caso, no arrastre demasiado los pies mientras se encuentre trabajando con la
computadora. Se generará menos electricidad estática de esta manera.
Una vez que se han tomado las anteriores recomendaciones, hay que comenzar a darle
mantenimiento al CPU y sus componentes. No hay que olvidar apagar la computadora y
desconectar el cable de alimentación de la toma de energía.
Tarjeta Madre
Las mejores herramientas para esta labor son una brocha de cerdas rígidas limpia, una
aspiradora y un producto limpiador-desengrasante. Utilice la brocha para remover el polvo
adherido a los componentes para que la aspiradora pueda a su vez quitarlo. Aunque se debe
de aspirar todo el polvo que se encuentre dentro del sistema hasta donde sea posible (sin
exagerar al remover puentes, disipadores adheridos por pegamento o grapas, etc.), hay que
poner especial énfasis en las siguientes áreas:
Ventilador del CPU.
Una vez retirado el polvo excesivo se puede aplicar un producto que acabe de retirar la
suciedad de la tarjeta y que normalmente contiene una sustancia desengrasante; esto sirve
para evitar que pequeños residuos de grasa provoquen la acumulación temprana de polvo.
En primer lugar, sólo se lograría soplar el polvo de regreso a la habitación, de manera que
puede caer otra vez dentro de la computadora.
Sin embargo es más importante el hecho de que el polvo tiene la tendencia a abrirse paso
dentro de las unidades lectoras de disco flexible, ranuras de expansión y otros lugares difíciles
de alcanzar. Además, cuide que la brocha y la boquilla de la aspiradora no golpeen ni dañen
algo.
Acto seguido se podrá aplicar sobre los mismos el producto desengrasante para eliminar
cualquier residuo de grasa que pudiera existir.
Se debe tener cuidado de tomar por los bordes los SIMMs y DIMMs para evitar posibles daños
por descarga de electricidad estática generada por nuestro cuerpo.
Una vez acabado el proceso de limpieza, hay que volver a colocar los SIMMs, lo cual implica
un proceso donde habrá que observar que éstos tienen una pequeña muesca en uno de los
lados y en la base de la ranura donde se inserta, hay una pequeña rebaba de plástico que
permite insertar el modulo de la memoria únicamente cuando coincide con esta rebaba.
Si esta operación se realiza correctamente, se empuja el módulo de memoria hasta que las
lengüetas hacen un pequeño chasquido cuando se sitúan en su posición y aseguran el módulo
de memoria.
Disco Duro
La limpieza de la unidad lectora no requiere que se desarme nada. En vez de ello, requiere de
un limpiador especial, que se puede adquirir en cualquier tienda de productos de computación.
El disco limpiador tiene el aspecto de un disco normal, sólo que la parte interior de la cubierta
del disco está hecha de una tela suave y porosa en lugar del substrato plástico/magnético
empleado en un disco normal.
El conjunto de limpieza incluye un líquido que se aplica en la tela del disco. Posteriormente se
introduce este disco en la unidad lectora y se intentará tener acceso a él, mediante el comando
DIR A: si está en ambiente de DOS, o presionar dos veces el botón izquierdo del ratón en la
unidad A: de la ventana de Mi PC, en Windows 95, 98, XP y Windows NT 4.0.
Fuente de alimentación
Tarjetas en el sistema
Para poder realizar la limpieza de estos dispositivos
será necesario desmontarlos de las ranuras de
expansión, lo cual sólo implica retirar un tornillo que fija
la tarjeta a la estructura del gabinete y evita que se
desprenda.
Se debe tener cuidado de tomar por los bordes laterales las tarjetas para evitar posibles daños
por descarga de electricidad estática generada por nuestro cuerpo. Es importante recalcar lo
anterior ya que a veces estos dispositivos no se dañan de inmediato, pero se van degradando
poco a poco, reduciendo así la vida útil de éstos.
Antes que nada habrá que definir que los dispositivos a los
cuales les daremos mantenimiento son considerados
periféricos. Estos pueden ser de entrada, de salida y
también los hay de entrada y salida.
Aunque en este documento no se explicará cómo dar mantenimiento a todos los dispositivos
periféricos más utilizados, por lo menos es conveniente saber cuáles son: impresoras,
modems, cámaras digitales, micrófonos, escáner (digitalizador de imágenes), y las unidades de
CD-ROM, DVD externas.
Monitor
En ningún momento cuando se habla de mantenimiento preventivo,
se debe de pensar en que se va a abrir el monitor para limpiarlo.
El monitor contiene condensadores de alta capacidad eléctrica que
pueden producir un peligroso y hasta mortal choque eléctrico
incluso después de haberlo apagado y desconectado. De cualquier
modo, no hay mucho que se pueda limpiar en el interior del monitor.
En vez de ello, hay que concentrarse en limpiar el exterior del monitor y la pantalla.
Generalmente se ocupa una buena solución limpiadora de cristales para limpiar, no solamente
el vidrio de la pantalla, sino también el gabinete.
Hay que ocupar un lienzo libre de pelusa y vaciar el limpiador sobre el lienzo, no sobre el
cristal.
Esto evitará que el fluido escurra y se introduzca en el espacio entre el cristal y el gabinete.
Lo anterior es muy importante recalcarlo ya que no se debe de introducir el fluido al interior del
gabinete, porque podría provocar un corto circuito en el monitor.
Teclado
Es sorprendente la cantidad de
suciedad y basura que se puede
llegar a acumular en un teclado.
Esta operación de soplado del teclado se debe de realizar en un lugar aparte del sitio donde
generalmente trabaja con su computadora, y para evitar que eventualmente este polvo y
suciedad regrese, utilice la aspiradora para juntar la basura a medida que ésta sea expedida
por el aire comprimido.
Aunque normalmente no se necesita desarmar el teclado para limpiar el polvo y los desechos
que caen sobre el mismo, tal vez se necesite desarmar para limpiar alguna cosa que se haya
derramado en él.
El agua no afectará sino se derrama en demasía. Si sólo fueron unas cuantas gotas, no
importa, se evaporarán por sí solas.
NOTA. Si sólo quiere limpiar el polvo y suciedad diversa del teclado, deténgase aquí y vuelva a
ensamblar el teclado, los pasos siguientes son para la limpieza de derrames.
5. Teniendo cuidado de que no se caiga ninguna tecla, quite el dispositivo de las teclas del
gabinete.
6. Si el teclado tiene una tarjeta de circuitos unida al dispositivo de las teclas, retírela y hágala a
un lado (observe la manera en que está conectada dicha tarjeta).
7. Retire los tornillos que sostienen la placa metálica en la parte posterior del dispositivo del
teclado. Ponga los tornillos en una taza u otro recipiente, de manera que no se pierdan.
8. Levante cuidadosamente la placa de metal. Lo que encontrará debajo de ella depende del
diseño del teclado; la figura siguiente es una muestra bastante típica de lo que verá: alguna
clase de circuito impreso. Con sumo cuidado levante y limpie los contactos de la tarjeta con el
alcohol y el lienzo.
10. Vuelva a ensamblar las almohadillas, el circuito impreso, la tarjeta del circuito y la placa
metálica, después voltee el dispositivo para ponerlo al derecho nuevamente.
11. También sería una buena idea quitar las teclas y limpiar debajo de ellas. Las teclas deben
botarse, pero no retire muchas a la vez, porque tendrá un gran problema tratando de
deducir donde irían ciertas teclas. Limpie debajo de ellas con alcohol y un lienzo.
PRECAUCIÓN. Algunas de las teclas tienen alambres de retención debajo de ellas (véanse
figuras siguientes). Es mejor que no los quite, porque puede ser difícil volver a colocar los
alambres en los sitios correctos. Si tiene que quitarlos, tal vez le resulte más sencillo conectar
primero el alambre a las teclas, y luego conectar el alambre y la tecla al teclado. Vuelva a
ensamblar estas teclas antes de que coloque la cubierta de nuevo en el teclado, para facilitar el
acceso a los alambres y conectores.
Ratón
Es buena idea limpiar ocasionalmente el
interior de su ratón, ya sea normal, o de tipo
estacionario. Hay dos clases principales:
ópticos y mecánicos.
Las computadoras actuales utilizan BIOS de muchos fabricantes distintos (AMI-BIOS; AWARD,
etc.), en el caso de computadoras ensambladas; y también los hay del tipo propietario, es decir,
las computadoras de marca hacen un BIOS que solamente se encontrará en su marca y que
maneja de forma específica sus características.
Los programas de estos BIOS son diferentes, aunque todos proporcionan los mismos tipos de
funciones de bajo nivel. El sistema Plug and Play (conéctese y úsese) y el soporte para un
nuevo hardware son dos razones para actualizar el BIOS de la PC, sólo que habrá que estar
seguro que sea compatible con la tarjeta madre.
Textos Educativos Anita Taller 47
Tipos de BIOS
Dependiendo del tipo de BIOS que se tenga, la actualización puede ser tan fácil como ejecutar
un programa.
La mayoría de los circuitos integrados del BIOS en la actualidad son flash BIOS, lo cual
significa que pueden ser reprogramados ejecutando un programa de actualización que se
adquiere del propio fabricante.
Con estos tipos de sistemas, es bueno revisarlos cada tres o seis meses, para ver si ya hay a
la venta una nueva actualización del BIOS para renovarlo.
Otros sistemas requieren de que se extraiga el circuito integrado del BIOS para reemplazarlo
(BIOS no Programable). El costo puede ser elevado, por lo que no le gustaría hacer este tipo
de actualización con frecuencia.
Pero una actualización le puede dar los mismos beneficios que una actualización flash BIOS.
NOTA. La conexión entre la Tarjeta Madre (con todos sus componentes) y el BIOS significa
que no se puede ir simplemente a la tienda de electrónica y comprar un nuevo BIOS. La
actualización del BIOS tiene que estar diseñada específicamente para el juego de circuitos
integrados utilizados en la Tarjeta Madre donde se piensa insertar la actualización del BIOS.
Primero, se encontrará que los sistemas normalmente soportan dos controladores IDE, cada
uno de los cuales se dice que es una “cadena” IDE. Cada cadena puede contener hasta dos
discos duros.
BIOS:
1. Para acceder al menú de configuración del BIOS hay que pulsar, en los primeros segundos
del proceso de arranque, la tecla Supr.
En las PC que tienen un BIOS antiguo, la tecla de acceso al setup puede ser otra. Los distintos
mensajes que aparecen durante el proceso de arranque suelen indicar cuál es la tecla, o la
combinación de teclas a pulsar para activar la opción de configuración del BIOS, aunque lo
hacen en inglés y, por lo tanto, hay que adaptarla a un teclado en español.
La tecla DEL (delete), equivale a Supr, y Shift a la tecla de mayúsculas, que puede estar
indicado como mayús. o con una flecha hacia arriba.
2. Los menús e inicio que aparecen durante el setup del BIOS varían de una PC a otra, aunque
mantienen siempre una serie de opciones comunes.
La opción Ide Hdd Autodetection está presente en la mayor parte del BIOS para
microprocesadores Pentium y Pentium II.
3. Cuando este proceso detecta una unidad, muestra los datos correspondientes a su
estructura física y a su estado dentro del bus IDE. Los dos canales IDE se indican como
Primary y Secundary, mientras que la posición de los discos en el canal se identifica como
Master para el principal y Slave para el secundario.
El proceso intenta localizar los cuatro discos que pueden conectarse al bus IDE y muestra la
información obtenida cada vez que termina la búsqueda de una unidad. Este proceso esperará
a que el usuario confirme el ajuste del BIOS en función de los datos detectados.
4. Al añadir, cambiar o retirar discos del sistema hay que ajustar la configuración de los
dispositivos IDE dentro del BIOS con un proceso de autodetección.
5. En esta pantalla aparecen algunos parámetros básicos para la configuración del ordenador
como la fecha, la hora y las unidades de disquete. Las unidades de disco configuradas en el
sistema, acompañadas de información relativa a su estructura física, se muestran en la lista
de dispositivos IDE.
6. Para ajustar la detección automática, hay que cambiar el parámetro Type de los cuatro
dispositivos IDE y dejarlo como Auto. Al hacerlo el proceso de arranque del ordenador mostrará
unas breves indicaciones con las unidades IDE instaladas, configurándose de modo automático
en función de los valores obtenidos.
7. Los discos duros IDE pueden emplear distintos modos de transferencia que pueden detectarse
también automáticamente durante el arranque de la PC. Al igual que en el paso anterior, hay
que cambiar las cuatro entradas de la columna Mode y dejarlas como Auto.
8. En ocasiones, cuando se decide cambiar el disco principal del sistema por uno nuevo, el
ordenador no puede arrancar ni desde el disco duro ni desde un disquete de inicio, debido a
que está deshabilitada la función de arranque desde el disquete en el BIOS. Para habilitar el
arranque con el disco de inicio, desde la pantalla principal del setup del BIOS, dentro del
menú Bios Features Setup, hay que modificar la opción Boot Sequence. La secuencia de
letras que indica esta opción indica el orden de búsqueda del disco de inicio.
1. Se accede al menú de Configuración del BIOS de la misma manera que para detectar los
discos, descrita en el punto anterior.
3. Una vez realizado lo anterior, en el menú Principal del setup se encuentra la opción Bios
Features, la cual hay que seleccionar.
4. Dentro de la selección se despliega una serie de opciones, dentro de las cuales se encuentra
la opción Security option, que puede modificarse usando las teclas ± o Re Pág / Av Pág.
5. La primera opción es Setup, la cual indica que sólo pedirá la contraseña al entrar al BIOS, la
segunda es System, que pedirá la contraseña al encender la PC.
6. Al seleccionar la opción de nuestra referencia, hay que asegurarse de guardar los cambios
hechos en el Bios y al salir de éste se reiniciará la PC.
Para configurar esta opción debe conocer dónde se encuentra el sistema operativo y tomar en
cuenta qué clase de unidades tiene.
1. Hay que acceder al programa de configuración del Bios, de la manera ya descrita en los
puntos anteriores.
2. Desde la Pantalla principal del setup del BIOS, dentro del menú Bios Features Setup, hay
que modificar la opción Boot Sequence (para modificar la opción se usan las teclas ± o Av
Pág/Re Pág), la secuencia de letras que indica esta opción indica el orden de búsqueda de
disco de inicio.
3. Por regla general, puede dejarse el disco principal C como unidad única de arranque
aunque, ya que al instalar un SO deberá poder arrancarse tanto desde el disquete como del
disco duro, la opción deberá mostrar también las unidades A,C.
Algunos ordenadores cuentan con CD-ROM o un dispositivo SCSI, desde el cual se inicia, por
lo que es necesario elegir la opción que se adecue a nuestro sistema.
Existe una amplia variedad de programas de software que se encargan de estas tareas, por lo
que a continuación se describirá cómo funcionan los programas más importantes para el
mantenimiento del disco y la revisión del sistema.
Defragmentar el disco.
Reacomodar físicamente los archivos en el disco.
Localizar y marcar las posiciones de almacenamiento dañadas.
La fragmentación del disco sucede después de que el sistema operativo ha escrito diferentes
versiones de los archivos varias veces, esto es, un archivo después de ser modificado, al
guardarse no ocupa direcciones de memoria contiguas en el disco. Tomando en cuenta la gran
cantidad de archivos que maneja un ordenador, la fragmentación se convierte en un problema,
en tanto es necesario buscar en el disco dónde se encuentran las posiciones de memoria, lo
cual genera una curva de tiempo de acceso cada vez mayor.
Es necesario utilizar un defragmentador con frecuencia, con lo cual se notará una mejora
definitiva en el rendimiento del disco cuando se limpia un disco que está muy fragmentado.
La fragmentación de archivos individuales es sólo una de las formas en que el disco se alenta.
Otra forma es cuando se carga más de un archivo a la vez y estos archivos están muy
separados en el disco.
La revisión de la superficie del disco para probar cada posición de almacenamiento, marcando
aquéllas que no sean estables, es necesaria pues el escribir un dato en dicha posición puede
terminar con la pérdida del mismo y algunos dolores de cabeza.
Windows cuenta con una herramienta llamada Scandisk, la cual revisa la estructura de
archivos, directorios y la superficie del disco que se le indiquen. Ésta se encuentra dentro de
las herramientas del sistema, y puede efectuar una revisión de estructura y de supercficie o
física del disco.
Por ello es necesario contar con una herramienta que permita conocer el estado del sistema y
los posibles conflictos que pueda tener, para después poder buscar una solución.
En general es posible
observar qué sistema
operativo se tiene, cuánta
memoria RAM tiene el
sistema y el número de
registro de Windows.
En el Administrador de
dispositivos están los
dispositivos con los que
cuenta el sistema, e
Indica mediante un signo
de interrogación o de
admiración si se tiene
algún problema con algún
dispositivo.
52 El mantenimiento de
las computadoras
También se pueden ver las interrupciones con las que cuenta el sistema, y qué recurso la está
utilizando.
En el Sistema de archivos están las opciones acerca del disco duro, CD-ROM y solución de
problemas. Dentro de Gráficos se encuentran las opciones de aceleración vía software; y
dentro de la opción Memoria virtual la posibilidad de elegir el tamaño y la localización de la
memoria virtual.
8. ¿Qué es el CPU?
22. ¿Describa como dar mantenimiento a todas las partes que se explican en este
capitulo?
Textos Educativos Anita Taller 55
Capitulo No.3
I. Objetivo General
Ensamblar una computadora
III. Contenido
Pasos para ensamblar
Guía de trabajo
Ensamblando
Primero vamos a abrir el embalaje de la maquina
Notamos que hay una fuente de poder, debemos ahora retirar todas las chapas que nos
permitirá poner las tarjetas y los conectores
Después de tocar la caja para ponernos al mismo potencial ponemos la placa base sujetándola
por los bordes sin tocar ninguna pieza ni parte metálica
Ahora vamos a instalar un MODEM, así que lo enchufamos en una ranura pci
Ahora vamos a instalar un disipador, después de unir las piezas como podrás ver en el manual
que viene adjunto,
Debes ponerlo en el socalo del CPU
Instalamos el Parlante
Y ha llegado el momento de colocar el la ranura PCI la tarjeta de video
Determine si desea realizar una actualización o instalar una copia nueva de Windows
XP Home Edition y configure las opciones avanzadas de instalación.
Ejecute el programa de instalación de Windows XP según el método elegido.
1. Actualización o instalación
Una vez iniciado el Asistente para la instalación de Windows XP, una de las primeras
decisiones que debe tomar es si va a actualizar el sistema operativo actual o si va a realizar
una instalación completamente nueva (una "instalación limpia").
NOTA: En ningún caso se perderán los archivos de usuario correspondientes a las distintas
aplicaciones.
Si su equipo ejecuta actualmente un sistema operativo no compatible, deberá instalar una copia
nueva de Windows XP Home Edition. El asistente instala Windows XP Home Edition en una
carpeta nueva. Una vez completada la instalación, deberá volver a instalar las aplicaciones y
restablecer sus preferencias.
Si lo desea, puede también modificar la forma en que el asistente instala Windows XP Home
Edition. Para ello haga clic en ‘Opciones avanzadas’ y, a continuación, seleccione cualquiera
de las tareas siguientes:
2. Actualización
El proceso de actualización es sencillo. El Asistente para la instalación de Windows XP Home
Edition detecta e instala automáticamente los controladores adecuados, o, en el caso de que la
actualización no sea posible por alguna causa o bien algún dispositivo no pueda ser
correctamente actualizado, crea un informe (imprimible para su posterior análisis) acerca de los
dispositivos que no se van a poder actualizar.
Con esta información en su poder Ud. podrá conocer con exactitud el grado de éxito que tendrá
la actualización, saber con seguridad si su hardware y software son compatibles con Windows
XP Home Edition y decidir si finalmente desea llevar a cabo la actualización o no.
d:\[Link]
Y presione ENTRAR.
7. Si no hay ningún problema grave que impida la actualización podremos decidir una vez
llegados a este punto si queremos continuar con la actualización (convendría imprimir
un informe completo de los problemas detectados) o cancelar la instalación.
En el primer caso, bastaría con seguir las instrucciones que irán apareciendo en la
pantalla.
En general, para instalar una copia nueva mediante el disco compacto seguiremos los
siguientes pasos:
d:\[Link]
y presione ENTRAR.
Contrato de licencia. Si está de acuerdo con los términos y desea continuar con el
proceso de instalación, seleccione ‘Acepto este contrato’.
NOTA: Los sistemas operativos personales (Windows 95, Windows 98, Windows
Millennium) NO pueden acceder a particiones locales convertidas a NTFS. Téngalo en
cuenta especialmente en configuraciones multiarranque.
Encendido
¿Cuál es la primera cosa que sucede cuando usted enciende la computadora? El
encendido de la computadora, es la primera etapa en el proceso de arranque y
consiste en dar energía eléctrica a todos los circuitos de la computadora, lo primero
que sucede en esta etapa es que el fan (abanico) del power suplí comienza a girar y el
power light (indicador de encendido, en nuestro caso un led verde) en el case o CPU
se enciende.
La POST primero chequea la tarjeta de video que esta este correctamente conectada a
su monitor y a su computadora; si esta correctamente trabajando un mensaje como
"video BIOS sis 6326" aparece en la pantalla de su monitor. Algunas computadoras sep
muchas veces si la tarjeta de video falla en la prueba. El número de sep depende del
tipo de memoria ROM que use su computadora. Si su computadora hace un sep y no
muestra ningún mensaje en el monitor es muy probable que su tarjeta de video esta
funcionando mal. Si la tarjeta de video para la prueba, el próximo test en la
computadora será en la memoria RAM en este test se escribe en cada localización de
la memoria RAM y luego recuperar los datos para ver si son correctos, en este
momento la computadora despliega la cantidad de memoria RAM chequeada, si ocurre
cualquier error durante esta prueba, el POST para y despliega un mensaje indicando
problema de memoria RAM.
Luego, si no hubo ningún error en la prueba de la RAM, se prosigue con el chequeo del
teclado, en la mayoría de las computadoras usted podrá ver durante esta prueba los
indicadores del teclado parpadeando indicándole que la prueba del teclado esta en
progreso. Si el teclado no esta correctamente conectado o si alguna tecla esta
presionada la computadora emite un sep y despliega un mensaje de "error de
keyboard" o error de teclado. Si un error de teclado ocurre usted puede apagar la
computadora para chequear si hay alguna tecla presionada y si el teclado esta
debidamente conectado si todo esta bien, encendemos la computadora de nuevo, si
vuelve a salir el mensaje de error de teclado usted debe comprar otro teclado.
La final etapa en la POST es l prueba o chequeo de los drivers ósea de las unidades
de disco, si usted observa el disco duro y las unidades de disquete durante esta prueba
usted notara que están en actividad y sus indicadores encendido o parpadeando y
también escuchara la velocidad de los discos girando. Esta prueba podría tomar
solamente varios segundos para ser completada. Si la computadora pausa en esta
prueba esto indica un problema con unos de sus drivers y usted necesita asistencia
técnica.
III. Contenido
Placa base
Guía de trabajo
Placa Base
La
"placa base" (mainboard), o "placa madre" (motherboard), es el elemento principal de todo
ordenador, en el que se encuentran o al que se conectan todos los demás aparatos y
dispositivos.
ATX
Cada vez más comunes, van camino de ser las únicas en el mercado.
Se las supone de más fácil ventilación y menos maraña de cables que las Baby-AT, debido a la
colocación de los conectores. Para ello, el microprocesador suele colocarse cerca del
ventilador de la fuente de alimentación y los conectores para discos cerca de los extremos de la
placa.
La diferencia con las AT se encuentra en sus conectores, que suelen ser más (por ejemplo, con
USB o con FireWire), están agrupados y tienen el teclado y ratón en clavijas mini-DIN como
ésta: . Además, reciben la electricidad mediante un conector formado por una sola pieza.
Baby-AT
Fue el estándar absoluto durante años. Define una placa de unos 220x330 mm, con unas
posiciones determinadas para el conector del teclado, los slots de expansión y los agujeros de
anclaje a la caja, así como un conector eléctrico dividido en dos piezas.
Estas placas son las típicas de los ordenadores "clónicos" desde el 286 hasta los primeros
Pentium.
Para identificar una placa Baby-AT, lo mejor es observar el conector del teclado, que casi
seguro que es una clavija DIN ancha, como las antiguas de HI-FI; vamos, algo así: ;o
bien mirar el conector que suministra la electricidad a la placa, que deberá estar dividido en dos
piezas, cada una con 6 cables, con 4 cables negros (2 de cada una) en el centro.
LPX
Estas placas son de tamaño similar a las Baby-AT, aunque con la peculiaridad de que los slots
para las tarjetas de expansión no se encuentran sobre la placa base, sino en un conector
especial en el que están pinchadas, la riser card.
De esta forma, una vez montadas, las tarjetas quedan paralelas a la placa base, en vez de
perpendiculares como en las Baby-AT; es un diseño típico de ordenadores de sobremesa con
caja estrecha (menos de 15 cm de alto), y su único problema viene de que la riser card no
suele tener más de dos o tres slots, contra cinco en una Baby-AT típica.
Diseños propietarios
Es el lugar donde se inserta el "cerebro" del ordenador. Durante más de 10 años consistió en
un rectángulo o cuadrado donde el "micro", una pastilla de plástico negro con patitas, se
introducía con mayor o menor facilidad; la aparición de los Pentium II cambió un poco este
panorama, introduciendo los conectores en forma de ranura (slot).
Veamos en detalle los tipos más comunes de zócalo:
PGA: son el modelo clásico, usado en el 386 y muchos
486; consiste en un cuadrado de conectores en forma de
agujero donde se insertan las patitas del chip por pura
presión. Según el chip, tiene más o menos agujeritos.
Slot 1: Fue un invento de Intel para enchufar los Pentium II, o más bien para
desenchufar a su competencia, AMD y Cyrix.
Físicamente, no se parece a nada de lo anterior; en vez de un rectángulo con
agujeritos para las patitas del chip, es una ranura (slot), una especie de conector
alargado como los ISA o PCI. Técnicamente, y por mucho que diga Intel, no tiene
muchas ventajas frente a los ZIF (e incluso puede que al estar los conectores en forma
de "peine" den lugar a más interferencias), aunque tiene una irreprochable: es 100%
Intel, TM, Copyrighted, propietario.
Slot A: la respuesta de AMD al Slot 1; físicamente ambos "slots" son idénticos, pero
lógica y eléctricamente son totalmente incompatibles por los motivos indicados antes.
Utilizado únicamente por los primeros AMD K7 Athlon.
Otros: en ocasiones, no existe zócalo en absoluto, sino que el chip está soldado a la
placa, en cuyo caso a veces resulta hasta difícil de reconocer. Es el caso de muchos
8086, 286 y 386SX.
O bien se trata de chips antiguos (esos 8086 o 286), que tienen forma rectangular
alargada (parecida a la del chip de BIOS) y patitas planas en vez de redondas; en este
caso, el zócalo es asimismo rectangular, del modelo que se usa para multitud de chips
electrónicos de todo tipo.
Ranuras de memoria
Estos módulos han ido variando en tamaño, capacidad y forma de conectarse; al comienzo los
había que se conectaban a la placa mediante unas patitas muy delicadas, lo cual se desechó
del todo hacia la época del 386 por los llamados módulos SIMM, que tienen los conectores
sobre el borde del módulo.
Los SIMMs originales tenían 30 conectores, esto es, 30 contactos, y medían unos 8,5 cm.
Hacia finales de la época del 486 aparecieron los de 72 contactos, más largos: unos 10,5 cm.
Este proceso ha seguido hasta desembocar en los actuales módulos DIMM, de 168 contactos y
13 cm.
Chipset de control
El "chipset" es el conjunto (set) de chips que se encargan de controlar determinadas funciones
del ordenador, como la forma en que interacciona el microprocesador con la memoria o la
caché, o el control de puertos PCI, AGP, USB...
Antiguamente estas funciones eran relativamente sencillas de
realizar, por lo que el chipset era el último elemento al que se
concedía importancia a la hora de comprar una placa base, si es
que alguien se molestaba siquiera en informarse sobre la
naturaleza del mismo. Sin embargo, la llegada de micros más
complejos como los Pentium o los K6, además de nuevas
tecnologías en memorias y caché, le ha hecho cobrar
protagonismo, en ocasiones incluso exagerado.
Debido a lo anterior, se puede decir que el chipset de un 486 o
inferior no es de mayor importancia (dentro de un límite razonable),
por lo que vamos a tratar sólo de los chipsets para Pentium y
superior:
chipsets de Intel para Pentium ("Tritones"): son muy conocidos, pero a decir verdad
más por el marketing que ha recibido su nombre comercial genérico (Tritón) que por
sus capacidades, aunque éstas son destacables.
La BIOS
Las BIOS pueden actualizarse bien mediante la extracción y sustitución del chip (método muy delicado) o
bien mediante software, aunque sólo en el caso de las llamadas Flash-BIOS.
Las placas actuales tienden a tener los más conectores PCI posibles, manteniendo uno o dos
conectores ISA por motivos de compatibilidad con tarjetas antiguas y usando AGP para el
vídeo.
Memoria caché
También se la conoce como caché externa, secundaria o de segundo nivel (L2, level 2), para
diferenciarla de la caché interna o de primer nivel que llevan todos los microprocesadores
desde el 486 (excepto el 486SX y los primeros Celeron). Su presentación varía mucho: puede
venir en varios chips o en un único chip, soldada a la placa base o en un zócalo especial (por
ejemplo del tipo CELP) e incluso puede no estar en la placa base sino pertenecer al
microprocesador, como en los Pentium II y los modernos Celeron Mendocino.
Conectores externos
Se trata de los conectores para periféricos externos: teclado, ratón, impresora... En las placas
Baby-AT lo único que está en contacto con la placa son unos cables que la unen con los
conectores en sí, que se sitúan en la carcasa, excepto el de teclado que sí está adherido a la
propia placa. En las ATX los conectores están todos agrupados entorno al del teclado y
soldados a la placa base.
Actualmente los teclados y ratones tienden hacia el mini-DIN o PS/2, y se supone que en unos
años casi todo se conectará al USB, en una cadena de periféricos conectados al mismo cable.
Conectores internos
Bajo esta denominación englobamos a los conectores para dispositivos internos, como puedan
ser la disquetera, el disco duro, el CD-ROM o el altavoz interno, e incluso para los puertos
serie, paralelo y de joystick si la placa no es de formato ATX.
En las placas base antiguas el soporte para estos elementos se realizaba mediante una tarjeta
auxiliar, llamada de Input/Output o simplemente de I/O; pero ya desde la época de los 486 se
hizo común integrar los chips controladores de estos dispositivos en la placa base, o al menos
los correspondientes a discos duros y disquetera.
El resto de conectores (para puertos serie, paralelo y joystick) pueden ser directamente
externos (caso de las placas ATX) o bien internos para conectar un cable que termina en el
adaptador correspondiente, que es el que asoma al exterior (caso de las placas Baby-AT o
aquellas que usan tarjetas de I/O como la de la foto).
Como ejemplo, el siguiente conector de la foto sería para el puerto de juegos o puerto para
joystick, con 16 pines, puerto que actualmente suele venir incorporado a la tarjeta de sonido;
mientras que el último conector, el situado más a la derecha con sólo 10 pines, se utilizaría
para conectar un cable para uno de los puertos serie (el otro puerto serie es
precisamente el conector que asoma por el lado derecho de la imagen).
Conector eléctrico
Es donde se conectan los cables para que
la placa base reciba la alimentación
proporcionada por la fuente. En las placas Baby-AT los conectores son dos, si bien están uno
junto al otro, mientras que en las ATX es único.
Cuando se trata de conectores Baby-AT, deben disponerse de forma que los cuatro cables
negros (2 de cada conector), que son las tierras, queden en el centro. El conector ATX suele
tener formas rectangulares y trapezoidales alternadas en algunos de los pines de tal forma que
sea imposible equivocar su orientación.
Una de las ventajas de las fuentes ATX es que permiten el apagado del sistema por software;
es decir, que al pulsar "Apagar el sistema" el sistema ¡realmente se apaga!.
Tarjeta de sonido: ahora que una tarjeta de 16 bits suele consistir en un único chip y
los conectores, cada vez más placas base la incorporan.
Controladora de vídeo: lo que suele llamarse "tarjeta de vídeo", pero sin la tarjeta. Las
que incorporan las placas base no suelen ser de una potencia excepcional, pero sí
suficiente para trabajos de oficina, como por ejemplo una Intel 740.
Sobre la conveniencia o no de que las placas base tengan un alto grado de integración de
componentes hay opiniones para todos los gustos. Indudablemente, salen más baratas y es
más cómodo, ya que el interior de la caja está limpio de cables y tarjetas; sin embargo, no
siempre son componentes de alta gama (sobre todo en tarjetas de sonido y vídeo), además de
que cualquier fallo importante en la placa nos deja sin casi nada que poder aprovechar del
ordenador.
8. ¿Qué es el Zócalo?
84 Los Microprocesadores
Capitulo No.5
I. Objetivo General
Los microprocesadores
III. Contenido
Microprocesador
Partes de un microprocesador
Microprocesadores antiguos
Microprocesadores modernos
El Overclocking
Consejos
Guía de trabajo
Microprocesador
El microprocesador, o simplemente el
micro, es el cerebro del ordenador. Es un
chip, un tipo de componente electrónico
en cuyo interior existen miles (o millones)
de elementos llamados transistores, cuya
combinación permite realizar el trabajo
que tenga encomendado el chip.
Los micros, como los llamaremos en adelante, suelen tener forma de cuadrado o rectángulo
negro, y van o bien sobre un elemento llamado zócalo (socket en inglés) o soldados en la placa
o, en el caso del Pentium, metidos dentro de una especie de cartucho que se conecta a la
placa base (aunque el chip en sí está soldado en el interior de dicho cartucho).
A veces al micro se le denomina "la CPU" (Central Process Unit, Unidad Central de Proceso),
aunque este término tiene cierta ambigüedad, pues también puede referirse a toda la caja que
contiene la placa base, el micro, las tarjetas y el resto de la circuitería principal del ordenador.
Es lo mismo que ocurre con los motores de carro: un motor americano de los años 60 puede
tener 5.000 cm3, pero no tiene nada que hacer contra un multiválvula actual de "sólo" 2.000
cm3.
Velocidad interna: la velocidad a la que funciona el micro internamente (200, 333, 450
MHz).
Partes de un microprocesador
En un micro podemos diferenciar diversas partes:
El encapsulado: es lo que rodea a la plancha de silicio en sí, para darle consistencia,
impedir su deterioro (por ejemplo por oxidación con el aire) y permitir el enlace con los
conectores externos que lo acoplarán a su zócalo o a la placa base.
La memoria caché: una memoria ultrarrápida que emplea el micro para tener a mano
ciertos datos que previsiblemente serán utilizados en las siguientes operaciones sin
tener que acudir a la memoria RAM, reduciendo el tiempo de espera.
86 Los Microprocesadores
A partir de entonces todos los chips compatibles Intel han sido de 32 bits, aunque ahora ya
sabemos que están poniéndose de moda el de 64 bits.
Un día llegó el 486, que era un 386 con un coprocesador matemático incorporado y una
memoria caché integrada, lo que le hacía más rápido; desde entonces todos los chips tienen
ambos en su interior.
Luego vino el Pentium, un nombre inventado para evitar que surgieran 586s marca AMD o
Cyrix, ya que no era posible patentar un número pero sí un nombre, lo que aprovecharon para
sacar fuertes campañas de publicidad del "Intel Inside" (Intel dentro).
Microprocesadores antiguos
Ninguno era de 32 bits, sino de 8 ó 16, bien en el bus interno o el externo. Esto significa que los
datos iban por caminos (buses) que eran de 8 ó 16 bits, bien por dentro del chip o cuando
salían al exterior, por ejemplo para ir a la memoria. Este número reducido de bits (un bit es la
unidad mínima de información en electrónica) limita sus posibilidades en gran medida.
386
Estos chips ya son más modernos, aunque aún del Neolítico informático. Su ventaja es que son
de 32 bits
486
Este micro tiene las siguientes características
Es de notar que la puesta a punto del núcleo 386 y sobre todo la memoria caché lo hacen
Mucho más rápido, casi el doble, que un 386 a su misma velocidad (mismos MHz).
Microprocesadores modernos
Pentium "clásicos"
Los primeros Pentium, los de 60 y 66 MHz, eran, pura y
simplemente, experimentos.
Taller 87
K5 de AMD
El K5 era un buen chip, rápido para labores de oficina pero con peor coprocesador matemático
que el Pentium, por lo que no era apropiado para CAD ni para ciertos juegos tipo Quake, que
son las únicas aplicaciones que usan esta parte del micro. Su ventaja, precio.
Pentium Pro
Este micro era más superescalar que el Pentium, tenía un núcleo más depurado, incluía una
unidad matemática aún más rápida y, sobre todo, tenía la caché de segundo nivel en el
encapsulado del chip. Esto no quiere decir que fuera una nueva caché interna, término que se
reserva para la de primer nivel.
El único problema de este micro era su carácter profesional. Además de ser muy caro,
necesitaba correr software sólo de 32 bits. Con software de 16 bits, o incluso una mezcla de
32 y 16 bits como Windows 95, su rendimiento es menor que el de un Pentium clásico; sin
embargo, en Windows NT, OS/2 o Linux, literalmente vuela.
Pentium MMX
Consiste en una revisión del K6, con un núcleo similar pero añadiéndole capacidades 3D en lo
que AMD llama la tecnología 3DNow! (algo así como un MMX para 3D).
Microprocesadores actuales
Los que incorporan los ordenadores que se venden ahora en las tiendas. Evidentemente, esta
categoría tiene "fecha de caducidad", y en este vertiginoso mundo del hardware suele ser
demasiado corta.
AMD K6-III
Un micro casi idéntico al K6-2, excepto por el "pequeño detalle" de que incluye 256 KB de
caché secundaria integrada, corriendo a la velocidad del micro (es decir, a 400 MHz o
más), al estilo de los Celeron Mendocino.
88 Los Microprocesadores
Esto le hace mucho más rápido que el K6-2 (en ocasiones, incluso más rápido que el Pentium
III) en aplicaciones que utilicen mucho la caché, como las ofimáticas o casi todas las de índole
"profesional"; sin embargo, en muchos juegos la diferencia no es demasiado grande (y sigue
necesitando el uso de las instrucciones 3DNow! para exprimir todo su potencial).
Pentium III
Este micro sería al Pentium II lo que el K6-2 era al K6; es decir, que
su única diferencia de importancia radica en la incorporación de
unas nuevas instrucciones, que aumentan el rendimiento
matemático y multimedia pero sólo en aplicaciones
específicamente optimizadas para ello.
La gran apuesta de AMD: un micro con una arquitectura totalmente nueva, que le
permite ser el más rápido en todo tipo de aplicaciones. 128 KB de caché de primer
nivel (cuatro veces más que el Pentium III), bus de 200 ó 266 MHz Su único y mínimo
inconveniente radica en que necesita placas base específicamente diseñadas para él,
debido a su novedoso bus de 200 MHz o más y a sus métodos de conexión, "SlotA"
AMD Duron
Pentium 4
La última apuesta de Intel, que representa todo un
cambio de arquitectura; pese a su nombre,
internamente poco o nada tiene que ver con otros
miembros de la familia Pentium.
Por otro lado, incluye mejoras importantes: bus de 400 MHz (100 MHz físicos cuádruplemente
aprovechados) y nuevas instrucciones para cálculos matemáticos. Éstas son muy necesarias
para el Pentium 4.
El Overclocking
Consiste en eso mismo, en subir la velocidad por encima de la nominal del micro. Esta práctica
puede realizarse a propósito o bien haber sido víctima de un engaño, según; en cualquier caso,
entraña riesgos para el micro overclockeado.
90 Los Microprocesadores
Los micros de una misma clase nacen, en líneas generales, todos iguales.
Luego se prueban y se les clasifica con tal o cual velocidad, según la demanda del mercado y
lo que se ha comprobado que resisten sin fallo alguno.
Esto quiere decir que muchos micros pueden ser utilizados a más velocidad de la que marcan,
aunque fuera de especificaciones y por tanto de garantía.
Lo normal es overclockear micros Pentium o superiores; en los 486 es posible, aunque deben
subirse menos (de 33 a 40 MHz, o de 66 a 80, por ejemplo). Hacer overclocking con un 386 o
inferior es bastante complicado y no merece la pena.
En ese caso, podemos intentar conseguir esos MHz extra gratis, mediante la práctica del
overclocking.
¿Qué es el overclocking?
La palabra overclocking hace referencia a subir la velocidad de reloj de algo por encima de
la nominal; por ejemplo, hacer funcionar un microprocesador que nos han vendido como "de
300 MHz" a una velocidad de 333 MHz.
Evidentemente, esto produce un aumento en las prestaciones, aunque también puede implicar
ciertos riesgos relativamente serios para el equipo, especialmente si no sabemos bien qué
estamos haciendo.
Muchos se preguntarán cómo es posible esta "magia" de acelerar la velocidad de algo por
encima de la teóricamente correcta.
El motivo es que todos los aparatos electrónicos se construyen con unos ciertos márgenes de
seguridad en cuanto a sus condiciones de trabajo.
En el caso concreto de los microprocesadores, puede afirmarse que en líneas generales todos
los microprocesadores de una misma gama se construyen basándose en un diseño idéntico, y
sólo posteriormente se clasifican y marcan como de una velocidad determinada.
Uno de los principales problemas radica en que cuando un componente electrónico funciona a
una velocidad más alta, produce una cantidad de calor más elevada.
Este calor puede dañar al componente de diversas formas, desde acortar su vida útil (por un
efecto físico llamado "electromigración") hasta sencillamente freírlo, pasando por el caso más
habitual: que funcione, pero no de forma estable.
En cualquier caso, el riesgo es mínimo si se procede con prudencia, siguiendo los pasos
con atención y realizando las pruebas poco a poco.
Como en casi todo en la vida, la diferencia entre el éxito y el fracaso radica en saber bien lo
que se hace y en tener un poco de suerte.
El microprocesador, también llamado "la CPU", es el cerebro del ordenador. Es el chip más
versátil, el que se encarga de la mayor parte de los cálculos y, generalmente, el más rápido.
Evidentemente, cuanto mayor sea la velocidad a la que debe funcionar un chip, más difícil y
caro será fabricarlo; por ello, el micro funciona a una velocidad que es un múltiplo de la de
la placa base, de forma que los otros componentes (el chipset de la placa base, la memoria,
las tarjetas de expansión...) pueden mantener un precio mucho más ajustado y utilizarse con
muchos micros distintos, con sólo ajustar esos multiplicadores.
Por tanto, el micro funciona a dos velocidades, una interna y otra externa o de comunicación
con la placa base como ya hemos aprendido. Así, mientras la placa base funciona por ejemplo
a 66 MHz, el micro funcionará a 200 MHz mediante el uso de un multiplicador 3x, o a 233 MHz
mediante un 3,5x.
92 Los Microprocesadores
Mediante este método variaremos sólo la velocidad interna del micro, mientras que la externa
permanecerá constante.
De esta forma, el único elemento que sufre es el micro, mientras que los demás aparatos
trabajan a su velocidad normal.
Otro problema que se da actualmente es que casi todos los micros Intel a partir
del Pentium II de 300 MHz (incluyendo los Pentium III y Celeron), así como
algunas series anteriores, tienen el multiplicador limitado a unos valores concretos o fijo a un
único valor, por ejemplo 5x para un Pentium II de 333 MHz (5x66).
Haciendo esto aumentaremos la velocidad tanto del microprocesador como de los demás
elementos del ordenador (la placa base, la memoria, las tarjetas de expansión...).
Observe cómo la velocidad de los diferentes elementos suele estar relacionada con la de bus
(o externa) del micro:
Al sufrir tantos elementos el overclocking, los posibles fallos se multiplican, ya que basta con
que un elemento falle para que no tengamos éxito. Sin embargo, si lo conseguimos, el aumento
de prestaciones será muy grande, ya que estamos acelerando casi todos los elementos del PC,
y no nos afectarán las limitaciones impuestas por el fabricante del micro.
Es un método que puede dar mucho juego, aunque de nuevo sólo realizable con micros sin
multiplicador fijo. Podemos hacer auténticas maravillas, e incluso conseguir acelerar el
ordenador sin variar la velocidad interna del micro para que no sufra, por ejemplo cambiando
un Pentium 150 de 2,5x60 a 2x75, lo que aceleraría el bus PCI y la memoria sin riesgo para el
micro.
Algunas recomendaciones
Para que un overclocking sea exitoso, conviene seguir estas pequeñas reglas:
1. Tenga muy claro lo que está haciendo ANTES de hacerlo. Para qué engañarnos, esto
puede ser peligroso (principalmente para su economía, si llega a quemar el micro).
2. Sea prudente, vaya con calma. Desconecte el ordenador de la corriente (salvo que la
configuración se haga en la BIOS, claro), descárguese de electricidad estática y
compare cuidadosamente las configuraciones de los jumpers del manual con las que
usted selecciona.
3. Suba la velocidad gradualmente, poco a poco, y compruebe cada vez que el ordenador
funciona bien y de forma estable, para lo cual nada mejor que ejecutar Windows 9x/NT
y un par de juegos exigentes durante un rato.
4. Nunca deje encendido sin vigilancia un sistema overclockeado de cuya estabilidad no
esté seguro al 100%
5. Puede subir una o como mucho dos décimas el voltaje del micro para estabilizarlo,
pero no es recomendable, ya que implica un riesgo elevado: se producirá bastante más
calor, lo que no es NADA bueno.
6. Sea realista: en algunos casos, subir 33 MHz ya es todo un logro, así que no espere
milagros.
Micros falsos
La informática es terreno abonado para las falsificaciones.
Sin el serigrafiado todos los chips parecen iguales, y es imposible conocer su marca, modelo o
velocidad.
94 Los Microprocesadores
Esto se aplica a la perfección para los micros; antiguamente era raro que alguien vendiera un
micro falsificado, pero con la llegada del Pentium el problema llegó a adquirir dimensiones
alarmantes, con cuerpos como la Interpol movilizados a la caza del falsificador.
Intercambio de micros:
Cambios de marca:
Algo muy común en la época 386 y 486, ahora mucho menos. Pagábamos un micro
Intel y nos vendían un AMD, Cyrix o Texas Instruments.
Configuración base
Vamos a poner un punto de partida intermedio, unos ordenadores que podríamos denominar
"todoterreno":
Micro (CPU) AMD Duron 900 / 1000 AMD Athlon 1333 AMD Athlon 1400
(¿o Athlon?) (¿o Pentium III / 4?) o Athlon XP 1500+
Placa base Con chipset VIA Con chipset VIA, AMD, Con chipset VIA, AMD, SiS
(no Intel 810E) SiS, ALi o Intel o ALi
815E/815EP
Tarjeta gráfica De marca, con chip 3D y De marca, con chip 3D y De marca, con chip 3D de
16 MB SDRAM 32 MB SDRAM gama alta y 32 ó 64 MB
SDRAM o DDR-SDRAM
Monitor 17" de marca, con tubo 17" de marca, con tubo 17" de marca, con tubo
CRT curvo CRT plano CRT plano, gama alta
Multimedia CD 52x marca - sonido DVD marca - sonido PCI DVD marca - sonido PCI
integrado o PCI gama media-alta gama media-alta
Impresora (no DeskJet 845C o Epson DeskJet 940C o Epson Láser monocromo o tinta
en el precio) Stylus C60 Stylus C70 alta gama
Comunicación Módem 56Kb Interno PCI... Módem 56Kb Externo o Módem 56Kb Externo o
o ADSL PCI "completo" (no PCI "completo"
winmódem)... o ADSL (nowinmódem)... o ADSL
1. ¿Qué es el microporcesador?
7. ¿Qué es el Overclocking?
96 Memoria
Capitulo No.6
I. Objetivo General
Memoria
III. Contenido
Memoria RAM
SIMMs y DIMMs
Problemas y soluciones
Guía de trabajo
La cantidad de RAM necesaria es función únicamente de para qué use usted su ordenador, lo
que condiciona qué sistema operativo y programas usa.
Usada hasta la época del 386, físicamente, aparece en forma de DIMMs o de SIMMs,
siendo estos últimos de 30 contactos.
Fast Page (FPM): a veces llamada DRAM (o sólo "RAM"), puesto que evoluciona
directamente de ella, y se usa desde hace tanto que pocas veces se las diferencia.
Usada hasta con los primeros Pentium, físicamente aparece como SIMMs de 30 ó 72
contactos (los de 72 en los Pentium y algunos 486).
EDO: Evoluciona de la Fast Page; permite empezar a introducir nuevos datos mientras
los anteriores están saliendo (haciendo su Output), lo que la hace algo más rápida (un
5%, más o menos).
Muy común en los Pentium MMX y AMD K6. Se instala sobre todo en SIMMs de 72
contactos, aunque existe en forma de DIMMs de 168.
PC100: o SDRAM de 100 MHz. Memoria SDRAM capaz de funcionar a esos 100 MHz,
que utilizan los AMD K6-2, Pentium II a 350 MHz y micros más modernos; teóricamente
se trata de unas especificaciones mínimas que se deben cumplir para funcionar
correctamente a dicha velocidad, aunque no todas las memorias vendidas como "de
100 MHz" las cumplen.
PC133: o SDRAM de 133 MHz. La más moderna (y recomendable).
SIMMs y DIMMs
Se trata de la forma en que se juntan los
chips de memoria, del tipo que sean, para
conectarse a la placa base del ordenador.
Son unas plaquitas alargadas con
conectores en un extremo; al conjunto se le
llama módulo.
98 Memoria
SIMMs: Single In-line Memory Module, con 30 ó 72 contactos. Los de 30 contactos
pueden manejar 8 bits cada vez, por lo que en un 386 ó 486, que tiene un bus de datos
de 32 bits, necesitamos usarlos de 4 en 4 módulos iguales. Miden unos 8,5 cm (30 c.) ó
10,5 cm (72 c.) y sus zócalos suelen ser de color blanco.
Los SIMMs de 72 contactos, más modernos, manejan 32 bits, por lo que se usan de 1
en 1 en los 486; en los Pentium se haría de 2 en 2 módulos (iguales), porque el bus de
datos de los Pentium es el doble de grande (64 bits).
DIMMs: más alargados (unos 13 cm), con 168 contactos y en zócalos generalmente
negros; llevan dos muescas para facilitar su correcta colocación. Pueden manejar 64
bits de una vez, por lo que pueden usarse de 1 en 1 en los Pentium, K6 y superiores.
1.- Identificar el tipo de memoria que utiliza su ordenador. La fuente más apropiada de
información a este respecto es el manual de la placa base, aunque en general:
Pentium II 350 MHz o más SDRAM de 100 MHz (PC100) en Aún muy utilizada; suelen admitir
Pentium III módulos DIMM de 168 contactos también PC133
AMD K6-2
AMD K6-III
AMD K7 Athlon
Algunas placas base admiten más de un tipo de memoria, pero en general mezclar dos tipos
o velocidades distintos de memoria es una garantía de incompatibilidades y problemas;
2.- Una vez leído el manual de la placa base, no se fíe y compruebe qué tipo de memoria
hay en realidad en su ordenador. Desconéctelo, ábralo, descárguese de electricidad estática
y observe la placa.
Los SIMM suelen ser blancos y de unos 10,5 cm (los de 30 contactos más cortos, unos 8,5 cm)
y los DIMM negros y muy largos (unos 13 cm).
Textos
Educativos Anita
Taller
99
Y, finalmente, algunos chips de memoria (especialmente del tipo SDRAM) llevan escrita no la
velocidad de refresco (60 ns, 50 ns...) sino la velocidad máxima en MHz que pueden alcanzar
sin problemas (100 MHz o 133 MHz son los valores más comunes hoy en día).
3.- Ahora que sabe qué tipo de memoria admite su ordenador, elija la configuración de la
memoria a añadir.
5.- Proceda a instalar la memoria. Para ello, desconecte, abra la caja, y aparte, desconecte o
desinstale todo lo que le moleste el acceso a los zócalos. Mire el serigrafiado y/o el manual
para encontrar cuál es el extremo del pin número 1 (indicado por un pequeño 1 o por un punto
o flecha) y cuál el final (el del pin 30, 72 o 168).
No se preocupe si el recuento de memoria de una o ambas pruebas indica algo menos, como
23.936 Kb en vez de 24.576 Kb (24 MB, 24 "megas"), esto no significa que la memoria sea
defectuosa en absoluto. Sin embargo, en ambos casos debe estar cerca de la cifra real, ¡nada
de 16 MB cuando ha instalado 32!!
Si esto está bien, pruebe a arrancar y usar algunos programas, además de su sistema
operativo e interfaz gráfica favoritos. Si haciendo el trabajo habitual nada falla más de lo
normal, ¡felicidades!! Ya ha actualizado la memoria con éxito.
100 Memoria
Problemas y soluciones
Instalar memoria nueva en un ordenador puede llegar a ser una fuente importante de dolores
de cabeza, no por la complicación de la operación, que es sencillísima, sino por multitud de
pequeños problemas e incompatibilidades que en ocasiones ni siquiera tienen un motivo
identificable, veamos algunos:
Pues tendrá que tirar o vender de segunda mano parte de la memoria que tiene actualmente; a
los precios a los que se ha puesto la memoria, no debería ser un trastorno tan grave.
Puede que acabe de descubrir lo que es una incompatibilidad de memoria (o que un módulo es
defectuoso, pero esto es mucho más improbable). Le recomiendo que:
Verifique si ha instalado físicamente bien la memoria.
Verifique si es del tipo y velocidad adecuados.
Verifique, manual de la placa en mano, si está en el zócalo adecuado y si es una
combinación de módulos posible.
Intercambie los módulos entre sí; pruebe sólo con unos, luego con otros, luego todos.
Pruebe con otras memorias.
Mire además si falla el test de memoria de la BIOS; también puede usar el parámetro
"/TESTMEM:ON" junto con el [Link] en su archivo [Link]
Además puede crear una unidad de disco RAM lo mayor posible (con [Link]), y haga
una verificación de superficie de dicha unidad con el SCANDISK, preferiblemente desde DOS,
para que la unidad RAM sea lo mayor posible. La verificará como si fuera un disco duro
defectuoso (sólo que en vez de media hora tardará 1 ó 2 segundos).
La memoria DDR-SDRAM será el estándar de los próximos años. Tiene buen rendimiento,
precio asequible y el apoyo de toda la industria.
Permitirá que los microprocesadores sigan su loca carrera con un cuello de botella menos.
102 Memoria
Capitulo No.7
I. Objetivo General
Almacenamiento
III. Contenido
Discos Duros
Guía de trabajo
Discos duros
104 Almacenamiento
El interfaz IDE es el más usado en PCs normales, debido a que tiene un balance bastante
adecuado entre precio y prestaciones.
En cada uno de los canales IDE debe haber un dispositivo Maestro (master) y otro Esclavo
(slave). El maestro es el primero de los dos y se suele situar al final del cable, asignándosele
generalmente la letra "C" en DOS.
Los dispositivos IDE como discos duros o CD-ROMs disponen de unos microinterruptores
(jumpers), situados generalmente en la parte posterior o inferior de los mismos, que permiten
seleccionar su carácter de maestro, esclavo o incluso otras posibilidades como "maestro sin
esclavo".
Las posiciones de los jumpers vienen indicadas en una pegatina en la superficie del disco, o
bien en el manual o serigrafiadas en la placa de circuito del disco duro, con las letras M para
designar "maestro" y S para "esclavo".
De lo que no hay duda es que los discos SCSI son una opción profesional, de precio y
prestaciones elevadas, por lo que los fabricantes siempre escogen este tipo de interfaz para
sus discos de mayor capacidad y velocidad. Resulta francamente difícil encontrar un disco duro
SCSI de mala calidad, pero debido a su alto precio conviene proteger nuestra inversión
buscando uno con una garantía de varios años, 3 ó más por lo que pueda pasar... aunque sea
improbable.
3.- ¿Cuál es la configuración de su disco duro actual (o discos, si posee más de uno)?
Para saber la configuración actual de un disco duro (en adelante, del tipo IDE exclusivamente)
hay 2 métodos:
El primero consiste en mirar en una plaquita que casi todos los discos duros tienen
adherida a su superficie dicha plaquita indica los parámetros físico-lógicos que definen
a su disco duro: Cilindros (cylinders), Cabezas (heads), Sectores (sectors), Zona de
Aparcado de las cabezas (LandZone, habitualmente cero) y Precompensación de
escritura (PreComp, en general también cero).
El segundo método consiste en acceder a la BIOS (o SETUP) del ordenador, que nos
indicará la configuración que se usa actualmente para ese disco duro.
Recuerde copiar también cualquier programa del que no conserve el soporte original, y
verifique si los CDs de dichos programas, así como los que utilice para guardar sus datos,
están en buen estado.
Por cierto, haga una copia de seguridad incluso si planea conservar su disco duro antiguo;
2.- Haga un disquete de arranque de su sistema operativo, incluyendo en él los archivos para
acceder al CD-ROM si lo posee y planea reinstalar el sistema operativo desde este soporte.
106 Almacenamiento
Incluya además en ese disquete los archivos de los comandos FDISK y FORMAT ([Link]
y [Link]) para poder formatear el nuevo disco duro, así como el SCANDISK o
CHKDSK por si hubiera problemas. Una vez terminado, métalo en la disquetera y pruebe a
arrancar con él; si arranca del disco duro en vez del disquete, busque en la BIOS algo por el
estilo de "SYSTEM BOOT UP SEQUENCE C: A:", probablemente en el epígrafe BIOS
FEATURES SETUP, y cámbielo a "SYSTEM BOOT UP SEQUENCE A: C:".
3.- Decida si quiere conservar el o los discos duros antiguos, así como el orden en que
quiere tenerlos. El disco duro nuevo será, en general, sensiblemente más rápido, por lo que
en principio le convendría colocarlo como primer disco (o de arranque, el clásico "C:"), pero
esto le obligará casi con total seguridad a reinstalar el software (programas) que contenga el
disco antiguo, o al menos el sistema operativo.
Para determinar el orden de los discos duros, necesita conocer los conceptos de "Maestro"
(master) y "Esclavo" (slave). Las controladoras de discos IDE pueden tener 2 dispositivos tipo
IDE (discos duros o, por ejemplo, CD-ROMs) conectados a ellas.
El primero se llama Maestro (por motivos obvios) y el segundo Esclavo (por motivos aún más
obvios); estos papeles se fijan en dos pasos obligatorios:
El Maestro debe ir instalado al final del cable IDE y el Esclavo en el centro; la
controladora, bien una tarjeta o la placa base, va en el otro extremo. Observe cuál es la
situación original en el caso concreto de su ordenador
Por medio de unos microinterruptores ("jumpers") en los propios discos,
situados en general en la parte trasera o inferior de los mismos. Las
posiciones de estos jumpers vienen indicadas en la misma plaquita de la
que hablamos antes, o bien en el manual o serigrafiadas en la placa de
circuito del disco duro, y suelen ser sólo 2 posiciones: M (maestro), S
(esclavo)
En los casos de tener una controladora EIDE, lo mejor suele ser colocar cada disco en un
canal, cada uno al final de su cable y ambos como Maestro, lo que evita algunas
incompatibilidades muy molestas y aumenta la velocidad de transmisión de datos;
4.- Instalar físicamente el disco nuevo, una vez seleccionados los "papeles" en que actuarán
el o los discos. Ante todo, apague el ordenador, así como cualquier periférico (impresora,
monitor...); desconecte todos los cables que van a la unidad central; descárguese de
electricidad estática, y abra la unidad central.
Procure no forzarla al introducirla; siempre será mejor fijarla con 4 tornillos que con 2 muy
apretados.
Conecte ahora los cables: el de alimentación (uno con 4 cables); el de datos tendrá una línea
de color diferente (rojo por lo general) en el borde que corresponde al pin número 1, lo que
facilita la conexión con el disco duro, que tendrá otra marca identificando dicho pin (si tiene
suerte, será un número 1; si no, busque una flechita, un punto...).
5.- Cierre la caja y conecte todo. Arranque el ordenador y entre en la BIOS (pulsando "Del", o
"Esc", o como sea). Vaya a la zona de introducción de datos de los discos duros y coloque los
correspondientes a cada disco; si su BIOS lo admite, podrá seleccionar "AUTO" para que cada
vez que arranque se coloquen dichos valores automáticamente.
De todas formas, lo más importante es asegurarse de que se activa el modo LBA (si está
disponible), lo que a veces puede hacerse también automáticamente. Por ejemplo, estas tres
configuraciones deberían ser todas funcionales (aunque si alguna fallase no sería nada raro, la
autodetección no es infalible), pero la más recomendable sería la primera:
En este caso, compruebe que puede acceder a los datos del disco antiguo (bastará con
un "DIR C:". Si es así, debería poder arrancar sin el disquete.
ESCENARIO 2: usted ha decidido instalar el nuevo disco como Maestro del canal
Primario, dejando el viejo en cualquier otra configuración. En este caso, no haga nada.
7.- Teclee FDISK para particionar el disco, lo que cargará esta utilidad. Si en algún momento
le aparece información sobre que ya hay una o varias particiones, o le han vendido un
disco usado o está actuando sobre su disco duro antiguo.
Una vez cerciorados de que estamos actuando sobre la unidad nueva, vaya a Crear una
partición y cree una partición primaria, bien ocupando todo el espacio disponible o dejando
parte para una partición extendida.
108 Almacenamiento
Finalmente, vuelva a Crear partición y cree una unidad lógica en la partición extendida (o
varias, si se empeña en ahorrarse unos megas) y salga de FDISK, lo que hará que el
ordenador rearranque. No se olvide tener el disquete en la disquetera si está en el Escenario 2;
si está en el Escenario 1, sáquelo para poder arrancar con el disco antiguo y su sistema
operativo correspondiente.
8.- Ahora tiene que formatear el disco duro (o "los discos duros", puesto que cada partición
se comporta como si fuera uno separado, con su propia letra de unidad y todo). Para ello,
tiene dos posibilidades:
hacerlo desde DOS con la orden FORMAT (por ejemplo, "FORMAT C:", "FORMAT
D:"...)
si está en el Escenario 1 y tiene instalada alguna versión de Windows, puede hacerlo
con el botón derecho sobre el icono correspondiente en Mi PC o por menú en el
Explorador (en Windows 9x).
Si lo consiguió, ¡FELICIDADES! Acaba de realizar una de las tareas más comunes que como
profesional técnico tendrá que realizar.
Textos Educativos Anita Taller 109
Capitulo No.8
I. Objetivo General
Tarjetas de Video
III. Contenido
Tarjetas de Video
Velocidad de Refresco
Memoria de Video
Conectores
El monitor
Guía de Trabajo
Tarjeta de vídeo
En el principio, los ordenadores eran ciegos; todas las entradas y salidas de datos se
realizaban mediante tarjetas de datos perforadas, o mediante el teclado y primitivas
impresoras.
Un buen día, alguien pensó que era mucho más cómodo acoplar una especie de televisor al
ordenador para observar la evolución del proceso y los datos, y surgieron los monitores, que
debían recibir su información de cierto hardware especializado: la tarjeta de vídeo.
MDA
CGA
Luego, con la llegada de los primeros PCs, surgió una tarjeta de vídeo capaz de presentar
gráficos: la CGA (Computer Graphics Array, dispositivo gráfico para ordenadores).
CGA
320x200 4
640x200 2 (monocromo)
Lo cual, aunque parezca increíble, resultó toda una revolución. Aparecieron multitud de juegos
que aprovechaban al máximo tan exiguas posibilidades, además de programas más serios, y
los gráficos se instalaron para siempre en el PC.
Hércules
Se trataba ésta de una tarjeta gráfica de corte profundamente profesional. Su ventaja, poder
trabajar con gráficos a 720x348 puntos de resolución, algo alucinante para la época; su
desventaja, que no ofrecía color.
112 Tarjetas de Video
EGA
EGA
320x200 16
640x200 16
640x350 16
Estas cifras hacían ya posible que los entornos gráficos se extendieran al mundo PC (los Apple
llevaban años con ello), y aparecieron el GEM, el Windows y otros muchos.
VGA
El éxito del VGA llevó a numerosas empresas a crear sus propias ampliaciones del mismo,
siempre centrándose en aumentar la resolución y/o el número de colores disponibles. Entre
ellos estaban:
De cualquier manera, la frontera entre unos estándares y otros es sumamente confusa, puesto
que la mayoría de las tarjetas son compatibles con más de un estándar, o con algunos de sus
modos. Además, algunas tarjetas ofrecen modos adicionales al añadir más memoria de vídeo.
Se han colocado los modos más comunes, ya que no todas las tarjetas admiten todos los
modos, aparte de que muchas no permiten ampliar la memoria de vídeo.
Para los curiosos, el cálculo de la memoria necesaria es: (Res. Vert.)x(Res. Horiz.)x(Bits de
color)/8.
Cabe destacar que el modo de vídeo elegido debe ser soportado por el monitor, ya que si
no éste podría dañarse gravemente (muy gravemente).
Esto depende de las características del mismo, en concreto de la Frecuencia Horizontal, como
se explica en el apartado dedicado al monitor.
Por otra parte, los modos de resolución para gráficos en 3D (fundamente juegos) suelen
necesitar bastante más memoria, en general unas 3 veces más; por ello, jugar a 800x600
puntos con 16 bits de color (65.536 colores) suele requerir al menos 4 MB de memoria de
vídeo.
La velocidad de refresco
El refresco, aparte de la Coca Cola, es el número de veces que se dibuja la pantalla por
segundo; evidentemente, cuanto mayor sea menos se nos cansará la vista y trabajaremos más
cómodos y con menos problemas visuales.
Se mide en hertzios (Hz, 1/segundo), así que 70 Hz significa que la pantalla se dibuja cada 70
veces por segundo.
El mínimo absoluto son 60 Hz; por debajo de esta cifra los ojos sufren muchísimo, y unos
minutos bastan para empezar a sentir escozor o incluso un pequeño dolor de cabeza.
Antiguamente se usaba una técnica horrible denominada entrelazado, que consiste en que la
pantalla se dibuja en dos pasadas, primero las líneas impares y luego las pares, por lo que 70
Hz entrelazados equivale a poco más de 35 sin entrelazar, lo que cansa la vista sobremanera.
Afortunadamente la técnica está en desuso, pero en los monitores de 14" se ha usado hasta
hace un par de años.
El motivo de tanto entrelazado y no entrelazado es que construir monitores que soporten
buenas velocidades de refresco a alta resolución es bastante caro, por lo que la tarjeta de
vídeo empleaba estos truquitos para ahorrar a costa de la vista del usuario.
Sin embargo, tampoco todas las tarjetas de vídeo pueden ofrecer cualquier velocidad de
refresco. Esto depende de dos parámetros:
La velocidad del RAMDAC, el conversor analógico digital. Se mide en MHz, y debe ser
lo mayor posible, preferiblemente superior a 200 MHz.
La velocidad de la memoria de vídeo, preferiblemente de algún tipo avanzado como
WRAM, SGRAM o SDRAM.
Memoria de vídeo
Como hemos dicho, su tamaño influye en los posibles modos de vídeo (cuanta más exista,
más opciones tendremos); además, su tipo determina si conseguiremos buenas velocidades
de refresco de pantalla o no. Los tipos más comunes son:
DRAM: En las tarjetas más antiguas, ya descatalogadas. Malas características;
refrescos máximos entorno a 60 Hz.
EDO: o "EDO DRAM". Hasta hace poco estándar en tarjetas de calidad media-baja.
Muy variables refrescos dependiendo de la velocidad de la EDO, entre 40 ns las peores
y 25 ns las mejores.
WRAM: Bastante buenas, aunque en desuso; en tarjetas de calidad, muy buenas
características.
En cualquier caso, el conector sólo puede limitar la velocidad de una tarjeta, no la eleva, lo que
explica que algunas tarjetas PCI sean muchísimo más rápidas que otras AGP más baratas o
peor fabricadas.
Cual usar
Evidentemente, no es lo mismo elegir una tarjeta gráfica para trabajar en Word en un monitor
de 15" que para hacer trabajo de ingeniería en uno de 21". Nótese que siempre hago referencia
al monitor con el que van a trabajar, porque una tarjeta muy buena no puede demostrarlo en un
mal monitor, ni a la inversa.
Ofimática: tarjetas en formato PCI o AGP, con microprocesadores buenos en 2D, sin
necesidades 3D específicas; capaces de 1024x768; con unos 2 ó 4 MB; y con buenos
refrescos, entorno a 70 u 80 Hz.
Juegos y CAD en 3D: con micros especiales para 3D, con mucha memoria (entre 8 y
32 MB), generalmente de marca y preferiblemente AGP.
Imágenes y CAD en 2D: con chips de 64 ó 128 bits, memorias ultrarrápidas, capaces
de llegar a 1600x1200 puntos a 70 Hz o más, con 4 MB o más.
EL MONITOR
Evidentemente, es la pantalla en la que se ve la información suministrada por el ordenador. En
el caso más habitual se trata de un aparato basado en un tubo de rayos catódicos (CRT) como
el de los televisores, mientras que en los portátiles es una pantalla plana de cristal líquido
(LCD).
Lo mínimo exigible en este momento es que sea de 0,28 mm, no debiéndose admitir nada
superior como no sea en monitores de gran formato para presentaciones, donde la resolución
no es tan importante como el tamaño de la imagen.
Pantallas portátiles
Se basan en tecnologías de cristal líquido (LCD), parecidas
a las de los relojes de pulsera digitales pero mucho más
avanzadas.
Otra cosa que les diferencia es que no emiten en absoluto radiaciones electromagnéticas
dañinas, por lo que la fatiga visual y los posibles problemas oculares se reducen.
Por lo demás, en todos los casos las imágenes se ven mejor de frente que de lado, llegando a
desaparecer si nos escoramos mucho, aunque en los portátiles modernos este ángulo de visión
es muy alto, hasta unos 160.
118 Tarjetas de Video
4. ¿Qué es la resolución?
Bienvenidos a Taller, este texto nos demuestra cual es la mejor forma de conocer y ampliar los
conocimientos iniciales en el manejo de las computadoras. Nos enseña de historia y los
avances que alcanzado la computación con el paso del tiempo.
Con este texto aprenderá los conceptos necesarios para la instalación y mantenimiento de la
computadora.
La clara exposición de los temas hace posible al usuario captar con rapidez la información,
para luego desarrollar con eficacia su trabajo en esta área.
El señor Luís Fernando González Herrera, escritor de este libro, es un analista en sistemas de
informática, él cual se desempeña en una prestigiosa empresa como administrador en
sistemas. Por lo que pone a su dispocisión todos sus conocimientos para ayudarle esta
fascinante y amplia rama, como ser Taller.
Agradezco a todos aquellos que hicieron posible la publicación de este texto, en especial a mí
querida esposa: Rossy Isabel Toro, a mis pequeñas hijas Laura Cecilia e Isabel Cristina
quienes son el incentivo de mi trabajo y a usted amable lector por tener esta obra en sus
manos.
INDICE