0% encontró este documento útil (0 votos)
2K vistas461 páginas

Enciclopedia Informatica

Cargado por

Carlos Ardila
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
2K vistas461 páginas

Enciclopedia Informatica

Cargado por

Carlos Ardila
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Enciclopedia informatica

Hardware, software y redes

PDF generado usando el kit de herramientas de fuente abierta mwlib. Ver http://code.pediapress.com/ para mayor información.
PDF generated at: Sun, 24 Nov 2013 19:52:57 UTC
Contenidos
Artículos
Hardware 1
Unidad central de procesamiento 1
Overclock 14
Unidad de procesamiento gráfico 15
Intel Corporation 17
Advanced Micro Devices 24
Accelerated processing unit 30
AMD CrossFire 31
Radeon HD 32
NVIDIA 36
Scalable Link Interface 40
NVIDIA Quadro 41
Placa base 52
Medio de almacenamiento (computación) 58
Disco duro 59
Memoria de acceso aleatorio 71
Universal Serial Bus 79
Fuente de alimentación 87
Serial ATA 90
ATX 94
Tarjeta de expansión 97
PCI-Express 98
Unidad de disco óptico 100
Tarjeta de red 107
Tarjeta de sonido 110
Tarjeta sintonizadora de televisión 111
Computadora portátil 113
Netbook 120
Ultrabook 123

Windows 126
Windows 7 126
Windows 8 134
BitLocker Drive Encryption 145
Símbolo del sistema 147
DOS 150
MS-DOS 156
Biblioteca de enlace dinámico 160

Mantenimiento 162
Mantenimiento correctivo 162
Mantenimiento preventivo 164

Electricidad 167
Toma de tierra 167
Regulador de tensión 172
Dieléctrico 177

Cableado 178
Cableado estructurado 178
Punto de acceso a la red 183
Punto de acceso inalámbrico 185
Dirección MAC 187
10BASE-T 189
Ethernet 192
Fast Ethernet 198
Gigabit Ethernet 202
Protocolo de comunicaciones 205
Internet Protocol 208
Dirección IP 211
Modelo OSI 215
Modelo TCP/IP 222
Dynamic Host Configuration Protocol 223
Thunderbolt 228
Domain Name System 229
Fibra óptica 234
Red de área local inalámbrica 249
Familia de protocolos de Internet 252
VLAN 254
Wi-Fi 260
Proxy 264
Software 271
BIOS 271
Firmware 274
Homebrew 277
Interfaz gráfica de usuario 281
Interfaz de programación de aplicaciones 285

Consolas 287
PlayStation 3 287
Xbox 360 300

Sistemas operativos 315


Mac OS 315
Microsoft Windows 320
Original equipment manufacturer 329
Núcleo Linux 330
Distribución Linux 339
X86 346
X86-64 350
Arranque (informática) 353
Manejador de dispositivo 355

Cables y conectores 357


Cable coaxial 357
Unshielded twisted pair 361
RJ-11 363
RJ-12 364
RJ-45 364
Cable de Categoría 5 369
Cable de categoría 6 371

Dispositivos de red 374


Cortafuegos (informática) 374
Conmutador (dispositivo de red) 379
Puente de red 383
Servidor 386
Rack 388
Router 389
Módem 394

Miscelanea 405
Android 405
Pantalla de cristal líquido 415
Tecnología de montaje superficial 423
Diagrama polar 427
Apache OpenOffice 430

Referencias
Fuentes y contribuyentes del artículo 439
Fuentes de imagen, Licencias y contribuyentes 448

Licencias de artículos
Licencia 456
1

Hardware

Unidad central de procesamiento


La Unidad Central de Procesamiento (del inglés:
Central Processing Unit, CPU) o procesador, es el
componente principal del ordenador y otros
dispositivos programables, que interpreta las
instrucciones contenidas en los programas y procesa los
datos. Las CPU proporcionan la característica
fundamental del ordenador digital (la programabilidad)
y son uno de los componentes necesarios encontrados
en los ordenadores de cualquier tiempo, junto con la
memoria principal y los dispositivos de entrada/salida.
Se conoce como microprocesador el CPU que es
manufacturado con circuitos integrados. Desde
Oblea de un microprocesador Intel 80486DX2 (tamaño:
mediados de los años 1970, los microprocesadores de
12×6,75 mm) en su empaquetado.
un solo chip han reemplazado casi totalmente todos los
tipos de CPU y hoy en día, el término "CPU" es
aplicado usualmente a todos los microprocesadores. La expresión "unidad central de proceso" es, en términos
generales, un dispositivo lógico que pueden ejecutar complejos programas de ordenador. Esta amplia definición
puede fácilmente ser aplicada a muchos de los primeros ordenadores que existieron mucho antes que el término
"CPU" estuviera en amplio uso. Sin embargo, el término en sí mismo y su acrónimo han estado en uso en la industria
de la Informática por lo menos desde el principio de los años 60. La forma, el diseño y la implementación de las
CPU ha cambiado drásticamente desde los primeros ejemplos, pero su operación fundamental ha permanecido
bastante similar. Las primeras CPU fueron diseñados a la medida como parte de un ordenador más grande,
generalmente un ordenador único en su especie. Sin embargo, este costoso método de diseñar las CPU a la medida,
para una aplicación particular, ha desaparecido en gran parte y se ha sustituido por el desarrollo de clases de
procesadores baratos y estandarizados adaptados para uno o muchos propósitos. Esta tendencia de estandarización
comenzó generalmente en la era de los transistores discretos, ordenadores centrales y microordenadors y fue
acelerada rápidamente con la popularización del circuito integrado (IC), éste ha permitido que sean diseñados y
fabricados CPU más complejas en espacios pequeños (en la orden de milímetros). Tanto la miniaturización como la
estandarización de las CPU han aumentado la presencia de estos dispositivos digitales en la vida moderna mucho
más allá de las aplicaciones limitadas de máquinas de computación dedicadas. Los microprocesadores modernos
aparecen en todo, desde automóviles, televisores, neveras, calculadoras, aviones, hasta teléfonos móviles o celulares,
juguetes, entre otros. En la actualidad muchas personas llaman CPU al armazón del computador (torre),
confundiendo de esta manera a los principiantes en el mundo de la computación.
Unidad central de procesamiento 2

Historia
Antes de la aceptación comercial del transistor, los
relés eléctricos y los tubos de vacío (válvulas
termoiónicas) eran usados comúnmente como
elementos de conmutación. Aunque éstos tenían
distintas ventajas de velocidad sobre los anteriores
diseños puramente mecánicos, no eran fiables por
varias razones. Por ejemplo, hacer circuitos de lógica
secuencial de corriente directa requería hardware
adicional para hacer frente al problema del rebote de
contacto. Por otro lado, mientras que los tubos de vacío
no sufren del rebote de contacto, éstos deben calentarse
antes de llegar a estar completamente operacionales y
eventualmente fallan y dejan de funcionar por
completo. Generalmente, cuando un tubo ha fallado, la
CPU tendría que ser diagnosticada para localizar el
componente que falla para que pueda ser reemplazado.
Por lo tanto, los primeros computadores electrónicos,
(basados en tubos de vacío), generalmente eran más
rápidos pero menos confiables que los ordenadores
electromecánicos, (basados en relés). Los ordenadores
El EDVAC, uno de los primeros ordenadores de programas de tubo, como el EDVAC, tendieron en tener un
almacenados electrónicamente.
promedio de ocho horas entre fallos, mientras que los
ordenadores de relés, (anteriores y más lentas), como el
Harvard Mark I, fallaban muy raramente. Al final, los CPU basados en tubo llegaron a ser dominantes porque las
significativas ventajas de velocidad producidas generalmente pesaban más que los problemas de confiabilidad. La
mayor parte de estas tempranas CPU síncronas corrían en frecuencias de reloj bajas comparadas con los modernos
diseños microelectrónicos. Eran muy comunes en este tiempo las frecuencias de la señal del reloj con un rango desde
100 kHz hasta 4 MHz, limitado en gran parte por la velocidad de los dispositivos de conmutación con los que fueron
construidos.
Unidad central de procesamiento 3

CPU de transistores y de circuitos integrados discretos


La complejidad del diseño de las CPU
aumentó junto con facilidad de la
construcción de dispositivos
electrónicos más pequeños y
confiables. La primera de esas mejoras
vino con el advenimiento del
transistor. Las CPU transistorizadas
durante los años 50 y los años 60 no
tuvieron que ser construidos con
elementos de conmutación abultados,
no fiables y frágiles, como los tubos de
vacío y los relés eléctricos. Con esta
mejora, fueron construidas CPU más
complejas y más confiables sobre una
o varias tarjetas de circuito impreso
que contenían componentes discretos CPU, memoria de núcleo e interfaz de bus externo de un MSI PDP-8/I.
(individuales). Durante este período,
ganó popularidad un método de fabricar muchos transistores en un espacio compacto. El circuito integrado (IC)
permitió que una gran cantidad de transistores fueran fabricados en una simple oblea basada en semiconductor o
"chip". Al principio, solamente circuitos digitales muy básicos, no especializados, como las puertas NOR fueron
miniaturizados en IC. Las CPU basadas en estos IC de "bloques de construcción" generalmente son referidos como
dispositivos de pequeña escala de integración "small-scale integration" (SSI). Los circuitos integrados SSI, como los
usados en el computador guía del Apollo (Apollo Guidance Computer), usualmente contenían transistores que se
contaban en números de múltiplos de diez. Construir un CPU completo usando IC SSI requería miles de chips
individuales, pero todavía consumía mucho menos espacio y energía que diseños anteriores de transistores discretos.
A medida que la tecnología microelectrónica avanzó, en los IC fue colocado un número creciente de transistores,
disminuyendo así la cantidad de IC individuales necesarios para una CPU completa. Los circuitos integrados MSI y
el LSI (de mediana y gran escala de integración) aumentaron el número de transistores a cientos y luego a miles. En
1964, IBM introdujo su arquitectura de ordenador System/360, que fue usada en una serie de ordenadores que podían
ejecutar los mismos programas con velocidades y desempeños diferentes. Esto fue significativo en un tiempo en que
la mayoría de los ordenadores electrónicos eran incompatibles entre sí, incluso los hechas por el mismo fabricante.
Para facilitar esta mejora, IBM utilizó el concepto de microprograma, a menudo llamado "microcódigo",
ampliamente usado aún en las CPU modernas. La arquitectura System/360 era tan popular que dominó el mercado
del mainframe durante las siguientes décadas y dejó una herencia que todavía aún perdura en los ordenadores
modernos, como el IBM zSeries. En el mismo año de 1964, Digital Equipment Corporation (DEC) introdujo otro
ordenador que sería muy influyente, dirigido a los mercados científicos y de investigación, el PDP-8. DEC
introduciría más adelante la muy popular línea del PDP-11, que originalmente fue construido con IC SSI pero
eventualmente fue implementado con componentes LSI cuando se convirtieron en prácticos. En fuerte contraste con
sus precursores hechos con tecnología SSI y MSI, la primera implementación LSI del PDP-11 contenía una CPU
integrada únicamente por cuatro circuitos integrados LSI. Los ordenadores basados en transistores tenían varias
ventajas frente a sus predecesores. Aparte de facilitar una creciente fiabilidad y un menor consumo de energía, los
transistores también permitían al CPU operar a velocidades mucho más altas debido al corto tiempo de conmutación
de un transistor en comparación a un tubo o relé. Gracias tanto a esta creciente fiabilidad como al dramático
incremento de velocidad de los elementos de conmutación que por este tiempo eran casi exclusivamente transistores,
Unidad central de procesamiento 4

se fueron alcanzando frecuencias de reloj de la CPU de decenas de megahertz. Además, mientras que las CPU de
transistores discretos y circuitos integrados se usaban comúnmente, comenzaron a aparecer los nuevos diseños de
alto rendimiento como procesadores vectoriales SIMD (Single Instruction Multiple Data) (Simple Instrucción
Múltiples Datos). Estos primeros diseños experimentales dieron lugar más adelante a la era de los superordenadores
especializados, como los hechos por Cray Inc.

Microprocesadores
Desde la introducción del primer microprocesador, el
Intel 4004, en 1971 y del primer microprocesador
ampliamente usado, el Intel 8080, en 1974, esta clase
de CPU ha desplazado casi totalmente el resto de los
métodos de implementación de la Unidad Central de
Proceso. Los fabricantes de mainframes y
miniordenadores de ese tiempo lanzaron programas de
desarrollo de IC propietarios para actualizar sus más
viejas arquitecturas de ordenador y eventualmente
produjeron microprocesadores con conjuntos de
instrucciones que eran compatibles hacia atrás con sus
más viejos hardwares y softwares. Combinado con el
advenimiento y el eventual vasto éxito del ahora ubicuo
ordenador personal, el término "CPU" es aplicado Microprocesador Intel 80486DX2 en un paquete PGA de cerámica.

ahora casi exclusivamente a los microprocesadores. Las


generaciones previas de CPU fueron implementadas como componentes discretos y numerosos circuitos integrados
de pequeña escala de integración en una o más tarjetas de circuitos. Por otro lado, los microprocesadores son CPU
fabricados con un número muy pequeño de IC; usualmente solo uno. El tamaño más pequeño del CPU, como
resultado de estar implementado en una simple pastilla, significa tiempos de conmutación más rápidos debido a
factores físicos como el decrecimiento de la capacitancia parásita de las puertas. Esto ha permitido que los
microprocesadores síncronos tengan tiempos de reloj con un rango de decenas de megahercios a varios gigahercios.
Adicionalmente, como ha aumentado la capacidad de construir transistores excesivamente pequeños en un IC, la
complejidad y el número de transistores en un simple CPU también se ha incrementado dramáticamente. Esta
tendencia ampliamente observada es descrita por la ley de Moore, que ha demostrado hasta la fecha, ser una
predicción bastante exacta del crecimiento de la complejidad de los CPUs y otros IC. Mientras que, en los pasados
sesenta años han cambiado drásticamente, la complejidad, el tamaño, la construcción y la forma general de la CPU,
es notable que el diseño y el funcionamiento básico no ha cambiado demasiado. Casi todos los CPU comunes de hoy
se pueden describir con precisión como máquinas de programa almacenado de von Neumann. A medida que la ya
mencionada ley del Moore continúa manteniéndose verdadera, se han presentado preocupaciones sobre los límites de
la tecnología de transistor del circuito integrado. La miniaturización extrema de puertas electrónicas está causando
los efectos de fenómenos que se vuelven mucho más significativos, como la electromigración y el subumbral de
pérdida. Estas más nuevas preocupaciones están entre los muchos factores que hacen a investigadores estudiar
nuevos métodos de computación como la computación cuántica, así como ampliar el uso de paralelismo y otros
métodos que extienden la utilidad del modelo clásico de von Neumann.
Unidad central de procesamiento 5

Operación del CPU


La operación fundamental de la mayoría de las CPU es ejecutar una secuencia de instrucciones almacenadas
llamadas "programa". El programa es representado por una serie de números que se mantienen en una cierta clase de
memoria de ordenador. Hay cuatro pasos que casi todos las CPU de arquitectura de von Neumann usan en su
operación: fetch, decode, execute, y writeback, (leer, decodificar, ejecutar y escribir).
El primer paso, leer (fetch), implica el
recuperar una instrucción, (que es
representada por un número o una secuencia
de números), de la memoria de programa.
La localización en la memoria del programa
es determinada por un contador de programa
(PC), que almacena un número que
Diagrama mostrando como es decodificada una instrucción del MIPS32. (MIPS identifica la posición actual en el programa.
Technologies 2005) En otras palabras, el contador de programa
indica al CPU, el lugar de la instrucción en
el programa actual. Después de que se lee una instrucción, el Contador de Programa es incrementado por la longitud
de la palabra de instrucción en términos de unidades de memoria. Frecuentemente la instrucción a ser leída debe ser
recuperada de memoria relativamente lenta, haciendo detener la CPU mientras espera que la instrucción sea
retornada. Este problema es tratado en procesadores modernos en gran parte por los cachés y las arquitecturas
pipeline. La instrucción que la CPU lee desde la memoria es usada para determinar qué deberá hacer la CPU. En el
paso de decodificación, la instrucción es dividida en partes que tienen significado para otras unidades de la CPU. La
manera en que el valor de la instrucción numérica es interpretado está definida por la arquitectura del conjunto de
instrucciones (el ISA) de la CPU. A menudo, un grupo de números en la instrucción, llamados opcode, indica qué
operación realizar. Las partes restantes del número usualmente proporcionan información requerida para esa
instrucción, como por ejemplo, operandos para una operación de adición. Tales operandos se pueden dar como un
valor constante (llamado valor inmediato), o como un lugar para localizar un valor, que según lo determinado por
algún modo de dirección, puede ser un registro o una dirección de memoria. En diseños más viejos las unidades del
CPU responsables de decodificar la instrucción eran dispositivos de hardware fijos. Sin embargo, en CPUs e ISAs
más abstractos y complicados, es frecuentemente usado un microprograma para ayudar a traducir instrucciones en
varias señales de configuración para el CPU. Este microprograma es a veces reescribible de tal manera que puede ser
modificado para cambiar la manera en que el CPU decodifica instrucciones incluso después de que haya sido
fabricado.
Unidad central de procesamiento 6

Después de los pasos de lectura y decodificación, es llevado a


cabo el paso de la ejecución de la instrucción. Durante este
paso, varias unidades del CPU son conectadas de tal manera que
ellas pueden realizar la operación deseada. Si, por ejemplo, una
operación de adición fue solicitada, una unidad aritmético lógica
(ALU) será conectada a un conjunto de entradas y un conjunto
de salidas. Las entradas proporcionan los números a ser
sumados, y las salidas contendrán la suma final. La ALU
contiene la circuitería para realizar operaciones simples de
aritmética y lógica en las entradas, como adición y operaciones
de bits (bitwise). Si la operación de adición produce un resultado
demasiado grande para poder ser manejado por el CPU, también
puede ser ajustada una bandera (flag) de desbordamiento
aritmético localizada en un registro de banderas (ver abajo la
sección sobre rango de números enteros).

El paso final, la escritura (writeback), simplemente "escribe"


los resultados del paso de ejecución a una cierta forma de
memoria. Muy a menudo, los resultados son escritos a algún Diagrama de bloques de un CPU simple.
registro interno del CPU para acceso rápido por subsecuentes
instrucciones. En otros casos los resultados pueden ser escritos a
una memoria principal más lenta pero más barata y más grande. Algunos tipos de instrucciones manipulan el
contador de programa en lugar de directamente producir datos de resultado. Éstas son llamadas generalmente
"saltos" (jumps) y facilitan comportamientos como bucles (loops), la ejecución condicional de programas (con el uso
de saltos condicionales), y funciones en programas.[1] Muchas instrucciones también cambiarán el estado de dígitos
en un registro de "banderas". Estas banderas pueden ser usadas para influenciar cómo se comporta un programa,
puesto que a menudo indican el resultado de varias operaciones. Por ejemplo, un tipo de instrucción de
"comparación" considera dos valores y fija un número, en el registro de banderas, de acuerdo a cuál es el mayor.
Entonces, esta bandera puede ser usada por una posterior instrucción de salto para determinar el flujo de programa.

Después de la ejecución de la instrucción y la escritura de los datos resultantes, el proceso entero se repite con el
siguiente ciclo de instrucción, normalmente leyendo la siguiente instrucción en secuencia debido al valor
incrementado en el contador de programa. Si la instrucción completada era un salto, el contador de programa será
modificado para contener la dirección de la instrucción a la cual se saltó, y la ejecución del programa continúa
normalmente. En CPUs más complejos que el descrito aquí, múltiples instrucciones pueden ser leídas, decodificadas,
y ejecutadas simultáneamente. Esta sección describe lo que es referido generalmente como el "entubado RISC
clásico" (Classic RISC pipeline), que de hecho es bastante común entre los CPU simples usados en muchos
dispositivos electrónicos, a menudo llamados microcontroladores.[2]
Unidad central de procesamiento 7

Diseño e implementación

Prerrequisitos
Arquitectura informática
Circuitos digitales

Rango de enteros
La manera en que un CPU representa los números es una opción de diseño que afecta las más básicas formas en que
el dispositivo funciona. Algunas de las primeras calculadoras digitales usaron, para representar números
internamente, un modelo eléctrico del sistema de numeración decimal común (base diez). Algunas otras
computadoras han usado sistemas de numeración más exóticos como el ternario (base tres). Casi todos los CPU
modernos representan los números en forma binaria, en donde cada dígito es representado por una cierta cantidad
física de dos valores, como un voltaje "alto" o "bajo".[3]
Con la representación numérica están relacionados el
tamaño y la precisión de los números que un CPU
puede representar. En el caso de un CPU binario, un bit
se refiere a una posición significativa en los números
con que trabaja un CPU. El número de bits (o de
posiciones numéricas, o dígitos) que un CPU usa para
Microprocesador MOS 6502 en un dual in-line package representar los números, a menudo se llama "tamaño de
(encapasulado en doble línea), un diseño extremadamente popular de la palabra", "ancho de bits", "ancho de ruta de datos", o
8 bits.
"precisión del número entero" cuando se ocupa
estrictamente de números enteros (en oposición a
números de coma flotante). Este número difiere entre las arquitecturas, y a menudo dentro de diferentes unidades del
mismo CPU. Por ejemplo, un CPU de 8 bits maneja un rango de números que pueden ser representados por ocho
dígitos binarios, cada dígito teniendo dos valores posibles, y en combinación los 8 bits teniendo 28 ó 256 números
discretos. En efecto, el tamaño del número entero fija un límite de hardware en el rango de números enteros que el
software corre y que el CPU puede usar directamente.[4]

El rango del número entero también puede afectar el número de posiciones en memoria que el CPU puede
direccionar (localizar). Por ejemplo, si un CPU binario utiliza 32 bits para representar una dirección de memoria, y
cada dirección de memoria representa a un octeto (8 bits), la cantidad máxima de memoria que el CPU puede
direccionar es 232 octetos, o 4 GB. Ésta es una vista muy simple del espacio de dirección del CPU, y muchos diseños
modernos usan métodos de dirección mucho más complejos como paginación para localizar más memoria que su
rango entero permitiría con un espacio de dirección plano.
Niveles más altos del rango de números enteros requieren más estructuras para manejar los dígitos adicionales, y por
lo tanto, más complejidad, tamaño, uso de energía, y generalmente costo. Por ello, no es del todo infrecuente, ver
microcontroladores de 4 y 8 bits usados en aplicaciones modernas, aún cuando están disponibles CPU con un rango
mucho más alto (de 16, 32, 64, e incluso 128 bits). Los microcontroladores más simples son generalmente más
baratos, usan menos energía, y por lo tanto disipan menos calor. Todo esto pueden ser consideraciones de diseño
importantes para los dispositivos electrónicos. Sin embargo, en aplicaciones del extremo alto, los beneficios
producidos por el rango adicional, (más a menudo el espacio de dirección adicional), son más significativos y con
frecuencia afectan las opciones del diseño. Para ganar algunas de las ventajas proporcionadas por las longitudes de
bits tanto más bajas, como más altas, muchas CPUs están diseñadas con anchos de bit diferentes para diferentes
unidades del dispositivo. Por ejemplo, el IBM System/370 usó un CPU que fue sobre todo de 32 bits, pero usó
precisión de 128 bits dentro de sus unidades de coma flotante para facilitar mayor exactitud y rango de números de
Unidad central de procesamiento 8

coma flotante. Muchos diseños posteriores de CPU usan una mezcla de ancho de bits similar, especialmente cuando
el procesador está diseñado para usos de propósito general donde se requiere un razonable equilibrio entre la
capacidad de números enteros y de coma flotante.

Frecuencia de reloj
La mayoría de los CPU, y de hecho, la mayoría de los dispositivos de lógica secuencial, son de naturaleza
síncrona.[5] Es decir, están diseñados y operan en función de una señal de sincronización. Esta señal, conocida como
señal de reloj, usualmente toma la forma de una onda cuadrada periódica. Calculando el tiempo máximo en que las
señales eléctricas pueden moverse en las varias bifurcaciones de los muchos circuitos de un CPU, los diseñadores
pueden seleccionar un período apropiado para la señal del reloj.
Este período debe ser más largo que la cantidad de tiempo que toma a una señal moverse, o propagarse en el peor de
los casos. Al fijar el período del reloj a un valor bastante mayor sobre el retardo de la propagación del peor caso, es
posible diseñar todo el CPU y la manera que mueve los datos alrededor de los "bordes" de la subida y bajada de la
señal del reloj. Esto tiene la ventaja de simplificar el CPU significativamente, tanto en una perspectiva de diseño,
como en una perspectiva de cantidad de componentes. Sin embargo, esto también tiene la desventaja que todo el
CPU debe esperar por sus elementos más lentos, aún cuando algunas unidades de la misma son mucho más rápidas.
Esta limitación ha sido compensada en gran parte por varios métodos de aumentar el paralelismo del CPU (ver
abajo).
Sin embargo, las mejoras arquitectónicas por sí solas, no solucionan todas las desventajas de CPUs globalmente
síncronas. Por ejemplo, una señal de reloj está sujeta a los retardos de cualquier otra señal eléctrica. Velocidades de
reloj más altas en CPUs cada vez más complejas hacen más difícil de mantener la señal del reloj en fase
(sincronizada) a través de toda la unidad. Esto ha conducido que muchos CPU modernos requieran que se les
proporcione múltiples señales de reloj idénticas, para evitar retardar una sola señal lo suficiente como para hacer al
CPU funcionar incorrectamente. Otro importante problema cuando la velocidad del reloj aumenta dramáticamente,
es la cantidad de calor que es disipado por el CPU. La señal del reloj cambia constantemente, provocando la
conmutación de muchos componentes (cambio de estado) sin importar si están siendo usados en ese momento. En
general, un componente que está cambiando de estado, usa más energía que un elemento en un estado estático. Por lo
tanto, a medida que la velocidad del reloj aumenta, así lo hace también la disipación de calor, causando que el CPU
requiera soluciones de enfriamiento más efectivas.
Un método de tratar la conmutación de componentes innecesarios se llama el clock gating, que implica apagar la
señal del reloj a los componentes innecesarios, efectivamente desactivándolos. Sin embargo, esto es frecuentemente
considerado como difícil de implementar y por lo tanto no ve uso común afuera de diseños de muy baja potencia.[6]
Otro método de tratar algunos de los problemas de una señal global de reloj es la completa remoción de la misma.
Mientras que quitar la señal global del reloj hace, de muchas maneras, considerablemente más complejo el proceso
del diseño, en comparación con diseños síncronos similares, los diseños asincrónicos (o sin reloj) tienen marcadas
ventajas en el consumo de energía y la disipación de calor. Aunque algo infrecuente, CPUs completas se han
construido sin utilizar una señal global de reloj. Dos notables ejemplos de esto son el AMULET, que implementa la
arquitectura del ARM, y el MiniMIPS, compatible con el MIPS R3000. En lugar de remover totalmente la señal del
reloj, algunos diseños de CPU permiten a ciertas unidades del dispositivo ser asincrónicas, como por ejemplo, usar
ALUs asincrónicas en conjunción con pipelining superescalar para alcanzar algunas ganancias en el desempeño
aritmético. Mientras que no está completamente claro si los diseños totalmente asincrónicos pueden desempeñarse a
un nivel comparable o mejor que sus contrapartes síncronas, es evidente que por lo menos sobresalen en las más
simples operaciones matemáticas. Esto, combinado con sus excelentes características de consumo de energía y
disipación de calor, los hace muy adecuados para sistemas embebidos.
Unidad central de procesamiento 9

Paralelismo
La descripción de la operación básica de un
CPU ofrecida en la sección anterior describe
la forma más simple que puede tomar un
CPU. Este tipo de CPU, usualmente referido
como subescalar, opera sobre y ejecuta una Modelo de un CPU subescalar. Note que toma quince ciclos para terminar tres
instrucciones.
sola instrucción con una o dos piezas de
datos a la vez.

Este proceso da lugar a una ineficacia inherente en CPUs subescalares. Puesto que solamente una instrucción es
ejecutada a la vez, todo el CPU debe esperar que esa instrucción se complete antes de proceder a la siguiente
instrucción. Como resultado, el CPU subescalar queda "paralizado" en instrucciones que toman más de un ciclo de
reloj para completar su ejecución. Incluso la adición de una segunda unidad de ejecución (ver abajo) no mejora
mucho el desempeño. En lugar de un camino quedando congelado, ahora dos caminos se paralizan y aumenta el
número de transistores no usados. Este diseño, en donde los recursos de ejecución del CPU pueden operar con
solamente una instrucción a la vez, solo puede, posiblemente, alcanzar el desempeño escalar (una instrucción por
ciclo de reloj). Sin embargo, el desempeño casi siempre es subescalar (menos de una instrucción por ciclo).
Las tentativas de alcanzar un desempeño escalar y mejor, han resultado en una variedad de metodologías de diseño
que hacen comportarse al CPU menos linealmente y más en paralelo. Cuando se refiere al paralelismo en los CPU,
generalmente son usados dos términos para clasificar estas técnicas de diseño.
• El paralelismo a nivel de instrucción, en inglés Instruction Level Parallelism (ILP), busca aumentar la tasa en la
cual las instrucciones son ejecutadas dentro de un CPU, es decir, aumentar la utilización de los recursos de
ejecución en la pastilla.
• El paralelismo a nivel de hilo de ejecución, en inglés thread level parallelism (TLP), que se propone incrementar
el número de hilos (efectivamente programas individuales) que un CPU pueda ejecutar simultáneamente.
Cada metodología se diferencia tanto en las maneras en las que están implementadas, como en la efectividad relativa
que producen en el aumento del desempeño del CPU para una aplicación.[7]

ILP: Entubado de instrucción y arquitectura superescalar


Artículo principal: Entubado de instrucción y superescalar
Uno de los más simples métodos usados
para lograr incrementar el paralelismo es
comenzar los primeros pasos de leer y
decodificar la instrucción antes de que la
instrucción anterior haya terminado de
ejecutarse. Ésta es la forma más simple de
Tubería básica de cinco etapas. En el mejor de los casos, esta tubería puede una técnica conocida como instruction
sostener un ratio de completado de una instrucción por ciclo.
pipelining (entubado de instrucción), y es
utilizada en casi todos los CPU de propósito
general modernos. Al dividir la ruta de ejecución en etapas discretas, la tubería permite que más de una instrucción
sea ejecutada en cualquier tiempo. Esta separación puede ser comparada a una línea de ensamblaje, en la cual una
instrucción es hecha más completa en cada etapa hasta que sale de la tubería de ejecución y es retirada.

Sin embargo, la tubería introduce la posibilidad de una situación donde es necesario terminar el resultado de la
operación anterior para completar la operación siguiente; una condición llamada a menudo como conflicto de
dependencia de datos. Para hacer frente a esto, debe ser tomado un cuidado adicional para comprobar estas clases de
condiciones, y si esto ocurre, se debe retrasar una porción de la tubería de instrucción. Naturalmente, lograr esto
Unidad central de procesamiento 10

requiere circuitería adicional, los procesadores entubados son más complejos que los subescalares, pero no mucho.
Un procesador entubado puede llegar a ser casi completamente escalar, solamente inhibido por las abruptas paradas
de la tubería (una instrucción durando más de un ciclo de reloj en una etapa).
Una mejora adicional sobre la idea del
entubado de instrucción (instruction
pipelining) condujo al desarrollo de un
método que disminuye incluso más el
tiempo ocioso de los componentes del CPU.
Diseños que se dice que son superescalares
incluyen una larga tubería de instrucción y
múltiples unidades de ejecución idénticas.
En una tubería superescalar, múltiples
instrucciones son leídas y pasadas a un
despachador, que decide si las instrucciones
se pueden o no ejecutar en paralelo Tubería superescalar simple. Al leer y despachar dos instrucciones a la vez, un
máximo de dos instrucciones por ciclo pueden ser completadas.
(simultáneamente). De ser así, son
despachadas a las unidades de ejecución
disponibles, dando por resultado la capacidad para que varias instrucciones sean ejecutadas simultáneamente. En
general, cuanto más instrucciones un CPU superescalar es capaz de despachar simultáneamente a las unidades de
ejecución en espera, más instrucciones serán completadas en un ciclo dado.
La mayor parte de la dificultad en el diseño de una arquitectura superescalar de CPU descansa en crear un
despachador eficaz. El despachador necesita poder determinar rápida y correctamente si las instrucciones pueden
ejecutarse en paralelo, tan bien como despacharlas de una manera que mantenga ocupadas tantas unidades de
ejecución como sea posible. Esto requiere que la tubería de instrucción sea llenada tan a menudo como sea posible y
se incrementa la necesidad, en las arquitecturas superescalares, de cantidades significativas de caché de CPU. Esto
también crea técnicas para evitar peligros como la predicción de bifurcación, ejecución especulativa, y la ejecución
fuera de orden, cruciales para mantener altos niveles de desempeño.
• La predicción de bifurcación procura predecir qué rama (o trayectoria) tomará una instrucción condicional, el
CPU puede minimizar el número de tiempos que toda la tubería debe esperar hasta que sea completada una
instrucción condicional.
• La ejecución especulativa frecuentemente proporciona aumentos modestos del desempeño al ejecutar las
porciones de código que pueden o no ser necesarias después de que una operación condicional termine.
• La ejecución fuera de orden cambia en algún grado el orden en el cual son ejecutadas las instrucciones para
reducir retardos debido a las dependencias de los datos.
En el caso donde una porción del CPU es superescalar y una parte no lo es, la parte que no es superescalar sufre en el
desempeño debido a las paradas de horario. El Intel Pentium original (P5) tenía dos ALUs superescalares que podían
aceptar, cada una, una instrucción por ciclo de reloj, pero su FPU no podía aceptar una instrucción por ciclo de reloj.
Así el P5 era superescalar en la parte de números enteros pero no era superescalar de números de coma (o punto
[decimal]) flotante. El sucesor a la arquitectura del Pentium de Intel, el P6, agregó capacidades superescalares a sus
funciones de coma flotante, y por lo tanto produjo un significativo aumento en el desempeño de este tipo de
instrucciones.
El entubado simple y el diseño superescalar aumentan el ILP de un CPU al permitir a un solo procesador completar
la ejecución de instrucciones en ratios que sobrepasan una instrucción por ciclo (IPC).[8] La mayoría de los
modernos diseños de CPU son por lo menos algo superescalares, y en la última década, casi todos los diseños de
CPU de propósito general son superescalares. En los últimos años algo del énfasis en el diseño de computadores de
alto ILP se ha movido del hardware del CPU hacia su interface de software, o ISA. La estrategia de la muy larga
Unidad central de procesamiento 11

palabra de instrucción, very long instruction word (VLIW), causa a algún ILP a ser implícito directamente por el
software, reduciendo la cantidad de trabajo que el CPU debe realizar para darle un empuje significativo al ILP y por
lo tanto reducir la complejidad del diseño.

TLP: ejecución simultánea de hilos


Otra estrategia comúnmente usada para aumentar el paralelismo de los CPU es incluir la habilidad de correr
múltiples hilos (programas) al mismo tiempo. En general, CPUs con alto TLP han estado en uso por mucho más
tiempo que los de alto ILP. Muchos de los diseños en los que Seymour Cray fue pionero durante el final de los años
1970 y los años 1980 se concentraron en el TLP como su método primario de facilitar enormes capacidades de
computación (para su tiempo). De hecho, el TLP, en la forma de mejoras en múltiples hilos de ejecución, estuvo en
uso tan temprano como desde los años 1950. En el contexto de diseño de procesadores individuales, las dos
metodologías principales usadas para lograr el TLP son, multiprocesamiento a nivel de chip, en inglés chip-level
multiprocessing (CMP), y el multihilado simultáneo, en inglés simultaneous multithreading (SMT). En un alto nivel,
es muy común construir computadores con múltiples CPU totalmente independientes en arreglos como
multiprocesamiento simétrico (symmetric multiprocessing (SMP)) y acceso de memoria no uniforme (Non-Uniform
Memory Access (NUMA)).[9] Aunque son usados medios muy diferentes, todas estas técnicas logran la misma meta:
incrementar el número de hilos que el CPU(s) puede correr en paralelo.
Los métodos de paralelismo CMP y de SMP son similares uno del otro y lo más directo. Éstos implican algo más
conceptual que la utilización de dos o más CPU completos y CPU independientes. En el caso del CMP, múltiples
"núcleos" de procesador son incluidos en el mismo paquete, a veces en el mismo circuito integrado.[10] Por otra
parte, el SMP incluye múltiples paquetes independientes. NUMA es algo similar al SMP pero usa un modelo de
acceso a memoria no uniforme. Esto es importante para los computadores con muchos CPU porque el tiempo de
acceso a la memoria, de cada procesador, es agotado rápidamente con el modelo de memoria compartido del SMP,
resultando en un significativo retraso debido a los CPU esperando por la memoria. Por lo tanto, NUMA es
considerado un modelo mucho más escalable, permitiendo con éxito que en un computador sean usados muchos más
CPU que los que pueda soportar de una manera factible el SMP. El SMT se diferencia en algo de otras mejoras de
TLP en que el primero procura duplicar tan pocas porciones del CPU como sea posible. Mientras es considerada una
estrategia TLP, su implementación realmente se asemeja más a un diseño superescalar, y de hecho es frecuentemente
usado en microprocesadores superescalares, como el POWER5 de IBM. En lugar de duplicar todo el CPU, los
diseños SMT solamente duplican las piezas necesarias para lectura, decodificación, y despacho de instrucciones, así
como cosas como los registros de propósito general. Esto permite a un CPU SMT mantener sus unidades de
ejecución ocupadas más frecuentemente al proporcionarles las instrucciones desde dos diferentes hilos de software.
Una vez más esto es muy similar al método superescalar del ILP, pero ejecuta simultáneamente instrucciones de
múltiples hilos en lugar de ejecutar concurrentemente múltiples instrucciones del mismo hilo.

Procesadores vectoriales y el SIMD


Artículos principales: Procesador vectorial y SIMD
Un menos común pero cada vez más importante paradigma de CPU (y de hecho, de computación en general) trata
con vectores. Los procesadores de los que se ha hablado anteriormente son todos referidos como cierto tipo de
dispositivo escalar.[11] Como implica su nombre, los procesadores vectoriales se ocupan de múltiples piezas de datos
en el contexto de una instrucción, esto contrasta con los procesadores escalares, que tratan una pieza de dato por cada
instrucción. Estos dos esquemas de ocuparse de los datos son generalmente referidos respectivamente como SISD
(Single Instruction, Single Data|) (Simple Instrucción, Simple Dato) y SIMD (Single Instruction, Multiple Data)
(Simple Instrucción, Múltiples Datos). La gran utilidad en crear CPUs que se ocupen de vectores de datos radica en
la optimización de tareas que tienden a requerir la misma operación, por ejemplo, una suma, o un producto escalar, a
ser realizado en un gran conjunto de datos. Algunos ejemplos clásicos de este tipo de tareas son las aplicaciones
multimedia (imágenes, vídeo, y sonido), así como muchos tipos de tareas científicas y de ingeniería. Mientras que un
Unidad central de procesamiento 12

CPU escalar debe completar todo el proceso de leer, decodificar, y ejecutar cada instrucción y valor en un conjunto
de datos, un CPU vectorial puede realizar una simple operación en un comparativamente grande conjunto de datos
con una sola instrucción. Por supuesto, esto es solamente posible cuando la aplicación tiende a requerir muchos
pasos que apliquen una operación a un conjunto grande de datos.
La mayoría de los primeros CPU vectoriales, como el Cray-1, fueron asociados casi exclusivamente con aplicaciones
de investigación científica y criptografía. Sin embargo, a medida que la multimedia se desplazó en gran parte a
medios digitales, ha llegado a ser significativa la necesidad de una cierta forma de SIMD en CPUs de propósito
general. Poco después de que comenzara a ser común incluir unidades de coma flotante en procesadores de uso
general, también comenzaron a aparecer especificaciones e implementaciones de unidades de ejecución SIMD para
los CPU de uso general. Algunas de estas primeras especificaciones SIMD, como el MMX de Intel, fueron
solamente para números enteros. Esto demostró ser un impedimento significativo para algunos desarrolladores de
software, ya que muchas de las aplicaciones que se beneficiaban del SIMD trataban sobre todo con números de coma
flotante. Progresivamente, éstos primeros diseños fueron refinados y rehechos en alguna de las comunes, modernas
especificaciones SIMD, que generalmente están asociadas a un ISA. Algunos ejemplos modernos notables son el
SSE de Intel y el AltiVec relacionado con el PowerPC (también conocido como VMX).[12]

Notas
[1] Some early computers like the Harvard Mark I did not support any kind of "jump" instruction, effectively limiting the complexity of the
programs they could run. It is largely for this reason that these computers are often not considered to contain a CPU proper, despite their close
similarity as stored program computers.
[2] This description is, in fact, a simplified view even of the Classic RISC pipeline. It largely ignores the important role of CPU cache, and
therefore the access stage of the pipeline. See the respective articles for more details.
[3] The physical concept of voltage is an analog one by its nature, practically having an infinite range of possible values. For the purpose of
physical representation of binary numbers, set ranges of voltages are defined as one or zero. These ranges are usually influenced by the
operational parameters of the switching elements used to create the CPU, such as a transistor's threshold level.
[4] While a CPU's integer size sets a limit on integer ranges, this can (and often is) overcome using a combination of software and hardware
techniques. By using additional memory, software can represent integers many magnitudes larger than the CPU can. Sometimes the CPU's
ISA will even facilitate operations on integers larger that it can natively represent by providing instructions to make large integer arithmetic
relatively quick. While this method of dealing with large integers is somewhat slower than utilizing a CPU with higher integer size, it is a
reasonable trade-off in cases where natively supporting the full integer range needed would be cost-prohibitive. See Arbitrary-precision
arithmetic for more details on purely software-supported arbitrary-sized integers.
[5] In fact, all synchronous CPU use a combination of sequential logic and combinatorial logic. (See boolean logic)
[6] One notable late CPU design that uses clock gating is that of the IBM PowerPC-based Xbox 360. It utilizes extensive clock gating in order to
reduce the power requirements of the aforementioned videogame console it is used in.
[7] It should be noted that neither ILP nor TLP is inherently superior over the other; they are simply different means by which to increase CPU
parallelism. As such, they both have advantages and disadvantages, which are often determined by the type of software that the processor is
intended to run. High-TLP CPU are often used in applications that lend themselves well to being split up into numerous smaller applications,
so-called "embarrassingly parallel problems." Frequently, a computational problem that can be solved quickly with high TLP design strategies
like SMP take significantly more time on high ILP devices like superescalar CPU, and vice versa.
[8] Best-case scenario (or peak) IPC rates in very superscalar architectures are difficult to maintain since it is impossible to keep the instruction
pipeline filled all the time. Therefore, in highly superscalar CPU, average sustained IPC is often discussed rather than peak IPC.
[9] Even though SMP and NUMA are both referred to as "systems level" TLP strategies, both methods must still be supported by the CPU's
design and implementation.
[10] While TLP methods have generally been in use longer than ILP methods, Chip-level multiprocessing is more or less only seen in later
IC-based microprocessors. This is largely because the term itself is inapplicable to earlier discrete component devices and has only come into
use recently.
For several years during the late 1990s and early 2000s, the focus in designing high performance general purpose CPU was largely on highly
superescalar IPC designs, such as the Intel Pentium 4. However, this trend seems to be reversing somewhat now as major general-purpose
CPU designers switch back to less deeply pipelined high-TLP designs. This is evidenced by the proliferation of dual and multi core CMP
designs and notably, Intel's newer designs resembling its less superescalar P6 architecture. Late designs in several processor families exhibit
CMP, including the x86-64 Opteron and Athlon 64 X2, the SPARC UltraSPARC T1, IBM POWER4 and POWER5, as well as several video
game console CPU like the Xbox 360's triple-core PowerPC design.
[11] Earlier the term scalar was used to compare most the IPC (instructions per cycle) count afforded by various ILP methods. Here the term is
used in the strictly mathematical sense to contrast with vectors. See scalar (mathematics) and vector (spatial).
Unidad central de procesamiento 13

[12] Although SSE/SSE2/SSE3 have superseded MMX in Intel's general purpose CPU, later IA-32 designs still support MMX. This is usually
accomplished by providing most of the MMX functionality with the same hardware that supports the much more expansive SSE instruction
sets.

Bibliografía
• Amdahl, G. M., Blaauw, G. A., & Brooks, F. P. Jr. (1964). Architecture of the IBM System/360 (http://www.
research.ibm.com/journal/rd/441/amdahl.pdf). IBM Research.
• Brown, Jeffery (2005). « Application-customized CPU design (http://www-128.ibm.com/developerworks/
power/library/pa-fpfxbox/?ca=dgr-lnxw07XBoxDesign)». IBM developerWorks. Consultado el 17-12-2005.
• Digital Equipment Corporation (November de 1975). « LSI-11 Module Descriptions (http://www.classiccmp.
org/bitsavers/pdf/dec/pdp11/1103/EK-LSI11-TM-002.pdf)». LSI-11, PDP-11/03 user's manual (2nd edition
edición). Maynard, Massachusetts: Digital Equipment Corporation. pp. 4-3.
• Garside, J. D., Furber, S. B., & Chung, S-H (1999). AMULET3 Revealed (http://www.cs.manchester.ac.uk/
apt/publications/papers/async99_A3.php). University of Manchester Computer Science Department.
• Hennessy, John A.; Goldberg, David (1996). Computer Architecture: A Quantitative Approach. Morgan
Kaufmann Publishers. ISBN 1-55860-329-8.
• MIPS Technologies, Inc. (2005). MIPS32® Architecture For Programmers Volume II: The MIPS32® Instruction
Set (http://www.mips.com/content/Documentation/MIPSDocumentation/ProcessorArchitecture/doclibrary).
MIPS Technologies, Inc..
• Smotherman, Mark (2005). « History of Multithreading (http://www.cs.clemson.edu/~mark/multithreading.
html)». Consultado el 19-12-2005.
• von Neumann, John (1945). First Draft of a Report on the EDVAC (http://www.virtualtravelog.net/entries/
2003-08-TheFirstDraft.pdf). Moore School of Electrical Engineering, University of Pennsylvania.
• Weik, Martin H. (1961). A Third Survey of Domestic Electronic Digital Computing Systems (http://ed-thelen.
org/comp-hist/BRL61.html). Ballistic Research Laboratories.

Enlaces externos
Diseños de microprocesador
• Advanced Micro Devices (http://www.amd.com/) - Advanced Micro Devices, a designer of primarily
x86-compatible personal computer CPU.
• ARM Ltd (http://www.arm.com/) - ARM Ltd, one of the few CPU designers that profits solely by licensing
their designs rather than manufacturing them. Arquitectura ARM microprocessors are among the most popular in
the world for embedded applications.
• Freescale Semiconductor (http://www.freescale.com/) (formerly of Motorola) - Freescale Semiconductor,
designer of several embedded and SoC PowerPC based processors.
• IBM Microelectronics (http://www-03.ibm.com/chips/) - Microelectronics division of IBM, which is
responsible for many POWER and PowerPC based designs, including many of the CPU utilized in late video
game consoles.
• Intel Corp (http://www.intel.com/) - Intel, a maker of several notable CPU lines, including IA-32, IA-64, and
XScale. Also a producer of various peripheral chips for use with their CPU.
• MIPS Technologies (http://www.mips.com/) - MIPS Technologies, developers of the MIPS architecture, a
pioneer in RISC designs.
• Sun Microsystems (http://www.sun.com/) - Sun Microsystems, developers of the SPARC architecture, a RISC
design.
• Texas Instruments (http://www.ti.com/home_p_allsc) - Texas Instruments semiconductor division. Designs
and manufactures several types of low power microcontrollers among their many other semiconductor products.
Unidad central de procesamiento 14

• Transmeta (http://www.transmeta.com/) - Transmeta Corporation. Creators of low-power x86 compatibles like


Crusoe and Efficeon.
Lectura adicional
• Processor Design: An Introduction (http://www.gamezero.com/team-0/articles/math_magic/micro/index.
html) - Detailed introduction to microprocessor design. Somewhat incomplete and outdated, but still worthwhile.
• How Microprocessors Work (http://computer.howstuffworks.com/microprocessor.htm).
• Pipelining: An Overview (http://arstechnica.com/articles/paedia/cpu/pipelining-2.ars/2) - Good introduction
to and overview of CPU pipelining techniques by the staff of Ars Technica.
• SIMD Architectures (http://arstechnica.com/articles/paedia/cpu/simd.ars/) - Introduction to and explanation
of SIMD, especially how it relates to personal computers. Also by Ars Technica.
• Listado de procesadores (http://users.erols.com/chare/current_cpus.htm) - Nombres de CPUs y principales
características
.

Overclock
La práctica conocida como
overclocking (antiguamente conocido
como undertiming) pretende alcanzar
una mayor velocidad de reloj para un
componente electrónico (por encima
de las especificaciones del
[1]
fabricante). La idea es conseguir un
rendimiento más alto gratuitamente, o
superar las cuotas actuales de AMD Athlon XP Pantalla del setup del BIOS en una tarjeta madre ABIT NF7-S. El
rendimiento, aunque esto pueda overclock del procesador permite aumentar la frecuencia de 133 MHz a 148 MHz, y el
suponer una pérdida de estabilidad o multiplicador cambió de x13,5 a x16,5

acortar la vida útil del componente.


Overclock es un anglicismo de uso habitual en informática que literalmente significa sobre el reloj, es decir,
aumentar la frecuencia de reloj de la unidad central de procesamiento.

Esta práctica está muy extendida entre los usuarios de informática más exigentes, que tratan de llevar al máximo el
rendimiento de sus máquinas. Algunos usuarios suelen comprar componentes informáticos de bajo coste,
forzándolos posteriormente y alcanzando así el rendimiento esperado de los componentes de gama más alta. Por otro
lado, los consumidores más fanáticos pueden llegar a adquirir componentes de última CRIS SENSU hornada para
forzar su funcionamiento, y conseguir así pruebas de rendimiento inalcanzables para cualquier equipo de consumo.
Por este motivo, la mayoría de los fabricantes decide no incluir en la garantía de su hardware los daños producidos
por hacerles overclocking.
Hoy en día los fabricantes de hardware venden algunos de sus productos desbloqueados para permitir a los usuarios
realizar overclock sobre los mismos;[2] es el caso de, por ejemplo, GPU, CPU, etc.
Overclock 15

Desventajas
Al incrementar la velocidad de trabajo del reloj también se incrementa el consumo de corriente y el calor producido
puede afectar a otros componentes.

Referencias
[1] Definición de Overclocking (http:/ / www. helpoverclocking. com/ spanish/ que_es. htm)
[2] Guía de Overclocking presentada por [[nVidia (http:/ / www. nvidia. com/ docs/ CP/ 45121/ nforce_680i_sli_overclocking. pdf)]]

Enlaces externos
• Segunda Convención Nacional de OC: Overclocking Extremo (http://imperiogamer.com/index.php/juegos/
noticias/item/2367-segunda-convencion-nacional-de-oc-overclocking-extremo-) por Imperio Gamer

Unidad de procesamiento gráfico


La unidad de procesamiento gráfico o GPU (acrónimo del
inglés graphics processing unit) es un coprocesador dedicado
al procesamiento de gráficos u operaciones de coma flotante,
para aligerar la carga de trabajo del procesador central en
aplicaciones como los videojuegos y o aplicaciones 3D
interactivas. De esta forma, mientras gran parte de lo
relacionado con los gráficos se procesa en la GPU, la unidad
central de procesamiento (CPU) puede dedicarse a otro tipo de
cálculos (como la inteligencia artificial o los cálculos
mecánicos en el caso de los videojuegos).

La GPU implementa ciertas operaciones gráficas llamadas


primitivas optimizadas para el procesamiento gráfico. Una de
las primitivas más comunes para el procesamiento gráfico en
Una unidad de procesamiento gráfico.
3D es el antialiasing, que suaviza los bordes de las figuras
para darles un aspecto más realista. Adicionalmente existen
primitivas para dibujar rectángulos, triángulos, círculos y arcos. Las GPU actualmente disponen de gran cantidad de
primitivas, buscando mayor realismo en los efectos.

Las GPU están presentes en las tarjetas gráficas.

Historia
Las modernas GPU son descendientes de los chips gráficos monolíticos de finales de la década de 1970 y 1980.
Estos chips tenían soporte BitBLT limitado en la forma de sprites (si es que tenían dicho soporte del todo), y
usualmente no tenían soporte para dibujo de figuras. Algunos GPU podían ejecutar varias operaciones en una lista de
display y podían usar DireDMA para reducir la carga en el procesador anfitrión; un ejemplo temprano es el
coprocesador ANTIC usado en el Atari 800 y el Atari 5200. Hacia finales de la década de 1980 y principios de la de
1990, los microprocesadores de propósito general de alta velocidad fueron muy populares para implementar las GPU
más avanzadas. Muchas tarjetas gráficas para PC y estaciones de trabajo usaban procesadores digitales de señales
(DSP por sus siglas en inglés) tales como la serie TMS340 de Texas Instruments, para implementar funciones de
dibujo rápidas y muchas impresoras láser contenían un procesador de barrido de imágenes "PostScript" (un caso
especial de GPU) corriendo en un procesador RISC como el AMD 29000.
Unidad de procesamiento gráfico 16

Conforme la tecnología de proceso de semiconductores fue mejorando, eventualmente fue posible mover las
funciones de dibujo y las BitBLT a la misma placa y posteriormente al mismo chip a manera de un controlador de
búfer de marcos (frames), tal como VGA. Estos aceleradores gráficos de 2D "reducidos" no eran tan flexibles como
los basados en microprocesadores, pero eran mucho más fáciles de hacer y vender. La Commodore AMIGA fue la
primera computadora de producción en masa que incluía una unidad blitter y el sistema gráfico IBM 8514 fue una de
las primeras tarjetas de video para PC en implementar primitivas 2D en hardware.

Diferencias con la CPU


Si bien en un computador genérico no es posible reemplazar la CPU por una GPU, hoy en día las GPU son muy
potentes y pueden incluso superar la frecuencia de reloj de una CPU antigua (más de 500MHz). Pero la potencia de
las GPU y su dramático ritmo de desarrollo reciente se deben a dos factores diferentes. El primer factor es la alta
especialización de las GPU, ya que al estar pensadas para desarrollar una sola tarea, es posible dedicar más silicio en
su diseño para llevar a cabo esa tarea más eficientemente. Por ejemplo, las GPU actuales están optimizadas para
cálculo con valores en coma flotante, predominantes en los gráficos 3D.
Por otro lado, muchas aplicaciones gráficas conllevan un alto grado de paralelismo inherente, al ser sus unidades
fundamentales de cálculo (vértices y píxeles) completamente independientes. Por tanto, es una buena estrategia usar
la fuerza bruta en las GPU para completar más cálculos en el mismo tiempo. Los modelos actuales de GPU suelen
tener cientos de procesadores shader unificados que son capaces de actuar como vertex shaders), y como pixel
shaders, o fragment shaders). De este modo, una frecuencia de reloj de unos 600 MHz-1 GHz (el estándar hoy en día
en las GPU de más potencia), muy baja en comparación con lo ofrecido por las CPU (3,8-4 GHz en los modelos más
potentes, no necesariamente más eficientes), se traduce en una potencia de cálculo mucho mayor gracias a su
arquitectura en paralelo.
Una de las mayores diferencias con la CPU estriba en su arquitectura. A diferencia del procesador central, que tiene
una arquitectura de von Neumann, la GPU se basa en el Modelo Circulante. Este modelo facilita el procesamiento en
paralelo, y la gran segmentación que posee la GPU para sus tareas.

Arquitectura de la GPU
Una GPU está altamente segmentada, lo que indica que posee gran cantidad de unidades funcionales. Estas unidades
funcionales se pueden dividir principalmente en dos: aquéllas que procesan vértices, y aquéllas que procesan píxeles.
Por tanto, se establecen el vértice y el píxel como las principales unidades que maneja la GPU.
Adicionalmente, y no con menos importancia, se encuentra la memoria. Ésta destaca por su rapidez, y va a jugar
un papel relevante a la hora de almacenar los resultados intermedios de las operaciones y las texturas que se utilicen.
Inicialmente, a la GPU le llega la información de la CPU en forma de vértices. El primer tratamiento que reciben
estos vértices se realiza en el vertex shader. Aquí se realizan transformaciones como la rotación o el movimiento de
las figuras. Tras esto, se define la parte de estos vértices que se va a ver (clipping), y los vértices se transforman en
píxeles mediante el proceso de rasterización. Estas etapas no poseen una carga relevante para la GPU.
Donde sí se encuentra el principal cuello de botella del chip gráfico es en el siguiente paso: el pixel shader. Aquí se
realizan las transformaciones referentes a los píxeles, tales como la aplicación de texturas. Cuando se ha realizado
todo esto, y antes de almacenar los píxeles en la caché, se aplican algunos efectos como el antialiasing, blending y el
efecto niebla.
Otras unidades funcionales llamadas ROP toman la información guardada en la caché y preparan los píxeles para su
visualización. También pueden encargarse de aplicar algunos efectos. Tras esto, se almacena la salida en el frame
buffer. Ahora hay dos opciones: o tomar directamente estos píxeles para su representación en un monitor digital, o
generar una señal analógica a partir de ellos, para monitores analógicos. Si es este último caso, han de pasar por un
DAC, Digital-Analog Converter, para ser finalmente mostrados en pantalla.
Unidad de procesamiento gráfico 17

Programación de la GPU
Al inicio, la programación de la GPU se realizaba con llamadas a servicios de interrupción de la BIOS. Tras esto, la
programación de la GPU se empezó a hacer en el lenguaje ensamblador específico a cada modelo. Posteriormente, se
introdujo un nivel más entre el hardware y el software, con la creación de interfaces de programación de aplicaciones
(API) específicas para gráficos, que proporcionaron un lenguaje más homogéneo para los modelos existentes en el
mercado. La primera API usada ampliamente fue el estándar abierto OpenGL (Open Graphics Language), tras el cual
Microsoft desarrolló DirectX.
Tras el desarrollo de API, se decidió crear un lenguaje más natural y cercano al programador.

Cálculos de la GPU para propósito general


Se intenta aprovechar la gran potencia de cálculo de las GPU para aplicaciones no relacionadas con los gráficos, en
lo que desde recientemente se viene a llamar GPGPU, o GPU de propósito general (General Purpose GPU, en sus
siglas en inglés).

Intel Corporation
Intel Corporation

Sponsors of Tomorrow (Patrocinando el Futuro)

Tipo Privada
[1]
NASDAQ: INTC
[2] [3]
Euronext: INCO SEHK: 4335
Dow Jones Component
NASDAQ-100 Component

Industria Semiconductores

Fundación Mountain View (California),


18 de julio de 1968 (45 años)

Fundador(es) Gordon Moore, Robert Noyce

Sede Santa Clara, California, Estados Unidos

Coordenadas [4]
Coordenadas: 37°23′16.54″N 121°57′48.74″O

Ámbito Mundial

Productos Microprocesadores
Memoria
Placas base
Chipset
Tarjeta de red
Bluetooth

Ingresos [5]
US$ 53,750 billones (2012)
Intel Corporation 18

Beneficio de explotación [6]


US$ 33,760 billones (2012)

Beneficio neto [7]


US$ 11.150 billones (2012)
[8]
• Valor de la empresa en 2012: US$ 105.500 millones

Activos US$ 84.360 millones (2012)

Capital social US$ 51.200 millones (2012)

CEO Brian Krzanich

Presidente Jhonatan Martínez

Empleados 82.500 (2010)

Filiales McAfee

Sitio web [9]


www.intel.com

Intel Corporation es el mayor fabricante de circuitos


integrados del mundo, según su cifra de negocio
anual.[10] La compañía estadounidense es la creadora
de la serie de procesadores x86, los procesadores más
comúnmente encontrados en la mayoría de las
computadoras personales. Intel fue fundada el 18 de
julio de 1968 como Integrated Electronics Corporation
(aunque un error común es el de que "Intel" viene de la
palabra intelligence) por los pioneros en Antiguo logotipo de Intel.
semiconductores Robert Noyce y Gordon Moore, y
muchas veces asociados con la dirección ejecutiva y la
visión de Andrew Grove.

Historia
Intel fue fundada en Mountain View (California) en
1968 por Gordon E. Moore (químico y físico, famoso
por su "Ley de Moore") y Robert Noyce (físico y
co-inventor del circuito integrado) cuando salieron de
Fairchild Semiconductor. El tercer empleado de Intel
fue Andy Grove,[11] un ingeniero químico, que dirigió
la compañía durante la mayor parte de los años 1980 y Sede central de Intel Corporation.
del período de alto crecimiento de los 1990.

Moore y Noyce inicialmente quisieron llamar a la compañía "Moore Noyce"., pero sonaba mal (ya que en inglés
suena como More Noise, que literalmente significa: Más Ruido, un nombre poco adecuado para una empresa
electrónica, ya que el ruido en electrónica suele ser muy indeseable y normalmente se asocia con malas
interferencias). Utilizaron el nombre NM Electronics durante casi un año, antes de decidirse a llamar a su compañía
Integrated Electronics (en
Intel Corporation 19

español Electrónica Integrada), abreviado "Intel". Pero


"Intel" estaba registrado por una cadena hotelera, por lo
que tuvieron que comprar los derechos para poder
utilizarlo.
El 58% de las ventas de Intel proceden de fuera de los
Estados Unidos.
Intel domina el mercado de los microprocesadores.
Actualmente, el principal competidor de Intel en el
mercado es Advanced Micro Devices (AMD), empresa
con la que Intel tuvo acuerdos de compartición de
tecnología: cada socio podía utilizar las innovaciones La planta de microprocesadores de Intel en Costa Rica es responsable
tecnológicas patentadas de la otra parte sin ningún del 20% de las exportaciones nacionales y 4,9% del PIB del país.

costo y con la que se ha visto envuelta en pleitos


cruzados. El otro histórico competidor en el mercado x86, Cyrix, ha acabado integrado en VIA Technologies, que
mantiene el VIA C3 en el mercado de los equipos de bajo consumo. Por contra, el auge de los equipos con
procesadores con núcleo ARM que amenazan devorar la parte móvil del mercado PC, se está convirtiendo en un
rival más serio.

El 6 de junio de 2005 Intel llegó a un acuerdo con Apple Computer, por el que Intel proveerá procesadores para los
ordenadores de Apple, realizándose entre 2006 y 2007 la transición desde los tradicionales IBM. Finalmente, en
enero de 2006 se presentaron al mercado las primeras computadoras de Apple, una portátil y otra de escritorio, con
procesadores Intel Core Duo de doble núcleo.
Intel está desarrollando un proyecto llamado Tera Scale Computing. Este equipo logró un procesador de 80 núcleos
con un consumo de 62 vatios que alcanzó 1 Teraflop. Han hecho una mejora que llega a los 2 Teraflops; esto lo han
conseguido mejorando la refrigeración y optimizando los núcleos, y han conseguido subir la frecuencia hasta 6,26
GHz. Tiene un consumo de 160,17 vatios; se ha optimizado de tal manera que a la frecuencia de 3,13 GHz consume
sólo 24 vatios, cuando está inactivo sólo consume 3,32 vatios y sólo mantiene 4 núcleos activos.

Venta del negocio de procesadores XScale


El 27 de junio de 2006 se anunció la venta del negocio de procesadores Intel XScale. Intel acordó vender el negocio
del procesador XScale a Marvell Technology Group por un precio estimado de 600 millones de dólares (lo había
comprado por 1.600 millones) en efectivo y la asunción de pasivos sin especificar. La medida tenía por objeto
permitir a Intel concentrar sus recursos en el negocio del núcleo x86 y los servidores de negocios. La adquisición se
completó el 9 de noviembre de 2006.

Adquisiciones
En agosto de 2010, Intel anunció dos importantes adquisiciones. El 19 de agosto de 2010, Intel anunció que planeaba
comprar McAfee, compañía de software de seguridad informática cuyo producto más conocido es el antivirus
McAfee VirusScan. Al mismo tiempo McAfee ya había anunciado la inversión en empresas especializadas a su vez
en seguridad de dispositivos móviles, como tenCube y Trust Digital, pese a haber obtenido bajos resultados en el
último trimestre. El precio de compra fue de 7.680 millones de dólares, y las empresas dijeron que si el acuerdo se
aprobaba los nuevos productos que se lanzarían a principios de 2011.
Menos de dos semanas después, la compañía anunció la adquisición del negocio de soluciones inalámbricas de
Infineon Technologies.[12] Con esta compra, Intel planea utilizar la tecnología de la compañía en los ordenadores
portátiles, teléfonos inteligentes, netbooks, tabletas y los ordenadores integrados en los productos de consumo, para
finalmente integrar su módem inalámbrico en los chips de silicio de Intel.[13] Intel logró la aprobación para la
Intel Corporation 20

adquisición de McAfee el 26 de enero de 2011, cerrándose la compra definitiva en esa fecha. Intel accedió a
garantizar que las empresas de seguridad competidoras tuvieran acceso a toda la información necesaria que
permitiera a sus productos usar los chips de Intel y los ordenadores personales.
Tras el cierre de la oferta de McAfee, la fuerza laboral de Intel asciende a unas 90.000 personas, incluidos los
(aproximadamente) 12 000 ingenieros de software.[14]
En marzo de 2011, Intel compró la mayor parte de los activos de SySDSoft,[15] empresa con sede en El Cairo.

Productos e historia del mercado


El éxito comenzó modestamente cuando consiguieron que la compañía japonesa Busicom les encargase una remesa
de microprocesadores para sus calculadoras programables. Pese a las indicaciones de los japoneses, el ingeniero Ted
Hoff diseñó un chip revolucionario que podía ser utilizado en muchos otros dispositivos sin necesidad de ser
rediseñado. Los chicos de Intel enseguida se dieron cuenta del potencial de este producto, capaz de dotar de
‘inteligencia’ a muchas máquinas ‘tontas’. El único problema era que Busicom poseía los derechos, y para
recuperarlos Intel tuvo que pagarles 60.000 dólares.
En 1971 nació el primer microprocesador (en aquella época aún no se les conocía por ese nombre). El potentísimo
Intel 4004 estaba compuesto por 4 de estos chips y otros 2 chips de memoria. Este conjunto de 2.300 transistores que
ejecutaba 60.000 operaciones por segundo se puso a la venta por 200 dólares. Muy pronto Intel comercializó el Intel
8008, capaz de procesar el doble de datos que su antecesor y que inundó los aparatos de aeropuertos, restaurantes,
salones recreativos, hospitales, gasolineras...
En 1981 Intel desarrolló los procesadores Intel 8086 y 8088 (de 16 bits y 8 bits de bus de datos, para ambos con el
mismo conjunto de instrucciones) que acumularon la friolera de 2.500 premios de diseño en un solo año. IBM
selecciona el 8088 para su IBM PC (acude por primera vez a un fabricante externo) y esto crea el inmenso mercado
del compatible IBM PC. En 1982 apareció el revolucionario Intel 80286, equipado con 134.000 transistores y el
primero en ofrecer compatibilidad de software con sus predecesores.
En 1985 llegó el Intel 80386, un micro de 32 bits y 275.000 transistores que fue rápidamente adoptado por Compaq
para su computadora personal Compaq Deskpro 386. Cuatro años después llegaría el robusto Intel 80486 de 1,2
millones de transistores.
En 1993 Intel comienza a desarrollar la línea Pentium, plena de nuevos estándares y de transistores, y con 5 veces
más capacidad que el 486. Después llegará el Pentium Pro y en 1997 incluye en sus procesadores la tecnología
MMX. En mayo de 1997 aparece el Intel Pentium II, un año más tarde el Pentium II Xeon, tras el que llegaría el
Intel Pentium III.
Dentro de los microprocesadores de Intel debemos destacar las tecnologías multinúcleo implementadas en los
procesadores Pentium D y Core 2 Duo, la tecnología móvil Centrino desarrollada para el mercado de portátiles y la
tecnología Hyper-Threading integrada en los procesadores Intel Pentium 4 y procesadores Intel Core i7.
Actualmente han lanzado al mercado un nuevo procesador, denominado Intel Core i7, el más rápido en el campo de
los Pc's por ahora. Este procesador reemplazará a los procesadores Core 2 Duo. El rival a batir sin duda es el Cell de
IBM con sus 8 núcleos a 3,2 GHz cada uno, pasando de los 24 GFlops/s.

Planes para miniportátiles, tabletas y móviles inteligentes


En 2008, Intel lanzó una nueva gama de procesadores llamados Intel Atom. Estos nuevos procesadores son muy
pequeños y están diseñados para equipos MID (Mobile Internet Devices, Dispositivos Móviles de Internet) y
netbooks. Están disponibles también bajo la plataforma Intel Centrino Atom y en dos núcleos (recientemente
lanzado). Copan mayoritariamente el mercado de Netbooks, con una presencia residual de equipos con AMD Geode
o VIA, y con la ayuda del chipset Ion de nVIDIA se están haciendo con el mercado del Home theater ofreciendo
reproducción Full HD en equipos de muy bajo coste, consumo y espacio.
Intel Corporation 21

En junio de 2011, Intel comienza a trazar su diseño de chips y los planes de fabricación para penetrar en el mercado
de tablets y smartphones, en el que no es competitivo todavía. Su primer sistema en un chip para las tabletas y
teléfonos inteligentes, con nombre en código Medfield, llegará en el primer semestre de 2012, seguido por la
tecnología Clover Trail en la segunda mitad de 2012.[16] Medfield combina una CPU Atom con un número de
núcleos especializados para funciones tales como la aceleración de gráficos. Reemplaza a Moorestown, un chip de
Intel diseñado para smartphones pero nunca utilizado en ninguno.[17] Medfield comenzará a fabricarse en 32
nanometros, e Intel espera comenzar a fabricarlos en 22 nanometros en 2011.
También en 2011, presentó la iniciativa para crear unos ordenadores ultraligeros sin comprometer su capacidad de
procesamiento, los llamados ultrabooks.

Innovaciones y fracasos
Durante los años 90, Intel fue responsable de muchas de las innovaciones del hardware de los computadores
personales, incluyendo los buses USB, PCI, AGP y PCI-Express.
Pero Intel no siempre tuvo la visión de futuro acertada. Moore recuerda como a mediados de los 70 le propusieron
comercializar el 8080 equipado con un teclado y un monitor orientado al mercado doméstico. Es decir, le estaban
proponiendo ser los pioneros en el mundo de las computadoras personales. Pero no vieron la utilidad de esos
aparatos, y descartaron la idea.
Ejemplos más cercanos son el empleo de la RDRAM de los módulos RIMM y el Slot 1 en los Intel Pentium II/Intel
Pentium III, medidas tomadas para afianzar el dominio del mercado a golpe de patente, y que se acabaron volviendo
en su contra al forzar a sus competidores a innovar y abaratar costes, logrando AMD llevar a buen puerto el primer
procesador de 64 bits de la x86-64 que además mantenía la compatibilidad x86 (mientras que Intel llevaba años
encallado en el Intel Itanium).
La falta de implantación de USB 3 en sus chipsets puede acabar siendo otro error similar, causado por tratar de
promocionar Thunderbolt sobre una solución aceptada por toda la industria.
Larrabee fue una innovadora idea sobre cómo llevar la arquitectura IA-32 al campo de las GPU. Sin embargo, debido
al pésimo rendimiento que obtuvieron en las primeras pruebas, la investigación fue cancelada. A partir de ahí Intel
decidió crear la arquitectura Intel MIC, una implementación basada en la idea GPGPU pero utilizando arquitectura
IA-32.
En noviembre de 2011 Intel reveló una de sus últimas y más ambiciosas metas, el Knights Corner, capaz de generar
1 teraflop de capacidad de procesamiento, con la tecnología 3D Tri-gate de 22nm. Lo más asombroso es que los
superordenadores podrían utilizar los mini supermicroprocesadores sin ocupar más espacio que los anteriores, con
sus más de 50 núcleos de potencia.
En 2013, según Booz and Company, Intel Corporation ocupó el curato lugar entre las empresas más innovadoras del
mundo. Intel Corporation gastó 10,1 billónes de dólares en 2013 para la Investigación y desarrollo, o 19% de su
factura [18].

Personalidades
• Gordon E. Moore ha sido cofundador, vicepresidente y CEO de Intel. Desde 1997 es consejero emérito. Moore,
de 71 años y doctorado en Química y en Física, es conocido en todo el mundo por haber afirmado en 1965 que la
capacidad de los microprocesadores se doblaría cada año y medio. Es la espectacular y discutida Ley de Moore.
• Andrew S. Grove, químico nacido en Hungría en 1936, participó en la fundación de Intel. En 1979 fue nombrado
presidente y en 1987 CEO, cargo que ocupó hasta mayo de 1997. Actualmente ocupa el cargo de consejero. Es
famoso por su lema "Sólo los paranoicos sobreviven".
• Craig R. Barrett, de 61 años, se unió a la compañía en 1974. En 1984 fue nombrado vicepresidente; en 1992 fue
elegido para formar parte del consejo de dirección y en 1993 pasó a ser jefe de operaciones. Sucede a Grove como
Intel Corporation 22

CEO de Intel, y se retira en 2009. Después de retirarse de Intel, se unió a la facultad de la Thunderbird School of
Global Management, en Glendale, Arizona

Acusaciones
Un documento presentado por AMD en mayo de 2008 en el tribunal de Delaware retomado asimismo por The Wall
Street Journal, cuestiona tratos con multinacionales y empresas japonesas sospechosas de estrategias monopolistas.
La empresa rival AMD ha hecho numerosas acusaciones con pruebas acerca de supuestas presiones a compañías por
parte de Intel para que no adquieran otros productos más que de esta firma, permaneciendo como líder del sector en
chips.
Intel ha negado cada una de estas acusaciones.

Cooperación
En un caso inusual de cooperación entre las empresas, AMD devolvió a Intel tecnología del Pentium robada y
supuestamente enviada por Bill Gaede desde la Argentina a AMD en Sunnyvale, California. Ambas empresas
cooperaron entre ellas y con el FBI en lograr la detención de Gaede.[19]

Multa de la Unión Europea


En mayo de 2009, la Unión Europea multó con 1 850 millones de dólares a Intel debido a que amenazó a todos los
fabricantes de computadoras con eliminar los descuentos si no compraban casi todos o todos los chips que
necesitaban, que retrasaran el lanzamiento de computadoras con microprocesadores de AMD, y pagó a Media Saturn
Holding para que vendiera sólo computadoras con procesadores Intel.

Instalaciones
El centro de operaciones de Intel está localizado en Santa Clara, California. La compañía también tiene instalaciones
en Argentina, China, Costa Rica, Malasia, México, Israel, Irlanda, India, Filipinas y Rusia. En los Estados Unidos
Intel emplea a más de 45.000 personas en Colorado, Massachusetts, Arizona, Nuevo México, Oregón, Texas,
Washington y Utah.

Soporte Open Source


Intel tiene una participación significativa en las comunidades open source. Por ejemplo en el año 2006 Intel publicó
bajo la licencia MIT X.org controladores para sus tarjetas gráficas. En otras ocasiones Intel publicó controladores de
red para FreeBSD disponibles bajo licencia BSD, portados también a OpenBSD. Intel también ha publicado el
núcleo de EFI bajo una licencia BSD-compatible. Por último Intel ha participado en el proyecto Moblin y en la
campaña LessWatts.org.
Sin embargo Intel también ha sido criticada porque los controladores de sus tarjetas inalámbricas están distribuidos
bajo una licencia privativa. También otras empresas y comunidades, como Linspire, han criticado a Intel. En
especial, quien ha criticado estas tácticas es Michael Robertson porque estas tácticas solo benefician a Microsoft.
También Theo de Raadt, creador del proyecto OpenBSD, ha criticado esto diciendo en una conferencia sobre open
source que el soporte open source de Intel es "an Open Source fraud" (un fraude para el código abierto).
Intel Corporation 23

Referencias
[1] http:/ / www. nasdaq. com/ symbol/ INTC
[2] http:/ / www. euronext. com/ initsession/ 0,4157,1732_4794711,00. html?matchpattern=INCO& searchTarget=quote&
path=%2Fquicksearch& fromsearchbox=true& productFamily=& submit. x=12& submit. y=11
[3] http:/ / www. hkex. com. hk/ eng/ invest/ company/ quote_page_e. asp?WidCoID=4335& WidCoAbbName=& Month=& langcode=e
[4] http:/ / toolserver. org/ ~geohack/ geohack. php?pagename=Intel_Corporation& language=es& params=37_23_16. 54_N_121_57_48.
74_W_type:landmark
[5] http:/ / es. finance. yahoo. com/ q/ ks?s=INTC
[6] http:/ / es. finance. yahoo. com/ q/ ks?s=INTC
[7] http:/ / es. finance. yahoo. com/ q/ ks?s=INTC
[8] http:/ / es. finance. yahoo. com/ q/ ks?s=INTC
[9] http:/ / www. intel. com/
[10] Intel 2007 Annual Report (http:/ / media. corporate-ir. net/ media_files/ irol/ 10/ 101302/ 2007annualReport/ common/ pdfs/ intel_2007ar.
pdf)
[11] El artículo sobre Andrew Grove explica cómo por un error administrativo intercambiaron los números de identificación de empleado de
Grove y la cuarta empleada, Leslie L. Vadász, a quien Grove había contratado.
[12] Intel buys Infineon's wireless wing for 4G lift-off (http:/ / www. zdnet. co. uk/ news/ mobile-devices/ 2010/ 08/ 31/
intel-buys-infineons-wireless-wing-for-4g-lift-off-40089960/ ), a August 31, 2010, ZDNet
[13] Intel CFO Talks About Acquisition Strategy (http:/ / www. institutionalinvestor. com/ Article. aspx?ArticleID=2726870), Institutional
Investor
[14] "Microsoft Alliance With Intel Shows Age" (http:/ / online. wsj. com/ article/ SB10001424052748703808704576062073117494078. html),
January 4, 2011 Wall Street Journal article
[15] Dean Takahashi, VentureBeat. " Intel buys 4G wireless software firm SySDSoft (http:/ / venturebeat. com/ 2011/ 03/ 14/
intel-buys-4g-lte-sysdsoft-in-egypt/ )." March 14, 2011. Retrieved March 17, 2011.
[16] Brooke Crothers, CNET. " Intel maps out tablet plans through 2014 (http:/ / news. cnet. com/ 8301-13924_3-20075602-64/
intel-maps-out-tablet-plans-through-2014/ ?part=rss& subj=news& tag=2547-1_3-0-20)." Jun 30, 2011. Retrieved Jul 1, 2011.
[17] Agam Shah, IDG News. " Intel's New Smartphone Chip Is Key ARM Battle (http:/ / www. pcworld. com/ article/ 229596/
intels_new_smartphone_chip_is_key_arm_battle. html)." Jun 7, 2011. Retrieved Jul 8, 2011.
[18] Le top 20 des entreprises les plus innovantes du monde (http:/ / www. challenges. fr/ galeries-photos/ galeries-photos/ 20111028. CHA6249/
facebook-entre-dans-le-classement-des-10-entreprises-les-plus-innovantes. html), Challenges, 22 de octubre 2013
[19] Declaraciόn Jurada del Agente Especial del FBI David J. Johnson, Denuncia Criminal 5 95 175 PVT, San Jose, California, 22 de septiembre
de 1995

Enlaces externos
• Wikimedia Commons alberga contenido multimedia sobre Intel Corporation. Commons
• Wikinoticias tiene noticias relacionadas con Intel Corporation.Wikinoticias
• Sitio web oficial de Intel (http://www.intel.com/espanol)
• Artículo (http://interactivo.wsj.com/documents/ind-prof-12.htm) de The Wall Street Journal
• La comisión Europea multa a Intel por 1.060 millones de euros (http://www.electronista.com/articles/09/05/
13/intel.fined.1.45b.by.eu/)
• Productos Intel 2010 (http://www.mendozagamers.com/index.php/pc/noti/
495-ces10-intel-revela-su-nueva-familia-de-procesadores)
• Knights Corner (http://communities.intel.com/community/openportit/server/blog/2011/11/15/
supercomputing-2011-day-2-knights-corner-shown-at-1tf-per-socket?wapkw=Knights Corner/)
Advanced Micro Devices 24

Advanced Micro Devices


Advanced Micro Devices, Inc.

"The Future Is Fusion"

Tipo Public company


Comp. S&P 500

Industria Semiconductores

Fundación 1969

Fundador(es) Jerry Sanders


Edwin Turney

Sede One AMD Place,


Sunnyvale, California, EE. UU.

Administración Bruce Claflin


(Presidente ejecutivo)
Rory Read (CEO)

Productos Microprocesadores
Motherboard chipsets
Procesadores gráficos
[1]
Memoria RAM
[2]
TV tuner cards

Ingresos [3]
US$ 5.960 millones (2012)

Beneficio de explotación [4]


US$ 2.940 millones (2012)

Beneficio neto [5]


US$ -179 millones (2012)
[6]
• Valor de la empresa en 2012: US$ 2.430 millones

Empleados 11.705 (2012)

Filiales ATI Technologies

Sitio web [7]


AMD.com

Advanced Micro Devices, Inc. (NYSE: AMD [8]) o AMD es una compañía estadounidense de semiconductores
establecida en Sunnyvale, California, que desarrolla procesadores de cómputo y productos tecnológicos relacionados
para el mercado de consumo. Sus productos principales incluyen microprocesadores, chipsets para placas base,
circuitos integrados auxiliares, procesadores embebidos y procesadores gráficos para servidores, estaciones de
trabajo, computadores personales y aplicaciones para sistemas embedidos.
AMD es el segundo proveedor de microprocesadores basados en la arquitectura x86 y también uno de los más
grandes fabricantes de unidades de procesamiento gráfico. También posee un 8,6% de Spansion, un proveedor de
memoria flash no volátil.) En 2011, AMD se ubicó en el lugar 11 en la lista de fabricantes de semiconductores en
términos de ingresos.
Advanced Micro Devices 25

Historia Corporativa
Advanced Micro Devices se fundó el 1 de mayo de
1969 por un grupo de ejecutivos de Fairchild
Semiconductor, incluidos Jerry Sanders III, Edwin
Turney, John Carey, Sven Simonsen, Jack Gifford y 3
miembros del equipo de Gifford, Frank Botte, Jim
Giles y Larry Stenger. La compañía empezó a producir
circuitos integrados lógicos, luego entró en el negocio
de las memorias RAM en 1975. Ese mismo año hizo un
clon de microprocesador Intel 8080 mediante técnicas
de ingeniería inversa. Durante este período, AMD Sede de AMD en Sunnyvale, California
también diseñó y produjo una serie de procesadores Bit
slicing (Am2901, Am29116, Am293xx) que fueron
usados en varios diseños de microcomputadores.

Durante ese tiempo, AMD intentó cambiar la


percepción que se tenía del RISC con sus procesadores
AMD 29k y trató de diversificarlo introduciendo
unidades gráficas y de video así como memorias
EPROM. Esto tuvo su éxito a mediados de 1980 con el
AMD7910 y AMD7911, unas de las primeras unidades
que soportaban varios estándares tanto Bell como
CCITT en 1200 baudios half duplex o 300/300 full
duplex. El AMD 29k sobrevivió como un procesador
embebido y AMD spin-off Spansion pasó a ser líder en
la producción de Memorias flash. AMD decide cambiar AMD Markham en Canadá, antiguamente sede de ATI

de rumbo y concentrarse únicamente en los


microprocesadores compatibles con Intel, colocándolo
directamente en competencia con este y las memorias
flash destinarlas a mercados secundarios.

AMD anuncia la adquisición de ATI Technologies el


24 de julio de 2006. AMD paga 4,3 mil millones de
dólares en efectivo y 58 millones en acciones por un
total de 5,4 mil millones. La adquisición se completó el
25 de octubre de 2006 y ahora ATI es parte de AMD.
En diciembre de 2006 se comunicó a AMD y a su
principal competidor, Nvidia, que podrían estar
violando leyes antimonopólicas incluyendo la
capacidad de fijar precios. LEED de AMD campo Lone Star en Austin, Texas
En octubre de 2008, AMD anunció planes para escindir
las operaciones de fabricación en forma de una empresa conjunta multimillonaria con la tecnoloógica Advanced
Investment Co., una compañía de inversiones formada por el gobierno de Abu Dhabi. La nueva empresa se llama
GlobalFoundries Inc.. Esta alianza permitiría a AMD centrarse únicamente en el diseño de chips. La escisión estuvo
acompañada por la pérdida de cerca de 1.000 puestos de trabajo, o alrededor del 10% de la fuerza laboral mundial de
AMD.
Advanced Micro Devices 26

En agosto de 2011, AMD anunció que el ex ejecutivo de Lenovo Rory Read se uniría a la compañía como director
general, después de Dirk Meyer. [9]
AMD anunció en noviembre de 2011 los planes para despedir a más del 10% (1.400) de los empleados de todas las
divisiones en todo el mundo. Esta acción sería completada en Q1 2012 con la mayoría de los despidos efectuados
antes de la Navidad de 2011. AMD anunció en octubre de 2012 que tiene previsto despedir un 15% adicional de su
fuerza de trabajo con una fecha de vigencia indeterminada para reducir los costos de cara a la disminución de los
ingresos por ventas.
AMD adquirió el fabricante de servidores de bajo consumo SeaMicro a principios de 2012 como parte de una
estrategia para recuperar la cuota de mercado perdida en el mercado de los chips de servidor.

Historia de lanzamientos al mercado

8086, Am286, Am386, Am486, Am5x86


En 1982 AMD firmó un contrato con Intel, convirtiéndose en otro fabricante licenciatario de procesadores 8086 y
8088, esto porque IBM quería usar Intel 8088 en sus IBM PC, pero las políticas de IBM de la época exigían al
menos dos proveedores para sus chips. AMD produjo después, bajo el mismo acuerdo, procesadores 80286, o 286,
pero Intel canceló el contrato en 1986, rehusándose a revelar detalles técnicos del i386. La creciente popularidad del
mercado de los clones de PC significaba que Intel podría producir CPUs según sus propios términos y no según los
de IBM.
AMD apeló esa decisión y posteriormente ganó bajo arbitraje judicial. Comenzó un largo proceso judicial que solo
acabaría en 1991, cuando la Suprema Corte de California finalmente falló a favor de AMD, y forzó a Intel a pagar
más de 1000 millones de dólares en compensación por violación de contrato. Disputas legales subsiguientes se
centraron en si AMD tenía o no derechos legales de usar derivados del microcódigo de Intel. Los fallos fueron
favoreciendo a las dos partes. En vista de la incertidumbre, AMD se vio forzado a desarrollar versiones "en limpio"
del código de Intel. Así, mientras un equipo de ingeniería describía las funciones del código, un segundo equipo sin
acceso al código original debía desarrollar microcódigo que realizara las mismas funciones.
Llegado este punto, Jerry Sanders bien pudo retirarse del mercado. Pero en 1991 AMD lanza el Am386, su clon del
procesador Intel 80386. En menos de un año AMD vendió un millón de unidades. El 386DX-40 de AMD fue muy
popular entre los pequeños fabricantes independientes. Luego, en 1993 llegó Am486 que, al igual que su antecesor
se vendió a un precio significativamente menor que las versiones de Intel. Am486 fue utilizado en numerosos
equipos OEM e incluso por Compaq probando su popularidad. Pero nuevamente se trataba de un clon de la
tecnología Intel; y a medida que los ciclos de la industria de las PC se acortaban, seguir clonando productos de Intel
era una estrategia cada vez menos viable dado que AMD siempre estaría tras Intel.
El 30 de diciembre de 1994, la Suprema Corte de California finalmente negó a AMD el derecho de usar microcódigo
de i386. Posteriormente, un acuerdo entre las dos empresas (cuyos términos aun siguen en el mayor de los secretos)
permitió a AMD producir y vender microprocesadores con microcódigo de Intel 286, 386, y 486. El acuerdo parece
haber permitido algunos licenciamientos cruzados de patentes, permitiendo a ambas partes el uso de innovaciones
tecnológicas sin pago de derechos. Más allá de los detalles concretos del acuerdo, desde entonces no hubo acciones
legales significativas entre las empresas.
Advanced Micro Devices 27

K5, K6, Athlon, Duron y Sempron


El primer procesador x86 completamente fabricado por AMD fue el K5 lanzado en 1996. La "K" es una referencia a
la kriptonita, que según de la tradición del cómic, es la única sustancia, que puede perjudicar a Superman, una clara
referencia a Intel, que dominaba en el mercado en ese momento, como "Superman". El número "5" se refiere a la
quinta generación de procesadores, en la cual Intel introdujo el nombre Pentium debido a que la Oficina de Patentes
de los EE.UU. dictaminó que un sólo número no podía ser registrado como marca.
En 1996, AMD adquirió NexGen principalmente por los derechos de la serie NX de procesadores compatibles con
x86. AMD dio al equipo de diseño de NexGen un edificio propio, los dejó solos, y les dio tiempo y dinero para
reelaborar el Nx686. El resultado fue el procesador K6, introducido en 1997. Aunque el K6 se basó en el Socket 7,
algunas versiones como el K6-3/450 fueron más rápidas que el Pentium II de Intel (procesador de sexta generación).
El K7 es el procesador de séptima generación x86 de AMD, haciendo su debut el 23 de junio de 1999, bajo la marca
Athlon. A diferencia de los procesadores anteriores de AMD, no podría ser utilizado en las mismas tarjetas madre,
debido a problemas de licencia sobre el Slot 1 de Intel, AMD decide entonces usar como nombre la letra "A" que
hace referencia al bus del procesador Alpha. Duron fue una versión limitada y de menor costo del Athlon (64KB en
lugar de 256KB L2 de caché) con un socket de 462-pin PGA (Socket A) o soldado directamente a la tarjeta madre.
Sempron fue lanzado como un procesador Athlon XP de menor costo sustituyendo al Duron en el socket "A" PGA,
desde entonces se ha mantenido y actualizado esta línea hasta el socket AM3.
El 9 de octubre de 2001, fue lanzado el Athlon XP, seguido por el Athlon XP con 512 KB de caché L2 el 10 de
febrero de 2003.

AMD64 / K8
K8 es una gran revisión de la arquitectura K7, cuya mejora más notable es el agregado de extensiones de 64 bit sobre
el conjunto de instrucciones x86. Esto es importante para AMD puesto que marca un intento de definir el estándar
x86 e imponerse, en vez de seguir los estándares marcados por Intel. Y al respecto, AMD ha tenido éxito. La historia
ha dado un giro y Microsoft adoptó el conjunto de instrucciones de AMD, dejando a Intel el trabajo de ingeniería
inversa de las especificaciones de AMD (EM64T). Otras características notables de K8 son el aumento de los
registros de propósito general (de 8 a 16 registros), la arquitectura Direct Connect Architecture y el uso de
HyperTransport.
El proyecto AMD64 puede ser la culminación de la visionaria estrategia de Jerry Sanders, cuya meta corporativa
para AMD fue la de convertirla en una poderosa empresa de investigación por derecho propio, y no sólo una fábrica
de clones de bajo precio, con estrechos márgenes de ganancia.
AMD Opteron es la versión para servidores corporativos de K8; y aunque fue concebida por la compañía para
competir contra la línea IA-64 Itanium de Intel, dados los bajos volúmenes de venta y producción de esta última,
compite actualmente con la línea Xeon de Intel.

Turion 64
El procesador AMD Turion 64 es una versión de bajo consumo del procesador AMD Athlon 64 destinada a los
ordenadores portátiles, que salieron a competir contra la tecnología Centrino de Intel. Se presentan en dos series, ML
con un consumo máximo de 35 W y MT con un consumo de 25 W, frente a los 27 W del Intel Pentium M.

Phenom (K10)
En noviembre de 2006, AMD hace público el desarrollo de su nuevo procesador con nombre código "Barcelona",
lanzado a mediados del 2007. Con este procesador se da inicio a la arquitectura K8L.
Tras el dominio total de Intel con su arquitectura "CORE", AMD tuvo que re-diseñar su tecnología de producción y
finalmente dar el salto a los 65nm y a los Quad Core nativos, a diferencia de los Quad FX, que son 2 dual core en
Advanced Micro Devices 28

una misma placa madre. Un Quad core nativo (Monolítico), quiere decir que los cuatro núcleos del procesador son
totalmente independientes entre sí, a diferencia de los "Kentsfield" (2 "Conroe") y los "Clovertown" (2 Kentsfield)
de Intel, y de los Quad FX del propio AMD. Los primeros procesadores en usar el núcleo Barcelona, serán los Quad
Core Opteron.
Características
• Proceso de fabricación de 65nm.
• Configuración y compatibilidad para plataformas multi-socket (4x4).
• 2MB de cache L3. (Compartido para los 4 núcleos).
• 512KB de cache L2. (Para cada núcleo).
• Hyper Transport 3.0
• Soporte para memorias DDR3.
• Soporte para instrucciones extendidas SSE4.

Athlon II y Phenom II
Finalmente, AMD pasó los 65nm a los 45nm en la fabricación con sus nuevos AMD Athlon II y Phenom II. Ambos
emplean tanto Socket AM2+ como AM3, teniendo de esta manera, soporte para DDR3.
• En Dual Core "X2" están los modelos: 555, 560. (Compatibles con AM2+ y AM3). Con un TDP 80W. Con
algunas placas base, se pueden desbloquear los 2 núcleos a los Phenom II X2, así pasaría a ser un Phenom II X4,
con los 4 núcleos funcionando, eso es, por que en el proceso de fabricación, si no pasan los test de calidad y dan
algún fallo, deshabilitan los cores, caché y/o similares. Por ejemplo un Phenom II 965BE de 4 núcleos, le someten
a unas pruebas rigurosas, si uno de sus núcleos tiene fallos, lo deshabilitan y los vende como un modelo inferior.
• En Quad Core "X4" están los modelos: 955BE, 965BE, 970BE. (Compatibles con AM2+ y AM3). Con un TDP
de 125W en la revisión C3, también los hay de 140W, pero eran de una revisión anterior, la C2. Las siglas BE,
significa Black Edition, son los que tienen el multiplicador desbloqueado, para realizar un mejor overclocking.
Estos procesadores son denominado bajo el nombre de Deneb.
• En Six Core "X6" están los modelos: 1055T, 1075T, 1090T, 1100T. (Compatible con AM3). Con un TDP de
140W. Los procesadores 1090T y 1100T son BE. Estos son denominados Thuban

Fusion, Bobcat, Bulldozer y Vishera


Después de la fusión entre AMD y ATI, la iniciativa con el nombre clave fusión anunció que se unirán a la CPU y la
GPU en algunos de sus chips principales, incluyendo un vínculo PCI Express de 16 carriles mínimo para acomodar
periféricos externos PCI Express, lo que elimina completamente la necesidad de un northbridge en la placa base. En
la iniciativa se ve como parte del procesamiento hecho originalmente en la CPU (por ejemplo, operaciones de la
unidad de punto flotante) es trasladado a la GPU, que está mejor optimizada para los cálculos, como cálculos de la
unidad de punto flotante. Esta fusión fue dada a conocer por AMD como una unidad de procesamiento acelerado
(APU).
Llano es ser la segunda APU liberada, dirigida al mercado general. , que incorpora una CPU y GPU en el mismo
chip, así como las funciones de Northbridge, y etiquetados en la nueva línea de tiempo de AMD con el uso de
"Socket FM1 " y memoria DDR3. Estas, sin embargo, no estuvieron basadas el nuevo núcleo bulldozer y de hecho
seria similar al procesador Phenom II "Deneb" que sirve como procesador de gama alta de AMD, hasta el
lanzamiento de las nuevas piezas de 32 nm. El 28 de septiembre de 2011, AMD dijo que en el tercer trimestre de
2011 no tendrá un aumento en los ingresos del 10% como planea antes, debido al problema de la fabricación con los
chips de 32 nm Fusion Llano. [10]
Bulldozer es el nombre clave de AMD para el segundo lanzamiento de CPU para procesadores de escritorio lanzado
el 12 de octubre de 2011. Esta microarquitectura familia 15h es la sucesora de la familia 10h (K10) con
Advanced Micro Devices 29

microarquitectura y metodología de diseño M-SPACE. Bulldozer está diseñado desde cero, no es un desarrollo de
procesadores anteriores. El núcleo está dirigido específicamente a los productos de computación con 10-125 vatios
de TDP. AMD pretende mejorar dramáticamente la eficiencia en el desempeño por watt en aplicaciones de
computación de alto rendimiento (HPC) con núcleos Bulldozer.
Vishera es la serie de procesadores de AMD que sucedió a Bulldozer.
Bobcat es el último núcleo de procesador x86 de AMD destinado a mercado low-power/low-cost.Se puso de
manifiesto durante un discurso del vicepresidente ejecutivo de AMD Henri Richard en Computex 2007 y se puso en
producción Q1 2011. Uno de los principales partidarios fue el vicepresidente ejecutivo Mario A. Rivas quien
consideró que era difícil competir en el mercado x86 con un solo núcleo optimizado para el rango de 10-100 vatios y
promovió activamente el desarrollo de un núcleo más simple con un rango objetivo de 1-10 watts.

Chips basados en arquitectura ARM


AMD tiene previsto lanzar en 2014 un chip ARM para su uso en servidores como una alternativa a los chips actuales
de bajo consumo x86 como parte de una estrategia para recuperar la cuota de mercado perdida en el negocio de chips
de servidor.

Otras plataformas y tecnologías

Iniciativa 50X15
Consiste en que la mitad de la población cuente con la capacidad de conectarse a internet para el 2015; esto se logra
a través de concursos entre universidades de varios países donde desarrollan las mejores soluciones para cada región
del planeta basadas en la tecnología de AMD. Además se cuenta con prestigiosos organismos multilaterales entre los
que podemos encontrar a la FAO y UNICEF

AMD / ATI
Después de completar la compra de ATI en 2006, AMD se reestructura como la única empresa en el mundo que
provee un abanico de soluciones en todos los ramos de microprocesadores, tarjetas gráficas y chipsets. Así también
se convierte en el mayor productor mundial de chips para TV, consolas y telefonía móvil en el mundo, con esto
AMD se convierte hoy en día en el mayor rival de Intel en cuanto a soluciones en semiconductores se
refiere.[cita requerida] A finales del 2010 AMD, de la cual ATI es Filial, anuncio que desde la Serie Radeon HD 6000,
se reemplazara la marca ATI por AMD para ayudar a impulsar las plataformas AMD Vision y AMD Fusion

Sistemas integrados

Geode
En agosto de 2003 AMD compra también la empresa Geode (originalmente Cyrix MediaGX) a National
Semiconductor para extender su línea, ya existente, de productos x86 para sistemas integrados. A mediados de 2004,
lanzó sus procesadores Geode de bajo consumo con velocidad máxima de 1,4 GHz y consumo máximo de 19W.
Existen 3 familias de procesadores dentro de la gama de procesadores Geode:
• AMD Geode LX, especialmente pensado para "Cliente liviano" basados en plataformas x86, "set-top boxes"
interactivos, ordenadores "single-board", Agendas personales (PDAs), y dispositivos móviles para Internet y de
entretenimiento.
• AMD Geode NX, pensado para "Cliente liviano", terminales punto de venta (TPV), kioskos, impresoras de alto
rendimiento y sistemas multimedia para el hogar.
• AMD Geode GX 533@ 10,1W Processor, especialmente pensado para aplicaciones de Internet de banda ancha, y
además con un consumo de tan solo 10,1 W.
Advanced Micro Devices 30

Referencias
[1] http:/ / www. tigerdirect. com/ applications/ Category/ guidedSearch. asp?CatId=10& sel=Mfr%3BMfr_66
[2] http:/ / www. amd. com/ us/ products/ pctv/ tv-wonder-tuners/ Pages/ tv-wonder-tv-tuners-for-the-pc. aspx
[3] http:/ / es. finance. yahoo. com/ q/ ks?s=AMD
[4] http:/ / es. finance. yahoo. com/ q/ ks?s=AMD
[5] http:/ / es. finance. yahoo. com/ q/ ks?s=AMD
[6] http:/ / es. finance. yahoo. com/ q/ ks?s=AMD
[7] http:/ / www. amd. com/
[8] http:/ / www. nyse. com/ about/ listed/ lcddata. html?ticker=AMD
[9] Dylan McGrath, EE Times. " Former IBM, Lenovo exec takes the helm at AMD (http:/ / eetimes. com/ electronics-news/ 4219307/
AMD-appoints-former-Lenovo-exec-CEO)". August 25, 2011. Retrieved August 25, 2011.
[10] Jeffrey Burt, eWeek. " AMD Cuts Q3 Forecast Due to Chip Manufacturing Problems (http:/ / www. eweek. com/ c/ a/
Desktops-and-Notebooks/ AMD-Cuts-Q3-Forecast-Due-to-Chip-Manufacturing-Problems-581901/ )". September 28, 2011. Retrieved October
7, 2011.

Enlaces externos
• Wikimedia Commons alberga contenido multimedia sobre Advanced Micro Devices. Commons
• Sitio web oficial de AMD (http://www.amd.com)
• AMD live (http://www.amdlive.com)
• AMD Developer Central (http://developer.amd.com)
• amd radeon hd 6000 (http://www.amd.com/la/products/desktop/graphics/amd-radeon-hd-6000/Pages/
amd-radeon-hd-6000.aspx)
Coordenadas: 37°23′12.016″N 121°59′55.550″O

Accelerated processing unit


Un Accelerated processing unit en español Unidad de Procesamiento Acelerado, Unidad de Cómputo Acelerado
o simplemente APU, dichos microprocesadores combinan una CPU multinúcleo, una GPU además de un bus de
interconexión de alta velocidad que permite transferir información a mayores velocidades, debido a que se
encuentran en el mismo chip el CPU la GPU y controlador de memoria entre otros, esto es posible gracias a la
miniaturización de los chips actuales procesos de fabricación de entre 40 y 32 nm.
El término unidad de procesamiento acelerado o APU fue utilizado por primera vez en un contexto público en el año
2006.
AMD anunció el lanzamiento de sus microprocesadores APU de 3ª generación para 2014 bajo el nombre de
"Kaveri"; Gozarán de una tecnología de fabricación de 28 nm. No hay que confundir la gama de procesadores
"Richland", lanzada a mediados de 2013, como productos de esta 3ª generación, pues esta, al igual que la gama
"Trinity", corresponden aún a la 2ª, construida en 32 nm.
Accelerated processing unit 31

Enlaces externos
• Accelerator Processor Units (APUs) for non-scientific applications [1]
• AMD APU Fusion [2]

Referencias
[1] http:/ / scalability. org/ ?p=90
[2] http:/ / sites. amd. com/ us/ fusion/ apu/ Pages/ fusion. aspx

AMD CrossFire
Crossfire es el nombre dado al sistema de Multi GPU de ATI/AMD
que fue diseñado como contrapartida al SLI de nVidia. Este sistema
permite, utilizando una placa certificada Crossfire, acoplar hasta cuatro
tarjetas gráficas que soporten dicha tecnología en ranuras PCIe x16. El
ancho de banda total que recibe cada tarjeta dependerá de la
configuración de líneas de transmisión PCIe que tenga el puente norte
incluido en la placa base.

Enlaces externos
• Sitio oficial de ATI CrossFire [1] (en inglés) Logotipo de ATI Crossfire.
• Sitio con información sobre la tecnología ATI CrossFireX [2] (en
inglés)
• Hardocp.com's Análisis de CrossFire [3] (en inglés)

Referencias
[1] http:/ / ati. amd. com/ technology/ crossfire/
[2] http:/ / web. archive. org/ web/ http:/ / www. crossfirex. info/ index. htm
[3] http:/ / www. hardocp. com/ article. html?art=Nzc4
Radeon HD 32

Radeon HD
La serie Radeon HD es la generación de tarjetas gráficas del fabricante
ATI Technologies que nació como continuación de la línea modelos
Radeon X y la primera diseñada después de la absorción de ATI por
parte de AMD. Esta gama está dirigida principalmente al sector de chips
gráficos dedicados, integrados y móviles.
A finales del 2010 AMD, de la cual ATI es Filial, anuncio que desde la
Serie Radeon HD 6000, se reemplazara la marca ATI por AMD para
ayudar a impulsar las plataformas AMD Vision y AMD Fusion

Evolución Logo ATI Radeon presente hasta la serie HD


5000

Serie HD 2000 (R600)


• ATI Radeon HD 2300 (RV610)
• ATI Radeon HD 2400 Pro (RV610)
• ATI Radeon HD 2400 XT (RV610)
• ATI Radeon HD 2600 Pro (RV630)
• ATI Radeon HD 2600 XT (RV630)
• ATI Radeon HD 2900 GT (R600GT)
• ATI Radeon HD 2900 Pro (R600PRO)
• ATI Radeon HD 2900 XT (R600XT)
La primera GPU HD series fue la HD 2900 XT (R600), Lanzada
en mayo del 2007. Esta tarjeta fue el primer lanzamiento después ATI Radeon HD 2400 XT.
de que AMD comprara a ATI. Sus características y
especificaciones destacaban por tener 320 Stream Processors (Comparado a los 128 de su competencia directa en ese
momento, la GeForce 8800 GTX); fue la primera vga del mercado en tener una interfaz de memoria de 512 bits,
ancho de banda de memoria de 106 Gb/seg, pero no cumplió con las expectativas, siendo lanzada más de medio año
después de las GeForce 8800 Series. No fue capaz de competir mano a mano con sus competidores directos. Ofrece
compatibilidad total con DirectX 10, Ultra dispatcher processor, UVD (Unified Video Decoding) -esta característica
sólo estuvo presente en las HD 2xxx que salieron posteriormente-, HDMI, AVIVO HD. Evidentemente, estas
gráficas están perfectamente preparadas para el contenido en alta definición, y son capaces de reproducir Blu-Ray y
HD DVD en resoluciones FullHD.
Radeon HD 33

Serie HD 3000 (R600)


• ATI Radeon HD 3450 (RV620 LE)
• ATI Radeon HD 3470 (RV620 PRO)
• ATI Radeon HD 3650 (RV635 PRO)
• ATI Radeon HD 3690/3830 (RV670 PRO)
• ATI Radeon HD 3850 (RV670 PRO)
• ATI Radeon HD 3870 (RV670 XT)
• ATI Radeon HD 3850 X2 (RV670 PRO)
• ATI Radeon HD 3870 X2 (R680)
El 15 de noviembre del 2007 sería lanzada la familia HD 3000
Series, la cual ofrece como novedad compatibilidad total con ATI Radeon HD 3870 X2.
DirectX 10.1, además del estándar PCI-Express 2.0. El tope de
línea de esta serie fue la HD 3870X2, la cual se presenta como la
primera solución dual (2 núcleos RV670) por parte de AMD/ATI para el segmento High End. Esta tarjeta está
fabricada en 55nm, lo que conlleva a la disminución de la temperatura y de consumo energético, además de mejorar
el proceso de trabajo e insertar una mayor cantidad de transistores en un espacio más reducido (aumento de la
densidad) es por esto que de los 700 millones de transistores del R600, ahora el RV670 ofrece 666 millones de
transistores y, en este caso, incrementándose al doble, 1330 millones de transistores, para el caso de la Radeon HD
3870 X2. Además fue la primera tarjeta de vídeo en tener 1 Tera FLOPS de Poder de Cómputo, en comparación a su
competencia directa, la GeForce 8800 Ultra, la cual posee 576 GigaFlops. Otras tecnologías soportadas son
CrossfireX, PowerPlay, además de las que ofrece las HD 2000 Series.

Serie HD 4000 (R700)


• ATI Radeon HD 4350 (RV710)
• ATI Radeon HD 4550 (RV710)
• ATI Radeon HD 4650 (RV730 PRO)
• ATI Radeon HD 4670 (RV730 XT)
• ATI Radeon HD 4730 (RV770 CE)
• ATI Radeon HD 4770 (RV740)
• ATI Radeon HD 4830 (RV770 LE)
• ATI Radeon HD 4850 (RV770 PRO)
• ATI Radeon HD 4870 (RV770 XT)
• ATI Radeon HD 4890 (RV790 XT)
• ATI Radeon HD 4850 X2 (R700) ATI Radeon HD 4890.

• ATI Radeon HD 4870 X2 (R700)


En junio del 2008 se lanzó al mercado las HD 4800 Series (RV770). Los 2 primeros productos fueron la HD4870 y
la HD4850, las cuales compartían el mismo núcleo con 800 Stream Processor, pero la HD4870 ofrecía una mayor
frecuencia en el núcleo y memorias GDDR5, siendo la primera tarjeta de vídeo en tener este tipo de memorias. Las
ventajas de usar memorias GDDR5 radica en las mayores frecuencias con un uso mínimo de voltaje, comparados
con GDDR3/4 y, por consiguiente, pueden entrega un mayor ancho de banda. A su vez, al estar fabricadas bajo un
proceso de manufactura reducido (55nm) pueden reducir su consumo y voltaje de operación. Por otra parte, incluyen
características especiales como corrección de errores, tecnologías que hasta hace algunos años sólo se incorporaban
en memorias para servidores. AMD dice que las memorias GDDR5 consigue una velocidad de 3.6 Ghz a 1.5v, y la
HD 4850 trae memorias GDDR3 con una velocidad de 2.0 Ghz a 2.0 v. Las tecnologías que incluye esta familia son:
Radeon HD 34

compatibilidad total con DirectX 10.1, Soporte de físicas Havok, PCI Express 2.0, CrossFireX, Soporte Unified
Video Decoder 2, HDMI, HDCP, ATI PowerPlay, etc. Sin duda, esta generación ha sido bastante exitosa, siendo la
HD 4870X2 la tarjeta de vídeo tope de línea, la cual fue la tarjeta de vídeo más poderosa del mundo por un buen
tiempo, hasta la llegada de la GeForce GTX 295 en enero del 2009. En abril salió al mercado la Radeon HD 4890
con características idénticas a una 4870 pero con cambios importantes en el uso de nuevo materiales en el núcleo
gráfico que le permite alcanzar mayores frecuencias de trabajo.

Serie HD 5000 (Evergreen)


• ATI Radeon HD 5450 (Cedar PRO)
• ATI Radeon HD 5550 (Redwood LE)
• ATI Radeon HD 5570 (Redwood PRO)
• ATI Radeon HD 5670 (Redwood XT)
• ATI Radeon HD 5750 (Juniper PRO)
• ATI Radeon HD 5770 (Juniper XT)
• ATI Radeon HD 5830 (Cypress LE)
• ATI Radeon HD 5850 (Cypress PRO)
• ATI Radeon HD 5870 (Cypress XT)
• ATI Radeon HD 5970 (Hemlock XT).
ATI Radeon HD 5870.
En septiembre del 2009 ATI lanza al mercado la serie HD 5000,
quien tiene la característica de ser la primera GPU en soportar el
nuevo estándar DirectX 11 de Microsoft para Windows 7. Los primeros modelos en ser presentados fueron las
tarjetas HD 5870 y HD 5850 que poseen un total de 1600 y 1440 shaders respectivamente, 80 unidades de textura y
32 ROPs y un total de 2,72 Teraflops en el caso de la 5870 y 2,4 Teraflop para la 5850 para cálculos de precisión
única, con un proceso de fabricación de 40nm. Ambos modelos disponen de memorias GDDR5. El 13 de octubre del
2009 fueron presentados los modelos de gama media HD 5770 y HD 5750 con 800 y 720 shaders unificados
respectivamente. El 11 de noviembre del 2009 fue presentado el modelo de más alta gama de ATI, la 5970, cuenta
con doble chip de la serie 5870 y 2GB de memoria GDDR5 de 1GB, 3200 Shaders unificados y una potencia de
cálculo sin precedentes hasta la fecha de 4,7 teraflops. Las gráficas de esta serie pueden contar hasta con 3200
unidades de procesamiento y 4300 millones de transistores. Estas gráficas destacan por su gran ancho de banda
(Memoria GDDR5) que puede ir desde los 128 GB/S originales a velocidades superiores a los 170 GB/S mediante
overclock, dependiendo de la frecuencia de reloj a la que estén sometidas. ATI además se caracteriza por ofrecer un
pánel de control, donde incluye la herramienta ATI Overdrive®, que permite cambiar las frecuencias de reloj de
memoria, núcleo y otros detalles sin correr los típicos riesgos del overclock y obtener mejoras de porcentaje variable.

Serie HD 6000 (Northern Islands)


• AMD Radeon HD 6450 (Caicos)
• AMD Radeon HD 6570 (Turks)
• AMD Radeon HD 6670 (Turks)
• AMD Radeon HD 6750 (Juniper PRO)
• AMD Radeon HD 6770 (Juniper XT)
• AMD Radeon HD 6790 (Barts LE)
• AMD Radeon HD 6850 (Barts Pro)
• AMD Radeon HD 6870 (Barts XT)
• AMD Radeon HD 6950 (Cayman Pro)
• AMD Radeon HD 6970 (Cayman XT)
• AMD Radeon HD 6990 (Antilles)
Radeon HD 35

En octubre del 2010 AMD lanza al mercado la serie Radeon HD 6000, que coincide con la desaparición de ATI
como marca de los productos Radeon. Los primeros modelos en ser presentados fueron las tarjetas de gama media
Radeon HD 6870 (1120 shaders, 32 ROPs y 2,0 Tflops de poder de cálculo) y la Radeon HD 6850 (960 shaders, 32
ROPs y 1,5 Tflop de poder de cálculo) el 22 de octubre de 2010, luego se sumarían las tarjetas de gama alta Radeon
HD 6970 (1536 shaders, 32 ROPs y 2,70 Tflop de poder de cálculo) y la Radeon HD 6950 (1408 shaders, 32 ROPs y
2,25 Tflop de poder de cálculo) el 15 de diciembre de 2010. El 8 de marzo de 2011 fue presentado el modelo de más
alta gama, la tarjeta de doble GPU Radeon HD 6990 (1536 x2 shaders, 32 x2 ROPs y 5,10 Tflop de poder de
cálculo). La serie incorpora nuevas aplicaciones como el Morphological antialiasing, un tipo de antialiasing usado
como postproceso con una penalización en el rendimiento menor que los métodos de MSAA Y SSAA, pudiendo ser
utilizado también en juegos sin opción a los métodos de antialiasing clásicos y emulaciones

Serie HD 7000 (Southern Islands)


• AMD Radeon HD 7750 (Cape Verde Pro)
• AMD Radeon HD 7770 (Cape Verde XT)
• AMD Radeon HD 7790 (Pitcairn LE)
• AMD Radeon HD 7850 (Pitcairn Pro)
• AMD Radeon HD 7870 (Pitcairn XT)
• AMD Radeon HD 7870xt (Tahiti LE)
• AMD Radeon HD 7950 (Tahiti Pro)
• AMD Radeon HD 7970 (Tahiti XT)
• AMD Radeon HD 7990 (New Zealand)
La serie Southern Islands, el nombre en clave de las HD 7000, se presentó el 22 de diciembre de 2011, lanzando
primero las HD 7900 y posteriormente el resto. Estos modelos de gráfica vendrían a sustituir la extensa gama de
modelos HD 6000. Tanto la gama alta (7900 Series) como la gama media (7800 y 7700 series) utilizara la nueva
arquitectura Graphics Core Next a 28 nm, mientras los chips de gama baja estarán basados en GPUs a 40 nm
existentes basados en la arquitectura VLIW4, los que serán renombrados para adaptarse a la nueva serie Radeon HD
7000: Radeon HD 7300 (Cedar, chip usado en las Radeon HD 5400), Radeon HD 7400 (Caicos, chip usado en las
Radeon HD 6400), Radeon HD 7500/7600 (Turks, chip usado en las Radeon HD 6500/6600). Toda la gama utilizará
el PCI Express 3.0, estando fabricadas por TSMC. La gama alta y media usará memorias GDDR5 siendo
compatibles con la nueva tecnología DirectX 11.1.

Serie HD 8000 (Sea Islands)


Estarán basadas en la arquitectura Graphics Core Next, la empleada también en la gama HD 7000. Incorporan
características previstas para las HD 7000 que no fueron implementadas en dichos chips.

Referencias

Enlaces externos
• amd radeon hd 6000 (http://www.amd.com/la/products/desktop/graphics/amd-radeon-hd-6000/Pages/
amd-radeon-hd-6000.aspx)
• (http://www.firingsquad.com/features/atihistory)
NVIDIA 36

NVIDIA
Nvidia Corporation

Tipo [1]
Multinacional (NASDAQ: NVDA )

Industria Semiconductores

Fundación 1993

Sede Santa Clara, California, Estados Unidos

Administración Jen-Hsun Huang

Productos Procesadores gráficos, placas base, chipsets

Ingresos [2]
4.130 millones de € (2012)

Beneficio neto [3]


827 millones de € (2012)

Empleados [4]
6.540 (2008)

Sitio web [5]


www.nvidia.com

Nvidia Corporation (NASDAQ: NVDA [1]) es una empresa multinacional especializada en el desarrollo de
unidades de procesamiento gráfico y tecnologías de circuitos integrados para estaciones de trabajo, ordenadores
personales y dispositivos móviles. Con sede en Santa Clara, California, la compañía se ha convertido en uno de los
principales proveedores de circuitos integrados (CI), como unidades de procesamiento gráfico GPU y conjuntos de
chips usados en tarjetas de gráficos en videoconsolas y placas base de computadora personal.
NVIDIA produce GPUs incluyendo la serie GeForce para videojuegos, la serie NVIDIA Quadro de diseño asistido
por ordenador y la creación de contenido digital en las estaciones de trabajo, y la serie de circuitos integrados nForce
para placas base.
Los drivers de Nvidia son conocidos por las restricciones artificialmente impuestas, como limitar el número de
monitores que se pueden usar al mismo tiempo.[6]

Historia
Jen-Hsun Huang, Chris Malachowsky, y Curtis Priem fundaron la compañía en enero de 1993 y situaron la sede en
California en abril de 1993.
El nombre GeForce que utilizó para sus modelos gráficos fue creada mediante un concurso en California para
nombrar a la siguiente generación de tarjetas gráficas NV20.-
En 2013 Nvidia decidió licenciar su tecnología gráfica para que fabricantes de todo tipo de dispositivos puedan
aprovechar sus catálogo de patentes, siguiendo el mismo modelo que ARM Holdings.[7]
NVIDIA 37

Chips gráficos
• NV1
• RIVA 128, RIVA 128ZX
• VANTA LT, RIVA TNT, RIVA TNT 2
A partir de la serie GeForce, los chipsets se ocupan prácticamente de
todo el proceso gráfico, constituyendo lo que NVIDIA nombró GPU
(Graphic Processing Unit - Unidad de proceso gráfico).
• GeForce Series
VisionTek GeForce 256.
• GeForce 256
• GeForce 2: MX 200, MX 400, GTS, Pro, Ti y Ultra.
• GeForce 3: Ti 200 y Ti 500.
• GeForce 4: MX 420, MX 440, MX 460, Ti 4200, Ti 4400, Ti
4600 y Ti 4800.
• GeForce FX (5): (DirectX 8.0, 8.1 o últimamente 9.0b por
hardware) compuesta por los modelos FX 5950 Ultra, FX 5900,
FX 5800, FX 5700, FX 5600, FX 5500, FX 5300 y FX 5200.
• GeForce 6: (DirectX 9.0c por hardware) compuesta por los
modelos 6800 Ultra, 6800 GT, 6800, 6600 GT, 6600, 6500,
6200, 6150 y 6100 (AGP). GeForce 6800 Ultra & GeForce 7950 GX2.
• GeForce 7: (DirectX 9.0c por hardware) compuesta por los
modelos 7950 GX2, 7950 GT, 7900 GTX, 7900 GTO, 7900 GT,
7900 GS, 7800 GTX, 7800 GT, 7800 GS, 7600 GT, 7600 GS,
7300 GT, 7300 GS, 7300 LE, 7100 GS y 7025 GT.
• GeForce 8: (DirectX 10.0 por hardware) compuesta por los
modelos 8800 Ultra, 8800 GTX, 8800 GTS, 8800 GT, 8800 GS,
8600 GTS, 8600 GT, 8500 GT y 8400 GS.
• GeForce 9: (DirectX 10.0 por hardware) compuesta por los
modelos 9800 GX2, 9800 GTX+, 9800 GTX, 9800 GT, 9600 NVIDIA GeForce 8800 GTX.
GT, 9600 GSO, 9500 GT y 9400 GT.
• GeForce 200: (DirectX 10 y 10.1 por hardware) compuesta por
los modelos GT 220, GT 240, GTS 240, GTS 250, GTX 260,
GTX 275, GTX 280, GTX 285 y GTX 295.
• GeForce 300: (DirectX 10.1 por hardware y DirectX 11 por
Software) Es la serie GT 200 pero mejorada, menor consumo,
menos tamaño de fabricación (Menos de los 55 nanómetros de
las GT 200).
• GeForce 400: (DirectX 11.0 por hardware) Arquitectura de
nombre en clave "Fermi", compuesta temporalmente por los
modelos GT 420, GT 430, GT 440, GTS 450, GTX 460, GTX Cuartel General de nVidia en Santa Clara,
California.
465, GTX 470 y GTX 480.
• GeForce 500: GT 520,GTX 550 Ti, GTX 560, GTX 560 Ti,
GTX 570, GTX 580 y GTX 590.
• GeForce 600: GT 610, GT 620, GT 630, GT 640, GTX 650, GTX 650 Ti, GTX 650 Ti BOOST, GTX 660,
GTX 660 Ti, GTX 670, GTX 680 y GTX 690.
NVIDIA 38

• GeForce 700: GTX 760, GTX 770, GTX 780, GTX 780 Ti y
GTX TITAN.

Chips gráficos para uso profesional y científico


• Quadro
• Tesla
GeForce GTX 480.

Chipset para placas bases


• nForce 6 Series
• 600
• nForce 7 Series
• 730i
• 750i
• 780i
• 790i SLI
• 790i Ultra SLI
• 980a SLI Para AMD (Release) http://www.nvidia.es/object/product_nforce_980a_sli_es.html

Chipsets para dispositivos móviles


• NVIDIA GoForce - serie de procesadores gráficos creados especialmente para dispositivos móviles (PDAs,
Smartphones y teléfonos móviles). Incluyen la tecnología nPower para un uso eficiente de energía.
• GoForce 2150 – Soporta teléfonos móviles con cámara de hasta 1,3 megapíxeles, aceleración gráfica en 2D.
• GoForce 3000 – Versión de bajo coste de la GoForce 4000 con algunas características recortadas.
• GoForce 4000 – Soporte de cámara de hasta 3,0 megapíxeles con grabación y reproducción de vídeos en
MPEG-4/H.263.
• GoForce 4500 – Aceleración de vídeo en 2D y 3D con pixel shaders programable y geometría
• GoForce 4800 – Soporte de cámara hasta 3,0 megapíxeles con aceleración de vídeo en 2D y 3D con píxel
shader programable.
• GoForce 6100 – Soporte de cámara hasta 10 megapíxeles, aceleración en 2D y 3D, y codec H.264.
• NVIDIA Tegra – es un system on a chip para dispositivos móviles como smartphones, tablets, asistentes digitales
personales, dispositivos móviles y de Internet. Tegra integra la arquitectura de procesadores ARM, GPU,
northbridge, southbridge, y controlador de memoria en un solo paquete. La serie enfatiza el consumo de baja
potencia y alto rendimiento para la reproducción de audio y video.
NVIDIA 39

Soporte de software de código abierto


Nvidia no publica la documentación de su hardware, en su lugar, Nvidia provee sus propios drivers binarios para
X.Org y una delgada librería de código abierto para el interfaz entre los núcleos de Linux, FreeBSD o Solaris y su
software propietario. Nvidia también proveía, pero dejó de dar soporte, de un driver ofuscado de código abierto que
solo soporta aceleración 2D.[8]
La naturaleza propietaria de los drivers de Nvidia ha generado mucha insatisfacción dentro de la comunidad de
software libre. Linus Torvalds ha declarado oficialmente que Nvidia "ha sido el peor problema que hemos tenido con
los fabricantes de hardware".[9]

Referencias
[1] http:/ / www. nasdaq. com/ symbol/ NVDA
[2] http:/ / es. finance. yahoo. com/ q/ ks?s=NVDA
[3] http:/ / es. finance. yahoo. com/ q/ ks?s=NVDA
[4] http:/ / www. tomshardware. com/ news/ nvidia-layoff-jobs-loss,6386. html
[5] http:/ / www. nvidia. com/
[6] Nvidia Removed Linux Driver Feature Due to Windows (http:/ / www. tomshardware. com/ news/
nvidia-linux-basemosaic-ubuntu-parity,24519. html)
[7] http:/ / www. xataka. com/ componentes-de-pc/ nvidia-licenciara-su-tecnologia-grafica-siguiendo-el-modelo-de-arm
[8] X.Org Wiki - nv (http:/ / www. x. org/ wiki/ nv)
[9] Aalto Talk with Linus Torvalds, hosted by Aalto Center for Entrepreneurship (ACE) in Otaniemi on June 14, 2012 (https:/ / www. youtube.
com/ watch?v=MShbP3OpASA& hd=1& t=48m9s)

Enlaces externos
• Wikimedia Commons alberga contenido multimedia sobre NVIDIA. Commons
• Sitio web oficial internacional de NVIDIA (http://www.nvidia.com/)
Coordenadas: 37°22′14.62″N 121°57′49.46″O
Scalable Link Interface 40

Scalable Link Interface


Scalable Link Interfaz (SLI) es un método para conectar dos o más tarjetas de vídeo (tarjeta gráfica) y que
produzcan una sola señal de salida. Es una aplicación de procesamiento paralelo para gráficos por computadora, que
incrementa el poder de procesamiento disponible para gráficos. Una versión inicial de esta tecnología llamada Scan
Line Interleave fue lanzada en 1998 por 3dfx y usada en los aceleradores gráficos Voodoo 2. NVidia reintrodujo la
tecnología en el 2004 para usarla en las nuevas computadoras que utilizan PCI Express.
Utilizando SLI es posible duplicar el poder de procesamiento gráfico de una computadora al agregar una segunda
tarjeta idéntica a la primera. Se pueden utilizar dos tarjetas desde el inicio o tener una que soporte SLI y agregar la
segunda cuando se necesite más poder de procesamiento. Aun así hay ocasiones en las que el procedimiento es más
caro que comprar una tarjeta de vídeo nueva.
Scan Line Interleave fue el primer intento de combinar el poder de procesamiento de dos tarjetas de video, éstas se
conectaban mediante un pequeño cable que permitía compartir información de sincronía. Feature connector era una
tecnología para sistemas VGA y SVGA que permitía que una tarjeta de expansión accediera directamente a la
memoria principal de la tarjeta de vídeo (sin utilizar el bus del sistema).
La implementación de NVIDIA requiere una tarjeta madre con dos puertos PCIe x16. Las dos tarjetas se
interconectan por un pequeño conector de circuito impreso. El software distribuye la carga de dos formas posibles.
La primera, conocida como Split Frame Rendering (SFR) analiza la imagen a desplegar en un cuadro y divide la
carga equitativamente entre los dos GPUs. La segunda forma se llama Alternate Frame Rendering (AFR) y cada
cuadro es procesado por un GPU de manera alternada, es decir, un cuadro es procesado por el primer GPU y el
siguiente por el segundo.
Cuando se despliega un cuadro la imagen se manda a través de la conexión SLI hasta el GPU principal, que lo envía
a la salida. Idealmente esto reduciría el tiempo de procesamiento a la mitad, sin embargo, el tiempo real es un poco
mayor. En sus anuncios NVIDIA dice que el desempeño del sistema aumenta en un factor de 1.9 x con esta
configuración. Normalmente se usan tarjetas de vídeo idénticas.
ATI lanzó una tecnología similar llamada CrossFire.

3-Way SLI y Quad SLI


De poder unificar sólo dos tarjetas mediante esta tecnología, NVIDIA ha implementado dos sistemas similares que
pueden aportar mejoras en el rendimiento gráfico de un sistema hasta 2.8x (2.8 veces) en 3-Way SLI, y 1.6x en el
caso del Quad-SLI, superior que el que se obtendría con una simple tarjeta gráfica.
El 3-Way SLI, una de las opciones más agradables del momento para crear un sistema SLI en relación
costo-rendimiento, nació junto con el surgimiento de la serie 8 de GeForce y sus 8800 GTX y Ultra, que en aquel
entonces eran las únicas capaces de acceder a esta tecnología, hoy en día está implementando en todas las tarjetas
gráficas de gama alta (x60 - x80) desde la serie GeForce 600. Se trata de 3 tarjetas gráficas de un sólo núcleo
unificadas mediante un conector de 6 bocas (dos por tarjeta, a diferencia del SLI clásico que sólo hacía uso de uno
por tarjeta). Es en verdad la mejor opción en SLI hasta ahora, ya que en aplicaciones gráficas que sacan provecho de
estas ventajas se puede apreciar un rendimiento aumentado, como ya se dijo, de hasta 2.8 veces. Sin embargo, los
requerimientos energéticos de esta configuración puede ser una gran desventaja. Por ejemplo, en las tarjetas 9800
GTX, se requieren dos conectores periféricos adicionales aptos para proporcionar la energía consumida que el simple
zócalo PCI Express no puede proporcionar, dando como resultado la increíble necesidad de 6 conectores periféricos
para el 3-Way que solo fuentes de alimentación de más de 1000W pueden proporcionar. En respuesta a este
problema, NVIDIA lanzó en paralelo el sistema SLI Híbrido, que desactiva aleatoriamente las tarjetas que componen
el SLI a fin de ahorrar en consumo, sin embargo esta tecnología se encuentra disponible sólo para un limitado
número de placas madre y tarjetas.
Scalable Link Interface 41

El Quad-SLI es otra opción de SLI implementada que realmente deja mucho que desear. Se trata de una unificación
de dos tarjetas GeForce 9800 GX2, que si bien a simple vista parece ser un simple SLI clásico de dos tarjetas, en
realidad resulta en ser una combinación explosiva de 4 núcleos, debido a que cada tarjeta posee ya dos de estos
unificados en su interior por una tecnología muy similar al SLI, sólo que requiere del uso de un solo PCI Express. Se
da como resultado entonces un sistema SLI de 4 núcleos, que se puede interpretar como 4 tarjetas mononúcleo
unificadas, siendo en realidad dos "dos en uno". El problema es que su elevadísimo costo no justifica las mejoras en
el rendimiento, que solo son de 1.6 veces mayores que una sola 9800 GX2, demostrándose que a más núcleos menor
es la multiplicación total del rendimiento. Además, esta mejora se puede percibir sólo en un número mucho más
limitado de aplicaciones que con el 3-Way. Un ejemplo es Crysis, un videojuego de elevados requerimientos
(pensando actualmente), que sólo demuestra sus mayores efectos gráficos trabajando sobre esta configuración.
En conclusión, el SLI múltiple puede resultar beneficioso si se busca aumentar el rendimiento de las últimas tarjetas
de gama alta, pero si no se busca potenciar un sistema, con sólo una tarjeta más vieja que admita SLI, puede resultar
mucho más económico que comprar una nueva.

Enlaces externos
• Sitio de NVidia SliZone en español [1]

Referencias
[1] http:/ / es. slizone. com/ page/ home. html

NVIDIA Quadro
NVIDIA Quadro es el nombre referido a la serie de tarjetas gráficas de NVIDIA, dirigidas al sector profesional. Sus
diseños están orientados hacia la aceleración de CAD (Diseño asistido por ordenador) y DCC (creación de contenido
digital) usualmente requeridas en estaciones de trabajo y diseñadores independientes. La serie Quadro junto a
FireGL de ATI Technologies dominan este sector del mercado gráfico.

Variantes de Quadro
Quadro: SGI VPro VR3 Quadro2 Pro: ELSA GLoria III Quadro DCC: ELSA GLoria DCC Quadro4 980 XGL: ELSA 980 XGL

NVIDIA divide sus líneas de productos Quadro según el tipo de negocio o estación de trabajo al que vayan dirigido,
las Quadro simples (en versiones PCI, AGP y PCI-Express) dirigidas al sector de diseño profesional, las Quadro
NVS para el sector financiero y las Quadro Mobile que la da soporte a equipos portátiles.
NVIDIA Quadro 42

Quadro PCI

Quadro Núcleo Frecuencia Frecuencia de Cantidad de Tipo de Memoria conector Notas


chip de núcleo memoria memoria memoria Ancho de de
(MHz) (efectiva) (MiB) banda 3-pines
(MHz) (GiB/s) estéreo
FX 600 NV34GL 270 243 256 128-bit 7.8  Sí Chip también
PCI DDR usado en la
GeForce 5200
Ultra

Quadro AGP

Quadro Núcleo Frecuencia Frecuencia Cantidad Tipo de Memoria Conexión Conector Notas
chip de núcleo de de memoria Ancho de AGP de
(MHz) memoria memoria banda 3-pines
(efectiva) (MiB) (GiB/s) estéreo
(MHz)
NV10GL 135 166 64 128-bit 2.66 4× Chip también
SDR usado en
GeForce 256
2 MXR NV11GL 200 183 128-bit 2.93 4× Chip también
SDR usado en
GeForce 2 MX
2 EX NV11GL 175 166 Chip también
usado en
GeForce 2 MX
2 PRO NV15GL 250 400 6.4 4× Chip también
usado en
GeForce 2 GTS
DCC NV20GL 128-bit 7.3 4× Chip también
DDR usado en
GeForce 3/Ti
4 380 NV18GL 275 513 64 128-bit 8.2 8×
XGL DDR
4 500 NV17GL 128-bit
XGL SDR
4 550 NV17GL 270 400 64 128-bit 6.4 4×
XGL DDR

No
4 580 NV18GL 64 128-bit 8× Chip también
XGL DDR usado en
GeForce 4 MX
440
No
4 700 NV25GL 275 550 64 128-bit 4× Chip también
XGL DDR usado en
GeForce 4 Ti
4200
NVIDIA Quadro 43

4 750 NV25GL 275 550 128 128-bit 4×  Sí Chip también


XGL DDR usado en
GeForce 4 Ti
4400
4 780 NV28GL  Sí Chip también
XGL usado en
GeForce 4 Ti
4200 (AGP 8×)
4 900 NV25GL 300 650 128 128-bit 10.4 4×  Sí Chip también
XGL DDR usado en
GeForce 4 Ti
4600
4 980 NV28GL 300 650 128 128-bit 10.4 8×  Sí Chip también
XGL DDR usado en
GeForce 4 Ti
4800
FX 500 NV34GL 270 243 128 128-bit 7.7 8× Chip también
DDR usado en
GeForce FX
5200
No
FX 700 NV31GL 275 275 128 128-bit 8.8 8× Chip también
DDR usado en
GeForce FX
5600
No
FX NV30GL 300 300 128 128-bit 9.6 8×  Sí Chip también
1000 GDDR2 usado en
GeForce FX
5800
FX NV36GL 425 325 128 128-bit 10.4 8×  Sí Chip también
1100 DDR usado en
GeForce FX
5700
FX NV30GL 400 400 128 128-bit 12.8 8×  Sí Chip también
2000 GDDR2 usado en
GeForce FX
5800, One
Dual-Link DVI
FX NV35GL 400 425 256 256-bit 27.2 8×  Sí Chip también
3000 DDR usado en
GeForce FX
5900, 1×
Dual-link DVI
(Mediante
controladores
externos)
FX NV35GL 400 425 256 256-bit 27.2 8×  Sí tiene un conector
3000G DDR externo para
estéreo, 1×
Dual-link DVI
(mediante
controladores
externos)
NVIDIA Quadro 44

FX NV40GL 375 500 256 256-bit 32.0 8×  Sí Chip también


4000 GDDR3 usado en
GeForce 6800,
2× Dual-link
DVI (doble link
usando
transmisores
externos TMDS)
FX NV40GL 375 500 256 256-bit 32.0 8×  Sí FX 4000 con
4000 GDDR3 salidas 2× SDI
SDI HDTV y
generador de
frecuencia
analógico y
digital (usando
controladores
externos)

Quadro PCI Express

Quadro Núcleo Frecuencia Frecuencia Cantidad Tipo de Memoria Conector Núcleos consumo Notas
GPU del núcleo de de memoria Ancho de 3-pin CUDA de
(MHz) memoria memoria de banda estéreo energía
(MHz) (MiB) (GiB/s) (W)

FX 330 NV37GL 250 200 64 64-bit 3.2 21 Chip también


DDR usado en
GeForce PCX
5300, Shader
No Model 2.0

FX 350 G72GL 550 405 128 64-bit 6.48 21 Chip también


DDR2 usado en
GeForce
7300LE
No

FX 370 G84GL 360 400 256 64-bit 6.4 16 35 1× Dual-link


DDR2 DVI-I & 1
single-link
DVI, Shader
No Model 4.0
OpenGL
2.1/DirectX
10
FX 370 G98 540 500 256 64-bit 8 8 25 DMS-59
LP DDR2

No

FX 380 G96 450 700 256 128-bit 22.4 16 34 2× Dual-link


GDDR3 DVI-I, basada
en la Geforce
9400.
No
NVIDIA Quadro 45

FX 380 GT218GL 550 800 512 64-bit 12.8 16 28 1x Dual-link


LP DDR3 DVI-I, 1x
DisplayPort

No
FX 540 NV43GL 300 275 128 128-bit 8.8 35 Chip también
GDDR usado en
GeForce
6600LE (4
No PS/3 VS)

FX 550 NV43GL 360 400 128 128-bit 12.8 25 2× dual-link


GDDR3 DVI
(solamente
para
No 2048×1536,
no para
2560×1600)

FX 560 G73GL 350 600 128 128-bit 19.2 30 Chip también


GDDR3 usado en
GeForce
7600, 1×
No Dual-link DVI

FX 570 G84GL 460 400 256 128-bit 12.8 16 38 2× Dual-link


DDR2 DVI-I, Shader
Model 4.0,
OpenGL 2.1,
No DirectX 10

FX 580 G96 450 800 512 128-bit 25.6 32 40 1× Dual-link


(OC650) GDDR3 DVI-I, 2×
DisplayPort,
basada en la
No Geforce 9500.

Quadro Núcleo Frecuencia Frecuencia Cantidad Tipo de Memoria Conector Núcleo Consumo Notas
GPU de núcleo de de memoria Ancho de 3-pin CUDA de
(MHz) memoria memoria de banda estéreo energía
(MHz) (MiB) (GiB/s) (W)

FX NV38GL 350 275 128 256-bit 17.6  Sí 55 Chip también


1300 DDR usado en
GeForce PCX
5950, 2×
Single-link
DVI

FX NV41GL 350 300 128 256-bit 19.2  Sí 70 Chip también


1400 DDR usado en
GeForce 6800
(8 PS/5 VS),
2× Single-link
DVI

FX G71GL 325 625 256 256-bit 40.0 65 Chip también


1500 GDDR3 usado en
GeForce
79xx,(16
No pixel, 6
vertex), 2×
Dual-link DVI
NVIDIA Quadro 46

FX G84GL 460 400 512 128-bit 12.8 32 42 2× Dual-link


1700 DDR2 DVI-I/TV
Out, Shader
Model 4.0,
No OpenGL 2.1,
DirectX 10

FX G94 550 800 768 192-bit 38.4 64 59 Doble Display


1800 (shader DDR3 port, conexión
clock DVI única
1375) (dependiendo
No del modelo),
Shader Model
4.0, OpenGL
2.1, DirectX
10

FX NV45GL 350 450 256 256-bit 28.8  Sí 101 Chip también
3400 GDDR3 usado en
GeForce
6800, 2×
Dual-link DVI

FX NV42GL 425 500 256 256-bit 32.0  Sí 83 Chip también


3450 GDDR3 usado en
GeForce
6800, 2×
Dual-link DVI

FX G71GL 450 660 256 256-bit 42.2  Sí 80 Basada en la


3500 GDDR3 Quadro 5500,
pweo con sólo
20
procesadores
de pixel, 7
unidades
vertex y
256 MiB
RAM.

FX G92 500 800 512 256-bit 51.2  Sí 112 78 Chip también
3700 GDDR3 usado en
GeForce
8800GT and
8800GTS 512,
112 streaming
processors,
PCI Express
2.0, Energy
Star 4.0.

FX G200GL 600 800 1024 256-bit 51.2  Sí 192 107 El uso del
3800 GDDR3 estéreo
requiere la
compra de un
bracket de 3
pines
opcional.
NVIDIA Quadro 47

Quadro Núcleo Frecuencia Frecuencia Cantidad Tipo de Memoria Conector Núcleo Consumo Notas
GPU de núcleo de de memoria Ancho de 3-pin CUDA de
(MHz) memoria memoria de banda estéreo energía
(MHz) (MiB) (GiB/s) (W)

FX NV42GL 425 500 256 256-bit 32.0  Sí FX 4000 con


4000 GDDR3 dos salidas
SDI SDI HDTV +
generador de
frecuencia
analógico y
digital
(usando
controladores
externos)

FX NV45GL 400 525 512 256-bit 33.6  Sí 109 Chip también
4400 GDDR3 usado en
GeForce 6800
PCI-E, 2×
dual-link DVI

FX G70GL 470 525 512 256-bit 33.6  Sí 109 Chip también
4500 GDDR3 usado en
GeForce
7800GTX, 2×
dual-link DVI

FX G70GL 470 525 512 256-bit 33.6  Sí 116 Chip también
4500 GDDR3 usado en
SDI GeForce
7800GTX, 1×
dual-link DVI,
con dos
salidas SDI
HDTV +
generador de
frecuencia
analógico y
digital

FX G70GL 500 600 512 ×2 256-bit 33.6 ×2  Sí 145 Dos núcleos
4500 ×2 Quadro FX
×2 GDDR3 4500 GPU en
la misma
tarjeta gráfica
PCI-Express,
4× dual-link
DVI.

FX G71GL 650 500 1024 256-bit 32  Sí 96 Chip también


5500 DDR2 usado en
GeForce
7900GTX, 2×
dual-link DVI,
24 pixel units
y 8 vertex
units.
NVIDIA Quadro 48

FX G71GL 650 500 1024 256-bit 32  Sí 104 FX 5500 con


5500 DDR2 SDI,
SDI generador de
frecuencia
soportado
(externamente)

FX G80GL 400 700 768 384-bit 67.2  Sí 112 134 Chip también
4600 GDDR3 usado en
GeForce
8800GTX, 2×
dual-link DVI.

FX G80GL 400 700 768 384-bit 67.2  Sí 154 FX 4600 con
4600 GDDR3 SDI,
SDI generador de
frecuencia
soportado
(externamente)

FX G92 500 800 512 ×2 256-bit 51.2 ×2  Sí 226 Dos GPU
4700 ×2 quadro FX
×2 GDDR3 3700 en la
misma tarjeta
gráfica
PCI-Express,
2× dual-link
DVI (DVI-I
×4), salida
S-Video.

FX G80GL 600 800 1536 384-bit 76.8  Sí 128 171 Chip también
5600 GDDR3 usado en
GeForce 8800
Ultra, requiere
dos conectores
de energía de
6-pines
suplementarios.

FX G80GL 600 800 1536 384-bit 76.8  Sí 191 FX 5600 con
5600 GDDR3 nuevo SDI,
SDI II generador de
frecuencia
soportado
(externamente)
[1] D10U-20 602 800 1536 384-bit 76.8  Sí 150 Chip también
CX
(GT200GL) GDDR3 usado la
versión de
55nm de la
GeForce GTX
260 (192
shaders),
salidas
Display Port y
dual-link DVI,
optimizada
para Adobe
Creative Suite
4.
NVIDIA Quadro 49

VX 200 G92 512 GDDR3 51.2 HDTV y 2×


Dual-link
DVI,
optimizada
para Autodesk
AutoCAD.

FX D10U-20 602 800 1536 384-bit 77  Sí 192 150 Chip también
4800 (GT200GL) GDDR3 usado la
versión de
55nm de la
GeForce GTX
260 (192
shaders).
Plug-in. CS4

FX D10U-30 650 1632 4096 512-bit 102  Sí 240 189 Chip también
5800 (GT200GL) GDDR3 usado en
GeForce GTX
285 (240
shaders).

División para negocios (Quadro NVS)


Las gráficas NVIDIA Quadro NVS ofrecen soluciones de gráficos para negocios de pequeñas y medianas empresas,
así como estaciones de trabajos. Las NVIDIA Quadro NVS desktop ofrece soporte multimonitor para negocios de
operación financiera.

Quadro Max. Interfase Conectores Monitores Consumo Notas


chip resolución de salida suportados de
(digital) energía
(W)
NVS 50 1600×1200 AGP 8× / PCI DVI-I, S-Video 1 NV18
NVS 2048×1536 AGP 4× / PCI 2x DVI-I, VGA, 2 NV17(A5)?
100 S-Video
NVS 1280×1024 AGP 4× / PCI LFH-60 2 NV17
200
NVS 1920x1200 Onboard (nForce DVI + VGA ? sin soporte PureVideoHD.
210s 430) Solamente SD.
NVS 1600×1200 PCI-Express DMS-59 2 12 NV18GL/NV34
280 ×16/AGP 8× / PCI
NVS 1920×1200 PCI-Express ×1/×16 DMS-59 2 13/18 NV44
285
NVS 1920×1200 PCI-Express ×1/×16 DMS-59 2 21 G86
290
NVS 2560×1600 PCI-Express 2× DisplayPort or 2× 2 23 G98
295 DVI-D
NVS 1280×1024 AGP DMS-59 2 2× NV17
400
NVS 2560×1600 PCI-Express ×1/×16 VHDCI (4× 4 40 2× G98
420 DisplayPort or 4×
DVI-D)
NVIDIA Quadro 50

NVS 1920×1200 PCI-Express ×1/×16 2× DMS-59 4 31 2× NV43


440
NVS 2560×1600 PCI-Express ×16 4× DisplayPort 4 35 2× G98
450

Quadro Mobile

Quadro Núcleo Frecuencia Frecuencia Cantidad de memoria Tipo Memoria Núcleos Consumo Interfase conectores Notas
chip de núcleo de de Ancho de CUDA de de 3-pines
(MHz) memoria memroia banda energía estéreo
(MHz) (W)

FX G72GLM 350 450 Up to 256 MiB 64-bit 6.44 GiB/s PCI Varios Basada en


350M Express Go 7400

FX G86M 400 400 Up to 256 MiB 64-bit 9.66 GiB/s PCI Varios Basada en


360M Express 8400M-GS
- 80 nm -
115 mm2
- DX10

FX G98M Up to 256 MiB 64-bit 9.66 GiB/s 8 20 PCI Varios Basada en


370M Express 9300M-GS

FX G73GLM 128-bit PCI Varios


560M Express

FX G84M 475 700 Up to 256 MiB 128-bit 22.44 GiB/s PCI Varios Basada en


570M Express 8600M-GT

FX G96M 500 800 Up to 512 MiB 128-bit 25.66 GiB/s 32 35 PCI Varios Basada en


770M Express 9600M-GT

FX GT216 550 790 1 GiB 128-bit 25.66 GiB/s 48 35 PCI Basada en


880M Express GeForce
GT 330M

FX G71GLM 375 500 Up to 256 MiB 256-bit 38.44 GiB/s PCI Varios Basada en


1500M Express Go 7900
GS

FX G84M 625 800 Up to 512 MiB 128-bit 25.66 GiB/s PCI Varios Basada en


1600M Express 8700M-GT

FX G96M Up to 512 MiB 128-bit 25.66 GiB/s 32 50 PCI Varios Basada en


1700M Express 8700M-GT

FX 560 790 1 GiB 128-bit 25.6-35.2 GiB/s 72 45 PCI


1800M Express

FX G71GLM 500 600 Up to 512 MiB 256-bit 38.44 GiB/s PCI Varios Basada en


2500M Express Go 7900
GTX

FX G94M 530 800 Up to 512 MiB 256-bit 51.22 GiB/s 48 65 PCI Varios Basada en


2700M Express 9700M
GTS

FX G92M 1 GiB 256-bit 64.22 GiB/s 96 75 PCI Varios 96SP


2800M Express

FX G71GLM 575 600 Up to 512 MiB 256-bit 38.44 GiB/s PCI Varios Basada en


3500M Express Go 7950
GTX
NVIDIA Quadro 51

FX G92M 500 800 Up to 512 MiB 256-bit 51.22 GiB/s 96 70 PCI Varios Basada en


3600M Express 8800M
GTS

FX G92M 550 800 Up to 1 GiB 256-bit 51.22 GiB/s 128 75 PCI Varios 128sp
3700M Express G92

FX G92M 675 1000 1 GiB 256-bit 64 GiB/s 128 100 PCI Varios 128sp
3800M Express G92

NVS G72M 300 600 128 MiB/256 MiB/512 MiB 64-bit PCI Varios Basada en


110M DDR Express Go 7300

NVS G72GLM 450 700 128 MiB/256 MiB/512 MiB 64-bit PCI Varios También


120M DDR2 Express reconocida
como
QuadroFX
350M/Go
7400

NVS G86M 128 MiB/256 MiB 64-bit ? PCI Varios Basada en


130M Express 8400M-G

NVS G86M 400 594 128 MiB/256 MiB 64-bit 9.55 GiB/s PCI Varios Basada en
135M Express 8400M-GS

NVS G86M 400 600 128 MiB/256 MiB/512 MiB 64-bit 9.66 GiB/s PCI Varios Basada en
140M Express 8400M-GS

NVS G98M 128 MiB/256 MiB 64-bit PCI Varios Basada en


150M Express 8400M-GS

NVS G98M 580 700 256 MiB 64-bit 11.22 GiB/s PCI Varios Basada en
160M Express 9300M-GS

NVS G72GLM 450 500 128 MiB/256 MiB/512 MiB 128-bit 16.16 GiB/s PCI Varios Basada en
300M GDDR3 Express Go 7600

NVS G84M 575 700 128 MiB/256 MiB/512 MiB 128-bit 22.55 GiB/s PCI Varios Basada en
320M GDDR3 Express 8700M-GT

NVS G72GLM 256 MiB/512 MiB/1 GiB 256-bit PCI Varios Basada en


510M GDDR3 Express Go 7900
GTX

Referencias
[1] http:/ / www. nvidia. com/ object/ product_quadro_cx_us. html

Enlaces externos
• NVIDIA.com - Quadro vs. GeForce GPUs Technical Brief (http://www.nvidia.com/object/quadro_geforce.
html)
• NVIDIA.com - NVIDIA Quadro Plex (http://www.nvidia.com/page/quadroplex.html)
• Nvidia Nexus (http://developer.nvidia.com/object/nexus.html), NVIDIA.
Placa base 52

Placa base
La placa base, también conocida como placa madre o tarjeta madre
(del inglés motherboard o mainboard) es una tarjeta de circuito
impreso a la que se conectan los componentes que constituyen la
computadora u ordenador. Es una parte fundamental a la hora de armar
una PC de escritorio o portátil. Tiene instalados una serie de circuitos
integrados, entre los que se encuentra el circuito integrado auxiliar, que
sirve como centro de conexión entre el microprocesador, la memoria
de acceso aleatorio (RAM), las ranuras de expansión y otros
dispositivos.

Va instalada dentro de una caja o gabinete que por lo general está


hecha de chapa y tiene un panel para conectar dispositivos externos y
muchos conectores internos y zócalos para instalar componentes dentro
de la caja.
La placa base, además, incluye un firmware llamado BIOS, que le
permite realizar las funcionalidades básicas, como pruebas de los Placa base formato MicroATX para PC de
dispositivos, vídeo y manejo del teclado, reconocimiento de sobremesa (sin ningún componente enchufado).
dispositivos y carga del sistema operativo.
Placa base 53

Componentes de la placa base


Una placa base típica admite los siguientes componentes:
• Uno o varios conectores de alimentación: por estos
conectores, una alimentación eléctrica proporciona a la
placa base los diferentes voltajes e intensidades
necesarios para su funcionamiento.
• El zócalo de CPU es un receptáculo que recibe el
microprocesador y lo conecta con el resto de
componentes a través de la placa base.
• Las ranuras de memoria RAM, en número de 2 a 6 en
las placas base comunes.
• El chipset: una serie de circuitos electrónicos, que
gestionan las transferencias de datos entre los
diferentes componentes de la computadora
(procesador, memoria, tarjeta gráfica, unidad de
almacenamiento secundario, etc.).
Se divide en dos secciones, el puente norte (northbridge)
y el puente sur (southbridge). El primero gestiona la
interconexión entre el microprocesador, la memoria RAM
y la unidad de procesamiento gráfico; y el segundo entre
los periféricos y los dispositivos de almacenamiento,
como los discos duros o las unidades de disco óptico. Las
nuevas líneas de procesadores de escritorio tienden a
integrar el propio controlador de memoria en el interior Diagrama de una placa base típica.

del procesador además de que estas tardan en degradarse


aproximadamente de 100 a 200 años.

• El reloj: regula la velocidad de ejecución de las instrucciones del microprocesador y de los periféricos internos.
• La CMOS: una pequeña memoria que preserva cierta información importante (como la configuración del equipo,
fecha y hora), mientras el equipo no está alimentado por electricidad.
• La pila de la CMOS: proporciona la electricidad necesaria para operar el circuito constantemente y que éste
último no se apague perdiendo la serie de configuraciones guardadas.
• La BIOS: un programa registrado en una memoria no volátil (antiguamente en memorias ROM, pero desde hace
tiempo se emplean memorias flash). Este programa es específico de la placa base y se encarga de la interfaz de
bajo nivel entre el microprocesador y algunos periféricos. Recupera, y después ejecuta, las instrucciones del MBR
(Master Boot Record), o registradas en un disco duro o SSD, cuando arranca el sistema operativo. Actualmente
los ordenadores modernos sustituyen el MBR por el GPT y la BIOS por Extensible Firmware Interface.
• El bus (también llamado bus interno o en inglés front-side bus'): conecta el microprocesador al chipset, está
cayendo en desuso frente a HyperTransport y Quickpath.
• El bus de memoria conecta el chipset a la memoria temporal.
• El bus de expansión (también llamado bus I/O): une el microprocesador a los conectores entrada/salida y a las
ranuras de expansión.
• Los conectores de entrada/salida que cumplen normalmente con la norma PC 99: estos conectores incluyen:
• Los puertos PS2 para conectar el teclado o el ratón, estas interfaces tienden a desaparecer a favor del USB
• Los puertos serie, por ejemplo para conectar dispositivos antiguos.
• Los puertos paralelos, por ejemplo para la conexión de antiguas impresoras.
Placa base 54

• Los puertos USB (en inglés Universal Serial Bus), por ejemplo para conectar periféricos recientes.
• Los conectores RJ45, para conectarse a una red informática.
• Los conectores VGA, DVI, HDMI o Displayport para la conexión del monitor de la computadora.
• Los conectores IDE o Serial ATA, para conectar dispositivos de almacenamiento, tales como discos duros,
unidades de estado sólido y unidades de disco óptico.
• Los conectores de audio, para conectar dispositivos de audio, tales como altavoces o micrófonos.
• Las ranuras de expansión: se trata de receptáculos que pueden acoger tarjetas de expansión (estas tarjetas se
utilizan para agregar características o aumentar el rendimiento de un ordenador; por ejemplo, una tarjeta gráfica
se puede añadir a un ordenador para mejorar el rendimiento 3D). Estos puertos pueden ser puertos ISA (interfaz
antigua), PCI (en inglés Peripheral Component Interconnect), AGP (en inglés Accelerated Graphics Port) y, los
más recientes, PCI Express.
Con la evolución de las computadoras, más y más características se han integrado en la placa base, tales como
circuitos electrónicos para la gestión del vídeo IGP (en inglés Integrated Graphic Processor), de sonido o de redes
((10/100 Mbit/s)/(1 Gbit/s)), evitando así la adición de tarjetas de expansión.
En la placa también existen distintos conjuntos de pines que sirven para configurar otros dispositivos:
JMDM1: Sirve para conectar un modem por el cual se puede encender el sistema cuando este recibe una señal.
JIR2: Este conector permite conectar módulos de infrarrojos IrDA, teniendo que configurar la BIOS.
JBAT1: Se utiliza para poder borrar todas las configuraciones que como usuario podemos modificar y restablecer las
configuraciones que vienen de fábrica.
JP20: Permite conectar audio en el panel frontal.
JFP1 Y JFP2: Se utiliza para la conexión de los interruptores del panel frontal y los LEDs.
JUSB1 Y JUSB3: Es para conectar puertos USB del panel frontal.

Tipos de bus
Los buses son espacios físicos que permiten el transporte de información y energía entre dos puntos de la
computadora.
Los buses generales son los siguientes:
• Bus de datos: son las líneas de comunicación por donde circulan los datos externos e internos del
microprocesador.
• Bus de dirección: línea de comunicación por donde viaja la información específica sobre la localización de la
dirección de memoria del dato o dispositivo al que se hace referencia.
• Bus de control: línea de comunicación por donde se controla el intercambio de información con un módulo de la
unidad central y los periféricos.
• Bus de expansión: conjunto de líneas de comunicación encargado de llevar el bus de datos, el bus de dirección y
el de control a la tarjeta de interfaz (entrada, salida) que se agrega a la tarjeta principal.
• Bus del sistema: todos los componentes de la CPU se vinculan a través del bus de sistema, mediante distintos
tipos de datos el microprocesador y la memoria principal, que también involucra a la memoria caché de nivel 2.
La velocidad de transferencia del bus de sistema está determinada por la frecuencia del bus y el ancho del
mínimo.
Placa base 55

Placa multiprocesador
Este tipo de placa base puede acoger a varios procesadores
(generalmente de 2, 4, 8 o más). Estas placas base multiprocesador
tienen varios zócalos de microprocesador, lo que les permite conectar
varios microprocesadores físicamente distintos (a diferencia de los de
procesador de doble núcleo).
Cuando hay dos procesadores en una placa base, hay dos formas de
manejarlos:
• El modo asimétrico, donde a cada procesador se le asigna una tarea
diferente. Este método no acelera el tratamiento, pero puede asignar
una tarea a una unidad central de procesamiento, mientras que la
otra lleva a cabo a una tarea diferente.
• El modo simétrico, llamado multiprocesamiento simétrico, donde
cada tarea se distribuye de forma simétrica entre los dos
procesadores.
Linux fue el primer sistema operativo en gestionar la arquitectura de
Una placa con dos procesadores.
doble procesador en x86.[cita requerida] Sin embargo, la gestión de
varios procesadores existía ya antes en otras plataformas y otros
sistemas operativos. Linux 2.6.x maneja multiprocesadores simétricos, y las arquitecturas de memoria no
uniformemente distribuida
Algunos fabricantes proveen placas base que pueden acoger hasta 8 procesadores (en el caso de socket 939 para
procesadores AMD Opteron y sobre socket 604 para procesadores Intel Xeon).

Tipos
La mayoría de las placas de PC vendidas después de 2001 se pueden clasificar en dos grupos:
• Las placas base para procesadores AMD
• Slot A Duron, Athlon
• Socket A Duron, Athlon, Athlon XP, Sempron
• Socket 754 Athlon 64, Mobile Athlon 64, Sempron, Turion
• Socket 939 Athlon 64, Athlon FX , Athlon X2, Sempron, Opteron
• Socket 940 Opteron y Athlon 64 FX
• Socket AM2 Athlon 64, Athlon FX, Athlon X2, Sempron, Phenom
• Socket F Opteron
• Socket AM2 + Athlon 64, Athlon FX, Athlon X2, Sempron, Phenom
• Socket AM3 Phenom II X2/X3/X4/x6, Athlon II X2/X3/X4, Sempron 100 Series
• Socket AM3+ Sempron, Athlon II X2/X3/X4, Phenom II X2/X3/X4/X6, FX X4/X6/X8
• Socket FM1 A4X2, A6X3/X4, A8X4, Athlon II
• Socket FM2 APU A4, APU A6, APU A8, APU A10, Athlon II X2/X4
• Las placas base para procesadores Intel
• Socket 7: Pentium I, Pentium MMX
• Slot 1: Pentium II, Pentium III, Celeron
• Socket 370: Pentium III, Celeron
• Socket 423: Pentium 4
• Socket 478: Pentium 4, Celeron
Placa base 56

• Socket 775: Pentium 4, Celeron, Pentium D (doble núcleo), Core 2 Duo, Core 2 Quad, Core 2 Extreme, Xeon
• Socket 603 Xeon
• Socket 604 Xeon
• Socket 771 Xeon
• LGA1366 Intel Core i7, Xeon (Nehalem)
• LGA 1156 Intel Core i3, Intel Core i5, Intel Core i7 (Nehalem)
• LGA 2011 Intel Core i7, Xeon (Sandy Bridge)
• LGA 1155 Intel Core i7, Intel Core i5 y Intel Core i3 (Ivy Bridge)
• LGA 1150 Intel Core i7, Intel Core i5 y Intel Core i3 (Haswell)

Formatos
Las tarjetas madre necesitan tener dimensiones
compatibles con las cajas que las contienen, de
manera que desde los primeros computadores
personales se han establecido características
mecánicas, llamadas factor de forma. Definen la
distribución de diversos componentes y las
dimensiones físicas, como por ejemplo el largo y
ancho de la tarjeta, la posición de agujeros de
sujeción y las características de los conectores.

Con los años, varias normas se fueron


imponiendo:
• XT: es el formato de la placa base del PC de
IBM modelo 5160, lanzado en 1983. En este
factor de forma se definió un tamaño
exactamente igual al de una hoja de papel
tamaño carta y un único conector externo para el teclado.
• 1984 AT 305 × 305 mm ( IBM)
• Baby AT: 216 × 330 mm
• AT: uno de los formatos más grandes de toda la historia del PC (305 × 279–330 mm), definió un conector de
potencia formado por dos partes. Fue usado de manera extensa de 1985 a 1995.
• 1995 ATX 305 × 244 mm (Intel)
• MicroATX: 244 × 244 mm
• FlexATX: 229 × 191 mm
• MiniATX: 284 × 208 mm
• ATX: creado por un grupo liderado por Intel, en 1995 introdujo las conexiones exteriores en la forma de un panel
I/O y definió un conector de 20 pines para la energía. Se usa en la actualidad en la forma de algunas variantes, que
incluyen conectores de energía extra o reducciones en el tamaño.
• 2001 ITX 215 × 195 mm (VIA)
• MiniITX: 170 × 170 mm
• NanoITX: 120 × 120 mm
• PicoITX: 100 × 72 mm
• ITX: con rasgos procedentes de las especificaciones microATX y FlexATX de Intel, el diseño de VIA se centra
en la integración en placa base del mayor número posible de componentes, además de la inclusión del hardware
gráfico en el propio chipset del equipo, siendo innecesaria la instalación de una tarjeta gráfica en la ranura AGP.
Placa base 57

• 2005 [BTX] 325 × 267 mm (Intel)


• Micro bTX: 264 × 267 mm
• PicoBTX: 203 × 267 mm
• RegularBTX: 325 × 267 mm
• BTX: retirada en muy poco tiempo por la falta de aceptación, resultó prácticamente incompatible con ATX, salvo
en la fuente de alimentación. Fue creada para intentar solventar los problemas de ruido y refrigeración, como
evolución de la ATX.
• 2007 DTX 248 × 203 mm ( AMD)
• Mini-DTX: 170 × 203 mm
• Full-DTX: 243 × 203 mm
• DTX: destinadas a PCs de pequeño formato. Hacen uso de un conector de energía de 24 pines y de un conector
adicional de 2x2.
• Formato propietario: durante la existencia del PC, mucha marcas han intentado mantener un esquema cerrado de
hardware, fabricando tarjetas madre incompatibles físicamente con los factores de forma con dimensiones,
distribución de elementos o conectores que son atípicos. Entre las marcas más persistentes está Dell, que rara vez
fabrica equipos diseñados con factores de forma de la industria.

Fabricantes
Varios fabricantes se reparten el mercado de placas base, tales como Abit, Albatron, Aopen, ASUS, ASRock,
Biostar, Chaintech, Dell, DFI, ECS EliteGroup, Epox, Foxconn, Gigabyte Technology, Intel, MSI, QDI, Sapphire
Technology, Soltek, Super Micro, Tyan, VIA, XFX, Pc Chips, Zotac.
Algunos diseñan y fabrican uno o más componentes de la placa base, mientras que otros ensamblan los componentes
que terceros han diseñado y fabricado.
Medio de almacenamiento (computación) 58

Medio de almacenamiento (computación)


Ejemplos de estos medios son los discos magnéticos (disquetes, discos duros), los discos ópticos (CD, DVD), las
cintas magnéticas, los discos magneto-ópticos (discos Zip, discos Jaz, SuperDisk), las tarjetas de memoria, etc.
Los componentes de hardware que escriben o leen datos en los medios de almacenamiento se conocen como
dispositivos o unidades de almacenamiento. Por ejemplo, una disquetera o una unidad de disco óptico, son
dispositivos que realizan la lectura y/o escritura en disquetes y discos ópticos, respectivamente.
El propósito de los dispositivos de almacenamiento es almacenar y recuperar la información de forma automática y
eficiente.
El almacenamiento se relaciona con dos procesos, los cuales son:
• Lectura de datos almacenados para luego transferirlos a la memoria de la computadora.
• Escritura o grabación de datos para que más tarde se puedan recuperar y utilizar.
Los medios de almacenamiento han evolucionado en forma notable desde las primeras computadoras. En la
actualidad existe una gran variedad tecnologías y dispositivos nuevos, pero el disco rígido sigue siendo el "almacén"
principal de la información en la computadora.

Evolución de los medios o soportes de almacenamiento


• Tarjetas perforadas
• Cintas perforadas
• Cintas magnéticas
• Discos magnéticos
• Disquetes
• Discos duros
• Discos duros externos
• Discos ópticos
• CD
• CD-ROM
• CD-R
• CD-RW
• DVD
• DVD-R
• DVD+R
• DVD-RW
• DVD+RW
• Blu-ray
• Tarjetas de memoria
• USB
• Secure Digital (SD)
• MultiMediaCard (MMC)
• Memory Stick (MS)
• CompactFlash (CF) I y II
• Microdrive (MD)
• SmartMedia (SM)
• xD-Picture Card
Medio de almacenamiento (computación) 59

• Discos de estado sólido

Disco duro
Disco Duro

Interior de un disco duro; se aprecian dos platos con sus respectivos cabezales.
Conectado a:
• controlador de disco; en los actuales ordenadores personales, suele estar conectado en la placa madre y es de vital
importancia en el computador. mediante uno de estos sitemas
• Interfaz IDE / PATA
• Interfaz SATA
• Interfaz SAS
• Interfaz SCSI (popular en servidores)
• Interfaz FC (exclusivamente en servidores)
• Interfaz USB
• NAS mediante redes de cable / inalámbricas

Fabricantes comunes:
• Western Digital
• Seagate
• Samsung
• Hitachi
• Fujitsu

En informática, un disco duro o disco rígido (en inglés Hard Disk Drive, HDD) es un dispositivo de
almacenamiento de datos no volátil que emplea un sistema de grabación magnética para almacenar datos digitales.
Se compone de uno o más platos o discos rígidos, unidos por un mismo eje que gira a gran velocidad dentro de una
caja metálica sellada. Sobre cada plato, y en cada una de sus caras, se sitúa un cabezal de lectura/escritura que flota
sobre una delgada lámina de aire generada por la rotación de los discos.
El primer disco duro fue inventado por IBM en 1956. A lo largo de los años, los discos duros han disminuido su
precio al mismo tiempo que han multiplicado su capacidad, siendo la principal opción de almacenamiento
secundario para PC desde su aparición en los años 1960. Los discos duros han mantenido su posición dominante
gracias a los constantes incrementos en la densidad de grabación, que se ha mantenido a la par de las necesidades de
almacenamiento secundario.
Los tamaños también han variado mucho, desde los primeros discos IBM hasta los formatos estandarizados
actualmente: 3,5 " los modelos para PC y servidores, 2,5 " los modelos para dispositivos portátiles. Todos se
comunican con la computadora a través del controlador de disco, empleando una interfaz estandarizado. Los más
comunes hasta los años 2000 han sido IDE (también llamado ATA o PATA), SCSI (generalmente usado en
servidores y estaciones de trabajo). Desde el 2000 en adelante ha ido masificándose el uso de los Serial ATA. Existe
además FC (empleado exclusivamente en servidores).
Para poder utilizar un disco duro, un sistema operativo debe aplicar un formato de bajo nivel que defina una o más
particiones. La operación de formateo requiere el uso de una fracción del espacio disponible en el disco, que
Disco duro 60

dependerá del formato empleado. Además, los fabricantes de discos duros, unidades de estado sólido y tarjetas flash
miden la capacidad de los mismos usando prefijos SI, que emplean múltiplos de potencias de 1000 según la
normativa IEC y IEEE, en lugar de los prefijos binarios, que emplean múltiplos de potencias de 1024, y son los
usados por sistemas operativos de Microsoft. Esto provoca que en algunos sistemas operativos sea representado
como múltiplos 1024 o como 1000, y por tanto existan confusiones, por ejemplo un disco duro de 500 GB, en
algunos sistemas operativos sea representado como 465 GiB (es decir gibibytes; 1 GiB = 1024 MiB) y en otros como
500 GB.
Las unidades de estado sólido tienen el mismo uso que los discos duros y emplean las mismas interfaces, pero no
están formadas por discos mecánicos, sino por memorias de circuitos integrados para almacenar la información. El
uso de esta clase de dispositivos anteriormente se limitaba a las supercomputadoras, por su elevado precio, aunque
hoy en día ya son muchísimo más asequibles para el mercado doméstico.

Historia
Al principio los discos duros eran extraíbles,
sin embargo, hoy en día típicamente vienen
todos sellados (a excepción de un hueco de
ventilación para filtrar e igualar la presión
del aire).
El primer disco duro, aparecido en 1956, fue
el Ramac I, presentado con la computadora
IBM 350: pesaba una tonelada y su
capacidad era de 5 MB. Más grande que una
nevera actual, este disco duro trabajaba
todavía con válvulas de vacío y requería una
consola separada para su manejo.

Su gran mérito consistía en el que el tiempo


requerido para el acceso era relativamente
constante entre algunas posiciones de
memoria, a diferencia de las cintas Antiguo disco duro de IBM (modelo 62PC, «Piccolo»), de 64,5 MB, fabricado en
magnéticas, donde para encontrar una 1979.

información dada, era necesario enrollar y


desenrollar los carretes hasta encontrar el dato buscado, teniendo muy diferentes tiempos de acceso para cada
posición.
La tecnología inicial aplicada a los discos duros era relativamente simple. Consistía en recubrir con material
magnético un disco de metal que era formateado en pistas concéntricas, que luego eran divididas en sectores. El
cabezal magnético codificaba información al magnetizar diminutas secciones del disco duro, empleando un código
binario de «ceros» y «unos». Los bits o dígitos binarios así grabados pueden permanecer intactos años.
Originalmente, cada bit tenía una disposición horizontal en la superficie magnética del disco, pero luego se descubrió
cómo registrar la información de una manera más compacta.
El mérito del francés Albert Fert y al alemán Peter Grünberg (ambos premio Nobel de Física por sus contribuciones
en el campo del almacenamiento magnético) fue el descubrimiento del fenómeno conocido como
magnetorresistencia gigante, que permitió construir cabezales de lectura y grabación más sensibles, y compactar más
los bits en la superficie del disco duro. De estos descubrimientos, realizados en forma independiente por estos
investigadores, se desprendió un crecimiento espectacular en la capacidad de almacenamiento en los discos duros,
que se elevó un 60 % anual en la década de 1990.
Disco duro 61

En 1992, los discos duros de 3,5 pulgadas alojaban 250 MB, mientras que 10 años después habían superado 40 GB
(40 000 MB). En la actualidad, ya contamos en el uso cotidiano con discos duros de más de 4 TB, esto es, 4000 GB
(4 000 000 MB).
En 2005 los primeros teléfonos móviles que incluían discos duros fueron presentados por Samsung y Nokia, aunque
no tuvieron mucho éxito ya que las memorias flash los acabaron desplazando, sobre todo por asuntos de fragilidad y
superioridad.

Características de un disco duro


Las características que se deben tener en cuenta en un disco duro son:
• Tiempo medio de acceso: Tiempo medio que tarda la aguja en situarse en la pista y el sector deseado; es la suma
del Tiempo medio de búsqueda (situarse en la pista), Tiempo de lectura/escritura y la Latencia media
(situarse en el sector).
• Tiempo medio de búsqueda: Tiempo medio que tarda la aguja en situarse en la pista deseada; es la mitad del
tiempo empleado por la aguja en ir desde la pista más periférica hasta la más central del disco.
• Tiempo de lectura/escritura: Tiempo medio que tarda el disco en leer o escribir nueva información: Depende de
la cantidad de información que se quiere leer o escribir, el tamaño de bloque, el número de cabezales, el tiempo
por vuelta y la cantidad de sectores por pista.
• Latencia media: Tiempo medio que tarda la aguja en situarse en el sector deseado; es la mitad del tiempo
empleado en una rotación completa del disco.
• Velocidad de rotación: Revoluciones por minuto de los platos. A mayor velocidad de rotación, menor latencia
media.
• Tasa de transferencia: Velocidad a la que puede transferir la información a la computadora una vez que la aguja
está situada en la pista y sector correctos. Puede ser velocidad sostenida o de pico.
Otras características son:
• Caché de pista: Es una memoria tipo Flash dentro del disco duro.
• Interfaz: Medio de comunicación entre el disco duro y la computadora. Puede ser IDE/ATA, SCSI, SATA, USB,
Firewire, Serial Attached SCSI
• Landz: Zona sobre las que aparcan las cabezas una vez se apaga la computadora.
Disco duro 62

Estructura física
Dentro de un disco duro hay uno o varios discos (de
aluminio o cristal) concéntricos llamados platos
(normalmente entre 2 y 4, aunque pueden ser hasta 6 o
7 según el modelo), y que giran todos a la vez sobre el
mismo eje, al que están unidos. El cabezal (dispositivo
de lectura y escritura) está formado por un conjunto de
brazos paralelos a los platos, alineados verticalmente y
que también se desplazan de forma simultánea, en cuya
punta están las cabezas de lectura/escritura. Por norma
general hay una cabeza de lectura/escritura para cada
superficie de cada plato. Los cabezales pueden moverse
hacia el interior o el exterior de los platos, lo cual
combinado con la rotación de los mismos permite que Componentes de un disco duro. De izquierda a derecha, fila
superior: tapa, carcasa, plato, eje; fila inferior: espuma aislante,
los cabezales puedan alcanzar cualquier posición de la
circuito impreso de control, cabezal de lectura / escritura, actuador e
superficie de los platos.. imán, tornillos.

Cada plato posee dos ojos, y es necesaria una cabeza de


lectura/escritura para cada cara. Si se observa el
esquema Cilindro-Cabeza-Sector de más abajo, a
primera vista se ven 4 brazos, uno para cada plato. En
realidad, cada uno de los brazos es doble, y contiene 2
cabezas: una para leer la cara superior del plato, y otra
para leer la cara inferior. Por tanto, hay 8 cabezas para
leer 4 platos, aunque por cuestiones comerciales, no
siempre se usan todas las caras de los discos y existen
discos duros con un número impar de cabezas, o con
cabezas deshabilitadas. Las cabezas de lectura/escritura
nunca tocan el disco, sino que pasan muy cerca (hasta a
Interior de un disco duro; se aprecia la superficie de un plato y el
3 nanómetros), debido a una finísima película de aire
cabezal de lectura/escritura retraído, a la izquierda.
que se forma entre éstas y los platos cuando éstos giran
(algunos discos incluyen un sistema que impide que los
cabezales pasen por encima de los platos hasta que alcancen una velocidad de giro que garantice la formación de esta
película). Si alguna de las cabezas llega a tocar una superficie de un plato, causaría muchos daños en él, rayándolo
gravemente, debido a lo rápido que giran los platos (uno de 7.200 revoluciones por minuto se mueve a 129 km/h en
el borde de un disco de 3,5 pulgadas).
Disco duro 63

Direccionamiento
Hay varios conceptos para referirse a zonas del disco:
• Plato: cada uno de los discos que hay dentro del
disco duro.
• Cara: cada uno de los dos lados de un plato.
• Cluster: es un conjunto de sectores.
• Cabeza: número de cabezales.
• Pistas: una circunferencia dentro de una cara; la
pista 0 está en el borde exterior.
• Cilindro: conjunto de varias pistas; son todas las
circunferencias que están alineadas verticalmente
(una de cada cara).
• Sector : cada una de las divisiones de una pista. El
tamaño del sector no es fijo, siendo el estándar
actual 512 bytes, aunque la IDEMA [1] ha creado un
comité que impulsa llevarlo a 4 KiB. Antiguamente
el número de sectores por pista era fijo, lo cual
desaprovechaba el espacio significativamente, ya Cilindro, Cabeza y Sector
que en las pistas exteriores pueden almacenarse más
sectores que en las interiores. Así, apareció la
tecnología ZBR (grabación de bits por zonas) que
aumenta el número de sectores en las pistas
exteriores, y utiliza más eficientemente el disco
duro. Así las pistas se agrupan en zonas de pistas de
igual cantidad de sectores. Cuanto más lejos del
centro de cada plato se encuentra una zona, ésta
contiene una mayor cantidad de sectores en sus
pistas. Además mediante ZBR, cuando se leen
sectores de cilindros más externos la tasa de
transferencia de bits por segundo es mayor; por
tener la misma velocidad angular que cilindros
internos pero mayor cantidad de sectores.[2] Pista (A), Sector (B), Sector de una pista (C),
Clúster (D)
• Sector geométrico: son los sectores contiguos pero
de pistas diferentes.
El primer sistema de direccionamiento que se usó fue el CHS (cilindro-cabeza-sector), ya que con estos tres valores
se puede situar un dato cualquiera del disco. Más adelante se creó otro sistema más sencillo: LBA
(direccionamiento lógico de bloques), que consiste en dividir el disco entero en sectores y asignar a cada uno un
único número. Éste es el que actualmente se usa.
Disco duro 64

Tipos de conexión
Si hablamos de disco duro podemos citar los distintos tipos de conexión que poseen los mismos con la placa base, es
decir pueden ser SATA, IDE, SCSI o SAS:
• IDE: Integrated Drive Electronics ("Dispositivo electrónico integrado") o ATA (Advanced Technology
Attachment), controla los dispositivos de almacenamiento masivo de datos, como los discos duros y ATAPI
(Advanced Technology Attachment Packet Interface) Hasta aproximadamente el 2004, el estándar principal por su
versatilidad y asequibilidad. Son planos, anchos y alargados.
• SCSI: Son interfaces preparadas para discos duros de gran capacidad de almacenamiento y velocidad de rotación.
Se presentan bajo tres especificaciones: SCSI Estándar (Standard SCSI), SCSI Rápido (Fast SCSI) y SCSI
Ancho-Rápido (Fast-Wide SCSI). Su tiempo medio de acceso puede llegar a 7 milisegundos y su velocidad de
transmisión secuencial de información puede alcanzar teóricamente los 5 Mbit/s en los discos SCSI Estándares,
los 10 Mbit/s en los discos SCSI Rápidos y los 20 Mbit/s en los discos SCSI Anchos-Rápidos (SCSI-2). Un
controlador SCSI puede manejar hasta 7 discos duros SCSI (o 7 periféricos SCSI) con conexión tipo margarita
(daisy-chain). A diferencia de los discos IDE, pueden trabajar asincrónicamente con relación al microprocesador,
lo que posibilita una mayor velocidad de transferencia.
• SATA (Serial ATA): El más novedoso de los estándares de conexión, utiliza un bus serie para la transmisión de
datos. Notablemente más rápido y eficiente que IDE. Existen tres versiones, SATA 1 con velocidad de
transferencia de hasta 150 MB/s (hoy día descatalogado), SATA 2 de hasta 300 MB/s, el más extendido en la
actualidad; y por último SATA 3 de hasta 600 MB/s el cual se está empezando a hacer hueco en el mercado.
Físicamente es mucho más pequeño y cómodo que los IDE, además de permitir conexión en caliente.
• SAS (Serial Attached SCSI): Interfaz de transferencia de datos en serie, sucesor del SCSI paralelo, aunque sigue
utilizando comandos SCSI para interaccionar con los dispositivos SAS. Aumenta la velocidad y permite la
conexión y desconexión en caliente. Una de las principales características es que aumenta la velocidad de
transferencia al aumentar el número de dispositivos conectados, es decir, puede gestionar una tasa de
transferencia constante para cada dispositivo conectado, además de terminar con la limitación de 16 dispositivos
existente en SCSI, es por ello que se vaticina que la tecnología SAS irá reemplazando a su predecesora SCSI.
Además, el conector es el mismo que en la interfaz SATA y permite utilizar estos discos duros, para aplicaciones
con menos necesidad de velocidad, ahorrando costes. Por lo tanto, las unidades SATA pueden ser utilizadas por
controladoras SAS pero no a la inversa, una controladora SATA no reconoce discos SAS.

Factor de Forma
El más temprano "factor de forma" de los discos duros, heredó sus dimensiones de las disqueteras. Pueden ser
montados en los mismos chasis y así los discos duros con factor de forma, pasaron a llamarse coloquialmente tipos
FDD "floppy-disk drives" (en inglés).
La compatibilidad del "factor de forma" continua siendo de 3½ pulgadas (8,89 cm) incluso después de haber sacado
otros tipos de disquetes con unas dimensiones más pequeñas.
• 8 pulgadas: 241,3×117,5×362 mm (9,5×4,624×14,25 pulgadas).
En 1979, Shugart Associates sacó el primer factor de forma compatible con los disco duros, SA1000, teniendo las
mismas dimensiones y siendo compatible con la interfaz de 8 pulgadas de las disqueteras. Había dos versiones
disponibles, la de la misma altura y la de la mitad (58,7 mm).
• 5,25 pulgadas: 146,1×41,4×203 mm (5,75×1,63×8 pulgadas). Este factor de forma es el primero usado por los
discos duros de Seagate en 1980 con el mismo tamaño y altura máxima de los FDD de 5¼ pulgadas, por ejemplo:
82,5 mm máximo.
Éste es dos veces tan alto como el factor de 8 pulgadas, que comúnmente se usa hoy; por ejemplo: 41,4 mm (1,64
pulgadas). La mayoría de los modelos de unidades ópticas (DVD/CD) de 120 mm usan el tamaño del factor de
forma de media altura de 5¼, pero también para discos duros. El modelo Quantum Bigfoot es el último que se usó
Disco duro 65

a finales de los 90'.


• 3,5 pulgadas: 101,6×25,4×146 mm (4×1×5.75 pulgadas).
Este factor de forma es el primero usado por los discos duros de Rodine que tienen el mismo tamaño que las
disqueteras de 3½, 41,4 mm de altura. Hoy ha sido en gran parte remplazado por la línea "slim" de 25,4 mm (1
pulgada), o "low-profile" que es usado en la mayoría de los discos duros.
• 2,5 pulgadas: 69,85×9,5-15×100 mm (2,75×0,374-0,59×3,945 pulgadas).
Este factor de forma se introdujo por PrairieTek en 1988 y no se corresponde con el tamaño de las lectoras de
disquete. Este es frecuentemente usado por los discos duros de los equipos móviles (portátiles, reproductores de
música, etc...) y en 2008 fue reemplazado por unidades de 3,5 pulgadas de la clase multiplataforma. Hoy en día la
dominante de este factor de forma son las unidades para portátiles de 9,5 mm, pero las unidades de mayor
capacidad tienen una altura de 12,5 mm.
• 1,8 pulgadas: 54×8×71 mm.
Este factor de forma se introdujo por Integral Peripherals en 1993 y se involucró con ATA-7 LIF con las
dimensiones indicadas y su uso se incrementa en reproductores de audio digital y su subnotebook. La variante
original posee de 2 GB a 5 GB y cabe en una ranura de expansión de tarjeta de ordenador personal. Son usados
normalmente en iPods y discos duros basados en MP3.
• 1 pulgadas: 42,8×5×36,4 mm.
Este factor de forma se introdujo en 1999 por IBM y Microdrive, apto para los slots tipo 2 de compact flash,
Samsung llama al mismo factor como 1,3 pulgadas.
• 0,85 pulgadas: 24×5×32 mm.
Toshiba anunció este factor de forma el 8 de enero de 2004 para usarse en móviles y aplicaciones similares,
incluyendo SD/MMC slot compatible con disco duro optimizado para vídeo y almacenamiento para micromóviles
de 4G. Toshiba actualmente vende versiones de 4 GB (MK4001MTD) y 8 GB (MK8003MTD) 5 [3] y tienen el
récord Guinness del disco duro más pequeño.
Los principales fabricantes suspendieron la investigación de nuevos productos para 1 pulgada (1,3 pulgadas) y 0,85
pulgadas en 2007, debido a la caída de precios de las memorias flash, aunque Samsung introdujo en el 2008 con el
SpidPoint A1 otra unidad de 1,3 pulgadas.
El nombre de "pulgada" para los factores de forma normalmente no identifica ningún producto actual (son
especificadas en milímetros para los factores de forma más recientes), pero estos indican el tamaño relativo del
disco, para interés de la continuidad histórica.

Estructura lógica
Dentro del disco se encuentran:
• El Master Boot Record (en el sector de arranque), que contiene la tabla de particiones.
• Las particiones, necesarias para poder colocar los sistemas de archivos.

Funcionamiento mecánico
Un disco duro suele tener:
• Platos en donde se graban los datos.
• Cabezal de lectura/escritura.
• Motor que hace girar los platos.
• Electroimán que mueve el cabezal.
• Circuito electrónico de control, que incluye: interfaz con la computadora, memoria caché.
• Bolsita desecante (gel de sílice) para evitar la humedad.
Disco duro 66

• Caja, que ha de proteger de la suciedad, motivo por el cual suele traer algún filtro de aire.

Integridad
Debido a la distancia extremadamente pequeña entre los cabezales y la superficie del disco, cualquier contaminación
de los cabezales de lectura/escritura o las fuentes puede dar lugar a un accidente en los cabezales, un fallo del disco
en el que el cabezal raya la superficie de la fuente, a menudo moliendo la fina película magnética y causando la
pérdida de datos. Estos accidentes pueden ser causados por un fallo electrónico, un repentino corte en el suministro
eléctrico, golpes físicos, el desgaste, la corrosión o debido a que los cabezales o las fuentes sean de pobre
fabricación.
El eje del sistema del disco duro depende de la presión del aire
dentro del recinto para sostener los cabezales y su correcta altura
mientras el disco gira. Un disco duro requiere un cierto rango de
presiones de aire para funcionar correctamente. La conexión al
entorno exterior y la presión se produce a través de un pequeño
agujero en el recinto (cerca de 0,5 mm de diámetro) normalmente
con un filtro en su interior (filtro de respiración, ver abajo). Si la
presión del aire es demasiado baja, entonces no hay suficiente
impulso para el cabezal, que se acerca demasiado al disco, y se da
el riesgo de fallos y pérdidas de datos. Son necesarios discos
fabricados especialmente para operaciones de gran altitud, sobre
3.000 m. Hay que tener en cuenta que los aviones modernos tienen
Cabezal del disco duro
una cabina presurizada cuya presión interior equivale normalmente
a una altitud de 2.600 m como máximo. Por lo tanto los discos
duros ordinarios se pueden usar de manera segura en los vuelos. Los discos modernos incluyen sensores de
temperatura y se ajustan a las condiciones del entorno. Los agujeros de ventilación se pueden ver en todos los discos
(normalmente tienen una pegatina a su lado que advierte al usuario de no cubrir el agujero). El aire dentro del disco
operativo está en constante movimiento siendo barrido por la fricción del plato. Este aire pasa a través de un filtro de
recirculación interna para quitar cualquier contaminante que se hubiera quedado de su fabricación, alguna partícula o
componente químico que de alguna forma hubiera entrado en el recinto, y cualquier partícula generada en una
operación normal. Una humedad muy alta durante un periodo largo puede corroer los cabezales y los platos.

Para los cabezales resistentes al magnetismo grandes (GMR) en


particular, un incidente minoritario debido a la contaminación (que
no se disipa la superficie magnética del disco) llega a dar lugar a
un sobrecalentamiento temporal en el cabezal, debido a la fricción
con la superficie del disco, y puede hacer que los datos no se
puedan leer durante un periodo corto de tiempo hasta que la
temperatura del cabezal se estabilice (también conocido como
“aspereza térmica”, un problema que en parte puede ser tratado con
el filtro electrónico apropiado de la señal de lectura).
Cabezal de disco duro IBM sobre el plato del disco
Los componentes electrónicos del disco duro controlan el
movimiento del accionador y la rotación del disco, y realiza
lecturas y escrituras necesitadas por el controlador de disco. El firmware de los discos modernos es capaz de
programar lecturas y escrituras de forma eficiente en la superficie de los discos y de reasignar sectores que hayan
fallado.
Disco duro 67

Presente y futuro
Actualmente la nueva generación de discos duros utiliza la tecnología de grabación perpendicular (PMR), la cual
permite mayor densidad de almacenamiento. También existen discos llamados "Ecológicos" (GP – Green Power),
los cuales hacen un uso más eficiente de la energía.

Comparativa de Unidades de estado sólido y discos duros


Una unidad de estado sólido o SSD (acrónimo en inglés de solid-state drive) es un dispositivo de almacenamiento
de datos que puede estar construido con memoria no volátil o con memoria volátil. Las no volatiles son unidades de
estado sólido que como dispositivos electrónicos, están construidos en la actualidad con chips de memoria flash. No
son discos, pero juegan el mismo papel a efectos prácticos aportando más ventajas que inconvenientes tecnológicos.
Por ello se está empezando a vislumbrar en el mercado la posibilidad de que en el futuro ese tipo de unidades de
estado sólido terminen sustituyendo al disco duro para implementar el manejo de memorias no volatiles en el campo
de la ingeniería informática.
Esos soportes son muy rápidos ya que no tienen partes móviles y consumen menos energía. Todos esto les hace muy
fiables y físicamente duraderos. Sin embargo su costo por GB es aún muy elevado respecto al mismo coste de GB en
un formato de tecnología de Disco Duro siendo un índice muy importante cuando hablamos de las altas necesidades
de almacenamiento que hoy se miden en orden de Terabytes.[4]
A pesar de ello la industria apuesta por este vía de solución tecnológica para el consumo doméstico[5] aunque se ha
de considerar que estos sistemas han de ser integrados correctamente[6] tal y como se está realizando en el campo de
la alta computación.[7] Unido a la reducción progresiva de costes quizás esa tecnología recorra el camino de aplicarse
como método general de archivo de datos informáticos energéticamente respetuosos con el medio natural si optimiza
su función lógica dentro de los sistemas operativos actuales.[8]
Los discos que no son discos: Las Unidades de estado sólido han sido categorizadas repetidas veces como "discos",
cuando es totalmente incorrecto denominarlas así, puesto que a diferencia de sus predecesores, sus datos no se
almacenan sobre superficies cilíndricas ni platos. Esta confusión conlleva habitualmente a creer que "SSD" significa
Solid State Disk, en vez de Solid State Drive

Unidades híbridas
Las unidades híbridas son aquellas que combinan las ventajas de las unidades mecánicas convencionales con las de
las unidades de estado sólido. Consisten en acoplar un conjunto de unidades de memoria flash dentro de la unidad
mecánica, utilizando el área de estado sólido para el almacenamiento dinámico de datos de uso frecuente
(determinado por el software de la unidad) y el área mecánica para el almacenamiento masivo de datos. Con esto se
logra un rendimiento cercano al de unidades de estado sólido a un costo sustancialmente menor. En el mercado
actual (2012), Seagate ofrece su modelo "Momentus XT" con esta tecnología.[9]

Mantenimiento y cuidado
Los discos duros también necesitan cuidado, siga las siguientes instrucciones para evitar la perdida de datos y evitar
que el disco duro quede inservible:
1. No quitar la etiqueta ligeramente plateada que se encuentra a los lados y/o algunas veces en la parte frontal, esto
puede causar que entre polvo y raye el disco, asimismo el polvo que pueda contener electricidad puede mover los
datos y causar daños.
2. No tapar los agujeros pequeños, ya que son un filtro de aire y puede causar sobrecalentamiento.
3. Realizar periódicamente copias de seguridad de la información importante, eventos como apagones o ataques de
virus pueden dañar el disco duro o la información, si ocurre un apagón desconectar el ordenador.
Disco duro 68

4. Se recomienda crear al menos dos particiones: Una para el sistema operativo y los programas y otra para los datos
del usuario. De esta forma se pueden facilitar la copia de seguridad y la restauración, al posibilitar retroceder o
reinstalar completamente el sistema operativo sin perder los datos personales en el proceso.
5. Optimizar (desfragmentar) el disco duro regularmente usando la herramienta incluida en el sistema operativo o un
programa de otro fabricante para reducir el desgaste, facilitar la recuperación en caso de un problema, y mantener
una buena velocidad de respuesta. La mayoría de los expertos parecen coincidir que debe realizarse con una
frecuencia no mayor a una vez por semana, pero no menor a una vez al mes.
6. Descargar y usar un programa que lea los datos de los sensores del disco duro (S.M.A.R.T.), para vigilar la
condición del disco duro. Si indica problemas potenciales, copiar la información importante y reemplazar el disco
duro lo más pronto posible para evitar la pérdida de información.
7. Evitar que el disco sufra golpes físicos, especialmente durante su funcionamiento. Los circuitos, cabezales y
discos pueden dañarse.
8. Si el disco duro presenta problemas de confiabilidad, un funcionamiento anormalmente lento o aparecen sin
razón aparente archivos dañados o ilegibles, analizarlo con un comprobador de disco. También se recomienda
realizar una comprobación de rutina cada cierta cantidad de meses para detectar errores menores y corregirlos
antes de que se agraven.

Fabricantes
Los recursos tecnológicos y el saber hacer requeridos para el desarrollo
y la producción de discos modernos implica que desde 2007, más del
98 % de los discos duros del mundo son fabricados por un conjunto de
grandes empresas: Seagate (que ahora es propietaria de Maxtor y
Quantum), Western Digital (propietaria de Hitachi, a la que a su vez
fue propietaria de la antigua división de fabricación de discos de IBM)
y Fujitsu, que sigue haciendo discos portátiles y discos de servidores,
pero dejó de hacer discos para ordenadores de escritorio en 2001, y el
resto lo vendió a Western Digital. Toshiba es uno de los principales Un Western Digital 3,5 pulgadas 250 GB SATA
HDD.
fabricantes de discos duros para portátiles de 2,5 pulgadas y 1,8
pulgadas. TrekStor es un fabricante alemán que en 2009 tuvo
problemas de insolvencia, pero que actualmente sigue en activo. ExcelStor es un pequeño fabricante chino de discos
duros.

Decenas de ex-fabricantes de discos duros han terminado con sus empresas fusionadas o han cerrado sus divisiones
de discos duros, a medida que la capacidad de los dispositivos y la demanda de los productos aumentó, los beneficios
eran menores y el mercado sufrió un significativa consolidación a finales de los 80 y finales de los 90. La primera
víctima en el mercado de los PC fue Computer Memories Inc.; después de un incidente con 20 MB defectuosos en
discos en 1985, la reputación de CMI nunca se recuperó, y salieron del mercado de los discos duros en 1987. Otro
notable fracaso fue el de MiniScribe, quien quebró en 1990: después se descubrió que tenía en marcha un fraude e
inflaba el número de ventas durante varios años. Otras muchas pequeñas compañías (como Kalok, Microscience,
LaPine, Areal, Priam y PrairieTek) tampoco sobrevivieron a la expulsión, y habían
Disco duro 69

desaparecido para 1993; Micropolis fue capaz de aguantar hasta 1997,


y JTS, un recién llegado a escena, duró sólo unos años y desapareció
hacia 1999, aunque después intentó fabricar discos duros en India. Su
vuelta a la fama se debió a la creación de un nuevo formato de tamaño
de 3” para portátiles. Quantum e Integral también investigaron el
formato de 3”, pero finalmente se dieron por vencidos. Rodime fue
también un importante fabricante durante la década de los 80, pero
dejó de hacer discos en la década de los 90 en medio de la
reestructuración y ahora se concentra en la tecnología de la concesión
de licencias; tienen varias patentes relacionadas con el formato de 3,5“.

Un Seagate 3,5 pulgadas 1 TB SATA HDD.

• 1988: Tandon vendió su división de fabricación de discos duros a Western Digital, que era un renombrado
diseñador de controladores.
• 1989: Seagate compró el negocio de discos de alta calidad de Control Data, como parte del abandono de Control
Data en la creación de hardware.
• 1990: Maxtor compró MiniScribe que estaba en bancarrota, haciéndolo el núcleo de su división de discos de gama
baja.
• 1994: Quantum compró la división de almacenamiento de Digital Equipment otorgando al usuario una gama de
discos de alta calidad llamada ProDrive, igual que la gama tape drive de Digital Linear Tape.
• 1995: Conner Peripherals, que fue fundada por uno de los cofundadores de Seagate junto con personal de
MiniScribe, anunciaron un fusión con Seagate, la cual se completó a principios de 1996.
• 1996: JTS se fusionó con Atari, permitiendo a JTS llevar a producción su gama de discos. Atari fue vendida a
Hasbro en 1998, mientras que JTS sufrió una bancarrota en 1999.
• 2000: Quantum vendió su división de discos a Maxtor para concentrarse en las unidades de cintas y los equipos
de respaldo.
• 2003: Siguiendo la controversia en los fallos masivos en su modelo Deskstar 75GXP, pioneer IBM vendió la
mayor parte de su división de discos a Hitachi, renombrándose como Hitachi Global Storage Technologies,
Hitachi GST.
• 2003: Western Digital compró Read-Rite Corp., quien producía los cabezales utilizados en los discos duros, por
95,4 millones de dólares en metálico.
• 2005: Seagate y Maxtor anuncian un acuerdo bajo el que Seagate adquiriría todo el stock de Maxtor. Esta
adquisición fue aprobada por los cuerpos regulatorios, y cerrada el 19 de mayo de 2006.
• 2007: Western Digital adquiere Komag U.S.A., un fabricante del material que recubre los platos de los discos
duros.
• 2009: Toshiba adquiere la división de HDD de Fujitsu y TrekStor se declara en bancarrota, aunque ese mismo año
consiguen un nuevo inversor para mantener la empresa a flote.
• 2011: Western Digital adquiere Hitachi GST y Seagate compra la división de HDD de Samsung.
Disco duro 70

Referencias
[1] http:/ / www. idema. org/
[2] http:/ / www. youbioit. com/ es/ article/ shared-information/ 5320/ como-funcionan-los-discos-rigidos Cómo funcionan los discos rígidos
[3] http:/ / www3. toshiba. co. jp/ storage/ english/ spec/ hdd/ mk4001. htm
[4] http:/ / www. tuexpertoit. com/ 2011/ 12/ 22/ la-diferencia-de-precio-entre-ssd-y-discos-duros-se-reduce/ Comparativas de precios SSD
versus disco duro
[5] http:/ / alt1040. com/ 2010/ 11/ discos-de-estado-solido-ssd-o-como-hacer-que-tu-computadora-sea-realmente-rapida?utm_source=self&
utm_medium=nav& utm_campaign=Relacionados Discos de estado sólido (SSD) o cómo hacer que tu computadora sea realmente rápida
[6] http:/ / sololinex. wordpress. com/ 2008/ 09/ 09/ comparativa-entre-disco-duro-y-disco-ssd-en-video/ #more-755 Comparativa entre disco
duro y disco SSD en vídeo
[7] http:/ / www. diarioti. com/ noticia/ Presentan_la_primera_supercomputadora_Flash_del_mundo/ 30931 Presentan la primera
supercomputadora Flash del mundo
[8] http:/ / www. orlandoalonzo. com. mx/ tecnologia/ ssd-la-verdad-sobre-el-consumo-de-energia/ SSD: la verdad sobre el consumo de energía
[9] http:/ / www. seagate. com/ www/ es-es/ products/ laptops/ laptop-hdd/

Bibliografía
• Ciriaco García de Celis (1994). « 12.7: El disco duro del AT (IDE, MFM, BUS LOCAL). (http://www.gui.uva.
es/udigital/1207.html)». El universo digital del IBM PC, AT y PS/2 (4ª edición). Facultad de Ciencias de
Valladolid: Grupo Universitario de Informática.

Enlaces externos
• Wikimedia Commons alberga contenido multimedia sobre Disco duro. Commons
• Video de su funcionamiento (http://video.google.com/videoplay?docid=-744683267829297106&q=hard+
drive+in+action&pl=true) (en inglés).
• Todo sobre el disco duro (http://www.monografias.com/trabajos14/discosduros/discosduros.shtml) (en
español).
• Disco duro y particiones (http://www.saulo.net/pub/ddypart) (en español).
• Historia del disco duro (http://www.virtuaside.com/docs/historia-hds.php) (en español).
• Video explicativo sobre el funcionamiento de los discos duros (http://www.microsiervos.com/archivo/
tecnologia/discos-duros-por-dentro.html) (en español).
• IDEMA (http://www.idema.org/) (en inglés).
Memoria de acceso aleatorio 71

Memoria de acceso aleatorio


La memoria de acceso aleatorio (en
inglés: random-access memory) se
utiliza como memoria de trabajo para
el sistema operativo, los programas y
la mayoría del software. Es allí donde
se cargan todas las instrucciones que
ejecutan el procesador y otras unidades
de cómputo. Se denominan «de acceso
aleatorio» porque se puede leer o
DIMM normal y corriente de memoria RAM tipo DDR3 de 240 contactos.
escribir en una posición de memoria
con un tiempo de espera igual para
cualquier posición, no siendo necesario seguir un orden para acceder a la información de la manera más rápida
posible. Durante el encendido del computador, la rutina POST verifica que los módulos de memoria RAM estén
conectados de manera correcta. En el caso que no existan o no se detecten los módulos, la mayoría de tarjetas madres
emiten una serie de pitidos que indican la ausencia de memoria principal. Terminado ese proceso, la memoria BIOS
puede realizar un test básico sobre la memoria RAM indicando fallos mayores en la misma.

Nomenclatura
La expresión memoria RAM se utiliza frecuentemente para describir a los módulos de memoria utilizados en los
computadores personales y servidores. En el sentido estricto, esta memoria es solo una variedad de la memoria de
acceso aleatorio: las ROM, memorias Flash, caché (SRAM), los registros en procesadores y otras unidades de
procesamiento también poseen la cualidad de presentar retardos de acceso iguales para cualquier posición. Los
módulos de RAM son la presentación comercial de este tipo de memoria, que se compone de circuitos integrados
soldados sobre un circuito impreso independiente, en otros dispositivos como las consolas de videojuegos, la RAM
va soldada directamente sobre la placa principal.
Memoria de acceso aleatorio 72

Historia
Uno de los primeros tipos de memoria RAM
fue la memoria de núcleo magnético,
desarrollada entre 1949 y 1952 y usada en
muchos computadores hasta el desarrollo de
circuitos integrados a finales de los años 60 y
principios de los 70. Esa memoria requería que
cada bit estuviera almacenado en un toroide de
material ferromágnetico de algunos milímetros
de diámetro, lo que resultaba en dispositivos
con una capacidad de memoria muy pequeña.
Antes que eso, las computadoras usaban relés
y líneas de retardo de varios tipos construidas
para implementar las funciones de memoria
principal con o sin acceso aleatorio.

En 1969 fueron lanzadas una de las primeras Integrado de silicio de 64 bits sobre un sector de memoria de núcleo magnético
memorias RAM basadas en semiconductores (finales de los 60).

de silicio por parte de Intel con el integrado


3101 de 64 bits de memoria y para el siguiente
año se presentó una memoria DRAM de 1024
bytes, referencia 1103 que se constituyó en un
hito, ya que fue la primera en ser
comercializada con éxito, lo que significó el
principio del fin para las memorias de núcleo
magnético. En comparación con los integrados
de memoria DRAM actuales, la 1103 es
primitiva en varios aspectos, pero tenía un
desempeño mayor que la memoria de núcleos.
4MiB de memoria RAM para un computador VAX de finales de los 70. Los
En 1973 se presentó una innovación que
integrados de memoria DRAM están agrupados arriba a derecha e izquierda.
permitió otra miniaturización y se convirtió en
estándar para las memorias DRAM: la
multiplexación en tiempo de la direcciones de
memoria. MOSTEK lanzó la referencia
MK4096 de 4096 bytes en un empaque de 16
pines, mientras sus competidores las
fabricaban en el empaque DIP de 22 pines. El
esquema de direccionamiento se convirtió en
un estándar de facto debido a la gran
popularidad que logró esta referencia de
DRAM. Para finales de los 70 los integrados
eran usados en la mayoría de computadores
nuevos, se soldaban directamente a las placas Módulos de memoria tipo SIPP instalados directamente sobre la placa base.

base o se instalaban en zócalos, de manera que


ocupaban un área extensa de circuito impreso. Con el tiempo se hizo obvio que la instalación de RAM sobre el
Memoria de acceso aleatorio 73

impreso principal, impedía la miniaturización , entonces se idearon los primeros módulos de memoria como el SIPP,
aprovechando las ventajas de la construcción modular. El formato SIMM fue una mejora al anterior, eliminando los
pines metálicos y dejando unas áreas de cobre en uno de los bordes del impreso, muy similares a los de las tarjetas de
expansión, de hecho los módulos SIPP y los primeros SIMM tienen la misma distribución de pines.
A finales de los 80 el aumento en la velocidad de los procesadores y el aumento en el ancho de banda requerido,
dejaron rezagadas a las memorias DRAM con el esquema original MOSTEK, de manera que se realizaron una serie
de mejoras en el direccionamiento como las siguientes:
• FPM-RAM (Fast Page Mode RAM)
Inspirado en técnicas como el "Burst Mode" usado en
procesadores como el Intel 486, se implantó un modo
direccionamiento en el que el controlador de memoria envía una
sola dirección y recibe a cambio esa y varias consecutivas sin
necesidad de generar todas las direcciones. Esto supone un ahorro
de tiempos ya que ciertas operaciones son repetitivas cuando se
desea acceder a muchas posiciones consecutivas. Funciona como
si deseáramos visitar todas las casas en una calle: después de la
primera vez no seria necesario decir el número de la calle
únicamente seguir la misma. Se fabricaban con tiempos de acceso
de 70 ó 60 ns y fueron muy populares en sistemas basados en el
486 y los primeros Pentium.
Módulos formato SIMM de 30 y 72 pines, los últimos
• EDO-RAM (Extended Data Output RAM) fueron utilizados con integrados tipo EDO-RAM.

Lanzada en 1995 y con tiempos de accesos de 40 o 30 ns suponía


una mejora sobre su antecesora la FPM. La EDO, también es capaz de enviar direcciones contiguas pero direcciona
la columna que va utilizar mientras que se lee la información de la columna anterior, dando como resultado una
eliminación de estados de espera, manteniendo activo el búffer de salida hasta que comienza el próximo ciclo de
lectura.
• BEDO-RAM (Burst Extended Data Output RAM)
Fue la evolución de la EDO RAM y competidora de la SDRAM, fue presentada en 1997. Era un tipo de memoria
que usaba generadores internos de direcciones y accedía a más de una posición de memoria en cada ciclo de reloj, de
manera que lograba un desempeño un 50% mejor que la EDO. Nunca salió al mercado, dado que Intel y otros
fabricantes se decidieron por esquemas de memoria sincrónicos que si bien tenían mucho del direccionamiento
MOSTEK, agregan funcionalidades distintas como señales de reloj.

Tecnologías de memoria
La tecnología de memoria actual usa una señal de sincronización para realizar las funciones de lectura-escritura de
manera que siempre está sincronizada con un reloj del bus de memoria, a diferencia de las antiguas memorias FPM y
EDO que eran asíncronas. Hace más de una década toda la industria se decantó por las tecnologías síncronas, ya que
permiten construir integrados que funcionen a una frecuencia superior a 66 MHz.
Tipos de DIMMs según su cantidad de Contactos o Pines:
• 72-pin SO-DIMM (no el mismo que un 72-pin SIMM), usados por FPM DRAM y EDO DRAM
• 100-pin DIMM, usados por printer SDRAM
• 144-pin SO-DIMM, usados por SDR SDRAM
• 168-pin DIMM, usados por SDR SDRAM (menos frecuente para FPM/EDO DRAM en áreas de trabajo y/o
servidores)
• 172-pin MicroDIMM, usados por DDR SDRAM
Memoria de acceso aleatorio 74

• 184-pin DIMM, usados por DDR SDRAM


• 200-pin SO-DIMM, usados por DDR SDRAM y DDR2 SDRAM
• 204-pin SO-DIMM, usados por DDR3 SDRAM
• 240-pin DIMM, usados por DDR2 SDRAM, DDR3 SDRAM y FB-DIMM DRAM
• 244-pin MiniDIMM, usados por DDR2 SDRAM

SDR SDRAM
Memoria síncrona, con tiempos de acceso
de entre 25 y 10 ns y que se presentan en
módulos DIMM de 168 contactos. Fue
utilizada en los Pentium II y en los Pentium
III , así como en los AMD K6, AMD Athlon
K7 y Duron. Está muy extendida la creencia
de que se llama SDRAM a secas, y que la
denominación SDR SDRAM es para
diferenciarla de la memoria DDR, pero no
Memorias RAM con tecnologías usadas en la actualidad.
es así, simplemente se extendió muy rápido
la denominación incorrecta. El nombre
correcto es SDR SDRAM ya que ambas (tanto la SDR como la DDR) son memorias síncronas dinámicas. Los tipos
disponibles son:

• PC66: SDR SDRAM, funciona a un máx de 66,6 MHz.


• PC100: SDR SDRAM, funciona a un máx de 100 MHz.
• PC133: SDR SDRAM, funciona a un máx de 133,3 MHz.

RDRAM
Se presentan en módulos RIMM de 184 contactos. Fue utilizada en los Pentium IV . Era la memoria más rápida en
su tiempo, pero por su elevado costo fue rápidamente cambiada por la económica DDR. Los tipos disponibles son:
• PC600: RIMM RDRAM, funciona a un máximo de 300 MHz.
• PC700: RIMM RDRAM, funciona a un máximo de 356 MHz.
• PC800: RIMM RDRAM, funciona a un máximo de 400 MHz.
• PC1066: RIMM RDRAM, funciona a un máximo de 533 MHz.

DDR SDRAM
Memoria síncrona, envía los datos dos veces por cada ciclo de reloj. De este modo trabaja al doble de velocidad del
bus del sistema, sin necesidad de aumentar la frecuencia de reloj. Se presenta en módulos DIMM de 184 contactos
en el caso de ordenador de escritorio y en módulos de 144 contactos para los ordenadores portátiles. Los tipos
disponibles son:
• PC1600 o DDR 200: funciona a un máx de 200 MHz.
• PC2100 o DDR 266: funciona a un máx de 266,6 MHz.
• PC2700 o DDR 333: funciona a un máx de 333,3 MHz.
• PC3200 o DDR 400: funciona a un máx de 400 MHz.
• PC4500 o DRR 500: funciona a una máx de 500 MHz
Memoria de acceso aleatorio 75

DDR2 SDRAM
Las memorias DDR 2 son una mejora de las
memorias DDR (Double Data Rate), que
permiten que los búferes de entrada/salida
trabajen al doble de la frecuencia del núcleo,
permitiendo que durante cada ciclo de reloj se
realicen cuatro transferencias. Se presentan en
módulos DIMM de 240 contactos. Los tipos
disponibles son:

• PC2-4200 o DDR2-533: funciona a un máx


de 533,3 MHz.
• PC2-5300 o DDR2-667: funciona a un máx
de 666,6 MHz.
• PC2-6400 o DDR2-800: funciona a un máx
de 800 MHz. Módulos de memoria instalados de 256 MiB cada uno en un sistema con doble
• PC2-8600 o DDR2-1066: funciona a un canal.
máx de 1066,6 MHz.

• PC2-9000 o DDR2-1200: funciona a un máx de 1200 MHz

DDR3 SDRAM
Las memorias DDR 3 son una mejora de las memorias DDR 2, proporcionan significantes mejoras en el rendimiento
en niveles de bajo voltaje, lo que lleva consigo una disminución del gasto global de consumo. Los módulos DIMM
DDR 3 tienen 240 pines, el mismo número que DDR 2; sin embargo, los DIMMs son físicamente incompatibles,
debido a una ubicación diferente de la muesca. Los tipos disponibles son:
• PC3-6400 o DDR3-800: funciona a un máx de 800 MHz.
• PC3-8500 o DDR3-1066: funciona a un máx de 1066,6 MHz.
• PC3-10600 o DDR3-1333: funciona a un máx de 1333,3 MHz.
• PC3-12800 o DDR3-1600: funciona a un máx de 1600 MHz.
• PC3-14900 o DDR3-1866: funciona a un máx de 1866,6 MHz.
• PC3-17000 o DDR3-2133: funciona a un máx de 2133,3 MHz.
• PC3-19200 o DDR3-2400: funciona a un máx de 2400 MHz.
• PC3-21300 o DDR3-2666: funciona a un máx de 2666,6 MHz.
Memoria de acceso aleatorio 76

Módulos de la memoria RAM


Los módulos de memoria RAM son tarjetas de circuito impreso
que tienen soldados integrados de memoria DRAM por una o
ambas caras. La implementación DRAM se basa en una topología
de Circuito eléctrico que permite alcanzar densidades altas de
memoria por cantidad de transistores, logrando integrados de
cientos o miles de megabits. Además de DRAM, los módulos
poseen un integrado que permiten la identificación de los mismos
ante el computador por medio del protocolo de comunicación
SPD.

La conexión con los demás componentes se realiza por medio de


un área de pines en uno de los filos del circuito impreso, que
permiten que el módulo al ser instalado en un zócalo apropiado de Formato SO-DIMM.
la placa base, tenga buen contacto eléctrico con los controladores
de memoria y las fuentes de alimentación. Los primeros módulos comerciales de memoria eran SIPP de formato
propietario, es decir no había un estándar entre distintas marcas. Otros módulos propietarios bastante conocidos
fueron los RIMM, ideados por la empresa RAMBUS.

La necesidad de hacer intercambiable los módulos y de utilizar integrados de distintos fabricantes condujo al
establecimiento de estándares de la industria como los JEDEC.
• Módulos SIMM: Formato usado en computadores antiguos. Tenían un bus de datos de 16 ó 32 bits
• Módulos DIMM: Usado en computadores de escritorio. Se caracterizan por tener un bus de datos de 64 bits.
• Módulos SO-DIMM: Usado en computadores portátiles. Formato miniaturizado de DIMM.
Memoria de acceso aleatorio 77

Relación con el resto del sistema


Dentro de la jerarquía de memoria la RAM se encuentra
en un nivel después de los registros del procesador y de
las cachés en cuanto a velocidad. Los módulos de
memoria se conectan eléctricamente a un controlador de
memoria que gestiona las señales entrantes y salientes de
los integrados DRAM. Las señales son de tres tipos:
direccionamiento, datos y señales de control. En el
módulo de memoria esas señales están divididas en dos
buses y un conjunto misceláneo de líneas de control y
alimentación, Entre todas forman el bus de memoria que
conecta la RAM con su controlador:

• Bus de datos: Son las líneas que llevan información


entre los integrados y el controlador. Por lo general
están agrupados en octetos siendo de 8,16,32 y 64 bits,
cantidad que debe igualar el ancho del bus de datos del
procesador. En el pasado, algunos formatos de módulo,
no tenían un ancho de bus igual al del procesador.En
ese caso había que montar módulos en pares o en
situaciones extremas, de a 4 módulos, para completar
lo que se denominaba banco de memoria, de otro
modo el sistema no funciona. Esa fue la principal razón
para aumentar el número de pines en los módulos,
igualando al ancho de bus de procesadores como el Diagrama de la arquitectura de un ordenador.
Pentium a 64 bits, a principios de los 90.

• Bus de direcciones: Es un bus en el cual se colocan las direcciones de memoria a las que se requiere acceder. No
es igual al bus de direcciones del resto del sistema, ya que está multiplexado de manera que la dirección se envía
en dos etapas.Para ello el controlador realiza temporizaciones y usa las líneas de control. En cada estándar de
módulo se establece un tamaño máximo en bits de este bus, estableciendo un límite teórico de la capacidad
máxima por módulo.
• Señales misceláneas: Entre las que están las de la alimentación (Vdd, Vss) que se encargan de entregar potencia
a los integrados. Están las líneas de comunicación para el integrado de presencia que sirve para identificar cada
módulo. Están las líneas de control entre las que se encuentran las llamadas RAS (row address strobe) y CAS
(column address strobe) que controlan el bus de direcciones, por último están las señales de reloj en las memorias
sincrónicas SDRAM.
Algunos controladores de memoria en sistemas como PC y servidores se encuentran embebidos en el llamado "North
Bridge" o "Puente Norte" de la placa base. Otros sistemas incluyen el controlador dentro del mismo procesador (en
el caso de los procesadores desde AMD Athlon 64 e Intel Core i7 y posteriores). En la mayoría de los casos el tipo
de memoria que puede manejar el sistema está limitado por los sockets para RAM instalados en la placa base, a pesar
que los controladores de memoria en muchos casos son capaces de conectarse con tecnologías de memoria distintas.
Una característica especial de algunos controladores de memoria, es el manejo de la tecnología canal doble (Dual
Channel), donde el controlador maneja bancos de memoria de 128 bits, siendo capaz de entregar los datos de manera
intercalada, optando por uno u otro canal, reduciendo las latencias vistas por el procesador. La mejora en el
desempeño es variable y depende de la configuración y uso del equipo. Esta característica ha promovido la
modificación de los controladores de memoria, resultando en la aparición de nuevos chipsets (la serie 865 y 875 de
Memoria de acceso aleatorio 78

Intel) o de nuevos zócalos de procesador en los AMD (el 939 con canal doble , reemplazo el 754 de canal sencillo).
Los equipos de gama media y alta por lo general se fabrican basados en chipsets o zócalos que soportan doble canal
o superior, como en el caso del zócalo (o socket, en inglés) 1366 de Intel, que usaba un triple canal de memoria, o su
nuevo LGA 2011 que usa cuádruple canal.

Detección y corrección de errores


Existen dos clases de errores en los sistemas de memoria, las fallas (Hard fails) que son daños en el hardware y los
errores (soft errors) provocados por causas fortuitas. Los primeros son relativamente fáciles de detectar (en algunas
condiciones el diagnóstico es equivocado), los segundos al ser resultado de eventos aleatorios, son más difíciles de
hallar. En la actualidad la confiabilidad de las memorias RAM frente a los errores, es suficientemente alta como para
no realizar verificación sobre los datos almacenados, por lo menos para aplicaciones de oficina y caseras. En los usos
más críticos, se aplican técnicas de corrección y detección de errores basadas en diferentes estrategias:
• La técnica del bit de paridad consiste en guardar un bit adicional por cada byte de datos y en la lectura se
comprueba si el número de unos es par (paridad par) o impar (paridad impar), detectándose así el error.
• Una técnica mejor es la que usa ECC, que permite detectar errores de 1 a 4 bits y corregir errores que afecten a un
sólo bit. Esta técnica se usa sólo en sistemas que requieren alta fiabilidad.
Por lo general los sistemas con cualquier tipo de protección contra errores tiene un costo más alto, y sufren de
pequeñas penalizaciones en desempeño, con respecto a los sistemas sin protección. Para tener un sistema con ECC o
paridad, el chipset y las memorias deben tener soporte para esas tecnologías. La mayoría de placas base no poseen
dicho soporte.
Para los fallos de memoria se pueden utilizar herramientas de software especializadas que realizan pruebas sobre los
módulos de memoria RAM. Entre estos programas uno de los más conocidos es la aplicación Memtest86+ que
detecta fallos de memoria.

Memoria RAM registrada


Es un tipo de módulo usado frecuentemente en servidores, posee circuitos integrados que se encargan de repetir las
señales de control y direcciones: las señales de reloj son reconstruidas con ayuda del PLL que está ubicado en el
módulo mismo. Las señales de datos se conectan de la misma forma que en los módulos no registrados: de manera
directa entre los integrados de memoria y el controlador. Los sistemas con memoria registrada permiten conectar
más módulos de memoria y de una capacidad más alta, sin que haya perturbaciones en las señales del controlador de
memoria, permitiendo el manejo de grandes cantidades de memoria RAM. Entre las desventajas de los sistemas de
memoria registrada están el hecho de que se agrega un ciclo de retardo para cada solicitud de acceso a una posición
no consecutiva y un precio más alto que los módulos no registrados. La memoria registrada es incompatible con los
controladores de memoria que no soportan el modo registrado, a pesar de que se pueden instalar físicamente en el
zócalo. Se pueden reconocer visualmente porque tienen un integrado mediano, cerca del centro geométrico del
circuito impreso, además de que estos módulos suelen ser algo más altos.[1]
Durante el año 2006 varias marcas lanzaron al mercado sistemas con memoria FB-DIMM que en su momento se
pensaron como los sucesores de la memoria registrada, pero se abandonó esa tecnología en 2007 dado que ofrecía
pocas ventajas sobre el diseño tradicional de memoria registrada y los nuevos modelos con memoria DDR3.[2]
Memoria de acceso aleatorio 79

Referencias
[1] http:/ / download. micron. com/ pdf/ datasheets/ modules/ ddr2/ HTJ_S36C512_1Gx72. pdf
[2] http:/ / www. theinquirer. net/ inquirer/ news/ 1014319/ fb-dimm-dead-rddr3-king

Universal Serial Bus


Universal Serial Bus

Símbolo USB
Tipo Bus

Historia de producción

Diseñador Ajay Bhatt, Intel

Diseñado en Enero 1996

Fabricante IBM, Intel, Northern Telecom, Compaq, Microsoft, Digital Equipment Corporation y NEC

Sustituye a Puerto serie, puerto paralelo, puerto de juegos, Apple Desktop Bus, PS/2

Sustituido por Universal Serial Bus High Speed

Especificaciones

Longitud 5 metros (máximo)

Ancho 11,5 mm (conector A), 8,45 mm (conector B)

Alto 4,5 mm (conector A), 7,78 mm (conector B, antes de v3.0)

Conectable en caliente Sí

Externo Sí

Electrico 5 voltios CC

Voltaje maximo 5 voltios

Corriente maxima 500 a 900 mA (depende de la versión)

Señal de Datos Paquete de datos, definido por las especificaciones

Ancho 1 bit

Ancho de banda 1,5/12/480/5.000 Mbit/s (depende de la versión)

Max nº dispositivos 127

Protocolo Serial

Cable 4 hilos en par trenzado; 8 en USB 3.0

Pines 4 (1 alimentación, 2 datos, 1 masa)

Conector Único

Patillaje
Universal Serial Bus 80

Conectores tipo A (izquierda) y B (derecha) vistos desde la parte posterior (cable) a la frontal
(conector).

Pin 1 VCC (+5 V)

Pin 2 Data-

Pin 3 Data+

Pin 4 Masa

El Universal Serial Bus (USB) (bus universal en serie BUS) es un estándar industrial desarrollado a mediados de
los años 1990 que define los cables, conectores y protocolos usados en un bus para conectar, comunicar y proveer de
alimentación eléctrica entre ordenadores y periféricos y dispositivos electrónicos. La iniciativa del desarrollo partió
de Intel que creó el USB Implementers Forum[1] junto con IBM, Northern Telecom, Compaq, Microsoft, Digital
Equipment Corporation y NEC en 1996 se lanzó la primera especificación (USB 1.0), la cual no fue popular, hasta
1998 con (USB 1.1). Actualmente agrupa a más de 685 compañías.[2]
USB fue diseñado para estandarizar la conexión de periféricos, como mouse, teclados, memorias USB, joysticks,
escáneres, cámaras digitales, teléfonos móviles, reproductores multimedia, impresoras, dispositivos
multifuncionales, sistemas de adquisición de datos, módems, tarjetas de red, tarjetas de sonido, tarjetas
sintonizadoras de televisión y grabadora de DVD externa, discos duros externos y disquetera externas. Su éxito ha
sido total, habiendo desplazado a conectores como el puerto serie, puerto paralelo, puerto de juegos, Apple Desktop
Bus o PS/2 a mercados-nicho o a la consideración de dispositivos obsoletos a eliminar de los modernos ordenadores,
pues muchos de ellos pueden sustituirse por dispositivos USB que implementen esos conectores.
Su campo de aplicación se extiende en la actualidad a cualquier dispositivo electrónico o con componentes, desde los
automóviles (las radios de automóvil modernas van convirtiéndose en reproductores multimedia con conector USB o
iPod) a los reproductores de Blu-ray Disc o los modernos juguetes como Pleo. Se han implementado variaciones
para su uso industrial e incluso militar. Pero en donde más se nota su influencia es en los teléfonos inteligentes
(Europa ha creado una norma por la que todos los móviles deberán venir con un cargador microUSB), tabletas,
PDAs y videoconsolas, donde ha reemplazado a conectores propietarios casi por completo.
Desde 2004 , aproximadamente 6 mil millones de dispositivos se encuentran actualmente en el mercado global, y
alrededor de 2 mil millones se venden cada año.
Algunos dispositivos requieren una potencia mínima, así que se pueden conectar varios sin necesitar fuentes de
alimentación extra. Para ello existen concentradores (llamados USB hubs) que incluyen fuentes de alimentación para
aportar energía a los dispositivos conectados a ellos, pero algunos dispositivos consumen tanta energía que necesitan
su propia fuente de alimentación. Los concentradores con fuente de alimentación pueden proporcionarle corriente
eléctrica a otros dispositivos sin quitarle corriente al resto de la conexión (dentro de ciertos límites).
En el caso de los discos duros, sólo una selecta minoría implementan directamente la interfaz USB como conexión
nativa, siendo los discos externos mayoritariamente IDE o Serial ATA con un adaptador en su interior. Incluso
existen cajas externas y cunas que implementan conectores eSATA y USB, incluso USB 3.0. Estas y las mixtas
Universal Serial Bus 81

USB/FireWire han expulsado del mercado de discos externos a SCSI y las conexiones por puerto paralelo.

Velocidades de transmisión
Pin Nombre Color del cable Descripción

1 VCC Rojo +5v

2 D− Blanco Data −

3 D+ Verde Data +

4 GND Negro Masa

• Ediciones previas:
El estándar USB evolucionó a través de varias versiones antes de su lanzamiento oficial en 1996:
USB 0.7: Lanzado en noviembre de 1994.
USB 0.8: Lanzado en diciembre de 1994.
USB 0.9: Lanzado en abril de 1995.
USB 0.99: Lanzado en agosto de 1995.
USB 1.0 Release Candidate: Lanzado en noviembre de 1995.
Los dispositivos USB se clasifican en cuatro tipos según su velocidad de transferencia de datos:
• Baja velocidad (1.0): Tasa de transferencia de hasta 1,5 Mbit/s (188 kB/s). Utilizado en su mayor parte por
dispositivos de interfaz humana (Human Interface Device, en inglés) como los teclados, los ratones (mouse), las
cámaras web, etc.
• Velocidad completa (1.1): Tasa de transferencia de hasta 12 Mbit/s (1,5 MB/s) según este estándar, pero se dice
en fuentes independientes que habría que realizar nuevamente las mediciones. Ésta fue la más rápida antes de la
especificación USB 2.0, y muchos dispositivos fabricados en la actualidad trabajan a esta velocidad. Estos
dispositivos dividen el ancho de banda de la conexión USB entre ellos, basados en un algoritmo de impedancias
LIFO.
• Alta velocidad (2.0): Tasa de transferencia de hasta 480 Mbit/s (60 MB/s) pero con una tasa real práctica máxima
de 280 Mbit/s (35 MB/s). El cable USB 2.0 dispone de cuatro líneas, un par para datos, y otro par de
alimentación.
• Superalta velocidad (3.0): Tiene una tasa de transferencia de hasta 4,8 Gbit/s (600 MB/s). La velocidad del bus
es diez veces más rápida que la del USB 2.0, debido a que han incluido 5 contactos adicionales, desechando el
conector de fibra óptica propuesto inicialmente, y será compatible con los estándares anteriores. En octubre de
2009 la compañía taiwanesa ASUS lanzó la primera placa base que incluía puertos USB 3.0, tras ella muchas
otras le han seguido y actualmente se ve cada vez más en placas base y portátiles nuevos, conviviendo junto con
el USB 2.0.[3][4]
Las señales del USB se transmiten en un cable de par trenzado con impedancia característica de 90 Ω ± 15%, cuyos
hilos se denominan D+ y D-. Éstos, colectivamente, utilizan señalización diferencial en half dúplex excepto el USB
3.0 que utiliza un segundo par de hilos para realizar una comunicación en full dúplex. La razón por la cual se realiza
la comunicación en modo diferencial es simple, reduce el efecto del ruido electromagnético en enlaces largos. D+ y
D- suelen operar en conjunto y no son conexiones simples. Los niveles de transmisión de la señal varían de 0 a 0,3 V
para bajos (ceros) y de 2,8 a 3,6 V para altos (unos) en las versiones 1.0 y 1.1, y en ±400 mV en alta velocidad (2.0).
En las primeras versiones, los alambres de los cables no están conectados a masa, pero en el modo de alta velocidad
se tiene una terminación de 45 Ω a masa o un diferencial de 90 Ω para acoplar la impedancia del cable. Este puerto
sólo admite la conexión de dispositivos de bajo consumo, es decir, que tengan un consumo máximo de 100 mA por
cada puerto; sin embargo, en caso de que estuviese conectado un dispositivo que permite 4 puertos por cada salida
Universal Serial Bus 82

USB (extensiones de máximo 4 puertos), entonces la energía del USB se asignará en unidades de 100 mA hasta un
máximo de 500 mA por puerto. Con la primera fabricación de un PC con USB 3.0 en 2009, ahora tenemos 1 A (un
amperio) por puerto, lo cual da 5 W (cinco vatios) en lugar de 0,5 A (500 mA, 2,5W) como máximo.

Miniplug/Microplug
Pin Nombre Color Descripción

1 VCC Rojo +5 V

2 D- Blanco Data -

3 D+ Verde Data +

4 ID Ninguno Permite la distinción de Micro-A y Micro-B


Tipo A: conectado a masa
Tipo B: no conectado

5 GND Negro Masa y retorno o negativo

Compatibilidad y conectores

Universal Serial Bus

Memoria USB

Conector USB tipo A macho

Prolongador USB3.0

Tarjeta PCI-USB 2.0.


Universal Serial Bus 83

Los cables de datos son un par trenzado para reducir el ruido y las interferencias

Tipos diferentes de conectores USB (de izquierda a derecha): micro USB macho, mini USB, tipo B macho, tipo A
hembra, tipo A macho.

Una memoria USB como ésta implementará normalmente la clase de dispositivo de almacenamiento masivo USB

El estándar USB especifica tolerancias mecánicas relativamente amplias para sus conectores, intentando maximizar
la compatibilidad entre los conectores fabricados por la compañía ―una meta a la que se ha logrado llegar. El
estándar USB, a diferencia de otros estándares también define tamaños para el área alrededor del conector de un
dispositivo, para evitar el bloqueo de un puerto adyacente por el dispositivo en cuestión.
Las especificaciones USB 1.0, 1.1 y 2.0 definen dos tipos de conectores para conectar dispositivos al servidor: A y
B. Sin embargo, la capa mecánica ha cambiado en algunos conectores. Por ejemplo, el IBM UltraPort es un conector
USB privado localizado en la parte superior del LCD de los ordenadores portátiles de IBM. Utiliza un conector
mecánico diferente, mientras mantiene las señales y protocolos característicos del USB. Otros fabricantes de
artículos pequeños han desarrollado también sus medios de conexión pequeños, y ha aparecido una gran variedad de
ellos, algunos de baja calidad.
Una extensión del USB llamada "USB On The Go" (sobre la marcha) permite a un puerto actuar como servidor o
como dispositivo; esto se determina por qué lado del cable está conectado al aparato. Incluso después de que el cable
está conectado y las unidades se están comunicando, las 2 unidades pueden "cambiar de papel" bajo el control de un
programa. Esta facilidad está específicamente diseñada para dispositivos como PDA, donde el enlace USB podría
conectarse a un PC como un dispositivo, y conectarse como servidor a un teclado o ratón. El "USB-On-The-Go"
también ha diseñado 3 conectores pequeños, el mini-A y el mini-B, así que esto debería detener la proliferación de
conectores miniaturizados de entrada.
Universal Serial Bus 84

Almacenamiento masivo USB


USB implementa conexiones a dispositivos de almacenamiento usando un grupo de estándares llamado USB mass
storage device class (abreviado en inglés "MSC" o "UMS"). Éste se diseñó inicialmente para memorias ópticas y
magnéticas, pero ahora sirve también para soportar una amplia variedad de dispositivos, particularmente memorias
USB.

Wireless USB
Wireless USB (normalmente abreviado W-USB o WUSB) es un protocolo de comunicación inalámbrica por radio
con gran ancho de banda que combina la sencillez de uso de USB con la versatilidad de las redes inalámbricas.
Utiliza como base de radio la plataforma Ultra-WideBand desarrollada por WiMedia Alliance, que puede lograr tasas
de transmisión de hasta 480 Mbit/s (igual que USB 2.0) en rangos de tres metros y 110 Mbit/s en rangos de diez
metros y opera en los rangos de frecuencia de 3,1 a 10,6 GHz. Actualmente se está en plena transición y aún no
existen muchos dispositivos que incorporen este protocolo, tanto clientes como anfitriones. Mientras dure este
proceso, mediante los adaptadores y/o cables adecuados se puede convertir un equipo WUSB en uno USB y
viceversa.

USB 3.0
La principal característica es la multiplicación por 10 de la velocidad de transferencia, que pasa de los 480 Mbit/s a
los 4,8 Gbit/s (600 MB/s).
Otra de las características de este puerto es su "regla de inteligencia": los dispositivos que se enchufan y después de
un rato quedan en desuso, pasan inmediatamente a un estado de bajo consumo.
A la vez, la intensidad de la corriente se incrementa de los 500 a los 900 miliamperios, que sirve para abastecer a un
teléfono móvil o un reproductor audiovisual portátil en menos tiempo.
Por otro lado, aumenta la velocidad en la transmisión de datos, ya que en lugar de funcionar con tres líneas, lo hace
con cinco. De esta manera, dos líneas se utilizan para enviar, otras dos para recibir, y una quinta se encarga de
suministrar la corriente. Así, el tráfico es bidireccional (Full dúplex).
A finales de 2009, fabricantes como Asus o Gigabyte presentaron placas base con esta nueva revisión del bus. La
versión 3.0 de este conector universal es 10 veces más rápida que la anterior. Aquellos que tengan un teclado o un
ratón de la versión anterior no tendrán problemas de compatibilidad, ya que el sistema lo va a reconocer al instante,
aunque no podrán beneficiarse de los nuevos adelantos de este puerto usb serial bus.
En la feria Consumer Electronics Show (CES), que se desarrolló en Las Vegas, Estados Unidos, se presentaron
varios aparatos que vienen con el nuevo conector. Tanto Western Digital como Seagate anunciaron discos externos
equipados con el USB 3.0, mientras que Asus, Fujitsu y HP anunciaron que tendrán modelos portátiles con este
puerto.
Según se comenta en algunos blogs especializados[cita requerida], desde que se anunció el USB 3.0 Intel estaría
intentando retrasar su adopción como nuevo estándar para impulsar su propio conector alternativo, llamado
Thunderbolt, aunque el USB ya cuenta con el aval de toda la industria mientras que Thunderbolt sólo con el de la
misma Intel y Apple. Esta última es conocida por tener una cuota de mercado de alrededor del 5% en computadoras
domésticas y portátiles.
Principales diferencias entre USB 2.0 y 3.0 La principal diferencia apreciable, es la velocidad de transferencia de
datos, que es muy superior en el estándar USB 3.0. El soporte de formatos HD es casi nulo en USB 2.0, pero es
ampliamente soportado por USB 3.0. Los dispositivos USB 3.0 se pueden conectar en puertos USB 2.0 y viceversa.
Características de USB 3.0 A diferencia del USB 2.0, esta nueva tecnología (USB 3.0 Super Speed), es casi diez
veces más rápida, ya que transfiere datos a 600 MB/s. También, podemos notar que cuenta con soporte para
dispositivos HD externos, lo que aumenta su rendimiento.
Universal Serial Bus 85

Lista de periféricos que es posible conectar a un puerto USB Y USB OTG


El puerto USB es un estándar que permite la transferencia de información desde o hacia otro periférico. Esta lista
detalla los periféricos que es posible conectar a un puerto USB. Por orden alfabético.
• Cámaras de fotos
• Cámaras de video
• Disqueteras externas
• Discos duros externos
• Grabadoras de DVD externas
• Impresoras USB
• Lector de tarjetas de memoria
• Multifunciones
• Ratones USB
• Teclados USB
• Teléfonos móviles
• Sintonizadoras de TV USB
• MP3's
• MP4's
• Pendrives
• Módems USB
• Monitores USB
• PDA
• Volantes USB
• Ventiladores USB
• Joysticks USB
• Webcams USB
• Tocadiscos para la transferencia de música
• Tarjetas de video USB
• Tarjetas de sonido USB
• Tarjetas Wifi USB
• Tarjetas de red USB
• Mini altavoces
• Hubs USB o concentradores de puertos USB
Universal Serial Bus 86

USB On-The-Go
USB On-The-Go, frecuentemente abreviado como USB OTG, es una especificación que permite a los dispositivos
USB como reproductores digitales de audio, teléfonos móviles o tabletas, actuar como servidores facilitando que se
puedan conectar memorias y discos duros USB, ratones o teclados.[5]

Comparativa de velocidades
Conexiones de dispositivos externos
• Firewire 800: 100 MB/s
• Firewire s1600: 200 MB/s
• Firewire s3200: 400 MB/s
• USB 1.0: 0,19 MB/s
• USB 1.1: 1,5 MB/s
• USB 2.0: 60 MB/s
• USB 3.0: 600 MB/s
• USB 3.1: 1280 MB/s
Conexiones de dispositivos externos de alta velocidad Cargador de teléfono MicroUSB
• e-SATA: 300 MB/s[6]
• USB 3.0: 600 MB/s[7]
• Thunderbolt: 1200 MB/s[8]
• USB 3.1: 1280 MB/s
Conexiones para tarjetas de expansión
• PCI Express 1.x (x1): 250 MB/s
• PCI Express 2.0 (x1): 500 MB/s
• PCI Express 1.x (x8): 2000 MB/s
• PCI Express 2 (x8): 4000 MB/s
• PCI Express 1.x (x16): 4000 MB/s
USB mini ventiladores
• PCI Express 2 (x16): 8000 MB/s

Conexiones de almacenamiento interno


• ATA: 100 MB/s (UltraDMA 5)
• PATA: 133 MB/s (UltraDMA 6)
• SATA I: 183 MB/s (1.5 Gbit/s)
• SATA II: 366 MB/s (3 Gbit/s)
• SATA III: 732 MB/s (6 Gbit/s)
Universal Serial Bus 87

Referencias
[1] About USB Implementers Forum, Inc. (http:/ / www. usb. org/ about)
[2] Company List (https:/ / www. usb. org/ members_landing/ directory?complex_search_companies=1) del USB Implementers Forum
[3] Shankland, Stephen. USB 3.0 brings optical connection in 2008. (http:/ / www. news. com/ 8301-10784_3-9780794-7. html) CNET
News.com. Retrieved on 2007-09-19.
[4] Demerjian, Charlie. Gelsinger demos USB 3.0, PICe 3.0 and other new toys. (http:/ / www. theinquirer. net/ ?article=42440) The Inquirer.
Consultado el 2007-09-19.
[5] en:USB_On-The-Go
[6] http:/ / en. wikipedia. org/ wiki/ Serial_ATA#eSATA
[7] http:/ / www. usb. org/ developers/ ssusb
[8] http:/ / www. apple. com/ es/ thunderbolt/

Enlaces externos
Wikilibros
• Wikilibros en inglés alberga un libro o manual sobre Serial Programming:USB Technical Manual.
• Wikimedia Commons alberga contenido multimedia sobre Universal Serial BusCommons.
• USB,incluyendo documentación (http://www.usb.org) (en inglés)
• Puertos E/S: Puertos USB (http://www.zator.com/Hardwre/H2_5_3.htm)
• US Ecológico (http://www.elonido13.com/detalle-noticia.asp?id=1103)
• Linux USB Project (http://www.linux-usb.org/) (en inglés)

Fuente de alimentación
En electrónica, una fuente de alimentación es un dispositivo que
convierte la tensión alterna, en una o varias tensiones, prácticamente
continuas, que alimentan los distintos circuitos del aparato electrónico
al que se conecta (ordenador, televisor, impresora, router, etc.).

Clasificación
Las fuentes de alimentación, para dispositivos electrónicos, pueden
clasificarse básicamente como fuentes de alimentación lineales y
conmutadas. Las lineales tienen un diseño relativamente simple, que Fig. 1 - Fuente de alimentación para PC formato
ATX (sin cubierta superior, para mostrar su
puede llegar a ser más complejo cuanto mayor es la corriente que
interior y con el ventilador a un lado).
deben suministrar, sin embargo su regulación de tensión es poco
eficiente. Una fuente conmutada, de la misma potencia que una lineal,
será más pequeña y normalmente más eficiente pero será más compleja y por tanto más susceptible a averías.

Fuentes de alimentación lineales


Las fuentes lineales siguen el esquema: transformador, rectificador, filtro, regulación y salida.
En primer lugar el transformador adapta los niveles de tensión y proporciona aislamiento galvánico. El circuito que
convierte la
Fuente de alimentación 88

corriente alterna en corriente continua pulsante se llama rectificador,


después suelen llevar un circuito que disminuye el rizado como un
filtro de condensador. La regulación, o estabilización de la tensión a un
valor establecido, se consigue con un componente denominado
regulador de tensión, que no es más que un sistema de control a lazo
cerrado (realimentado - ver figura 3) que en base a la salida del
circuito ajusta el elemento regulador de tensión que en su gran mayoría
este elemento es un transistor. Este transistor que dependiendo de la
tipología de la fuente está siempre polarizado, actúa como resistencia
regulable mientras el circuito de control juega con la región activa del
transistor para simular mayor o menor resistencia y por consecuencia
regulando el voltaje de salida. Este tipo de fuente es menos eficiente en
la utilización de la potencia suministrada dado que parte de la energía
se transforma en calor por efecto Joule en el elemento regulador
(transistor), ya que se comporta como una resistencia variable. A la
Fig. 2 - Fuentes de alimentación externas.
salida de esta etapa a fin de conseguir una mayor estabilidad en el
rizado se encuentra una segunda etapa de filtrado (aunque no
obligatoriamente, todo depende de los requerimientos del diseño), esta
puede ser simplemente un condensador. Esta corriente abarca toda la
energía del circuito, para esta fuente de alimentación deben tenerse en
cuenta unos puntos concretos a la hora de decidir las características del
transformador.

Fuentes de alimentación conmutadas


Una fuente conmutada es un dispositivo electrónico que transforma
energía eléctrica mediante transistores en conmutación. Mientras que
un regulador de tensión utiliza transistores polarizados en su región
activa de amplificación, las fuentes conmutadas utilizan los mismos Fig. 3 - Sistema de control a lazo cerrado
conmutándolos activamente a altas frecuencias (20-100 kHz
típicamente) entre corte (abiertos) y saturación (cerrados). La forma de onda cuadrada resultante se aplica a
transformadores con núcleo de ferrita (Los núcleos de hierro no son adecuados para estas altas frecuencias) para
obtener uno o varios voltajes de salida de corriente alterna (CA) que luego son rectificados (Con diodos rápidos) y
filtrados (inductores y condensadores) para obtener los voltajes de salida de corriente continua (CC). Las ventajas de
este método incluyen menor tamaño y peso del núcleo, mayor eficiencia y por lo tanto menor calentamiento. Las
desventajas comparándolas con fuentes lineales es que son más complejas y generan ruido eléctrico de alta
frecuencia que debe ser cuidadosamente minimizado para no causar interferencias a equipos próximos a estas
fuentes.

Las fuentes conmutadas tienen por esquema: rectificador, conmutador, transformador, otro rectificador y salida.
La regulación se obtiene con el conmutador, normalmente un circuito PWM (Pulse Width Modulation) que cambia el
ciclo de trabajo. Aquí las funciones del transformador son las mismas que para fuentes lineales pero su posición es
diferente. El segundo rectificador convierte la señal alterna pulsante que llega del transformador en un valor
continuo. La salida puede ser también un filtro de condensador o uno del tipo LC.
Las ventajas de las fuentes lineales son una mejor regulación, velocidad y mejores características EMC. Por otra
parte las conmutadas obtienen un mejor rendimiento, menor coste y tamaño.
Fuente de alimentación 89

Especificaciones
Una especificación fundamental de las fuentes de alimentación es el rendimiento, que se define como la potencia
total de salida entre la potencia activa de entrada. Como se ha dicho antes, las fuentes conmutadas son mejores en
este aspecto.
El factor de potencia es la potencia activa entre la potencia aparente de entrada. Es una medida de la calidad de la
corriente.
La fuente debe mantener la tensión de salida al voltaje solicitado independientemente de las oscilaciones de la línea,
regulación de línea o de la carga requerida por el circuito, regulación de carga.

Fuentes de alimentación especiales


Entre las fuentes de alimentación alternas, tenemos aquellas en donde la potencia que se entrega a la carga está
siendo controlada por transistores, los cuales son controlados en fase para poder entregar la potencia requerida a la
carga.
Otro tipo de alimentación de fuentes alternas, catalogadas como especiales son aquellas en donde la frecuencia es
variada, manteniendo la amplitud de la tensión logrando un efecto de fuente variable en casos como motores y
transformadores de tensión.

Enlaces externos
• Wikimedia Commons alberga contenido multimedia sobre Fuente de alimentaciónCommons.
• Explicación de los circuitos que forman un Fuente de alimentación [1]

Referencias
[1] http:/ / www. ifent. org/ lecciones/ CAP16. htm
Serial ATA 90

Serial ATA
SATA : Serial Advanced Technology Attachment

Puertos SATA en una placa base o placa madre.


Tipo masivo externo

Historia de producción

Diseñado en 2003

Sustituye a Parallel ATA

Especificaciones

Conectable en caliente Sí, con soporte de otros componentes del sistema.

Externo Sí, con eSATA. Y por USB, con case o caja externa.

Cable Cable plano

Pines 7

Patillaje

Pin 1 GND Masa

Pin 2 HT+/DR+ Transmisión diferencial +

Pin 3 HT-/DR- Transmisión diferencial -

Pin 4 GND Masa

Pin 5 HR-/DT- Recepción diferencial -

Pin 6 HR-/DT+ Recepción diferencial +

Pin 7 GND Masa

Serial ATA o SATA (acrónimo de Serial Advanced Technology Attachment) es una interfaz de transferencia de
datos entre la placa base y algunos dispositivos de almacenamiento, como puede ser el disco duro, lectores y
regrabadores de CD/DVD/BR, Unidades de Estado Sólido u otros dispositivos de altas prestaciones que están siendo
todavía desarrollados. Serial ATA sustituye a la tradicional Parallel ATA o P-ATA. SATA proporciona mayores
velocidades, mejor aprovechamiento cuando hay varias unidades, mayor longitud del cable de transmisión de datos y
capacidad para conectar unidades al instante, es decir, insertar el dispositivo sin tener que apagar el ordenador o que
sufra un cortocircuito como con los viejos Molex.
Actualmente es una interfaz aceptada y estandarizada en las placas base de PC. La Organización Internacional Serial
ATA (SATA-IO) es el grupo responsable de desarrollar, de manejar y de conducir la adopción de especificaciones
estandarizadas de Serial ATA. Los usuarios de la interfaz SATA se benefician de mejores velocidades, dispositivos
Serial ATA 91

de almacenamientos actualizables de manera más simple y configuración más sencilla. El objetivo de SATA-IO es
conducir a la industria a la adopción de SATA definiendo, desarrollando y exponiendo las especificaciones estándar
para la interfaz SATA.

Historia
A principios del año 2000 se formó un grupo con el nombre de Serial ATA Working Group OG. Los miembros
fundadores del grupo continuaron formando el Serial ATA II Working Group para seguir con el desarrollo de la
siguiente generación de especificaciones para Serial ATA. La nueva organización, SATA-IO, toma las tareas de
mantenimiento de las especificaciones, promoción y venta de Serial ATA. Además de crear una futura interfaz con
especificaciones de velocidad que encabecen la tecnología de almacenamiento durante la siguiente década.
El cambio de Serial ATA II Working Group a una asociación industrial formal fue tomado por el Serial ATA II
Steering Committee que encontró que un beneficio comercial mutuo les daría mayor ventaja a la hora de promover
cualquier actividad necesaria para la adopción de Serial ATA. La SATA-IO se dedica a construir un mercado robusto
y maduro para las ofertas de Serial ATA. Y, en su caso, seguirá actividades tales como: un programa de
concienciación tecnológica y de logo, laboratorios de interoperabilidad y encuentros cara a cara.
La diferencia principal entre un grupo de trabajo y una asociación industrial formal es que la segunda es una entidad
independiente legalmente. Así es posible tener un presupuesto más formalizado y es capaz de amparar actividades
para el desarrollo de SATA. Los miembros de SATA-IO tienen la capacidad de influir o contribuir directamente al
desarrollo de las especificaciones de SATA.

Miembros
La adición de miembros a SATA-IO está abierta miembros a la especificación y al sitio Web del desarrollo de las
especificaciones.
• Elegibilidad para participar en los laboratorios de interoperabilidad de Serial ATA (Plugfests).
• Oportunidades para participar en programas de marketing y eventos, como cartas de prensa, muestras de
productos en el sitio Web, etc.
• Uso de los logos SATA-IO.
• Descuentos para eventos SATA-IO.
• Promoción de la compañía y enlaces desde el sitio Web de SATA-IO.
Los promotores del grupo SATA-IO incluyen a Dell Computer Corporation, Maxtor Corporation, Seagate
Technology, Western Digital Corporation, Hitachi High-Technologies Corporation y Vitesse Semiconductor. El
número actual de miembros es de 206 compañías que incluyen a todas las compañías conocidas del mundo
informático, ya sea de software como de hardware. Sun Microsystems, Hewlett-Packard, Samsung, IBM, etc.
Para hacerse miembro del SATA-IO hay que firmar el acuerdo de calidad de miembro (Membership Agreement) y
pagar una cuota anual de $1,500 en las oficinas de SATA-IO.

Velocidades
Al referirse a velocidades de transmisión, conviene recordar que en ocasiones se confunden las unidades de medida,
y que las especificaciones de la capa física se refieren a la tasa real de datos, mientras que otras especificaciones se
refieren a capacidades lógicas.
La primera generación específica en transferencias de 150 MB por segundo, también conocida por SATA 150 MB/s
o Serial ATA-150. Actualmente se comercializan dispositivos SATA II, a 300 MB/s, también conocida como Serial
ATA-300 y los SATA III con tasas de transferencias de hasta 600 MB/s.
Las unidades que soportan la velocidad de 3Gb/s son compatibles con un bus de 1,5 Gb/s.
Serial ATA 92

En la siguiente tabla se muestra el cálculo de la velocidad real de SATA I 1,5 Gb/s, SATA II 3 Gb/s y SATA III 6
Gb/s:

SATA I SATA II SATA III

Frecuencia 1500 MHz 3000 MHz 6000MHz

Bits/clock 1 1 1

Codificación 8b10b 80% 80% 80%

bits/Byte 8 8 8

Velocidad real 150 MB/s 300 MB/s 600 MB/s

Topología
SATA es una arquitectura "punto a
punto". Es decir, la conexión entre
puerto y dispositivo es directa, cada
dispositivo se conecta directamente a
un controlador SATA, no como
sucedía en los viejos PATA que las
interfaces se segmentaban en maestras
y esclavas.

Cables y conexiones
Los conectores y los cables son la
diferencia más visible entre las
unidades SATA y las ATA. Al
contrario que los ATA, se usa el
mismo conector en las unidades de
almacenamiento de equipos de
escritorio o servidores (3,5 pulgadas) y
los de los portátiles (2,5 pulgadas). Gráfico de la topología SATA: host – multiplicador - dispositivo.
Esto permite usar las unidades de 2,5
pulgadas en los sistemas de escritorio sin necesidad de usar adaptadores a la vez que disminuyen los costes.

SATA Externo
Fue estandarizado a mediados de 2004, con definiciones específicas de cables, conectores y requisitos de la señal
para unidades eSATA externas. eSATA se caracteriza por:
• Velocidad de SATA en los discos externos (se han medido 115 MB/s con RAID externos)
• Sin conversión de protocolos de PATA/SATA a USB/Firewire, todas las características del disco están
disponibles para el anfitrión.
• La longitud de cable se restringe a 2 metros; USB y Firewire permiten mayores distancias.
• Se aumentó la tensión de transmisión mínima y máxima a 500mV - 600mV (de 400 mV - 600 mV)
• Voltaje recibido disminuido a 240 mV - 600 mV (de 325 mV - 600 mV)
• Capacidad de disposición de los discos en RAID 0 y RAID
Actualmente, la mayoría de las placas base han empezado a incluir conectores eSATA, también es posible usar
adaptadores de bus o tarjetas PC Card y CardBus para portátiles que aún no integran el conector.
Serial ATA 93

Alternativas
También en SCSIW se está preparando un sistema en serie, que además es compatible con SATA, esto es, se podrán
conectar discos SATA en una controladora SAS (Serial Attached SCSI). El Serial ATA transfiere los datos por un
bus de 7 hilos mucho más delgado y fino que el anterior Parallel ATA que lo hacía por uno de 80 o 40 hilos, lo que
permite una mayor circulación de aire en ventilación dentro del equipo disminuyendo así su calentamiento interno y
externo.

Enlaces externos
• Organización Internacional Serial ATA (SATA-IO) [1]
• Serial ATA International Organisation [2]
• Tecnologías de interfaces de almacenamiento [3]
• Grupo de trabajo T13 [4]
• International Committee of Information Technology Standards [5]
• La lista de los miembros actuales de SATA-IO se puede encontrar en la página oficial de SATA-IO [6].

• Wikimedia Commons alberga contenido multimedia sobre Serial ATACommons.y los conectores SATA
(castellano)

Referencias
[1] http:/ / www. serialata. org
[2] http:/ / www. sata-io. org
[3] http:/ / www. itnews. ec/ marco/ 000016. aspx
[4] http:/ / www. t13. org
[5] http:/ / www. incits. org
[6] http:/ / www. sata-io. org/ membershiplist. asp
ATX 94

ATX
El estándar ATX (Advanced Technology Extended) se
desarrolló como una evolución del factor de forma[1]
de Baby-AT, para mejorar la funcionalidad de los
actuales E/S y reducir el costo total del sistema. Este
fue creado por Intel en 1995. Fue el primer cambio
importante en muchos años en el que las
especificaciones técnicas fueron publicadas por Intel en
1995 y actualizadas varias veces desde esa época, la
versión más reciente es la 2.2 [1] publicada en 2004.

Una placa ATX tiene un tamaño de 305 mm x 244 mm


(12" x 9,6"). Esto permite que en algunas cajas ATX
quepan también placas Boza microATX.
Otra de las características de las placas ATX es el tipo
de conector a la fuente de alimentación, el cual es de 24
(20+4) contactos que permiten una única forma de
conexión y evitan errores como con las fuentes AT y
otro conector adicional llamado P4, de 4 contactos.
Placa Base ATX y Micro-ATX.
También poseen un sistema de desconexión por
software.

Tipos y dimensiones ATX


• E-ATX: 30x33 cm.
• ATX-30,5×24,4cm.
• Mini-ATX-28,4cm x 20,8cm.
• Micro-ATX-24,4cm x 24,4cm.
• Flex-ATX-22,9cm x 19,1 cm.
• A-ATX-Format-30,5cm x 69 cm.

Ventajas de ATX
• Integración de los puertos E/S en la propia placa base.
• La rotación de 90º de los formatos anteriores.
• El procesador está en paralelo con los slots de memoria, cerca de la toma de aire de la fuente de alimentación,
aprovechando el flujo de aire y reduciendo la temperatura.
• Los slots AGP, PCI, PCI-e, están situados horizontalmente con el procesador.
• Tiene mejor refrigeración.
• Reduce costes de fabricación y mantenimiento.
ATX 95

Molex de 24 pines (20+4) (placa base). Molex de 24 pines (20+4) (fuente alimentación).

ATX - Conector principal de alimentación 24 Pines( 20 pines + 4 pines(11,12 y 23,24) )


Tensión Pin Color Color Pin Tensión

+3.3 V 1 13 +3.3 V

+3.3 V 2 14 -12 V

Tierra 3 15 Tierra

+5 V 4 16 PS_ON

Tierra 5 17 Tierra

+5 V 6 18 Tierra

Tierra 7 19 Tierra

Power OK 8 20 -5 V(opcional)

+5 VSB 9 21 +5 V

+12 V 10 22 +5 V

+12 V 11 23 +5 V

+3.3 V 12 24 Tierra

Si se conecta directamente al formato de la antigua AT, el interruptor de entrada de la fuente de alimentación está
conectado a la placa base ATX. Esto hace que podamos apagar el equipo mediante el software en sí. Sin embargo, lo
que significa es que la placa base sigue siendo alimentada por una tensión de espera, que puede ser transmitida a las
tarjetas de expansión. Esto permite funciones tales como Wake on LAN o Wake on Modem "encendido-apagado",
ATX 96

donde el propio ordenador vuelve a encenderse cuando se utiliza la LAN con un paquete de reactivación o el módem
recibe una llamada. La desventaja es el consumo de energía en modo de espera y el riesgo de daños causados por
picos de voltaje de la red eléctrica, incluso si el equipo no está funcionando.
Para iniciar una fuente de alimentación ATX, es necesario cortocircuitar el PS-ON (PowerSupplyOn) con tierra
(COM). Sin embargo, la fuente de alimentación nunca tiene una carga fija para poder ser activada, ya que puede ser
dañada. Debido a la evolución de los potentes procesadores y tarjetas gráficas ha sido necesario añadir al molex de
20pin cuatro pines más, es decir el conector utilizado actualmente en la placa base ATX es de 24 pines que disponen
de un conducto de +12 V, +5 V, 3,3 V y tierra.
Las fuentes, para cumplir la norma, también tienen que respetar los límites de ruido y oscilación en sus salidas de
voltaje, estos límites son 120mV para 12+, 50mV para 5V+ y 3,3V+. Estos valores son pico a pico.

Estándares derivados de fuentes de alimentación ATX


• SFX
• TFX
• WTX
• AMD GES
• EPS12V

Enlaces externos
• Conector de alimentación ATX de 20 pines; funciones de los pines [2]
• Conector de alimentación ATX de 24 pines; funciones de los pines [3]
Una fuente ATX puede ser usada como una fuente de laboratorio de electrónica con unas pocas modificaciones. [4]

Referencias
[1] http:/ / www. formfactors. org/ FFDetail. asp?FFID=1& CatID=1
[2] http:/ / todohard. awardspace. com/ docs/ ConectorATXpower/
[3] http:/ / todohard. awardspace. com/ docs/ ConectorATXpower24/
[4] http:/ / web. archive. org/ web/ http:/ / www. bilbaoelectronics. com/ fuente-atx-laboratorio. html
Tarjeta de expansión 97

Tarjeta de expansión
Las tarjetas de expansión son dispositivos
con diversos circuitos integrados, y
controladores que, insertadas en sus
correspondientes ranuras de expansión,
sirven para expandir las capacidades de un
ordenador. Las tarjetas de expansión más
comunes sirven para añadir memoria,
controladoras de unidad de disco,
controladoras de vídeo, puertos serie o
paralelo y dispositivos de módem internos.
Por lo general, se suelen utilizar
indistintamente los términos «placa» y
«tarjeta» para referirse a todas las tarjetas de
expansión.
Instalación de una tarjeta de expansión.
En la actualidad las tarjetas suelen ser de
tipo PCI, PCI Express o AGP. Como
ejemplo de tarjetas que ya no se utilizan tenemos la de tipo Bus ISA.
Gracias al avance en la tecnología USB y a la integración de audio, video o red en la placa base, hoy en día son
menos imprescindibles para tener un PC completamente funcional.
El primer microordenador en ofrecer un bus de tarjeta tipo ranura fue el Altair 8800, desarrollado en 1974-1975.
Inicialmente, las implementaciones de este bus eran de marca registrada (como Apple II y Macintosh), pero en 1982
fabricantes de computadoras basadas en el Intel 8080/Zilog Z80 que ejecutaban CP/M ya habían adoptado el
estándar S-100. IBM lanzó el bus XT, con el primer IBM PC en 1981; se llamaba entonces el bus PC, ya que el IBM
XT, que utilizaba el mismo bus (con una leve excepción) no se lanzó hasta 1983. XT (también denominado ISA de 8
bits) fue reemplazado por ISA (también denominado ISA de 16 bits), conocido originalmente como el bus AT, en
1984. El bus MCA de IBM, desarrollado para el PS/2 en 1987, competía con ISA, pero cayó en desgracia debido a la
aceptación general de ISA de parte de la industria, y la licencia cerrada que IBM mantenía sobre el bus MCA. EISA,
la versión extendida de 32 bits abogada por Compaq, era común en las placas base de los PC hasta 1997, cuando
Microsoft lo declaró un «subsistema heredado» en el libro blanco industrial PC 97. VESA Local Bus, un bus de
expansión al principio de los 1990 que estaba ligado intrínsecamente a la CPU 80486, se volvió obsoleto (además del
procesador) cuando Intel lanzó la CPU Pentium en 1993.
El bus PCI se lanzó en 1991 para reemplazar a ISA. El estándar (ahora en la versión 3.0) se encuentra en las placas
base de los PC aun hoy en día. Intel lanzó el bus AGP en 1997 como una solución dedicada de aceleración de video.
Aunque se denominaba un bus, AGP admite una sola tarjeta a la vez. A partir de 2005, PCI Express ha estado
reemplazando a PCI y a AGP. Este estándar, aprobado en 2004, implementa el protocolo lógico PCI a través de una
interfaz de comunicación en serie.
Después del bus S-100, este artículo sólo menciona buses empleados en PCs compatibles con IBM/Windows-Intel.
La mayoría de las otras líneas de computadoras que no eran compatibles con IBM, inclusive las de Tandy,
Commodore, Amiga y Atari, ofrecían sus propios buses de expansión. Aun muchas consolas de videojuegos, tales
como el Sega Genesis, incluían buses de expansión; al menos en el caso del Genesis, el bus de expansión era de
marca registrada, y de hecho las ranuras de cartucho de la muchas consolas que usaban cartuchos (excepto el Atari
2600) calificarían como buses de expansión, ya que exponían las capacidades de lectura y escritura del bus interno
del sistema. No obstante, los módulos de expansión conectados a esos interfaces, aunque eran funcionalmente
Tarjeta de expansión 98

iguales a las tarjetas de expansión, no son técnicamente tarjetas de expansión, debido a su forma física.
Para sus modelos 1000 EX y 1000 HX, Tandy Computer diseñó la interfaz de expansión PLUS, una adaptación de
las tarjetas del bus XT con un factor de forma más pequeño. Porque es eléctricamente compatible con el bus XT
(también denominado ISA de 8 bits o XT-ISA), un adaptador pasivo puede utilizarse para conectar tarjetas XT a un
conector de expansión PLUS. Otra característica de tarjetas PLUS es que se pueden apilar. Otro bus que ofrecía
módulos de expansión capaces de ser apilados era el bus «sidecar» empleado por el IBM PCjr. Éste pudo haber sido
eléctricamente igual o similar al bus XT; seguramente poseía algunas similitudes ya que ambos esencialmente
exponían los buses de dirección y de datos de la CPU 8088, con búferes y preservación de estado, la adición de
interrupciones y DMA proveídos por chips complementarios de Intel, y algunas líneas de detección de fallos
(corriente idónea, comprobación de Memoria, comprobación de Memoria E/S). Otra vez, PCjr sidecars no son
técnicamente tarjetas de expansión, sino módulos de expansión, con la única diferencia siendo que el sidecar es una
tarjeta de memoria envuelta en una caja de plástico (con agujeros que exponen los conectores).

Tipos de tarjetas de expansión


• Capturadora de televisión
• Módem interno
• Tarjeta gráfica
• Tarjeta de red
• Tarjeta de sonido

PCI-Express
PCI Express (anteriormente conocido por las siglas 3GIO, en el caso
de las "Entradas/Salidas de Tercera Generación", en inglés: 3rd
Generation In/Out) es un nuevo desarrollo del bus PCI que usa los
conceptos de programación y los estándares de comunicación
existentes, pero se basa en un sistema de comunicación serie mucho
Ranura PCI-Express 1x
más rápido. Este sistema es apoyado principalmente por Intel, que
empezó a desarrollar el estándar con nombre de proyecto Arapahoe
después de retirarse del sistema Infiniband.

PCI Express es abreviado como PCI-E o PCIe, aunque erróneamente se le suele abreviar como PCI-X o PCIx. Sin
embargo, PCI Express no tiene nada que ver con PCI-X OG que es una evolución de PCI, en la que se consigue
aumentar el ancho de banda mediante el incremento de la frecuencia, llegando a ser 32 veces más rápido que el PCI
2.1 ya que, aunque su velocidad es mayor que PCI-Express, presenta el inconveniente de que al instalar más de un
dispositivo la frecuencia base se reduce y pierde velocidad de transmisión.
PCI-Express 99

Estructura
Este bus está estructurado como carriles punto a punto, full-duplex, trabajando en serie. En PCIe 1.1 (el más común
en 2007) cada carril transporta 250 MB/s en cada dirección. PCIe 2.0 dobla esta tasa a 500 MB/s y PCIe 3.0 la dobla
de nuevo (1 GB/s por carril).
Cada ranura de expansión lleva uno, dos, cuatro, ocho o dieciséis carriles de datos entre la placa base y las tarjetas
conectadas. El número de carriles se escribe con una x de prefijo (x1 para un carril simple y x16 para una tarjeta con
dieciséis carriles); x16 de 500MB/s dan un máximo ancho de banda de 8 GB/s en cada dirección para PCIE 2.x. En
el uso más común de x16 para el PCIE 1.1 proporciona un ancho de banda de 4 GB/s (250 MB/s x 16) en cada
dirección. En comparación con otros buses, un carril simple es aproximadamente el doble de rápido que el PCI
normal; una ranura de cuatro carriles, tiene un ancho de banda comparable a la versión más rápida de PCI-X 1.0, y
ocho carriles tienen un ancho de banda comparable a la versión más rápida de AGP.
Una ranura PCi Express 3.0 tiene 1 GB/s direccional y 2 GB/s bidireccional, por lo que logran en el caso de x16 un
máximo teórico de 16 GB/s direccionales y 32 GB/s bidireccion

Uso
PCI-Express está pensado para ser usado sólo como bus
local, aunque existen extensores capaces de conectar
múltiples placas base mediante cables de cobre o
incluso fibra óptica. Debido a que se basa en el bus
PCI, las tarjetas actuales pueden ser reconvertidas a
PCI Express cambiando solamente la capa física. La
velocidad superior del PCI Express permitirá
reemplazar casi todos los demás buses, AGP y PCI
incluidos. La idea de Intel es tener un solo controlador
PCI Express comunicándose con todos los dispositivos, Slots PCI Express (de arriba a abajo: x4, x16, x1 y x16), comparado
en vez de con el actual sistema de puente norte y puente con uno tradicional PCI de 32 bits, tal como se ven en la placa DFI
LanParty nF4 Ultra-D
sur.
PCI Express no es todavía suficientemente rápido para
ser usado como bus de memoria. Esto es una desventaja que no tiene el sistema similar HyperTransport, que también
puede tener este uso. Además no ofrece la flexibilidad del sistema InfiniBand, que tiene rendimiento similar, y
además puede ser usado como bus interno externo.
Este conector es usado mayormente para conectar tarjetas gráficas. PCI Express en 2006 es percibido como un
estándar de las placas base para PC, especialmente en tarjetas gráficas. Marcas como Advanced Micro Devices y
nVIDIA entre otras tienen tarjetas gráficas en PCI Express.
También ha sido utilizado en múltiples ocasiones como puesto para la transferencia de unidades de estado sólido de
alto rendimiento, con tasas superiores al Gigabyte por segundo.
PCI-Express 100

Factores de forma
• Tarjeta de baja altura
• Mini Card: un reemplazo del formato Mini PCI (con buses PCIe x1, USB 2.0 y SMBus en el conector)
• ExpressCard: sucesor del formato PC card (con PCIe x1 y USB 2.0; conectable en caliente)
• XMC: similar al formato CMC/PMC (con PCIe x4 o Serial RapidI/O)
• AdvancedTCA: un complemento de CompactPCI y PXI para aplicaciones tecnológicas; soporta topologías de
backplane basadas en comunicación serial
• AMC: un complemento de la especificación AdvancedTCA; soporta procesadores y módulos de entrada/salida en
placas ATCA (PCIe x1,x2,x4 o x8).
• PCI Express External Cabling
• Mobile PCI Express Module (MXM) Una especificación de módulos gráficos para portátiles creada por NVIDIA.
• Advanced eXpress I/O Module (AXIOM) diseño de módulos gráficos creada por ATI Technologies.

Referencias

Enlaces externos
• Wikimedia Commons alberga contenido multimedia sobre PCI-ExpressCommons.
• PCI-Express en Hispatech (http://www.hispatech.com/ver_articulo.php?cod=21)
• Intel Developer Network for PCI Express Architecture (http://www.intel.com/technology/pciexpress/devnet/
)
• Rapid I/O en HispaTech (http://hispatech.com/articulos/html/ibap/rapid_io/pag1.php)

Unidad de disco óptico


En informática, una unidad de disco óptico es una unidad de disco
que usa una luz láser u ondas electromagnéticas cercanas al espectro de
la luz como parte del proceso de lectura o escritura de datos desde un
archivo a discos ópticos. Algunas unidades solo pueden leer discos,
pero las unidades más recientes usualmente son tanto lectoras como
grabadoras. Para referirse a las unidades con ambas capacidades se
suele usar el término lectograbadora. Los discos compactos (CD),
DVD, y Blu-ray Disc son los tipos de medios ópticos más comunes que
pueden ser leídos y grabados por estas unidades. Una unidad de CD-ROM.

Las unidades de discos ópticos son una parte integrante de los aparatos
de consumo autónomos como los reproductores de CD, reproductores de DVD y grabadoras de DVD. También son
usados muy comúnmente en las computadoras para leer software y medios de consumo distribuidos en formato de
disco, y para grabar discos para el intercambio y archivo de datos. Las unidades de discos ópticos (junto a las
memorias flash) han desplazado a las disqueteras y a las unidades de cintas magnéticas para este propósito debido al
bajo coste de los medios ópticos y la casi ubicuidad de las unidades de discos ópticos en las computadoras y en
hardware de entretenimiento de consumo.
Unidad de disco óptico 101

La grabación de discos en general es restringida a la distribución y


copiado de seguridad a pequeña escala, siendo más lenta y más cara en
términos materiales por unidad que el proceso de moldeo usado para
fabricar discos planchados en masa.

El lente de una unidad de CD/DVD en una laptop


Acer.

Láser y óptica
La parte más importante de una unidad de disco óptico es el camino óptico, ubicado en un pickup head (PUH), que
consiste habitualmente de un láser semiconductor, un lente que guía el haz de laser, y fotodiodos que detectan la luz
reflejada en la superficie del disco.
En los inicios, se usaban los lásers de CD con una longitud de onda de 780 nm, estando en el rango infrarrojo. Para
los DVD, la longitud de onda fue reducida a 650 nm (color rojo), y la longitud de onda para el Blu-ray fue reducida a
405 nm (color violeta).
Se usan dos servomecanismos principales, el primero para mantener una distancia correcta entre el lente y el disco, y
para asegurar que el haz de laser es enfocado en un punto de láser pequeño en el disco. El segundo servo mueve un
cabezal a lo largo del radio del disco, manteniendo el haz sobre una estría, un camino de datos en espiral continuo.
En los medios de solo lectura (ROM, read only media), durante el proceso de fabricación la estría, hecha de surcos
(pits), es presionada sobre una superficie plana, llamada área (land). Debido a que la profundidad de los surcos es
aproximandate la cuarta o sexta parte de la longitud de onda del láser, la fase del haz reflejado cambia en relación al
haz entrante de lectura, causando una interferencia destructiva mutua y reduciendo la intensidad del haz reflejado.
Esto es detectado por fotodiodos que emiten señales eléctricas.
Una grabadora codifica (graba, quema) datos en un disco CD-R, DVD-R, DVD+R, o BD-R grabable (llamado
virgen o en blanco), calentando selectivamente partes de una capa de tinte orgánico con un láser. Esto cambia la
reflexividad del tinte, creando así marcas que pueden ser leídas como los surcos y áreas en discos planchados. Para
los discos grabables, el proceso es permanente y los medios pueden ser escritos una sola vez. Si bien el láser lector
habitualmente no es más fuerte que 5 mW, el láser grabador es considerablemente más poderoso. A mayor velocidad
de grabación, menor es el tiempo que el láser debe calentar un punto en el medio, entonces su poder tiene que
aumentar proporcionalmente. Los lásers de las grabadoras de DVD a menudo alcanzan picos de alrededor de 100
mW en ondas continuas, y 225 mW de impulsos.
Para medios regrabables como CD-RW, DVD-RW, DVD+RW, o BD-RE, el láser es usado para derretir una
aleación de metal cristalina en la capa de grabación del disco. Dependiendo de la cantidad de energía aplicada, la
sustancia puede volver a adoptar su forma cristalina original o quedar en una forma amorfa, permitiendo que sean
creadas marcas de reflexividad variante.
Los medios de doble cara pueden ser usados, pero no son de fácil acceso con una unidad estándar, ya que deben ser
volteados físicamente para acceder a los datos en la otra cara.
Los medios de doble capa (DL, double layer) tienen dos capas de datos independientes separadas por una capa
semireflexiva. Ambas capas son accesibles por el mismo lado, pero necesitan que la óptica cambie el foco del láser.
Unidad de disco óptico 102

Los medios grabables tradicionales de una capa (SL, single layer) son producidos con una estría en espiral moldeada
en la capa protectiva de policarbonato (no en la capa de grabación de datos), para dirigir y sincronizar la velocidad
del cabezal grabador. Los medios grabables de doble capa tiene: una primera capa de policarbonato con una estría
(superfical), una primera capa de datos, una capa semireflexiva, una segunda capa de policarbonato (de espaciado)
con otra estría (profunda), y una segunda capa de datos. La primera estría en espiral habitualmente comienza sobre el
borde interior y se extiende hacia fuera, mientras que la segunda estría comienza en el borde exterior y se extiende
hacia dentro.
Algunas unidades tienen soporte para la tecnología de impresión fototérmica LightScribe de Hewlett-Packard que
permite etiquetar discos recubiertos especialmente.

Mecanismo de rotación
El mecanismo de rotación de las unidades ópticas difiere significativamente del de los discos duros, en que el
segundo mantiene una velocidad angular constante (VAC), en otras palabras un número constante de revoluciones
por minuto (RPM). Con la VAC, usualmente en la zona exterior del disco se consigue un mejor throughput
(rendimiento) en comparación con la zona interior.
Por otra parte, las unidades ópticas fueron desarrolladas con la idea de alcanzar un throughput constante,
inicialmente en las unidades de CD igual a 150 KiB/s. Era una característica importante para hacer streaming de
datos de audio, que siempre tiende a necesitar una tasa de bits (bit rate) constante. Pero para asegurar que no se
desperdicia la capacidad del disco, un cabezal también tendría que transferir datos a una tasa lineal máxima todo el
tiempo, sin detenerse en el borde exterior del disco. Esto ha conducido a que las unidades ópticas (hasta hace poco)
operaran a una velocidad lineal constante (VLC). La estría en espiral en el disco pasaba bajo el cabezal a una
velocidad constante. Por supuesto la implicación de la VLC, en contraposición a la VAC, hace que la velocidad
angular del disco ya no sea constante, por lo tanto el motor rotatorio tiene que ser diseñado para variar la velocidad
entre 200 RPM en el borde exterior y 500 RPM en el borde interior.
Las unidades de CD más recientes mantenían el paradigma VLC, pero evolucionaron para alcanzar velocidades de
rotación mayores, popularmente descritas en múltiplos de una velocidad base (150 KiB/s). Como resultado, una
unidad de 4X, por ejemplo, rotaría a 800-2000 RPM, transfiriendo datos a 600 KiB/s continuamente, lo que es igual
a 4 x 150 KiB/s.
La velocidad de base del DVD, o "velocidad 1x", es de 1,385 MB/s, igual a 1,32 MiB/s, aproximadamente 9 veces
más rápido que la velocidad base del CD. La velocidad base de una unidad de Blu-ray es de 6,74 MB/s, igual a 6,43
MiB/s.
Existen límites mecánicos respecto a cuan rápido puede girar un disco. Después de una cierta de rotación, cerca de
10.000 RPM, el estrés centrífugo puede causar que el plástico del disco se arrastre y posiblemente se destruya. En el
borde exterior de un CD, 10.000 RPM equivalen aproximadamente a una velocidad de 52x, pero en el borde interior
solo a 20x. Algunas unidades disminuyen aún más su velocidad de lectura máxima a cerca de 40x argumentando que
los discos vírgenes no tendrán peligro de daños estructurales, pero los discos insertados para leer pueden sí tenerlo.
Sin las velocidades de rotación más altas, un mayor rendimiento de lectura puede conseguirse leyendo
simultáneamente más de un punto en una estría de datos, pero las unidades con tales mecanismos son más caras,
menos compatibles, y muy raras.
Unidad de disco óptico 103

Debido a que mantener una tasa de transferencia constante para el


disco entero no es muy importante en la mayoría de los usos
contemporáneos de los CD, para mantener la velocidad de rotación del
disco a una cantidad baja segura a la vez que se maximiza la tasa de
datos, el enfoque VLC puro debió ser abandonado. Algunas unidades
trabajan con un esquema VLC parcial (VLCP), cambiando de VLC a
VAC solo cuando se alcanza un límite de rotación. Pero cambiar a
VAC requiere cambios significativos en el diseño del hardware, por
eso en cambio la mayoría de las unidades usan el esquema de
La estrategia de grabación VLC-Z es fácilmente
velocidad lineal constante por zonas (VLC-Z). Este esquema divide el
visible después de grabar un DVD-R.
disco en varias zonas, cada una con su propia velocidad lineal
constante diferente. Una grabadora VLC-Z con una tasa de 52x, por
ejemplo, grabaría a 20x en la zona más interna y luego incrementaría la velocidad de manera progresiva en varios
pasos discretos hasta llegar a 52x en el borde exterior.

Mecanismos de carga
Las unidades ópticas actuales usan o un mecanismo de carga de bandeja, donde el disco es cargado en una bandeja
motorizada u operada manualmente, o un mecanismo de carga de sócalo, donde el disco se desliza en un sócalo y es
retraído hacia dentro por rodillos motorizados. Las unidades de carga de sócalo tienen la desventaja de no ser
compatibles con los discos más pequeños de 80 mm o cualquier tamaño no estándar; sin embargo, la videoconsola
Wii parece haber derrotado este problema, ya que es capaz de cargar DVD de tamaño estándar y discos de
GameCube de 80 mm en la misma unidad con carga de sócalo.
Un menor número de modelos de unidades, la mayoría unidades portables compactas (como un Discman), tienen un
mecanismo de carga superior (por arriba) en el cual la tapa de la unidad se abre hacia arriba y el disco es colocado
directamente sobre el rotor.
Algunas de las primeras unidades de CD-ROM usaban un mecanismo en el cual los CD tenían que ser insertados en
cartuchos o cajas especiales, similares en apariencia a un disquete de 3.5". Esto se hacía para proteger al disco de
daños accidentales causados por introducirlos en cajas plásticas más duras, pero no ganó aceptación debido al costo
adicional y los problemas de compatibilidad, como que las unidades necesitarían inconvenientemente que los discos
fueran insertados en un cartucho antes de usarse.

Interfaces de computadora
La mayoría de las unidades internas para computadoras personales, servidores y estaciones de trabajo son diseñadas
para encajar en una bahía de 5.25" y conectarse mediante una interfaz ATA o SATA. Las unidades externas
usualmente se conectan mediante interfaces USB o FireWire. Algunas versiones portables para usar con laptops se
alimentan mediante baterías o mediantes su bus de interfaz.[cita requerida]
Existen unidades con interfaz SCSI, pero son menos comunes y tienden a ser más caras, debido al costo de sus
chipsets de interfaz y sus conectores SCSI más complejos.
Cuando la unidad de disco óptico fue desarrollada por primera vez, no era fácil de añadir a las computadoras.
Algunas computadores como la IBM PS/2 estaban estandarizadas para los disquetes de 3.5" y los discos duros de
3.5", y no incluían un lugar para un dispositivo interno más grande. Además las PC de IBM y sus clones al comienzo
únicamente incluían una sola interfaz ATA, la cual para el momento en el que él se introducía CD, ya estaba siendo
en uso para soportar dos discos duros. Las primeras laptops no tenían incorporada una intefaz de alta velocidad para
soportar un dispositivo de almacenamiento externo.
Esto fue resuelto mediante varias técnicas:
Unidad de disco óptico 104

• Las primeras tarjetas de sonido podían incluir una segunda intefaz ATA, si bien a menudo se limitaba a soportar
una sola unidad óptica y ningún disco duro. Esto evolucionó en la segunda interfaz ATA moderna incluido como
equipamiento estándar.
• Se desarrolló una unidad externa de puerto paralelo que se conectaba entre la impresora y la computadora. Esto
era lento pero una opción para las laptops.
• También se desarrolló una intefaz de unidad óptica PCMCIA para laptops.
• Se podía instalar una tarjeta SCSI en las PC de escritorio para incorporar una unidad SCSI externa, aunque SCSI
era mucho más caro que las otras opciones.

Compatibilidad
Todas las grabadoras no graban todos los medios ópticos ni todos las lectoras leen todos. La mayoría de las unidades
ópticas son retrocompatibles con sus modelos anteriores hasta el CD, si bien esto no es exigido por los estándares.
Comparado con una capa de 1.2 mm de policarbonato de un CD, el haz de laser de un DVD solo debe penetrar 0.6
mm para alcanzar la superficie de grabación. Esto permite a la unidad de DVD enfocar el haz en un punto de menor
tamaño para leer surcos (pits) pequeños. Los lentes de DVD soportan un enfoque diferente para CD o DVD con el
mismo láser.
Abajo se muestra una tabla con los distintos discos ópticos y lo que puede hacer cada hardware, tanto de grabación
como de lectura, con ellos. En ésta observamos que el hardware para CD sólo se puede usar para ellos, el de DVD se
puede usar para CD y DVD y no para BD y el de BD se puede utilizar para todos los formatos.

CD CD-R CD-RW DVD DVD-R DVD+R DVD-RW DVD+RW DVD+R BD BD-R BD-RE
planchado planchado DL planchado

Reproductor Lectura [1] [2] Ninguno Ninguno Ninguno Ninguno Ninguno Ninguno Ninguno Ninguno Ninguno
Lectura Lectura
Audio CD

Unidad de Lectura Lectura Lectura Ninguno Ninguno Ninguno Ninguno Ninguno Ninguno Ninguno Ninguno Ninguno
CD-ROM

Grabadora Lectura Escritura Lectura Ninguno Ninguno Ninguno Ninguno Ninguno Ninguno Ninguno Ninguno Ninguno
de CD-R

Grabadora Lectura Escritura Escritura Ninguno Ninguno Ninguno Ninguno Ninguno Ninguno Ninguno Ninguno Ninguno
de CD-RW

Unidad de Lectura [3] Lectura Lectura [4] Lectura Lectura Lectura [5] Ninguno Ninguno Ninguno
Lectura Lectura Lectura
DVD-ROM

Grabadora Lectura Escritura Escritura Lectura Escritura [6] [7] Lectura Lectura Ninguno Ninguno Ninguno
Lectura Lectura
de DVD-R

Grabadora Lectura Escritura Escritura Lectura Escritura Lectura [8] Lectura Lectura Ninguno Ninguno Ninguno
Escritura
de
DVD-RW

Grabadora Lectura Escritura Escritura Lectura Lectura Escritura Lectura [9] Lectura Ninguno Ninguno Ninguno
Lectura
de DVD+R

Grabadora Lectura Escritura Escritura Lectura Lectura Escritura Lectura Escritura Lectura Ninguno Ninguno Ninguno
de
DVD+RW

Grabadora Lectura Escritura Escritura Lectura Escritura Escritura Escritura Escritura Lectura Ninguno Ninguno Ninguno
de
DVD±RW
Unidad de disco óptico 105

Grabadora Lectura Escritura Escritura Lectura [10] Escritura Escritura Escritura Escritura Ninguno Ninguno Ninguno
Escritura
de
DVD±RW
/ DVD+R
DL

Unidad de Lectura Lectura Lectura Lectura Lectura Lectura Lectura Lectura Lectura Lectura Lectura Lectura
BD-ROM

Grabadora [11] Escritura Escritura Lectura Escritura Escritura Escritura Escritura Escritura Lectura Escritura Lectura
Lectura
de BD-R

Grabadora Lectura Escritura Escritura Lectura Escritura Escritura Escritura Escritura Escritura Lectura Escritura Escritura
de BD-RE

[1] Algunos tipos de medios de CD-R con tintes menos reflexivos pueden causar problemas.
[2] Puede que no funcione en unidades no compatibles con MultiRead.
[3] Puede no funcionar (http:/ / www2. osta. org/ osta/ html/ cddvd/ intro. html) en algunas de las primeras unidades de DVD-ROM.
[4] A large-scale Un test de compatibilidad (http:/ / www. cdrinfo. com/ Sections/ Reviews/ Specific. aspx?ArticleId=7664) realizado por
cdrinfo.com en julio de 2003 denotó que los discos DVD-R eran reproducibles por un 96,74%, los DVD+R por un 87,32%, los DVD-RW por
un 87.68% y los DVD+RW por un 86,96% de los reproductores de DVD y unidades de DVD-ROM de consumo.
[5] La compatibilidad de lectura con las unidades de DVD existentes puede variar mucho con la marca de medios de DVD+R DL usada.
[6] Es necesaria información acerca de la compatibilidad de lectura.
[7] Puede no funcionar en unidades no compatibles con DVD Multi.
[8] El firmware de la grabadora puede rehusarse a grabar en algunas marcas de medios de DVD-RW.
[9] Es necesaria información acerca de la compatibilidad de lectura.
[10] Hacia abril de 2005, todas las grabadoras de DVD+R DL en el mercado son compatibles con Super Multi.
[11] Hacia octubre de 2006, las unidades de BD recientemente lanzadas son capaces de leer y escribir medios de CD.

Rendimiento de grabación
Las unidades ópticas de grabación indican tres velocidades. La primera velocidad es para las operaciones de
grabación de una sola vez (R), la segunda para las operaciones de regrabación (RW o RE), y la última para
operaciones de solo lectura (ROM). Por ejemplo una unidad de CD de 12x/10x/32x es capaz de grabar discos CD-R
a una velocidad de 12x (1,76 MB/s), grabar discos CD-RW a una velocidad de 10x (1,46 MB/s), y leer cualquier
disco CD a una velocidad de 32x (4,69 MB/s).
A finales de los años 1990, los subdesbordamientos de búfer (buffer underruns) se volvieron un problema muy
común a medida que las grabadoras de CD de alta velocidad comenzaban a hacer su aparición en las computadoras
hogareñas y de oficina, las cuales (por una variedad de razones) no podían mantener el flujo de datos de la grabadora
constantemente alimentando. Entonces, la grabadora era obligada a detener el proceso de grabación, dejando una
pista truncada que usualmente hacía inútil al disco.
En respuesta a esto, los fabricantes de grabadoras de CD comenzaron a distribuir unidades con "protección contra
subdesbordamiento de búfer" (bajo varias marcas comerciales, como "BURN-Proof" de Sanyo y "Lossless Link" de
Yamaha). Estas protecciones pueden suspender y resumir el proceso de grabación de tal manera que la brecha que la
detención produce pueda ser correctamente tratada por la lógica de correción de errores integrada en las unidades de
CD-ROM y reproductores de CD. Las primeras unidades de este tipo tenían velocidades de 12x y 16x.
Unidad de disco óptico 106

Esquemas de grabación
La grabación de CD en computadoras personales era originariamente una tarea orientada a batch en la que se
necesitaba software de autoría especializado para crear una "imagen" de los datos a grabar, y para grabarla a un disco
en una sesión. Esto era aceptable para fines de archivo, pero limitaba la conveniencia general de los discos CD-R y
CD-RW como medios de almacenamiento removibles.
La escritura de paquetes (packet writing) es un esquema en el que la grabadora escribe incrementalmente en los
discos en pequeñas ráfagas, o paquetes. La escritura de paquetes secuencial llena el disco con paquetes de abajo
hacia arriba. Para hacerlo legible en unidades de CD-ROM y DVD-ROM, el disco debe ser cerrado en cualquier
momento escribiendo una tabla de contenidos al comienzo del disco; tras la escritura de la tabla de contenidos, ya no
se podrán añadir más paquetes al disco. La escritura de paquetes, junto con el soporte del sistema operativo y un
sistema de archivos como UDF, puede ser usado para simular una escritura de acceso aleatorio como en medios
como las memorias flash y discos magnéticos.
La escritura de paquetes de tamaño fijo (en los medios CD-RW y DVD-RW) divide el disco en paquetes acolchados
(de mayor tamaño) de tamaño fijo. Este acolchonamiento reduce la capacidad del disco, pero le permite a la
grabadora iniciar y detener la grabación en un paquete individual sin afectar a sus vecinos. Esto se asemeja tanto al
acesso de escritura de bloque ofrecido por medios magnéticos que muchos sistemas de archivo funcionarán de igual
manera. No obstante, tales discos no son legibles por la mayoría de las unidades de CD-ROM y DVD-ROM o en la
mayoría de los sistemas operativos sin drivers adicionales.
El formato de disco DVD+RW va más allá mediante la introducción de indicaciones de temporización más precisas
en las estría de datos del disco permitiendo así que bloques de datos individuales sean reemplazados sin afectar la
retrocompatibilidad (una característica denominada "vinculación sin pérdida" [lossless linking]). El formato en sí fue
diseñado para tratar con grabaciones discontinuas debido a que se esperaba que fuera ampliamente usado en
grabadores de video digital (en inglés digital video recorders o DVR). Muchos de estos grabadores usan esquemas
de compresión de video de tasas variables que requieren que la grabación se realize en pequeñas ráfagas; algunos
permiten reproducir y grabar al mismo tiempo, grabando rápidamente de forma alternada en la cola del disco
mientras se lee desde otro lugar.
Mount Rainier intenta hacer que los discos CD-RW y DVD+RW escritos por paquetes sean tan convenientes para
usar como los medios magnéticos removibles haciendo que el firmware dé formato a nuevos discos en segundo
plano y gestione los defectos de medios (mapeando automáticamente las partes del disco que han sido desgastadas
mediante ciclos de borrado para reservar espacio en otra parte del disco). Hacia febrero de 2007, Windows Vista
ofrece soporte nativo para Mount Rainier. Todas las versiones anteriores de Windows necesitan de una solución
ajena, al igual que Mac OS X.

Identificador único de grabadora


Debido a la presión ejercida por la industria de la música, representada por la IFPI y la RIAA, Philips desarrolló el
Recorder Identification Code o RID (en español código de identificación de grabadora) para permitir que los medios
sean asociados de forma singular con la grabadora que los escribió. Este estándar está contenido en los Rainbow
Books. El RID es el opuesto al Source Identification Code o SID (en español "código de identificación de fuente"),
un código de proveedor de ocho caracteres que es colocado en cada CD-ROM.
El RID consiste de un código de proveedor (por ejemplo "PHI" para Philips), un número de modelo y el ID único de
la grabadora.
Unidad de disco óptico 107

Referencias

Enlaces externos
• How CD Burners Work (http://www.howstuffworks.com/cd-burner.htm) en HowStuffWorks
• Understanding CD-R & CD-RW (http://www.osta.org/technology/cdqa.htm) (en inglés)
• Guide to CD Writing and writing standards (http://www.pcnineoneone.com/howto/cdburnadv1.html)
• CD-Recordable FAQ (http://www.cdrfaq.org) (en inglés)
• CD/DVD/Blu-ray news and reviews (http://www.cdfreaks.com) (en inglés)
• Why Audio CD-R Discs Won't Always Play (http://www.oggfrog.com/howto/cds-wont-play/) (en inglés)
• How to Fix a Faulty CD Burner Driver (http://www.windows-media-player-updates.com/
fixafaultycdburnerdriver.html) (en inglés)
• An IDE ODD (Top) and a SATA ODD (Bottom). Both are designed for laptops (http://www.newmodeus.com/
pics/OBHD/OBHD-SATA-Compare.jpg) (en inglés)
• An IDE ODD. It is 5.25-inch in form factor (http://www.hardwarezone.com/img/data/articles/2005/1500/
rear_view.jpg) (en inglés)
• A SATA ODD. It is 5.25-inch in form factor (http://www.pcstats.com/articleimages/200708/
LGGSAH62N_sata2.jpg) (en inglés)
• Optical drives for laptops. SATA connector vs. slim ATAPI connector (http://www.laptopparts101.com/
cd-dvd-optical-drive/) (en inglés)

Tarjeta de red
Una tarjeta de red o adaptador de red es
un periférico que permite la comunicación
con aparatos conectados entre sí y también
permite compartir recursos entre dos o más
computadoras (discos duros, CD-ROM,
impresoras, etc). A las tarjetas de red
también se les llama NIC (por network
interface card; en español "tarjeta de
interfaz de red"). Hay diversos tipos de
adaptadores en función del tipo de cableado
o arquitectura que se utilice en la red
(coaxial fino, coaxial grueso, Token Ring,
etc.), pero actualmente el más común es del
tipo Ethernet utilizando una interfaz o
conector RJ-45. Tarjeta de interfaz de red (NIC).

Aunque el término tarjeta de red se suele asociar a una tarjeta de expansión insertada en una ranura interna de un
computador o impresora, se suele utilizar para referirse también a dispositivos integrados (del inglés embedded) en la
placa madre de un equipo,
Tarjeta de red 108

como las interfaces presentes en las videoconsolas Xbox o las


computadoras portátiles. Igualmente se usa para expansiones
con el mismo fin que en nada recuerdan a la típica tarjeta con
chips y conectores soldados, como la interfaz de red para la
Sega Dreamcast, las PCMCIA, o las tarjetas con conector y
factor de forma CompactFlash y Secure Digital SIO utilizados
en PDAs.

Cada tarjeta de red tiene un número de identificación único de


48 bits, en hexadecimal llamado dirección MAC (no confundir
con Apple Macintosh). Estas direcciones hardware únicas son Tarjeta de red ISA de 10 Mbps con conectores RJ-45, AUI
administradas por el Institute of Electronic and Electrical y 10Base2.

Engineers (IEEE). Los tres primeros octetos del número MAC


son conocidos como OUI e identifican a proveedores
específicos y son designados por la IEEE.

Se denomina también NIC al circuito integrado de la tarjeta de


red que se encarga de servir como interfaz de Ethernet entre el
medio físico (por ejemplo un cable coaxial) y el equipo (por
ejemplo una computadora personal, una impresora, etc). Es un
circuito integrado usado en computadoras o periféricos tales
como las tarjetas de red, impresoras de red o sistemas
intergrados (embebed en inglés), para conectar dos o más
dispositivos entre sí a través de algún medio, ya sea conexión
Tarjeta de red ISA de 10Mbps.
inalámbrica, cable UTP, cable coaxial, fibra óptica, etc.

La mayoría de tarjetas traen un zócalo vacío rotulado BOOT


ROM, para incluir una ROM opcional que permite que el
equipo arranque desde un servidor de la red con una imagen de
un medio de arranque (generalmente un disquete), lo que
permite usar equipos sin disco duro ni unidad de disquete. El
que algunas placas madre ya incorporen esa ROM en su BIOS
y la posibilidad de usar tarjetas CompactFlash en lugar del
disco duro con sólo un adaptador, hace que comience a ser
menos frecuente, principalmente en tarjetas de perfil bajo.

Token Ring
Las tarjetas para red Token Ring han caído hoy en día casi en
Tarjeta de red PCI de 10Mbps.
desuso, debido a la baja velocidad y elevado costo respecto de
Ethernet. Tenían un conector DB-9. También se utilizó el
conector RJ-45 para las NICs (tarjetas de redes) y los MAUs
(Multiple Access Unit- Unidad de múltiple acceso que era el
núcleo de una red Token Ring).

Conectores BNC (Coaxial) y RJ45 de una tarjeta de red.


Tarjeta de red 109

ARCNET
Las tarjetas para red ARCNET utilizaban principalmente conectores BNC y/o RJ-45.

Ethernet
Las tarjetas de red Ethernet utilizan conectores RJ-45 (10/100/1000) BNC (10), AUI (10), MII (100), GMII (1000).
El caso más habitual es el de la tarjeta o NIC con un conector RJ-45, aunque durante la transición del uso
mayoritario de cable coaxial (10 Mbit/s) a par trenzado (100 Mbit/s) abundaron las tarjetas con conectores BNC y
RJ-45 e incluso BNC / AUI / RJ-45 (en muchas de ellas se pueden ver serigrafiados los conectores no usados). Con
la entrada de las redes Gigabit y el que en las casas sea frecuente la presencias de varios ordenadores comienzan a
verse tarjetas y placas base (con NIC integradas) con 2 y hasta 4 puertos RJ-45, algo antes reservado a los servidores.
Pueden variar en función de la velocidad de transmisión, normalmente 10 Mbit/s] ó 10/100 Mbit/s. Actualmente se
están empezando a utilizar las de 1000 Mbit/s, también conocida como Gigabit Ethernet y en algunos casos 10
Gigabit Ethernet, utilizando también cable de par trenzado, pero de categoría 6, 6e y 7 que trabajan a frecuencias más
altas.
Las velocidades especificadas por los fabricantes son teóricas, por ejemplo las de 100 Mbit/s realmente pueden llegar
como máximo a unos 78,4 Mbit/s [cita requerida].

Wi-Fi
También son NIC las tarjetas inalámbricas o wireless, las cuales vienen en diferentes variedades dependiendo de la
norma a la cual se ajusten, usualmente son 802.11b, 802.11g y 802.11n. Las más populares son la 802.11b que
transmite a 11 Mbit/s (1,375 MB/s) con una distancia teórica de 100 metros y la 802.11g que transmite a 54 Mbit/s
(6,75 MB/s).
La velocidad real de transferencia que llega a alcanzar una tarjeta WiFi con protocolo 11.b es de unos 4 Mbit/s (0,5
MB/s) y las de protocolo 11.g llegan como máximo a unos 20 Mbit/s[cita requerida]. Actualmente el protocolo que se
viene utilizando es 11.n que es capaz de transmitir 600 Mbit/s. Actualmente la capa física soporta una velocidad de
300 Mbit/s, con el uso de dos flujos espaciales en un canal de 40 MHz. Dependiendo del entorno, esto puede
traducirse en un rendimiento percibido por el usuario de 100 Mbit/s.
Tarjeta de sonido 110

Tarjeta de sonido
Una tarjeta de sonido o placa de sonido es
una tarjeta de expansión para computadoras
que permite la salida de audio controlada
por un programa informático llamado
controlador (en inglés driver). El uso típico
de las tarjetas de sonido consiste en hacer,
mediante un programa que actúa de
mezclador, que las aplicaciones multimedia
del componente de audio suenen y puedan
ser gestionadas. Estas aplicaciones incluyen
composición de audio y en conjunción con
la tarjeta de videoconferencia también puede
hacerse una edición de vídeo, presentaciones
multimedia y entretenimiento (videojuegos).
Algunos equipos (como los personales)
tienen la tarjeta ya integrada, mientras que
otros requieren tarjetas de expansión. Tarjeta de sonido Sound Blaster Live! 5.1.

También hay equipos que por su uso (como


por ejemplo servidores) no requieren de
dicha función.

Enlaces externos
• Wikimedia Commons alberga
contenido multimedia sobre Tarjeta de
sonidoCommons.
• ¿Qué es... una tarjeta de sonido? [1]
• Guía sobre las tarjetas de sonido. [2]
• [[Categoría:Tarjetas de sonido| [3]] La AdLib Music Synthesizer Card, la primera tarjeta de
sonido popular

Tarjeta basada en el chipset VIA Envy


Tarjeta de sonido 111

Indigo IO PCMCIA de 24 bits y 96 kHz estéreo


fabricada por Echo Digital Audio Corporation

Referencias
[1] http:/ / www. conozcasuhardware. com/ quees/ tsonido1. htm
[2] http:/ / pchardware. org/ sonido. php
[3] http:/ / www. grabandoencasa. com. ar/ ?m=

Tarjeta sintonizadora de televisión


Una tarjeta sintonizadora (o capturadora) de televisión es un
periférico que permite ver los distintos tipos de televisión en el monitor
de computadora. La visualización se puede efectuar a pantalla
completa o en modo ventana. La señal de televisión entra por el chip y
en la toma de antena de la sintonizadora la señal puede proceder de una
antena (externa o portátil) o bien de la emisión de televisión por cable.

Este periférico puede ser una tarjeta de expansión, generalmente de


tipo PCI, o bien un dispositivo externo que se conecta al puerto USB.
Los modelos externos codifican la grabación por software; es decir, Hauppauge WinTV TV tuner card with the
que es el procesador del ordenador quien realmente hace todo el popular Bt878 chip.
trabajo. Existen modelos internos que realizan la codificación de la
grabación por hardware; es decir que es la propia tarjeta quien la hace,
liberando de esa tarea al procesador del ordenador lo cual mejora el
rendimiento del ordenador. En consecuencia, en un mismo ordenador
se podrá efectuar una grabación de calidad (sin pérdida de frames) a
mayor resolución con una sintonizadora interna que con una externa.

Estas tarjetas también pueden ser usadas para captar señales de alguna
fuente de video como cámaras filmadoras, reproductores de DVD o
VHS, etc. y a su vez ser difundidas a través de codificador de video
(como Windows Encoder) para trasmitirse por Internet.
Las sintonizadoras se distribuyen junto a sus drivers y un software que
permite la sintonización, memorizado, visualización y grabación
directa o programada de los canales. También existe software gratuito A DVB-S2 tuner card.
de terceros que funciona con cualquier tarjeta sintonizadora y que en
muchos casos mejora la calidad de la visualización y de la grabación obtenida por el software original de la
sintonizadora:
Tarjeta sintonizadora de televisión 112

• Dscaler [1]
• Kastor!TV [2]
• MythTV
• Tvtime [3]
• Xawtv [4]
• Zapping [5]
Las sintonizadoras permiten la visualización de teletexto y disponen de
mando a distancia por infrarrojos. Adjuntan un receptor para dicho
mando, que se conecta a un puerto del ordenador, generalmente el D-Link external TV tuner.
COM1. Es posible utilizar el mando para manejar otras aplicaciones
del ordenador mediante software específico (ej: LIRC) que convierte los botones pulsados en el mando en códigos de
teclado. Por ejemplo el software puede convertir la pulsación de la tecla "Play" del mando en la pulsación de la tecla
"P" del teclado del ordenador.

Tipos
Actualmente existen distintos tipos de sintonizadora, según el tipo de emisión de televisión que queramos recibir en
el ordenador:
• Analógicas. Sintonizan los canales analógicos recibidos por antena (la televisión "de toda la vida") y/o por cable
(por ejemplo de la compañía De TV por Cable).
• Digitales. Las de tipo DVB-T (las más habituales y recientes señales de video) sintonizan los canales de la
televisión digital terrestre TDT, que se recibe por antena. Las de tipo DVB-C sintonizan los canales de la
televisión digital por cable, pero no los de TDT. Actualmente no hay modelos "combinados" DVB-T/C
• Satélite. Sintonizan los canales de la televisión recibidos por antena parabólica (por ejemplo, del satélite
Hispasat).
También existen modelos híbridos, que son capaces de sintonizar al mismo tiempo dos o más de estos tipos de
emisión. Algunos modelos añaden también la sintonización de radio FM.
Las sintonizadoras analógicas soportan un sistema de color determinado: PAL, SECAM o NTSC.
Aportando a lo anterior ya existe un sintonizador o antena tipo wi-fi que captura todo tipo de televisora ya que
trabaja satelitalmente además que incluye el respectivo software de uso.Son de muy buen usos para los lugares de
dificial accceso

Fabricantes
• ADS Tech [6]
• Avermedia [7]
• Conceptronic [8]
• Encore Electronics [9]
• Freecom [10]
• Hauppauge [11]
• LifeView [12]
• Redbell [13]
• Pinnacle Systems [14]
• Zaapa [15]
Tarjeta sintonizadora de televisión 113

Referencias
[1] http:/ / deinterlace. sourceforge. net/
[2] http:/ / www. kastortv. org/
[3] http:/ / tvtime. sourceforge. net/
[4] http:/ / linux. bytesex. org/ xawtv/
[5] http:/ / zapping. sourceforge. net
[6] http:/ / www. adstech. com/ es/
[7] http:/ / www. avermedia. es
[8] http:/ / www. conceptronic. net
[9] http:/ / encore-la. com. ar/
[10] http:/ / www. freecom. com
[11] http:/ / www. hauppauge. fr/ Spain
[12] http:/ / www. lifeview. com. tw/
[13] http:/ / www. redbell. es/
[14] http:/ / www. pinnaclesys. com/
[15] http:/ / www. zaapa. net

Computadora portátil
Una computadora portátil u ordenador portátil (en inglés: laptop o notebook) es un ordenador personal móvil o
transportable, que pesa normalmente entre 1 y 3 kg. Los ordenadores portátiles son capaces de realizar la mayor
parte de las tareas que realizan los ordenadores de escritorio, también llamados "de torre", con similar capacidad y
con la ventaja de su peso y tamaño reducidos; sumado también a que tienen la capacidad de operar por un período
determinado sin estar conectadas a una red eléctrica.
La palabra inglesa laptop traducida al castellano significa: lap (regazo) y top (encima) es decir, una computadora que
puede apoyarse sobre las piernas.

Computadora portátil.
Computadora portátil 114

Historia
La primera computadora portátil considerada como tal
fue la Epson HX-20,desarrollada en 1981, a partir de la
cual se observaron los grandes beneficios para el
trabajo de científicos, militares, empresarios y otros
profesionales que vieron la ventaja de poder llevar con
ellos su computadora con toda la información que
necesitaban de un lugar a otro.

La Osborne 1 salió al mercado comercial en abril de


1981, con el formato que actualmente los distingue,
aunque entonces eran sumamente limitadas, incluso
para la tecnología de la época.
En 1995, con la llegada de Windows 95, la venta de las MacBook Air.
portátiles se incrementó notablemente, y en la
actualidad rebasa la ventas de los equipos de escritorio.
En el tercer trimestre de 2008, las ventas de las
portátiles superaron por primera vez las de los equipos
de escritorio, según la firma de investigación iSuppli
Corp.

Sony VAIO Serie P (2009).

La computadora portátil de 100 dólares


En el año 2005, miembros universitarios del MIT
Media Lab, entre ellos Nicholas Negroponte y Lewis
Stiward, introdujeron el portátil de 100 dólares y el
proyecto Un portátil por niño. El objetivo era diseñar,
fabricar y distribuir portátiles suficientemente baratos
para proveer a cada niño en el mundo con cada uno de
ellos y que así puedan tener acceso a conocimientos y
métodos educativos modernos. Los ordenadores
portátiles serían vendidos a los gobiernos y repartidos a
los niños en las escuelas estadounidenses y otros
países, incluso en América latina; el ordenador portátil
fue considerado el aparato más útil del mundo porque
ya que era pequeño, era muy fácil de manejar y no era Prototipo de la primera generación de las computadoras portátiles de
100 dólares.
tan pesado como los anteriores.
Computadora portátil 115

Computadora portátil de escritorio


Una computadora portátil de escritorio o desknote es
un híbrido entre una computadora de escritorio y una
computadora portátil tradicional.
ECS introdujo la computadora portátil de sobremesa al
mundo de las computadoras a finales de 2001.
Una computadora portátil de sobremesa es una
computadora portátil con la tecnología y
especificaciones (incluyendo potencia y velocidad) más
recientes de computadoras de escritorio; combina la
unidad principal de computadora (p.e. placa madre,
CPU, disco duro, puertos externos, etc.) con una
pantalla de cristal líquido (LCD); por tanto, una Acer Aspire 8920.

computadora portátil de escritorio generalmente tiene


un tamaño similar a un portátil grande, aunque a diferencia de éstos, los desknotes requieren un teclado y un ratón
externo.

Impacto social
"Lo crucial es que el crecer en una sociedad moderna ha sufrido tres cambios fundamentales: la modificación de las
relaciones familiares, la restructuración de las fases de la niñez y de la juventud, y un crecimiento de los aparatos
tecnológicos día a día".[1] La comunicación es fundamental especialmente para los jóvenes que viven en esta época
de modernización.
Los aparatos tecnológicos como las computadoras portátiles, han hecho esta comunicación de persona a persona
inferior ya que a través de esta tecnología uno se puede comunicar sin necesidad de estar de frente a la otra persona.
El poder comunicarse a través de estos medios le han facilitado a muchos sus trabajos ya que tienen "mayor libertad
y comodidad",[2] por esto es una gran ventaja. Pero también existe una desventaja de estos avances en la tecnología
como la computadora portátil, nos han hecho ser personas más individualistas, o sea apartes de la sociedad, y en una
sociedad tan competitiva como esta las personas deben desarrollarse tanto en el ámbito social como en el
tecnológico, y crear un balance entre ambos para poder progresar.
El impacto social de la tecnología y la ciencia han sido soporte de la elevación del bienestar de una población y su
calidad de vida, sin descuidar los aspectos materiales relacionados con ellos, tales como la alimentación, la vivienda,
el transporte, las comunicaciones y toda la actividad de infraestructura económica que resulta imprescindible para el
desarrollo un país y sus personas.[3]
Computadora portátil 116

Componentes
Muchos de los componentes de un ordenador portátil son similares a los componentes de los ordenadores de
escritorio, pero habitualmente son de menor tamaño, con componentes similares, algunos de los cuales se citan a
continuación:
• CPU de bajo consumo: Intel Core i3/i5/i7, Intel Core 2 Duo, Intel Core, Intel Atom, AMD Turion, AMD Phenom
o AMD Fusion.
• Disco duro de 2,5" (6,35 cm) o menor, frente a los discos de 3,5" (8,89 cm) de los ordenadores de escritorio.
También Unidades de estado sólido.
• Módulos de memoria RAM SO-DIMM (Small Outline DIMM) más pequeños que los DIMM usuales en los
ordenadores de escritorio.
• Unidad lectora y grabadora de CD, DVD o Blu-Ray de formato reducido (slim).
• Teclado integrado, que suelen tener una distancia de recorrido más corta para las combinaciones y para un
reducido grupo de teclas. No suele contar con teclado numérico y las teclas de función pueden estar colocadas en
sitios que difieren de un teclado de ordenador de sobremesa.
• Pantalla integrada tipo TFT u OLED que a su vez realiza la función de tapa del portátil y facilita su movilidad.
Los portátiles más modernos cuentan con una pantalla de 13 pulgadas (33 cm) o mayor, con resoluciones de
1280×800 (16:10) o 1366 × 768 (16:9) pixeles o superiores. Algunos modelos utilizan pantallas con resoluciones
comunes en ordenadores de sobremesa (por ejemplo, 1440×900, 1600×900 y 1680×1050.) Los modelos con
retroiluminación basada en LED tienen un menor consumo de electricidad y ángulos de visión más anchos. Los
que cuentan con pantallas de 10 pulgadas (25 cm) o menos poseen una resolución de 1024×600, mientras que los
de 11,6 (29 cm) o 12 pulgadas (30 cm) tienen resoluciones estándares de portátiles.
• Panel táctil para manejar el puntero en lugar del ratón.
• Cargador o abreviadamente PSU (del inglés Power Supply Unit, fuente de alimentación), que tiende a ser
universal (denominado Universal Power Adapter for Mobile Devices - UPAMD). Los portátiles se pueden cargar
en uso, para optimizar tiempo y energía. Producen un voltaje de corriente continúa de unos 12 voltios (en el rango
de 7,2 a 14,8 voltios).
• Batería, que suele tener típicamente una duración de 2 a 4 horas en equipos de 15,6". Una batería de 6 celdas en
un netbook con Intel Atom puede proporcionar una duración de unas 6 horas dependiendo del modelo y el uso.
Common Building Block es el estándar de Intel y los principales fabricantes de portátiles para los componentes.

Características
• Por lo general funcionan con una batería o con un adaptador que permite tanto cargar la batería como dar
suministro de energía (incluso con el ordenador apagado, generalmente mediante el puerto USB). El Consorcio
Wireless Power está desarrollando una especificación para la recarga inalámbrica de las baterías de los
ordenadores portátiles.
• Suelen poseer una pequeña batería que permite mantener el reloj y otros datos en caso de falta de energía.
• En general, a igual precio, los portátiles suelen tener menos potencia que los ordenadores de mesa, incluso menor
capacidad en los discos duros, menos capacidad gráfica y audio, y menor potencia en los microprocesadores. De
todas maneras, suelen consumir menos energía y son más silenciosos.
• Cuentan al menos tres puertos USB, para aumentar su portabilidad.
• Pueden llevar drivers genéricos y programas genéricos (similares a Mobile Partner, pero también libres), para usar
módems USB.
• Suelen contar con una pantalla LCD y un touchpad (pad táctil).
• A partir de 2008, aproximadamente, cuentan con conexión Wifi.
• Algunos modelos recientes (2013), cuentan con bluetooth.
Computadora portátil 117

• En general cuentan con tarjeta PC (antiguamente PCMCIA) o ExpressCard para tarjetas de expansión, aunque es
un slot que desde 2009 está desapareciendo.
• No hay todavía un factor de forma industrial estándar para los portátiles, es decir, cada fabricante tiene su propio
estilo de diseño y construcción. Esto incrementa los precios de los componentes en caso de que haya que
reemplazarlos o repararlos, y hace que resulten más difíciles de conseguir. Incluso a menudo existen
incompatibilidades entre componentes de portátiles de un mismo fabricante.

Subportátil
Son una nueva clase de portátiles que eliminan la unidad óptica, y reducen la potencia de otros componentes como la
tarjeta gráfica, con el fin de disminuir el tamaño físico de las máquinas (y en ocasiones el coste), capaces de entrar en
el bolsillo de un pantalón, como en el caso de los VAIO serie P.
Su capacidad de procesamiento es notablemente menor que los portátiles normales, por eso necesitan sistemas
operativos diseñados específicamente, además del uso de almacenamiento remoto.

Fabricantes y marcas
Muchas marcas, incluidas las más importantes, no diseñan y no fabrican sus ordenadores portátiles. En su lugar, un
pequeño número de fabricantes de diseños originales (ODM) diseñan los nuevos modelos de ordenadores portátiles,
y las marcas eligen los modelos que se incluirán en su alineación. En 2006, siete ODM principales fabricaron 7 de
cada 10 ordenadores portátiles en el mundo, con el más grande (Quanta Computer) que tiene 30% de cuota de
mercado mundial. Por lo tanto, a menudo son modelos idénticos a disposición tanto de una multinacional y de una
empresa de bajo perfil ODM de marca local. La gran mayoría de ordenadores portátiles en el mercado son fabricados
por un puñado de fabricantes de diseños originales (ODM).
Los más importantes son:
• Quanta Computer vende a (entre otros)
HP / Compaq, Dell, Toshiba, Sony,
Fujitsu, Acer, NEC, Gateway y Lenovo /
IBM - tenga en cuenta que Quanta es en
la actualidad, el mayor fabricante de
ordenadores portátiles en el mundo.
• Compal vende a Toshiba, HP / Compaq,
Acer y Dell.
• Wistron Corporation (fabricación y ex
división de diseño de Acer) vende a HP /
Compaq, Dell, IBM, NEC, Acer y
Lenovo / IBM.
• Flextronics (ex Arima Informática
Dell Adamo XPS.
división de portátiles Corporation) vende
a HP / Compaq, NEC, y Dell.
• ECS vende a IBM, Fujitsu y Dell.
• Asus vende a Apple (iBook), Sony y Samsung.
• Inventec vende a HP / Compaq, Toshiba, y BenQ.
• Uniwill vende a Lenovo / IBM y Fujitsu, y PC World Reino Unido propia marca de Adviento.
Entre los fabricantes de desknotes, se incluyen:
• Apple: iMac G5
• Dell
Computadora portátil 118

• ECS
• Hewlett-Packard
• Sony
• Toshiba
• Clevo
• Hitachi
• HP

Ventajas
En la actualidad, una computadora de escritorio puede soportar cualquier tipo de UCP, memoria, gráfico; por lo
tanto, una computadora portátil de escritorio debería poder ofrecer el mismo tipo de soporte que el correspondiente a
una computadora de escritorio. Una computadora de escritorio presenta algunas ventajas:
• Tradicionalmente, un usuario de una computadora portátil tenía que esperar a que se lanzara una especificación
similar a la de una computadora de 9 a 12 meses. Con las computadoras portátiles de escritorio, se reduce esta
espera. Se puede disfrutar de la misma tecnología, sin esperar tanto tiempo y mantener cierta portabilidad
utilizando un producto para computadoras de escritorio.
• Tiene la misma cantidad de puertos o más que una computadora de escritorio. Algunas computadoras portátiles
con algunos años poseen entrada de PCMCIA, como la tienen algunas computadoras portátiles para el módem
(RJ-11), puerto RJ-45, Wifi y la salida VGA. La computadora portátil también tiene puertos USB, spika y algunos
modelos recientes (2013) inclusive bluetooth para expansiones y conexiones como DVD-RW, impresora,
teléfonos móviles y para otros dispositivos móviles.
• La actualización y la sustitución de componentes es más fácil que con una computadora portátil tradicional para:
UCP, memoria RAM, unidades de disco duro, placas madre, monitores LCD y chasis. Todas ellas pueden ser
cambiadas por el usuario, a diferencia de los portátiles.
• Puede incluir una batería externa para funcionar de la misma manera que una computadora de escritorio
tradicional y un bastidor vacío para una futura batería interior.
• Tiene las mismas ventajas de una computadora portátil: las computadoras portátiles de escritorio deben tener la
ventaja de la movilidad de una computadora portátil, deben ser transportables y mucho más ligeras y pequeñas
que una computadora de escritorio. Las computadoras portátiles de escritorio son ideales para aquellos que
quieran tener una computadora personal de gran potencia y transportable para usarla en lugares con muy poco
espacio.
• Uno de sus componentes es un panel de pantalla grande, claro y plano (la pantalla ocupa pocos espacio sin
sacrificar el área de visión).
• Puede poseer bastidores modulares extraíbles (los cuales no están presentes en una computadora de escritorio).
• Consume menos energía.
• Ocupa poco espacio y, por lo tanto, permite disfrutar de más espacio libre.
• Pesa poco.
• Son necesarios pocos cables para su funcionamiento por lo que la conexión de dispositivos se hace más fácil que
con un ordenador de sobremesa tradicional.
Computadora portátil 119

Desventajas
• La pantalla se sitúa por debajo de la línea de visión.
Se necesita inclinar la cabeza constantemente, lo que
resulta una postura perjudicial. Para trabajos
puntuales no supone una gran molestia, pero si el
aparato se utiliza como un ordenador de trabajo
durante días y meses pues crear problemas en la
columna.
• Las baterías por el momento no pueden cubrir siete
u ocho horas de funcionamiento, una jornada laboral
media. Por lo que la movilidad se ve reducida.
• Los distintos tipos de "ratón" que traen son más
incómodos y menos manejables que los de
sobremesa. Se han probado de botón y por pantalla,
pero ninguna de las dos soluciones alcanza las
Ordenador portátil con accesorios y periféricos para compensar sus prestaciones y la comodidad de los de "torre".
desventajas. • Los teclados suelen ser menos manejables que los
externos. Son más pequeños, pese a los nuevos
portátiles con pantalla más panorámica. El tecleo con ellos no suele ser tan preciso como con los teclados de
sobremesa.
• Puede ser imposible o por lo menos caro de colocar otro disco duro además del principal.
Para solventar estos problemas se han fabricado varias soluciones, especialmente la primera. Existen en el mercado
soportes para ordenadores portátiles regulables en altura, con lo cual se logra colocar el borde superior de la pantalla
en la línea de los ojos. Desgraciadamente una solución así dificulta mucho utilizar el teclado, al estar mucho más alto
el aparato y exigir tener los brazos en vilo permanentemente. Los portátiles equipados con varios puertos USB
admiten el mismo tipo de teclado y de ratón que se utilizan para las máquinas de escritorio. Sin embargo, en muchos
equipos del siglo XX y primera década del siglo XXI, sólo podía conectarse un periférico por este sistema,
posteriormente se ha ido incrementando el número. Dicho incremento ha permitido también conectar discos duros
externos, pese a que estos dispositivos sufren una demora en el acceso a los datos por necesitar arrancar la primera
vez que se les hace trabajar.
Las soluciones existentes para compensar las desventajas de un portátil aumentan el número de cables, perdiendo
con ello uno de sus puntos fuertes frente a los aparatos de "torre".

Referencias
[1] Tully, C. J. (2007). La socialización en el presente digital: informalización y contextualización. Revista Iberoamericana de Ciencia,
Tecnología y Sociedad, 3(8), 9-22.
[2] Deepak, G., & Pradeep, B. S. (2012). Challenging uses and limitations of mobile computers. Int.J.Computer Techology & Applications, 3(1),
177-181.
[3] Chia, J., & Escalona, C. I. (2009). La medición del impacto de la ciencia de la tecnología y la innovación: análisis de una experiencia. Revista
Iberoamericana de Ciencia, Tecnología y Sociedad, 5(13), 83-96.

Enlaces externos
• Wikimedia Commons alberga contenido multimedia sobre Computadora portátilCommons.
• Consorcio Wireless Power (http://www.wirelesspowerconsortium.com/)
• Desktop notebooks stake their claim (http://archive.is/20130308004421/http://news.com.com/
2100-1040-979763.html?tag=nl) — artículo en C|NET News.com (http://archive.is/20121208135346/http://
Computadora portátil 120

news.com.com/) (en inglés)


• Power lifters (http://australianit.news.com.au/articles/0,7204,18450151^15397^^nbv^,00.html) — artículo
en Australian IT (http://australianit.news.com.au/) (en inglés)

Netbook
Una netbook es una categoría de computadora portátil, 21 Unidos
en noviembre del año 2000.[1] El término fue reintroducido por
Intel en febrero de 2008[2] con su actual significado.

Historia
El término "netbook" fue originalmente introducido por Psion en
1999 como una marca para designar a computadoras pequeñas con
suficiente poder para usarse en oficinas y tener acceso a internet.
Las Psion Netbook fueron una línea de computadoras que tenían el
ECS G1OIL
sistema operativo Psion Epoc y luego WinCE. Debido a lo
pequeño de su mercado, el alto costo y el sistema operativo no
estándar, estas computadoras de Psion nunca obtuvieron un mercado significante y fueron discontinuadas.
Su desarrollo comenzó en 2007 cuando Asus reveló la ASUS Eee PC. Al principio diseñada para mercados
emergentes, la computadora de 23 x 17 cm (8.9" × 6.5") pesaba aproximadamente 0.9 kilogramos (2 libras) y tenía
una pantalla de 18 cm (7 pulgadas), un teclado de aproximadamente el 85% del tamaño de un teclado normal, un
dispositivo de memoria en tarjeta, una versión adaptada de Linux, una interfaz simplificada orientada al uso en una
netbook.
Se afirma también que han tomado la idea de la iniciativa de Nicholas Negroponte, One Laptop Per Child (un
portátil por niño). A partir de 2010, la mayoría de netbooks vienen con una pantalla de 25,6 cm (10.1 pulgadas), y
con mejores procesadores (lo normal son 1.6 Ghz). Aunque su punto débil sigue siendo la tarjeta gráfica y la
frecuencia del núcleo.
La mayoría también tienen un procesador Intel Atom, que incorpora la función HyperThreading, la cual simula la
función de un procesador doble núcleo, utilizando dos líneas de procesos a la vez.

Características
Los netbooks son más pequeños que los portátiles tradicionales pero más grandes que los UMPC. Generalmente
poseen pantallas de menor tamaño, de entre 17,8 cm (7") y 35,56 cm (14") ca., y un peso que varía desde menos de
uno hasta dos kilogramos. El ahorro en peso y tamaño generalmente se obtiene omitiendo algunos puertos o
unidades ópticas, además de utilizar chipsets de menor potencia.
Los sistemas operativos usados son Windows XP Home, Windows 7 Starter, Windows CE (propietarios, de
Microsoft), y otros de código abierto basados en GNU/Linux, entre los cuales varios de ellos han sido especialmente
programados para su uso en estos ordenadores, como el Ubuntu Netbook Remix. Sin embargo, las netbooks no son
lo suficientemente potentes para tareas como la edición de vídeo o para juegos de gráficos pesados, pero con ciertos
programas emuladores de síntesis de imágenes y procesos de aligeramiento pueden ejecutarlos en un rango de
calidad bajo-medio, y generalmente no tienen unidades ópticas (aunque se les puede conectar una unidad externa).
Un término derivado es nettop, que identifica a las computadoras que tienen características similares de tamaño,
prestaciones y precio, pero no son portátiles, sino de escritorio.
Netbook 121

Pueden costar menos de 300 dólares estadounidenses. El bajo costo hace que Microsoft no pueda cobrarle lo mismo
por el software a los fabricantes para computadoras- según dice cobra menos de 15 dólares por subportátil-. Han
ganado popularidad, durante la actual recesión, pues son baratas y el impulso de hacerla más atrayentes por los
fabricantes de PC, como Hewlett-Packard (HP), Dell, Acer y Lenovo, para impulsar las ventas.
Se estima que para 2011 más de 50 millones de netbooks estarán en circulación.[3]

Diferencia con los subportátiles


Suele confundirse a los netbooks con los subportátiles, que son una categoría diferente de computadoras portátiles,
aunque con productos superpuestos. Tienen en común el tamaño pequeño respecto de sus hermanos mayores. Pero lo
que define a un netbook no es su tamaño, sino la reducción de componentes internos (fundamentalmente, carecen de
unidad óptica) y consecuentemente la reducción de peso. Por otra parte, lo que define a un subportátil sí es su
tamaño, pudiendo incluir unidad óptica y tener mayor peso. Por ejemplo, un netbook de 35,56 cm (14") no es una
subportátil, mientras que un subportátil de 30,48 cm (12") con unidad óptica y 3 kg de peso tampoco sería un
netbook. Los netbooks por lo general son más baratos, ya que están optimizados para usos más básicos, como
funciones multimedia o navegación por internet. Por consiguiente, poseen procesadores mucho menos potentes pero
con un consumo menor.

Ejemplos
Pueden ser categorizados como subportátiles dispositivos como:
• Airis Kira
• Asus Eee PC
• Acer Aspire one
• Dell E, Mini o Inspiron 910
• Fujitsu Siemens Amilo Mini
• Gdium
• HP 2133 Mini-Note PC
• Intel Classmate PC
• Lanix Neuron LT10
• Lenovo S10
• LG X110
• MSI Wind (y sus clones como Medion Akoya Mini y Advent 4211, entre otros)
• Samsung NC10
• Toshiba Satellite NB105
• VIA NanoBook y sus derivados como el Everex Cloudbook y Belinea S Book 1
• VIA OpenBook
• Sony VAIO P-Series
Netbook 122

Sistemas Operativos
A continuación se expone una lista con los distintos sistemas operativos que se suelen utilizar en estas computadoras.
Windows En una de las encuestas en los Estados Unidos de enero de 2009 se descubrió que más del 90% de los
netbooks que se vendían traían instalado el Windows XP.[4]
Microsoft ha colaborado en el aumento de las ventas de netbooks con Windows XP, bajando para estos, desde junio
de 2008 hasta junio de este año, el costo de éste. Sin embargo, a partir del primer trimestre de 2009, y con el
aumento de las prestaciones de las netbooks, muchos modelos de los que se habrían anunciado con Windows XP
saldrían a la venta con el nuevo y novedoso Windows 7, lo que también influyó en el aumento de su precio.
Linux
Las estadísticas estiman que el 32% de las subportátiles de todo el mundo utilizan este sistema operativo,[5] uno de
los más conocidos después de Windows.
Una de las principales causas de que el 32% de netbooks tengan instalado Linux es que, para instalar cualquier tipo
de aplicación o programa, no necesitamos buscarlo en Internet, sino en sus repositorios, en los que es mucho más
fácil, rápido, sencillo y seguro. Sin embargo, las primeras netbooks como el Eee PC, no hicieron uso de este
beneficio al deshabilitar el acceso a la gama completa de software de Linux disponible.
Se han generado diversas variantes de Linux o distribuciones completamente nuevas, que optimizan las prestaciones
de la pequeña pantalla y la capacidad de procesamiento de los Intel Atom que suelen incorporar, algunas de las
nuevas versiones son Ubuntu Netbook Remix (basada en Ubuntu), fácil Peasy, Jolicloud o Moblin.
Mac OS X
Pueden encontrarse Mac OS X en ejecución en varias netbooks que no son de la propiedad de Apple Inc.,[6] aunque
esto viola los términos de dicha organización. Apple se ha quejado a sitios que albergan información sobre cómo
instalar el sistema operativo sobre algunas netbooks (como YouTube). Los responsables de estos sitios han
reaccionado y han eliminado estos videos.

Referencias
[1] Datos de registro en la Oficina de Marcas y Patentes de Estados Unidos (USPTO) (http:/ / assignments. uspto. gov/ assignments/ q?db=tm&
sno=75215401)
[2] Intel to Sell Chips for Laptops Priced as Low as $250 (http:/ / www. bloomberg. com/ apps/ news?pid=20601103& sid=az8hQRcc_a. c&
refer=us)
[3] HP unveils small laptop for schoolkids (http:/ / web. archive. org/ web/ 20080409201158/ news. yahoo. com/ s/ ap/ 20080408/ ap_on_hi_te/
hewlett_packard_small_laptops)
[4] Datos de las estadísticas realizadas sobre Windows en 2009 (Realizada por los oficiales de Windows) (http:/ / www. informationweek. com/
news/ windows/ operatingsystems/ showArticle. jhtml?articleID=216402927)
[5] Datos de las estadísticas sobre linux 2009 (ABI) (http:/ / www. computerworld. com/ s/ article/ 9140343/
Linux_s_share_of_netbooks_surging_not_sagging_says_analyst)
[6] Mac funcionando en un PC (http:/ / www. youtube. com/ watch?v=lkuUj8G7p3A)

Enlaces externos
• Wikimedia Commons alberga contenido multimedia sobre Netbook. Commons
Ultrabook 123

Ultrabook
Un ultrabook es un tipo de ordenador portátil que se caracteriza por
ser extremadamente ligero y delgado, en comparación con sus
antecesores los netbooks y los subportátiles. "Ultrabook" fue solicitado
como marca registrada por Intel en el año 2011, en una iniciativa para
crear un mercado de PC en competencia con el MacBook Air de
Apple. Sin embargo, el término ha pasado a ser de uso común para
hacer referencia a este tipo de ordenadores, a pesar de que pueden
albergar procesadores y chipsets de otros fabricantes, como AMD o
VIA.
Asus UX21 ultrabook

Requisitos según Intel


Intel declaró una serie de características generales a cumplir por parte de los fabricantes de portátiles, además de
repartir 300 millones de dólares entre los fabricantes dispuestos a desarrollar un ultrabook a modo de subvención
debido a que según Intel, parecen incapaces de crear por sí solos o por interés propio un diseño así, tratando de
repetir el éxito de cuando hizo lo propio con la plataforma Intel Centrino.
Entre los requisitos a cumplir se encuentran los siguientes:
• Grosor no superior a 21 mm para los más grandes y 18 mm para los más pequeños.
• Procesador de ultra-baja tensión de Intel.
• Conectividad Wi-Fi.
• Pantalla táctil.
• USB 3.0
• Carcasas metálicas para una mejor disipación de calor.
• Almacenamiento en unidad de estado sólido (SSD, Solid-state drive) o bien, disco duro hibrído.
• Larga duración de batería en uso (5h) y también largos tiempos en espera (9h)
• Encendido instantáneo como si se tratara de una tableta gracias a la inclusión de Intel Rapid Start.
• Precios comenzando por debajo de los 1000 dólares o euros.

Cronograma de Intel
Intel tiene planeada una estrategia dividida en tres fases, cada fase teniendo como protagonista la familia de
procesadores del momento.

Primera fase
En esta etapa los ultrabooks encajan con la descripción básica ideada por Intel, utilizando procesadores basados en
Sandy Bridge (segunda generación Intel Core i).

Segunda fase
Se introducirán nuevos modelos basados en Core i Ivy Bridge, reduciendo aún más el consumo. Añade
funcionalidades de seguridad como el seguimiento del portátil. Gracias a Ivy Bridge también incluirá mejoras en la
GPU integrada como soporte para DirectX 11 y OpenGL.
Ultrabook 124

Intel pretende que forme parte de la especificación de la segunda generación de ultrabooks la tecnología Thunderbolt
y un puerto a modo de docking station. Con el ancho de banda del puerto Thunderbolt (10 Gbps) y la capacidad de
encadenar dispositivos, los ultrabooks verían resuelta una parte de la problemática de tener chasis tan delgados: falta
de conectividad. El puerto adicional serviría para añadir, ya sea mediante cable o mediante una docking station
propiamente dicha, puertos USB, SATA, PCIe y en general la conectividad que cabría esperar de un puerto de
expansión. El conector Thunderbolt además tendría la capacidad de transportar la señal DisplayPort.
En esta generación habrá modelos que, aparte de la GPU integrada Intel, también llevarán una GPU dedicada. Nvidia
será el primer fabricante que integre sus nuevas GeForce GT620M en este segmento de mercado.
Por último, Intel ha declarado que persigue el lanzamiento de ultrabooks con pantalla táctil basados en Windows 8.

Tercera fase
La tercera generación de ultrabooks se servirá de la arquitectura Intel Haswell. Planeada para 2013, traería a los
ultrabooks procesadores con una TDP de 15W y NFC integrado. Además, específicamente para los ultrabooks,
Haswell significaría la integración del puente sur en el mismo empaquetado que la CPU, de forma similar a cuando
Intel integró el puente norte en sus procesadores, convirtiendo por tanto a Haswell en el primer SoC basado en
arquitectura x86. Los 15W de TDP son para el paquete completo de CPU y el resto de componentes integrados.

Productos basados en tecnología AMD


Existen ultrabooks basados en chipsets de la empresa AMD, también llamados ultrathins (por temor a represalias por
parte de Intel). Los mismas están basados en la tecnología Fusion, basados en la arquitectura Trinity. Hasta ahora
AMD sólo había ofrecido ordenadores ultraligeros en el contexto de los netbooks, con APUs basadas en arquitectura
Brazos. Estos ultrabooks suelen ser inferiores en potencia de proceso a sus pares de Intel, aunque los superan en
rendimiento gráfico (aplicaciones 3D y juegos) y se mantienen a la par en uso de energía y rendimiento de la batería.

Crítica
La principal crítica de los ultrabooks, al menos en la primera generación, consiste en un precio de lanzamiento no
demasiado atractivo. Los fabricantes alegan que no pueden rebajar mucho más los costes debido a que tan sólo con
el hardware de Intel se les va un tercio de los costes de fabricación si se tiene en cuenta el objetivo de lanzar
ordenadores por 1000 o menos dólares. Es por ello que le pidieron a Intel una rebaja del 50%, sin embargo ésta sólo
accedió a un 20% ya que más rebaja significaría quedar por debajo del 60% de beneficio estratégico.
Analistas de la industria prevén que si el coste para el consumidor de estos portátiles no baja, los ultrabooks se
convertirán en un mercado selecto, como lo es ahora el MacBook Air a pesar de ser ya actualmente más baratos que
éste, algo poco atractivo para los fabricantes de PC donde el grueso de ventas se sitúa en los 500-700 euros.
Debido a esta crítica del coste por parte de los fabricantes, Intel creó el fondo inicial para ayudarles económicamente.
Sin embargo, a pesar de los esfuerzos, las ventas de ultrabooks no parecen haber cumplido los objetivos previstos.
Aún con todo Intel planea conseguir una rebaja de precio con las sucesivas generaciones de ultrabooks y espera que
para 2013 sea un segmento completamente asentado, llegando a un 40% del total de ventas de ordenadores portátiles
para 2015.
En recientes declaraciones recogidas por Charlie Demerjian del sitio de tecnología Semiaccurate.com Intel ha
reconocido que el concepto de "Ultrabook" ha fallado y ha cancelado su posterior desarrollo.
Ultrabook 125

Referencias
126

Windows

Windows 7
Windows 7

Parte de la familia Microsoft Windows

Desarrollador

Microsoft Corporation
Sitio web oficial
[1] [2]
España — Latinoamérica

Información general

Modelo de desarrollo Software propietario; Shared Source; Sistema Operativo

Lanzamiento inicial RTM (Released to Manufacturing): 22 de julio de 2009


[3]
GA (Disponibilidad General): 22 de octubre de 2009 (info )

Última versión estable [4]


6.1 Service Pack 1 (SP1; Compilación 7601) (info )
9 de febrero de 2011

Núcleo NT 6.1

Tipo de núcleo Híbrido

Plataformas soportadas IA-32, x86-64

Método de actualización Windows Update; en empresas se aplican tecnologías como WSUS y


SCCM)

Licencia Microsoft CLUF (EULA)

Idiomas Multilingüe

En español

Soporte técnico

Período de soporte estándar hasta el 13 de enero de 2015. Después, período de soporte extendido hasta el 14 de enero de 2020. El soporte técnico de
Windows 7 RTM sin Service Pack finalizó el 9 de abril de 2013.

Artículos relacionados

• Desarrollo de Windows 7
• Ediciones de Windows 7

Windows 7 es una versión de Microsoft Windows, línea de sistemas operativos producida por Microsoft
Corporation. Esta versión está diseñada para uso en PC, incluyendo equipos de escritorio en hogares y oficinas,
equipos portátiles, tablet PC, netbooks y equipos media center. El desarrollo de Windows 7 se completó el 22 de
octubre de 2009, siendo entonces confirmada su fecha de venta oficial para el 22 de octubre de 2009 junto a su
equivalente para servidores Windows Server 2008 R2.[5]
A diferencia del gran salto arquitectónico y de características que sufrió su antecesor Windows Vista con respecto a
Windows XP, Windows 7 fue concebido como una actualización incremental y focalizada de Vista y su núcleo NT
Windows 7 127

6.0, lo que permitió mantener cierto grado de compatibilidad con aplicaciones y hardware en los que éste ya era
compatible. Sin embargo, entre las metas de desarrollo para Windows 7 se dio importancia a mejorar su interfaz para
volverla más accesible al usuario e incluir nuevas características que permitieran hacer tareas de una manera más
fácil y rápida, al mismo tiempo que se realizarían esfuerzos para lograr un sistema más ligero, estable y rápido.
Diversas presentaciones ofrecidas por la compañía en 2008 se enfocaron en demostrar capacidades multitáctiles, una
interfaz rediseñada junto con una nueva barra de tareas y un sistema de redes domésticas simplificado y fácil de usar
denominado «Grupo en el hogar», además de importantes mejoras en el rendimiento general del sistema operativo.

Desarrollo
El desarrollo de este sistema operativo comenzó inmediatamente después del lanzamiento de Windows Vista. El 20
de julio de 2007 se reveló que ese sistema operativo era llamado internamente por Microsoft como la versión «7».
Hasta ese momento la compañía había declarado que Windows 7 tendría soporte para plataformas de 32 bits y 64
bits, aunque la versión para servidores que comparte su mismo núcleo (Windows Server 2008 R2, que sucedería a
Windows Server 2008) sería exclusivamente de 64 bits.
El 13 de octubre de 2008 fue anunciado que «Windows 7», además de haber sido uno de tantos nombres en código,
sería el nombre oficial de este nuevo sistema operativo. Mike Nash dijo que esto se debía a que con Windows 7 se
«apunta a la simplicidad, y el nombre debía reflejarlo».
Ya para el 7 de enero de 2009, la versión beta se publicó para suscriptores de Technet y MSDN. El 9 de enero se
habilitó brevemente al público general mediante descarga directa en la página oficial, pero hubo problemas con los
servidores, que obligaron a retirar la posibilidad de descarga hasta horas más tarde, después de solventar el problema
añadiendo más servidores. Por esos percances, Microsoft cambió el límite de descargas inicial de 2,5 millones de
personas como disculpa por el problema del retraso, y creó un nuevo límite que no sería numérico sino por fecha,
hasta el 10 de febrero del 2009.
El 5 de mayo se liberó la versión Release Candidate en 5 idiomas, entre ellos el español. Estuvo disponible para
descargar hasta el 20 de agosto de 2009.
El 2 de junio Microsoft anunció que la salida mundial de Windows 7 tendría lugar el 22 de octubre.[6]
El 24 de julio, los directivos de Microsoft Steve Ballmer y Steven Sinofsky anunciaron la finalización del proceso de
desarrollo con la compilación de la versión RTM, destinada a la distribución de Windows.[7]
Otro asunto presente en el desarrollo de este sistema, y gracias a los comentarios de los usuarios, fue el minimizar la
intrusión habilitando la personalización del Control de cuentas de usuario, ya que éste fue considerado como molesto
en Windows Vista debido a sus constantes alertas en simples acciones como las de mantenimiento que invocaban
funciones propias del sistema operativo.[8]
En una carta escrita por el vicepresidente de negocios para Windows de Microsoft Corporation, William Veghte, se
mencionan apartes sobre la visión que se tuvo para Windows 7:
Hemos aprendido mucho a través de los comentarios que ustedes han compartido con nosotros acerca de
Windows Vista, y esa retroalimentación juega un papel importante en nuestro trabajo para Windows 7. Nos
han dicho que desean una programación más estructurada y predecible para la liberación de Windows...
...nuestro enfoque hacia Windows 7 es basarnos en la misma arquitectura de fondo de Windows Vista Service
Pack 1, de manera que las inversiones que ustedes y nuestros socios han realizado en Windows Vista
continúen redituando con Windows 7. Nuestro objetivo es asegurar que el proceso de migración de Windows
Vista a Windows 7 sea transparente.[9]
Windows 7 128

Características
Windows 7 incluye varias características nuevas, como mejoras en el reconocimiento de escritura a mano, soporte
para discos duros virtuales, rendimiento mejorado en procesadores multinúcleo, mejor rendimiento de arranque,
DirectAccess y mejoras en el núcleo. Windows 7 añade soporte para sistemas que utilizan múltiples tarjetas gráficas
de proveedores distintos (heterogeneous multi-adapter o multi-GPU), una nueva versión de Windows Media Center
y un gadget, y aplicaciones como Paint, Wordpad y la calculadora rediseñadas. Se añadieron varios elementos al
Panel de control, como un asistente para calibrar el color de la pantalla, un calibrador de texto ClearType, Solución
de problemas, Ubicación y otros sensores, Administrador de credenciales, iconos en el área de notificación, entre
otros. El Centro de Seguridad de Windows se llama aquí Centro de actividades, y se integraron en él las categorías
de seguridad y el mantenimiento del equipo.
La barra de tareas fue rediseñada, es más ancha, y los botones de las ventanas ya no traen texto, sino únicamente el
icono de la aplicación. Estos cambios se hacen para mejorar el desempeño en sistemas de pantalla táctil. Estos iconos
se han integrado con la barra «Inicio rápido» usada en versiones anteriores de Windows, y las ventanas abiertas se
muestran agrupadas en un único icono de aplicación con un borde, que indica que están abiertas. Los accesos
directos sin abrir no tienen un borde. También se colocó un botón para mostrar el escritorio en el extremo derecho de
la barra de tareas, que permite ver el escritorio al posar el puntero del ratón por encima.
Se añadieron las «Bibliotecas», que son carpetas virtuales que agregan el contenido de varias carpetas y las muestran
en una sola vista. Por ejemplo, las carpetas agregadas en la biblioteca «Vídeos» son: «Mis vídeos» y «Vídeos
públicos», aunque se pueden agregar más, manualmente. Sirven para clasificar los diferentes tipos de archivos
(documentos, música, vídeos, imágenes).
Una característica llamada «Jump lists» guarda una lista de los archivos abiertos recientemente. Haciendo clic
derecho a cualquier aplicación de la barra de tareas aparece una jump list, donde se pueden hacer tareas sencillas
según la aplicación. Por ejemplo, abrir documentos recientes de Office, abrir pestañas recientes de Internet Explorer,
escoger listas de reproducción en el reproductor, cambiar el estado en Windows Live Messenger, anclar sitos o
documentos, etcétera.

Interfaz
• El equipo de desarrollo de la interfaz Ribbon de Microsoft Office 2007 formó parte activa en el rediseño de
algunos programas y características de Windows 7, y dicha interfaz se incluyó en las herramientas Paint y
Wordpad.
• Windows 7 permite ahora la personalización del equipo, al guardar temas completos, lo que incluye color de
ventanas, imágenes incluidas, conjunto de sonidos, incluso protector de pantalla (las anteriores versiones se
limitaban simplemente al color de las ventanas).
• La calculadora, que anteriormente sólo disponía de funciones científicas y estándares en otras versiones (desde
Windows 95 hasta Windows Vista), ahora incluye funciones propias de programación y de estadística. Además,
permite convertir entre unidades del Sistema Internacional de Unidades y el Sistema Inglés; cálculo entre fechas y
hojas de cálculo para hipoteca, alquiler de vehículos y consumos de combustible. Al igual que en las calculadoras
reales, guarda la secuencia de operaciones realizadas por el usuario. -lhkljh* La barra lateral de Windows, más
conocida como Windows Sidebar, se ha eliminado; ahora los gadgets puedan ubicarse libremente en cualquier
lugar del escritorio, ya sea en el lado derecho, izquierdo, arriba o abajo, sin contar con la Sidebar.
• Reproductor de Windows Media 12 es el nuevo reproductor multimedios, incluido como estándar en las versiones
de Windows 7. A diferencia de sus otras versiones, deja de tener una ubicación fija para los controles más básicos
(como Reproducir, Detener, Repetir, Volumen y la barra buscadora), la cual se desvanece en tanto se retira el
puntero del ratón. Ahora incluye tres simples pestañas para reproducir, grabar discos o sincronizar a dispositivos;
además de manejar formatos ajenos a la empresa, como MOV, MP4, xvid y divx, entre otros. En cambio, es la
primera versión del programa que no aparecerá en versiones anteriores de Windows y la primera que no maneja
Windows 7 129

los metadatos de los archivos (como la adición de letra a las canciones). Versiones N del sistema operativo no lo
incluirán, por lo que tendrán que descargarse separadamente.
• Aero Peek: Las previsualizaciones de Windows Aero se han mejorado y son más interactivas y útiles. Cuando se
posa el ratón sobre una aplicación abierta, éste muestra una previsualización de la ventana, donde muestra el
nombre, la previsualización y la opción de cerrarla; además, si se coloca el ratón sobre la previsualización, se
obtiene una mirada a pantalla completa y al quitarlo se regresa al punto anterior. Además se incorporó esta misma
característica a Windows Flip.
• Aero Shake: Cuando se tienen varias ventanas abiertas, al hacer clic sostenido en la Barra de Título y agitarla, las
otras ventanas abiertas se minimizan. Al repetir esta acción, las ventanas vuelven a su ubicación anterior.
• Windows Flip 3D es una función de Windows Aero que mejora la función Windows Flip; muestra, a través de un
efecto en 3D, las ventanas abiertas y permite así una búsqueda más rápida y eficaz en múltiples ventanas. A
diferencia de la opción Windows Flip, que se activa con Alt+Tab ↹, esta función se activa con la combinación ⊞
Win+Tab ↹. Además, mejora la función de las teclas Alt+Tab ↹, la cual muestra una miniventana en tiempo real de
las aplicaciones en ejecución (característica ya incluida en Windows Vista).
• Aero Snap: Consiste en que al mover una ventana hacia los laterales de la pantalla, la ventana se ajusta
automáticamente a la mitad del escritorio. Si se mueve al borde superior, la ventana se maximiza, y se restaura al
arrastrarla ligeramente hacia abajo. Esto es útil para ver o intercambiar el contenido de dos ventanas
simultáneamente, pero no es muy funcional con resoluciones de pantalla demasiado bajas. Este mismo método se
puede realizar con las siguientes combinaciones de teclas (También en Windows 8):
1. Maximizar: ⊞ Win+↑
2. Lado Izquierdo: ⊞ Win+←
3. Lado Derecho: ⊞ Win+→
4. Minimizar: ⊞ Win+↓
• Anclaje: En Windows 7 es posible anclar los programas favoritos en la barra de tareas para facilitar su acceso.
Existen dos maneras de hacerlo:
1. Arrastrando el icono del programa o archivo hacia la barra de tareas.
2. Cuando se esté ejecutando el programa en la barra de tareas, pulsar el botón secundario del mouse y
seleccionar la opción Anclar. Internet Explorer 9 permite, además, anclar páginas favoritas de la misma forma
en la barra de tareas.

Multitáctil
El 27 de mayo de 2008, Steve Ballmer y Bill Gates, en la conferencia «D6: All Things Digital», dieron a conocer la
nueva interfaz multitáctil, y dijeron que era «sólo una pequeña parte» de lo que vendría con Windows 7. Más tarde,
Julie Larson Green, vicepresidente corporativa, mostró posibles usos, como hacer dibujos en Paint, agrandar o
reducir fotos y recorrer un mapa en Internet, arrastrar y abrir elementos, simplemente con toques en la pantalla.

Windows Anytime Upgrade


Es el método de actualizar Windows incluido en Windows Vista y también en Windows 7. El usuario introduce un
código en la aplicación, que en 10 minutos permitirá tener una versión más avanzada de Windows. El pack de
actualización se compra a través de Microsoft Store o con el fabricante OEM.
Windows 7 130

Modo XP
Windows 7 permite integrar la nueva versión Windows Virtual PC, que sirve para ejecutar un equipo virtual
Windows XP en forma transparente para el usuario (la aplicación dentro de la máquina virtualizada se ve como otra
opción en el menú de Windows 7 y su ejecución es directa, sin pasar por el menú de inicio del XP virtualizado). Si
bien Microsoft ya había liberado MED-V dentro de su paquete MDOP, que cumple la misma función en entornos
Hyper-V, ésta es una solución orientada a usuarios avanzados y pequeñas empresas que no necesitan herramientas
para administración centralizada. La funcionalidad se debe descargar de forma independiente en el sitio web de
Microsoft Virtual PC [10], aunque requiere una licencia válida de las ediciones Professional, Ultimate y Enterprise de
Windows 7. Asimismo, el «modo XP» en un principio requiere procesadores con capacidad de virtualización por
hardware, a diferencia del anterior Virtual PC 2007 o Virtual PC 2008, pero mediante una actualización desde
Windows Update se puede ejecutar el «modo XP» en ordenadores sin virtualización por hardware.

Compatibilidad
Las versiones cliente de Windows 7 se lanzaron en versiones para arquitectura 32 bits y 64 bits en las ediciones
Home Basic, Home Premium, Professional y Ultimate. No obstante, las versiones servidor de este producto fueron
lanzadas exclusivamente para arquitectura 64 bits.
Esto significa que las versiones cliente de 32 bits aún soportan programas Windows 16 bits y MS-DOS. Y las
versiones 64 bits (incluidas todas las versiones de servidor) soportan programas tanto de 32 como de 64 bits.

Otras características
Microsoft decidió no incluir los programas Windows Mail, Windows Movie Maker y Windows Photo Gallery en
Windows 7, y los puso a disposición a modo de descarga en el paquete de servicios en red, Windows Live Essentials.
Esto se decidió así para facilitar las actualizaciones de estos programas, aligerar el sistema operativo, dejar escoger al
usuario las aplicaciones que quiere tener en su equipo y evitar futuras demandas por monopolio.

Actualizaciones

Service Pack 1
El primer Service Pack (SP1) de Windows 7 fue anunciado por primera vez el 18 de marzo de 2010. Más adelante
ese año, el 12 de julio, se publicaría una versión beta. Microsoft confirmó que dicho service pack tendría poca
trascendencia en comparación con otros service packs disponibles para versiones anteriores de Windows,
particularmente Windows Vista, por lo que este service pack corrige principalmente algunos errores y problemas de
seguridad encontrados anteriormente en la versión RTM de Windows 7 mejorando algo igualmente la estabilidad,
compatibilidad y rendimiento del sistema. Cabe mencionar que un cambio notable es que la red Wi-Fi
predeterminada al equipo carga durante el inicio del sistema, por lo que internet está disponible desde el momento
que aparece el escritorio.
Para el 26 de octubre de 2010, Microsoft publicó de manera oficial una versión Release Candidate del Service Pack
1 para Windows 7, con un número de versión "6.1.7601.17105". Después, el 9 de febrero de 2011, Microsoft publicó
la versión terminada y final (RTM) del Service Pack 1 para Windows 7 y Windows Server 2008 R2 a sus socios
OEM, con un número de versión "6.1.7601.17514.101119-1850". Tras esto, el 16 de febrero, se haría disponible para
suscriptores de los servicios MSDN y TechNet, así como clientes de licencias por volumen. Finalmente, el 22 de
febrero, el Service Pack 1 se hizo disponible de forma generalizada para ser descargado desde la página del centro de
descargas de Microsoft, así como también mediante el servicio de actualizaciones automáticas Windows Update.
También está disponible de forma integrada en todos los ISOs de todas las ediciones de Windows.
Windows 7 131

Ediciones
Existen seis ediciones de Windows 7, construidas una sobre otra de manera incremental, aunque solamente se
centrarán en comercializar dos de ellas para el común de los usuarios: las ediciones Home Premium y Professional.
A estas dos, se suman las versiones Starter, Home Basic, y Ultimate, además de la versión Enterprise, que está
destinada a grupos empresariales que cuenten con licenciamiento Open o Select de Microsoft.
• Starter: Es la versión de Windows 7 con menos funcionalidades. Posee una versión incompleta de la interfaz
Aero que no incluye los efectos de transparencia Glass, Flip 3D o las vistas previas de las ventanas en la barra de
inicio y además no permite cambiar el fondo de escritorio. Está dirigida a PC de hardware limitado —como
netbooks—, siendo licenciada únicamente para integradores y fabricantes OEM. Incluye una serie de restricciones
en opciones de personalización y de programas, además de ser la única edición de Windows 7 sin disponibilidad
de versión para hardware de 64 bits.
• Home Basic: Versión con más funciones de conectividad y personalización, aunque su interfaz seguirá siendo
incompleta como en la edición Starter. Sólo estará disponible para integradores y fabricantes OEM en países en
vías de desarrollo y mercados emergentes.
• Home Premium: Además de lo anterior, se incluye Windows Media Center, el tema Aero completo y soporte
para múltiples códecs de formatos de archivos multimedia. Disponible en canales de venta minoristas como
librerías, tiendas y almacenes de cadena.
• Professional: Equivalente a Vista Business, pero ahora incluye todas las funciones de la versión Home Premium
más «Protección de datos» con «Copia de seguridad avanzada», red administrada con soporte para dominios,
impresión en red localizada mediante Location Aware Printing y cifrado de archivos. También disponible en
canales de venta al público.
• Ultimate: Añade características de seguridad y protección de datos como BitLocker en discos duros externos e
internos, Applocker, Direct Access, BranchCache, soporte a imágenes virtualizadas de discos duros (en formato
VHD) y el paquete de opción multilenguaje hasta 35 idiomas.
• Enterprise: Esta edición provee todas las características de Ultimate, con características adicionales para asistir
con organizaciones IT. Únicamente se vende por volumen bajo contrato empresarial Microsoft software
Assurance. También es la única que da derecho a la suscripción del paquete de optimización de escritorio MDOP.
• Ediciones N: Las ediciones N están disponibles para actualizaciones y nuevas compras de Windows 7 Home
Premium, Professional y Ultimate. Las características son las mismas que sus versiones equivalentes, pero no
incluyen Windows Media Player. El precio también es el mismo, ya que Windows Media Player puede
descargarse gratuitamente desde la página de Microsoft.

Requisitos de hardware
A finales de abril del 2009 Microsoft dio a conocer los requerimientos finales de Windows 7.
Windows 7 132

Requisitos de hardware mínimos recomendados para Windows 7


Arquitectura 32 bits 64 bits

Procesador 1 GHz

Memoria RAM 1 GB de RAM 2 GB de RAM

Tarjeta gráfica Dispositivo de gráficos DirectX 9 con soporte de controladores WDDM 1.0 (para Windows Aero)

Disco duro 16 GB de espacio libre 20 GB de espacio libre

Opcionalmente, se requiere un monitor táctil para poder acceder a las características multitáctiles de este sistema.

Acogida
En julio de 2009, tras solo ocho horas, la demanda de reservas de Windows 7 en Amazon.co.uk sobrepasó la
demanda que tuvo Windows Vista en sus primeras 17 semanas. Con ello, se convirtió en el producto con mayor
cantidad de reservas en la historia de Amazon, sobrepasando en ventas al anterior récord, el último libro de Harry
Potter. En Japón y tras 36 horas, las versiones de 64 bits de las ediciones Professional y Ultimate de Windows 7 se
agotaron. Dos semanas después del lanzamiento, se anunció que su cuota de mercado sobrepasó totalmente la de
Snow Leopard, la más reciente actualización del sistema operativo Apple Mac OS X, el cual fue lanzado dos meses
antes. De acuerdo con Net Applications, Windows 7 alcanzó un 4% de cuota de mercado en menos de tres semanas;
en comparación, le tomó a Windows Vista siete semanas en alcanzar la misma meta. El 29 de enero de 2010,
Microsoft anunció que habían vendido más de 60 millones de licencias de Windows 7.[11]
Las evaluaciones hechas a Windows 7 fueron en su mayoría positivas, destacando su facilidad de uso en
comparación con su predecesor, Windows Vista. CNET le dio a Windows 7 Home Premium una puntuación de 4,5
sobre 5 estrellas, señalando que «es más de lo que Vista debió ser, [y es] a donde Microsoft necesitaba dirigirse». PC
Magazine lo puntuó con 4 de 5 declarando que Windows 7 era «un gran avance sobre Windows Vista, con menos
problemas de compatibilidad, una barra de tareas con más herramientas, capacidades de conexión a redes más
simples y un arranque más veloz». Maximum PC le dio a 7 una puntuación de 9 sobre 10 y llamó a Windows 7 un
«enorme salto hacia adelante en usabilidad y seguridad», destacando la nueva barra de tareas declarando que «paga
por sí sola el precio de entrada». PC World denominó a Windows 7 como un «sucesor digno» de Windows XP y
declaró que las pruebas de velocidad mostraban a Windows 7 ligeramente más rápido que Windows Vista. PC World
también consideró a Windows 7 como uno de los mejores productos del año. En su evaluación de Windows 7,
Engadget declaró que Microsoft había tomado un «fuerte paso hacia adelante» con Windows 7 y reportó que la
velocidad de Windows 7 era una característica de importancia, particularmente en ventas de equipos tipo netbook.
También, los diarios estadounidenses New York Times, USA Today, The Wall Street Journal, y The Telegraph le
dieron evaluaciones favorables.
En España, la campaña publicitaria de Microsoft para Windows 7 promocionó a la localidad «Sietes» en Asturias
como sitio de lanzamiento, con lo cual se pintaron fachadas, además de donar equipos, capacitar y enseñar a los
habitantes del pueblo sobre el uso de tecnologías informáticas como Internet. En este escenario rural, se destacó la
idiosincrasia y el folclor del pueblo junto a sus habitantes con el lema de «Sietes: un pueblo de expertos en Windows
7».[12] En España, la revista PC Actual destacó a Windows 7 como «más rápido, amigable, estable y seguro; menos
exigente con el hardware».
Windows 7 133

Regulación antimonopolio
Para cumplir con las regulaciones antimonopólicas de la Unión Europea, Microsoft propuso el uso de una «pantalla
de elección» (en inglés ballot screen), permitiendo a los usuarios desactivar, descargar e instalar o seleccionar como
predeterminado a cualquier navegador web, con ello eliminando la necesidad de editar una edición de Windows sin
Internet Explorer (previamente denominada «Windows 7 E»). La pantalla de elección llegó en respuesta a críticas
sobre Windows 7 E, además de preocupaciones dadas a conocer por fabricantes y ensambladores sobre la posibilidad
de confusión de algunos usuarios si una versión de Windows 7 con Internet Explorer sería vendida junto con una que
no lo tuviese; por ello, Microsoft anunció que descartaría versiones especiales para Europa y que se distribuirían los
mismos paquetes estándares y de actualización que en otras partes del mundo.
Al igual que con versiones anteriores de Windows, se publicó una edición «N» de Windows 7 (la cual no incluye
Windows Media Player) en Europa, aunque sólo está disponible a la venta desde la tienda online de Microsoft o
mediante ofertas de socios específicos.

Campaña «Windows 7 Pecados» (Windows 7 Sins)


En agosto de 2009, la organización Free Software Foundation (Fundación para el Software Libre) lanzó una
campaña informativa denominada en inglés Windows 7 Sins (juego de palabras que en español tendría el doble
sentido de «Los 7 pecados de Windows» o «Windows 7 peca») acerca de cómo este nuevo sistema operativo de
Microsoft da un posible nuevo paso para el control sobre los derechos de los usuarios,[13] además de enviar cartas
por correspondencia con destino a 499 compañías que se encontraban en el 2009 en el listado Fortune 500
(omitiendo a Microsoft Corporation) a manera de protesta pública.[14][15]

Referencias
[1] http:/ / windows. microsoft. com/ es-ES/ windows7/ products/ windows-7
[2] http:/ / windows. microsoft. com/ es-XL/ windows7/ products/ windows-7
[3] http:/ / windowsteamblog. com/ windows/ archive/ b/ windows7/ archive/ 2009/ 07/ 22/ windows-7-has-been-released-to-manufacturing. aspx
[4] http:/ / windowsteamblog. com/ international/ b/ latam/ archive/ 2011/ 02/ 10/
microsoft-anuncia-liberaci-243-n-a-fabricante-de-windows-server-2008-r2-y-windows-7-sp1. aspx
[5] Hoy sale a la venta, Windows 7, la nueva versión del sistema operativo de Microsoft (http:/ / www. publico. es/ ciencias/ 262706/ windows/
penultima/ oportunidad/ microsoft)
[6] Windows 7 de Microsoft saldrá al mercado a fines de octubre (http:/ / lta. reuters. com/ article/ businessNews/ idLTASIE5511XV20090602)
[7] Desempeño de arranque (en inglés) (http:/ / blogs. msdn. com/ e7/ archive/ 2008/ 08/ 29/ boot-performance. aspx)
[8] Futuras mejoras del Control de Cuentas de Usuario (http:/ / blogs. msdn. com/ e7/ archive/ 2008/ 10/ 08/ user-account-control. aspx) (en
inglés)
[9] Actualización sobre el Plan de Desarrollo de Windows (http:/ / www. microsoft. com/ latam/ windows/ letter. mspx)
[10] http:/ / www. microsoft. com/ spain/ windows/ virtual-pc/ download. aspx
[11] Earnings take-away: Microsoft is still powered by Windows (http:/ / blogs. zdnet. com/ microsoft/ ?p=5079& tag=nl. e539)
[12] Sietes: un pueblo de expertos — Microsoft Windows 7 (http:/ / www. sietesunpueblodeexpertos. com/ )
[13] Windows 7 Pecados — El caso en contra de Microsoft y el software privativo (http:/ / es. windows7sins. org/ )
[14] Windows 7 Pecados — Carta (http:/ / es. windows7sins. org/ letter/ )
[15] Windows 7 Pecados — Listado de compañías (http:/ / es. windows7sins. org/ companies. html)
Windows 7 134

Enlaces externos
• Wikimedia Commons alberga contenido multimedia sobre Windows 7. Commons
• Sitio web oficial de Windows 7: Microsoft España (http://windows.microsoft.com/es-ES/windows7/products/
windows-7) — Microsoft Latinoamérica (http://windows.microsoft.com/es-XL/windows7/products/
windows-7) — Microsoft USA (http://windows.microsoft.com/en-US/windows7/products/windows-7) (en
inglés)
• Paseo por Windows 7 (http://www.vivelive.com/tour/)
• The Windows Blog (http://windowsteamblog.com/) — Blog oficial en inglés
• El blog de Windows para América Latina (http://windowsteamblog.com/international/b/latam/) — Blog
oficial en español
• Laboratorio Windows 7 (http://www.microsoft.com/latam/socios/laboratoriowindows7/) — Micrositio
interactivo sobre Windows 7
• Descarga de Windows Virtual PC y el «modo XP» (http://www.microsoft.com/spain/windows/virtual-pc/
download.aspx)

Predecesor: Sistema operativo para equipos de escritorio, parte de la familia Microsoft Sucesor:
Windows Windows Windows
Vista 22 de octubre de 2009 – Presente 8
2006 2012

Windows 8
Windows 8

Parte de la familia Microsoft Windows

Desarrollador

Microsoft
Sitio web oficial
[1] [2]
España — Latinoamérica

Información general

Modelo de desarrollo Software propietario; Shared Source

Lanzamiento inicial 26 de octubre de 2012


hace 1 año y 29 días

Última versión estable 8.1


18 de octubre de 2013
hace 1 mes y 6 días

Núcleo NT 6.2.9200.16384

Tipo de núcleo Híbrido

Plataformas soportadas IA-32, x86-64, ARM

Método de actualización Windows Update

Licencia Microsoft CLUF (EULA)

Estado actual Final

Idiomas Multilingüe

En español
Windows 8 135

Soporte técnico

Período de soporte estándar hasta el 9 de enero de 2018. Después, período de soporte extendido hasta el 10 de enero de 2023.

Artículos relacionados

• Desarrollo de Windows 8
• Ediciones de Windows 8

Windows 8 es la versión actual del sistema operativo de Microsoft Windows, producido por Microsoft para su uso
en computadoras personales, incluidas computadoras de escritorio en casa y de negocios, computadoras portátiles,
netbooks, tabletas, servidores y centros multimedia. Añade soporte para microprocesadores ARM, además de los
microprocesadores tradicionales x86 de Intel y AMD. Su interfaz de usuario ha sido modificada para hacerla más
adecuada para su uso con pantallas táctiles, además de los tradicionales ratón y teclado. Microsoft también anunció
que Aero Glass no estará presente en la versión final de Windows 8.

Historia y desarrollo

Primeros anuncios
El desarrollo de Windows 8 comenzó antes de que Windows 7 fuera lanzado en 2009. En enero de 2011, en el
Consumer Electronics Show (CES), Microsoft anunció que Windows 8 añadirá soporte para Procesadores ARM,
además de los tradicionales x86 de Intel y AMD. El 1 de junio de 2011, Microsoft desveló oficialmente la interfaz de
Windows 8 además de características nuevas en la Taipei Computex 2011 en Taipéi (Taiwán) por Mike Angiulo y en
la D9 conference en California (Estados Unidos) por Julie Larson-Green y el presidente de Microsoft Windows
Steven Sinofsky. Un mes antes de que la conferencia BUILD se llevara a cabo, Microsoft abrió un blog llamado
"Building Windows 8" para usuarios y desarrolladores el 15 de agosto de 2011.

Developer Preview
Microsoft desveló nuevas características y mejoras de Windows 8 durante el primer día de la conferencia BUILD el
13 de septiembre de 2011. Microsoft también lanzó la Windows Developer Preview (compilación 8102) de
Windows 8 el mismo día, la cual incluyó SDKs y herramientas de desarrolladores (tales como Visual Studio Express
y Expression Blend) para desarrollar aplicaciones para la nueva interfaz de Windows 8. Según Microsoft, hubo más
de 500.000 descargas de la Developer Preview durante las primeras 12 horas de lanzamiento. La Developer Preview
también introdujo la pantalla de Inicio. El botón Inicio en el escritorio abría la pantalla de Inicio en vez del menú
Inicio.
El 16 de febrero de 2012, Microsoft decidió posponer la fecha de expiración de la Developer Preview. Originalmente
fijada para expirar el 11 de marzo de 2012, ahora expirará el 15 de enero de 2013.

Consumer Preview
El 29 de febrero de 2012, Microsoft lanzó la Consumer Preview de Windows 8, la versión beta de Windows 8,
compilación 8250. Por primera vez desde Windows 95, el botón Inicio ya no está presente en la barra de tareas,
aunque la pantalla de Inicio todavía se abre al hacer clic en el rincón inferior izquierdo de la pantalla y al hacer clic
en Inicio en la denominada barra Charm. El presidente de Windows Steven Sinofsky dijo que más de 100.000
cambios se habían hecho desde el lanzamiento de la Developer Preview. El día después de su lanzamiento, la
Consumer Preview había sido descargada más de 1 millón de veces. Al igual que la Developer Preview, la Consumer
Preview expirará el 15 de enero de 2013.
Windows 8 136

Release Preview
En la conferencia Developers Day en Japón, Steven Sinofsky anunció que la Release Preview de Windows 8
(compilación 8400) sería lanzada durante la primera semana de junio. El 28 de mayo de 2012, la Release Preview de
Windows 8 (Edición x64 en chino simplificado estándar, edición no específica para China, compilación 8400) se
filtró en varios sitios chinos y de BitTorrent. El 31 de mayo de 2012, la Release Preview fue lanzada al público por
Microsoft.
Los cambios más grandes en la Release Preview fueron la adición de las aplicaciones Deportes, Viajes y Noticias,
junto a una versión integrada de Adobe Flash Player en Internet Explorer. A diferencia de las versiones preliminares
anteriores, la Release Preview expirará un día después, el 16 de enero de 2013.

Versión final
El 1 de agosto de 2012, se anunció que la versión RTM de Windows 8 (compilación 9200) ya estaba lista. Un día
después de este anuncio, una copia de la versión final de Windows 8 Enterprise N (producida para mercados
europeos) se filtró en la web y varios días después también se habían filtrado ediciones Professional y Enterprise
ambas de 32 y 64 bits. El 15 de agosto de 2012, Windows 8 comenzó a estar disponible para su descarga para
suscriptores de MSDN y TechNet. Windows 8 también se hizo disponible a clientes de Software Assurance el día
siguiente. Windows 8 estuvo disponible para descarga de estudiantes (con una suscripción de DreamSpark Premium)
el 22 de agosto de 2012, antes de lo anunciado.
Microsoft lanzó Windows 8 para su disponibilidad general el 26 de octubre de 2012.[3]
Relativamente pocos cambios fueron hechos con respecto a la Release Preview en la versión final. Un tutorial
explicando cómo usar la nueva interfaz Metro fue incluido, y el escritorio fue sutilmente cambiado para estar más en
línea con la interfaz Metro. Algunas aplicaciones incluidas también fueron cambiadas.
El presidente de Intel informó a sus empleados que Windows 8 aún no está preparado para lanzarse al público debido
a los bugs y que esto perjudicará a Microsoft.[4]

Características nuevas en el sistema


• Pantalla Inicio: El cambio más visible. Una
nueva colorida interfaz encima del escritorio
clásico. Esta pantalla es el método primario
para abrir apps sitios web e información de
redes sociales con las apps adecuadas. Los
iconos pueden ser rectangulares o cuadrados
y mostrar notificaciones; el usuario
libremente puede ordenarlos o agruparlos, en
la sección inferior de la pantalla hay un
símbolo – al pulsarlo se aleja la vista para
Pantalla Inicio añadir nombres a los grupos[5]. Pantalla Inicio
requiere para activarse una resolución
1366x768 o más.

Esta interfaz tiene el nombre clave de ModernUI, y aunque siempre inicia primero, el usuario es libre de ignorarlo y
usar el escritorio clásico si así lo desea.
Escritorio Clásico se activa pulsando en su propio icono. Estando ya activado; con la tecla logotipo de Windows se
alterna entre escritorio clásico e Inicio.
Windows 8 137

• Apps: Programas específicos de la pantalla inicio, esta ocupan toda la pantalla y no tienen una X para cerrar, ya
que no las necesitan (aunque un truco para forzar el cierre de una app, es mover el puntero del ratón [o los dedos]
al borde superior de la pantalla y deslizar hacia abajo). Para cambiar entre apps se puede pulsar ⊞ Win+Tab ↹. Las
teclas Alt+Tab ↹ también cumplen la misma función si no se está en la app de escritorio. En caso de pantallas
táctiles se toca la esquina superior izquierda de la pantalla.
Al usar una app, las otras entran en un estado de suspensión hasta que recuperen el foco.
• El explorador de archivos ahora tiene una interfaz que deja al alcance del ratón (o de los dedos en una pantalla
táctil) funciones antes escondidas.
• Windows 8 es nativamente compatible con discos Blu-ray; en contraparte, ya no dispone de soporte para lectura
de películas de vídeo y audio en formato DVD.
• Los mensajes arcaicos (incluyendo la Pantalla azul de la muerte, la comprobación de disco y las actualizaciones)
son modernizados con fuentes más suaves y diseños sencillos.
• Algunas versiones admiten la característica Windows To Go.
• Compatibilidad natural con USB 3.0.
• Los siguientes programas ya no se disponen en Windows 8: Windows DVD Maker (creación de DVD caseros),
Windows Media Center (administración de multimedia y televisión), Maletín (sistema de sincronización de
archivos; perdido aunque recuperable); Juegos (incluyendo Chess Titans, Mahjong Titans, Purble Place,
Buscaminas, Corazones y las dos versiones de Solitario).
• Fin del Menú Inicio: Este botón, creado desde Windows 95, ha sido desincluido de la barra de tareas para ser
movido a la parte derecha de la pantalla, donde coexiste con los Accesos, una lista de cinco comandos: Búsqueda,
Compartir, Dispositivos y Configuración. El sistema de listas que lo caracterizó fue rediseñado para presentar, en
primer plano, los programas instalados; y en el segundo, la lista completa de programas y comandos.
• Internet Explorer 10: Aparte de incluirse como aplicación táctil, también se dispone como aplicación de
escritorio; y ahora soporta HTML5 y CSS3, incluyendo una plataforma como Adobe Flash Player.
• Paint: Aunque la herramienta de dibujo de Windows aún existe al instalarse, se produjo una nueva aplicación de
nombre «FreshPaint», la cual amplía y moderniza el sistema de dibujo.
• Aplicaciones: Los gadgets, que existieron desde Windows Vista, son remodelados como pequeñas aplicaciones;
por lo que el escritorio queda permanentemente libre; como había sido siempre desde Windows XP. La
combinación de teclas ⊞ Win+Tab ↹ intercambia las aplicaciones abiertas en lugar de las ventanas del escritorio,
pero si se está en el escritorio las teclas Alt+Tab ↹ cambian entre programas de escritorio. Se añade una nueva
Tienda de Aplicaciones, la cual administra la instalación de las susodichas.
• Interfaz Ribbon: El sistema de menús con comandos, presentada
primero en Office 2007 y mejorada en Office 2010, es ahora parte
del Explorador de Windows. Al igual que en la suite ofimática,
aparecen nuevas pestañas con funciones características del tipo de
carpeta.
• Imágenes de disco: A partir de este sistema operativo, es factible
“montar” imágenes de disco cual unidades virtuales.
• Sincronización: Como en Microsoft Office 2013, ahora Windows 8
permite que la configuración y preferencias de usuario se mejoran
Pantalla azul de la muerte en Windows 8
con el uso de la cuenta Microsoft; lo que permite transportar la
configuración en cualquier computadora.
• Historial de Archivos: Esta función hace regularmente copias de seguridad de las librerías hacia una memoria
USB o un disco duro externo; esta característica no reemplaza imagen de sistema.
Además puede restaurar copias de seguridad de windows 7, en la sección recuperación de archivos windows 7
Windows 8 138

• Configuración de PC: Una app metro para cambiar opciones sobre Pantalla Inicio, como colores y
notificaciones.
• Pantalla de bloqueo: Ahora es una pantalla personalizable por el usuario que transmite notificaciones y protege
el equipo contra el uso no autorizado. Además de fecha y hora, sólo seis apps como máximo pueden mostrar sus
notificaciones aquí.

Herramientas remodeladas o quitadas


• El administrador de tareas ha sido rediseñado, mostrando ahora información relevante sobre el CPU, consumo de
memoria por parte de las applicaciones y actividad del disco duro.
• Con el fin de simplificar Windows, esta edición carece de un administrador de perfiles de redes inalámbricas. Los
usuarios avanzados que necesiten de esta característica deberán hacer uso de la utilidad de línea de comandos
netsh wlan.[6]
• Los Controles Parentales fueron remplazados por Microsoft Family Safety.
• Windows CardSpace fue eliminado en virtud de U-Prove.
• Windows Defender tuvo la mayor cantidad de cambios: además de desactivarse automáticamente al instalarse
otro antispyware, ahora es parte del Centro de Actividades.
• CHKDSK, que en Windows XP adoptó el diseño del sistema y en Windows 8 simplemente era de color negro, ya
no muestra el sector analizado; ahora simplemente muestra el porcentaje (como en la instalación de
actualizaciones).
• El modo Windows XP, que ejecutaba Windows XP dentro del sistema operativo sede, fue desincluido.
• Los reportes de error creados tras un percance con la pantalla azul de la muerte, ya no muestran la causa que los
provocaron.
• Para capturar la pantalla en Windows 8 en una tableta, hay que presionar el botón del logotipo de
Windows+botón para bajar el volumen.[7]
• Windows Aero: Esta característica presentada inicialmente en Windows Vista, para bordes de ventanas
traslucidas y animaciones al abrir y cerrar ventanas entre otras funciones dejó de existir, ya que era incongruente
con los lineamientos del concepto ModernUI.

Ediciones
El 16 de abril de 2012, Microsoft anunció que Windows 8 estará disponible en cuatro ediciones principales.
Windows 8 y Windows 8 Pro estará disponible para la venta a los consumidores en la mayoría de los países. Las
otras ediciones no están disponibles en el comercio minorista. El nuevo Windows RT sólo está disponible
preinstalado por los fabricantes de dispositivos basados en ARM (principalmente tabletas ofimáticas), mientras que
la edición Enterprise sólo estará disponible mediante licencias por volumen.

Requisitos del hardware


Los requisitos del sistema de Windows 8 son similares a los de Windows 7:
Windows 8 139

Requisitos de hardware mínimos recomendados para Windows 8


Arquitectura 32 bits 64 bits

Procesador 1 GHz o más rápido, compatible con PAE, NX y SSE2

Memoria RAM 1 GB de RAM 2 GB de RAM

Tarjeta gráfica Dispositivo de gráficos DirectX 9 con soporte de controladores WDDM 1.0

Disco duro 16 GB de espacio libre 20 GB de espacio libre

Pantalla capacitiva (opcional) para aprovechar la entrada táctil.

Requisitos adicionales para usar algunas características


• Para el uso táctil, requiere una tableta o un monitor que sea compatible con la función multitouch.
• Para acceder a la Tienda Windows y descargar y ejecutar aplicaciones, requiere una conexión a Internet activa y
una resolución de pantalla de al menos 1024 x 768.
• Para acoplar aplicaciones, requiere una resolución de pantalla de al menos 1366 x 768.
• Para un arranque seguro se requiere firmware compatible con UEFI v2.3.1 Errata B y con la entidad de
certificación de Microsoft Windows en la base de datos de firmas UEFI.
• Para algunas características es necesaria una cuenta Microsoft.
• Para ver DVD se requiere un software de reproducción independiente.
• BitLocker requiere el Módulo de plataforma segura (TPM) 1.2 o una unidad flash USB (solo para Windows 8
Pro).
• Client Hyper-V requiere un sistema de 64 bits con servicios de traducción de direcciones de red de segundo nivel
(SLAT) y 2 GB de RAM adicionales (solo para Windows 8 Pro).
• Se requiere un sintonizador de TV para reproducir y grabar programas de televisión en directo en Windows
Media Center (solo para Windows 8 Pro Pack y Windows 8 Media Center Pack).[8]

Ofertas de actualización
El 2 de julio de 2012, Microsoft anunció que una vez que Windows 8 se encuentre disponible (que será el 26 de
octubre de 2012), a partir de esa fecha y hasta el 31 de enero de 2013 habrá dos formas de actualización (una de US$
69 y otra de US$ 39) desde cualquier versión anterior de Windows a Windows 8 Pro. Estas dos formas se suman a la
confirmada por Microsoft a finales de mayo de 2012, en la que ofrecerá a US$ 15 la actualización a Windows 8 Pro
a todos los usuarios que compren una nueva computadora (de escritorio o portátil) con Windows 7 preinstalado en
todas sus ediciones exceptuando Starter y Enterprise.
En ninguno de los anuncios o confirmaciones de estos precios promocionales se especificó que sería a largo plazo o
precio fijo para la actualización a Windows 8 o Windows 8 Pro.
Anteriormente, Microsoft anunció que Windows Media Center, un programa para la reproducción de CD/DVD
multimedia, no será incluido en Windows 8, pero esta promoción permitirá a los usuarios instalar este programa de
manera gratuita una vez que se complete el proceso de actualización.
La actualización de Windows 7 a Windows 8 Pro será el proceso más sencillo para los usuarios, ya que los archivos,
configuraciones y programas permanecerán intactos. Para los que actualicen desde Windows Vista, solo las
configuraciones y los archivos personales se conservarán, a excepción de los programas. Si la actualización se realiza
desde Windows XP, solo se conservarán los archivos personales (configuraciones y programas serán desechados).
Los programas podrán ser reinstalados (en el supuesto caso de que el usuario tenga los programas de instalación ya
sea en un medio físico o almacenado en el equipo, y los códigos de registro o números de serie de tales programas).
Windows 8 140

Las computadoras con Windows 7 compradas entre el 2 de junio de 2012 y el 31 de enero de 2013, podrán
registrarse y descargar la actualización a Windows 8 Pro, a través del sitio web Windows Upgrade Offer [9] por el
precio de US$ 15 hasta el 28 de febrero de 2013. El requisito para acceder a esta oferta es que el equipo debe ser
nuevo y adquirido entre el 2 de junio de 2012 y el 31 de enero de 2013 y que cuente con un certificado de
autenticidad de Windows 7 OEM válido con su clave de producto y preinstalado con cualquiera de las siguientes
versiones:
• Windows 7 Home Basic
• Windows 7 Home Premium
• Windows 7 Professional
• Windows 7 Ultimate
Windows 7 Starter y Enterprise son las dos versiones que no accederán al precio de US$ 15 para la actualización a
Windows 8 Pro. La actualización debe ser realizada a través de un registro en el sitio web de Windows Update Offer
[10]
. Después del registro (el cual debe ser realizado desde la PC que califica para la oferta, ya que la misma puede
ser validada) los usuarios que se registren, recibirán un correo de confirmación. Una vez que Windows 8 haya sido
publicado, los usuarios recibirán otro correo con un código de promoción y las instrucciones para la compra y
descarga de la actualización a Windows 8 Pro. Dicho código será usado durante la compra de la actualización al
precio promocional de US$ 15.
Como manera opcional, podrá solicitarse la actualización en un DVD por un pago adicional (un precio estimado de
US$ 15 sin incluir costos de envío; no se ha mencionado si los usuarios que paguen US$ 39 por la actualización,
deberán abonar este suplemento); los que descarguen la actualización de Windows 8, tendrán la opción de crear su
propio DVD o USB de instalación de la actualización.

Garantía
Las actualizaciones de Windows 8 Pro obtenidas a los precios promocionales tendrán 90 días de soporte sin costo
por parte de Microsoft, los cuales serán contabilizados desde el momento de la instalación y activación de Windows
8.

Logo
El 19 de febrero de 2012, Microsoft oficialmente desveló el nuevo lo